Transformation invariance in pattern recognition - tangent distance and tangent propagation

Résumé : Dans les domaines de la reconnaissance de forme, de la modélisation statistique, ou de la régression, la quantité de données est le facteur crucial pour les performances. Si les données sont en quantité quasi-illimitée de même que les ressources de calcul, bien des algorithmes convergent généralement vers la solution optimale. Quand les données sont plus limitées, on doit introduire des régularisations et des connaissances a priori pour pallier ce manque et améliorer les performances. Les invariances (ou les dépendances établies) par rapport à des transformations des entrées constituent un cas fréquent de connaissances a priori de ce type. Dans ce chapitre, nous introduisons la notion de vecteurs tangents qui synthétise ces invariances par transformation, et deux classes d'algorithmes, « tangent distance » et « tangent propagation », qui utilisent ces invariances pour améliorer les performances.
Liste complète des métadonnées

https://halshs.archives-ouvertes.fr/halshs-00009505
Contributeur : Bernard Victorri <>
Soumis le : mercredi 8 mars 2006 - 13:03:11
Dernière modification le : mardi 24 avril 2018 - 17:20:08
Document(s) archivé(s) le : samedi 3 avril 2010 - 21:08:38

Identifiants

  • HAL Id : halshs-00009505, version 1

Collections

Citation

Patrice Simard, Yann Le Cun, John Denker, Bernard Victorri. Transformation invariance in pattern recognition - tangent distance and tangent propagation. Neural Networks: Tricks on the Trade, 1524, Springer-Verlag, pp.239-274, 1998, Lectures Notes in Computer Science. 〈halshs-00009505〉

Partager

Métriques

Consultations de la notice

242

Téléchargements de fichiers

845