Atelier Dataquitaine : Peut-on faire confiance aux systèmes de vision artificielle ?
Détails :
L’approche contemporaine de conception des fonctions de vision artificielle, telles que la classification d’images, la reconnaissance d’objets ou de personnes ou la segmentation sémantique, est l’exploitation de techniques d’apprentissage automatique, principalement d’apprentissage profond (« Deep Learning »). 🧠
Leur utilisation a révolutionné la conception algorithmique et a permis de produire des prédicteurs capables d’aborder une plus grande variété de données d’entrée, un exemple paradigmatique étant la classification d’image sur la base ImageNet, parfois annoncée comme surpassant les capacités humaines d’interprétation. Ces fonctions ont ainsi atteint un niveau de maturité permettant d’envisager leur utilisation pour des application réelles voire critiques.
La sortie des laboratoires des fonctions de vision artificielle appelle cependant un regard critique sur leur maturité. Sont-elles utilisables et avec quelles garanties ? La confiance (« trustworthiness ») de l’IA est en effet une problématique qui apparaît maintenant centrale par ses enjeux industriels ou sociétaux (cf. sa promotion par l’Union Européenne).
L’objectif de la présentation sera de donner un aperçu des activités et pistes de recherche proposées pour garantir la fiabilité de la vision artificielle, et d’identifier sa spécificité. 🔍
Intervenant :
🎤 Stéphane Herbin : Maître de Recherche, HDR chez l’Onera