Microsoft élimine les capacités de détection des émotions de sa technologie de reconnaissance faciale

Hicham EL ALAOUI
Rédigé par Hicham EL ALAOUI
Portrait d'une jeune et belle femme et système de reconnaissance du visage

Lorsque Microsoft a déclaré cette semaine qu’elle allait supprimer certaines technologies de reconnaissance faciale liées aux émotions, la responsable de ses projets d’intelligence artificielle a averti que la science des émotions était loin d’être résolue.

Natasha Crampton, responsable en chef de l’intelligence artificielle chez Microsoft, a écrit dans un billet de blog : « Des experts internes et externes à l’entreprise ont souligné l’absence de consensus scientifique sur la définition des « émotions », les défis liés à la généralisation des déductions entre les cas d’utilisation, les régions et les données démographiques, ainsi que les préoccupations accrues en matière de protection de la vie privée entourant ce type de capacité. »

L’action de Microsoft, qui s’inscrivait dans le cadre d’une annonce plus large concernant sa campagne « Responsible AI Standard », est devenue le cas le plus médiatisé d’une entreprise abandonnant l’IA de reconnaissance des émotions, une technologie très modeste qui a fait l’objet de critiques universitaires importantes.

Afin d’évaluer automatiquement l’état émotionnel d’une personne, la technologie de détection des émotions examine souvent une variété de caractéristiques, notamment les expressions faciales, le ton de la voix et le choix des mots.

De nombreuses entreprises technologiques ont créé des logiciels destinés aux entreprises, à l’enseignement et au service clientèle, qui prétendent être capables de lire, de reconnaître ou de quantifier les émotions.

L’une de ces technologies est censée fournir une analyse en temps réel des émotions des appelants afin que le personnel des centres d’appels puisse adapter sa conduite en conséquence. Les émotions des élèves pendant les discussions vidéo en classe sont surveillées par un deuxième service afin que les enseignants puissent évaluer leurs performances, leur intérêt et leur participation.

Cette technique a suscité le scepticisme pour de nombreuses raisons, dont l’efficacité douteuse. Sandra Wachter, professeur associé et chercheur principal à l’université d’Oxford, a déclaré que l’IA émotionnelle « n’a, au mieux, aucune base scientifique et, au pire, est une pseudoscience complète ». Elle a qualifié sa mise en œuvre dans le secteur privé de « très inquiétante ».

Comme M. Crampton, elle a souligné que l’imprécision de l’IA des émotions est loin d’être son seul défaut.

« Même si nous trouvions des preuves que l’IA est capable de prédire avec précision les émotions, cela ne justifierait pas son déploiement », a-t-elle déclaré. Nos pensées et nos sentiments les plus intimes sont protégés par des droits de l’homme tels que le droit à la vie privée.

On ne sait pas exactement combien de grandes entreprises technologiques utilisent des technologies de lecture des émotions. En mai, plus de vingt-cinq organisations de défense des droits de l’homme ont publié une lettre demandant à Eric Yuan, PDG de Zoom, de ne pas déployer la technologie d’IA des émotions.

La lettre a été envoyée après qu’un rapport du site d’information technologique Protocol ait suggéré que Zoom pourrait adopter cette technologie en raison de ses récentes recherches dans ce domaine. Zoom n’a pas fourni de commentaire en réponse à une demande.

En plus de contester les fondements scientifiques de l’IA émotionnelle, les organisations de défense des droits de l’homme ont fait valoir que l’IA émotionnelle est trompeuse et discriminatoire.

La professeure adjointe de systèmes d’information à la Robert H. Smith School of Business de l’université du Maryland, Lauren Rhue, a découvert qu’à travers deux logiciels de reconnaissance faciale (dont celui de Microsoft), l’IA émotionnelle interprétait systématiquement les sujets noirs comme ayant des émotions plus négatives que les sujets blancs. Une IA interprétait les individus noirs comme plus en colère que les blancs, tandis que l’IA de Microsoft interprétait les sujets noirs comme plus méprisants.

Les modifications de la politique de Microsoft visent principalement Azure, sa plateforme en nuage pour la vente de logiciels et d’autres services aux entreprises et aux organisations. L’annonce en 2016 de l’IA d’Azure pour l’identification des émotions indiquait qu’elle pouvait détecter « le bonheur, la tristesse, la peur, la colère, et plus encore. »

Microsoft s’est également engagé à réévaluer l’IA de détection des émotions sur l’ensemble de ses systèmes afin d’établir les dangers et les avantages de cette technologie dans divers domaines. Microsoft prévoit de continuer à utiliser l’IA de détection des émotions dans Seeing AI, qui aide les personnes malvoyantes en décrivant verbalement leur environnement.

Andrew McStay, professeur de vie numérique et directeur de l’Emotional AI Lab de l’université de Bangor, a déclaré dans une déclaration écrite qu’il aurait préféré que Microsoft cesse tout développement de l’IA émotionnelle. Parce que l’IA émotionnelle est reconnue comme étant inefficace, il ne voit pas la nécessité de continuer à l’utiliser dans les produits.

« Je suis assez curieux de savoir si Microsoft va éliminer tous les types d’émotions et de détection psychophysiologique de l’ensemble de ses activités », a-t-il écrit. Ce serait une victoire facile.

La promesse de parvenir à l’équité dans la technologie de la parole au texte est une autre modification des nouvelles normes. Selon une étude, le taux d’erreur des utilisateurs noirs est environ le double de celui des utilisateurs blancs. Microsoft a également interdit l’utilisation de sa voix neuronale personnalisée, qui permet une imitation quasi exacte de la voix d’un utilisateur, par crainte qu’elle ne soit utilisée comme outil de tromperie.

M. Crampton a fait remarquer que ces modifications étaient essentielles en partie en raison de l’absence de contrôle gouvernemental sur les systèmes d’IA.

« L’intelligence artificielle prend une place de plus en plus importante dans nos vies, mais nos lois sont à la traîne », a-t-elle fait remarquer. « Elles n’ont pas encore rattrapé les dangers particuliers de l’IA ni les exigences de la société. Si certains signes indiquent que l’action gouvernementale en matière d’IA se développe, nous reconnaissons qu’il est également de notre responsabilité d’agir. Nous estimons qu’il est nécessaire de veiller à ce que les systèmes d’IA soient conçus de manière responsable. »

Laisser un commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Quitter la version mobile