Faut-il sacrifier les piétons ou les passagers ? C’est le dilemme que l’intelligence artificielle des voitures sans conducteurs doit résoudre.
Pour éviter un piéton, voir même un animal au milieu de la route, un conducteur est souvent prêt à mettre sa vie en danger pour l’éviter. Mais qu’en est-il lorsque le conducteur en question est l’intelligence artificielle d’une voiture sans conducteur ? En d’autres termes, qui va être sacrifié par le robot aux commandes du véhicule ?
Pour répondre à ce dilemme, une équipe de chercheurs du CNRS, du MIT et de l’Université d’Oregon s’est penchée sur cette question en s’intéressant à la psychologie des conducteurs afin de déterminer les comportements qu’il conviendrait de faire appliquer par la machine. Les résultats de cette étude viennent d’être publiés dans la revue Science.
Un humanisme certain, mais avec de grosses nuances
Au travers des 2 000 personnes interrogées aux États-Unis au cours de six enquêtes, il s’avère qu’il existe un humanisme certain chez les conducteurs. Ils adhèrent en effet parfaitement à l’idée de sacrifier leur vie pour en sauver plusieurs autres, et cela même si les enfants du conducteur sont à bord du véhicule. Ils sont 75 % à estimer que les voitures autonomes devraient en faire de même, c’est-à-dire sacrifier ses passagers pour la survie du plus grand nombre.
En réalité, cet humanisme est nettement plus nuancé que cela. À la question « Achèteriez-vous un véhicule qui choisirait de vous sacrifier pour sauver un groupe ? », les personnes interrogées préfèrent clairement posséder une voiture qui les protège. En clair, ils préfèrent que les voitures autonomes qui pourraient sacrifier ses passagers pour la survie du plus grand nombre soient achetées par les autres…
Une opposition à l’idée de sauver le plus grand nombre
Pour essayer de trancher la question, les chercheurs ont imaginé que l’intelligence artificielle pourrait adopter la logique de sauver le plus grand nombre de vies. À cette idée, les sondés se sont montrés fermement opposés en affirmant qu’ils seraient peu enclins à acquérir une voiture autonome qui appliquerait une telle logique décisionnelle.
Définir la logique décisionnelle de l’intelligence artificielle des voitures autonomes s’avère donc une question particulièrement problématique. Pour poursuivre leur étude, les chercheurs ont mis en place un portail Internet baptisé « Moral Machine ». Par ce biais, les internautes sont invités à s’interroger sur le fait qu’une voiture autonome doive freiner ou pas pour sauver des piétons, dévier de sa course pour ne pas écraser des chiens qui traversent, sacrifier plutôt un homme, une femme, les vieillards, une famille, etc. « L’objectif est d’identifier et étudier les situations pour lesquelles les personnes rencontrent le plus de difficultés à prendre une décision », commente le CNRS.
Ca me parait en continuité avec ce qui se pratique déjà à propos du port d’arme en France par exemple. Il faut simplement penser en terme de statistique avant de penser a sa propre défense, avant de penser en terme d’individu. C’est à dire qu’un suicide électronique ce n’est rien en comparaison des autres vies sauvées. Pas de bol si c’est vous dans la voiture qui se suicide, mais combien de gens ne mourront pas a votre place, c’est ça le principal. Il faut vivre l’unité, vivre les statistiques avant de penser à soi même. C’est comme la guerre, quand votre pays vous appelle sous les drapeaux, vous devez aussi cesser de penser à vous pour vous abandonner aux statistiques. Vous mort, peut être mais combien de vie sauvées aussi? Bon c’est un peu mon coté troll, mais c’est tout à fait ça. Ca dépend de quel coté vous regardez les statistiques. Depuis un bureau a Matignon, ou depuis la voiture qui à votre place. Comme les armes, depuis Matignon ou depuis la place du type qui se fait poignarder sans pouvoir se défendre. Etc. Moi étant d’un individualisme évident, je vote pour pouvoir me défendre, pour pouvoir conduire ma voiture et pour ne pas faire la guerre aussi. J’aime pas les statistiques, c’est trop déshumanisant.