En partenariat avec
.
Alors que les aspects technologiques sont notamment étudiés au sein de l’Insa, de l’Irit ou de l’Enseeiht, le chercheur toulousain Jean-François Bonnefon se penche depuis plusieurs années sur l’aspect moral de l’Intelligence artificielle. Explications.
À Toulouse, les premiers véhicules autonomes sont déjà à l’œuvre sur le site de l’Oncopole. Cependant, on est encore loin de voir des voitures sans chauffeur circuler sur les routes. L’une des questions à résoudre est celle des choix que devra faire la machine dans différentes situations. En effet, au volant, nous prenons à chaque instant des décisions qui permettent d’éviter des accidents. Très souvent par réflexe. Mais sur quelles bases un véhicule autonome va-t-il décider ? C’est sur ces questions que travaille Jean-François Bonnefon, docteur en psychologie cognitive, professeur à TSE et directeur de recherche au CNRS.
Dans un premier temps, il a réfléchi à la question de l’éthique de ces véhicules. « Dans le cas extrême où le véhicule ne peut pas éviter l’accident, il sera amené à choisir ses victimes », explique-t-il. De ces ré- flexions est née la plateforme Moral Machine, en juin 2016. À partir de divers scénarios, le grand public devait donner son avis. « Nous avons pu dégager des tendances qui ont confirmé la plus grande importance de la vie des enfants. Trois blocs de pays proposent par ailleurs des décisions différentes : l’Est, l’Ouest et le Sud », nous expliquait-il début 2018, alors qu’il avait déjà récolté quarante millions de réponses de près de 200 pays. « En gros, l’idée était de déterminer qui la voiture devait sauver ou pas. » Fin 2018, Jean-François Bonnefon publie un article sur cette question dans la revue Nature et a depuis écrit La voiture qui en savait trop, livre sorti cette année aux États-Unis.
Le point de blocage
Désigné en 2019 président du groupe d’experts de la Commission européenne de l’éthique sur la mobilité sans conducteur, qui a rendu ses travaux il y a près d’un an et demi, le chercheur toulousain avait présenté ses résultats. « Mais cette question est un énorme point de blocage. C’est très difficile de réguler cela. Nous avons donc fait un pas en arrière, en essayant de réglementer la chaîne d’événements qui amène à cette situation. L’idée est de travailler sur la distribution des risques. » En clair, dans des situations quotidiennes, certains choix entraînent des différences statistiques en matière de sécurité routière. Par exemple, si je double un cycliste alors qu’un camion est sur la voie opposée, de combien sont diminués les risques d’accident pour le cycliste à chaque centimètre de marge laissé ? Comme la Commission européenne souhaitait que les usagers soient associés à ces réflexions, Jean-François Bonnefon a mis au point une nouvelle plate- forme avec l’équipe déjà impliquée sur Moral Machine.
Il y a deux aspects. Un aspect pédagogique, avec des situations de trafic, pour laisser les gens positionner la voiture et voir en temps réel l’évolution du risque d’accident pour chacun. Et un deuxième aspect, construit sur les statistiques routières de différents pays, afin de leur demander les objectifs que l’on pourrait se fixer en matière de redistribution des victimes de la route », détaille celui qui est aussi à la tête de la chaire Moral AI de l’Institut interdisciplinaire d’intelligence artificielle de Toulouse (Aniti). La plateforme devrait être opérationnelle dans l’année.
Paul Périé
Sur la photo : Image d’illustration de la voture du futur. Crédit : D.R