Une voiture autonome futuriste en ville

question morale machineLes voitures autonomes (et ce dilemme) vont bientôt faire parti de notre quotidien.
Si tout le monde a déjà entendu parler des trois lois de la robotique, on peut se demander quel en sera leur utilisation dans le domaine des voitures autonomes. En particulier un dilemme est posé à tout un chacun : si vous aviez le choix entre sauver votre vie ou écraser deux personnes suite à une perte de contrôle de véhicule, que feriez-vous ? Et que devrait faire une machine ?

Un dilemme ancestral

Les trois lois de la robotique ont été introduites en 1942 par Isaac Asimov. Elles donnent un cadre aux robots pour assurer la survie de l’humanité. Par exemple un robot ne doit jamais blesser un humain (en aucun cas !). Dans ses romans l’auteur pose régulièrement la question de savoir si un robot devrait néanmoins pouvoir tuer un humain si cela impliquait d’en sauver d’autres, et ne trouve jamais de réponse satisfaisante.

Aujourd’hui, le site Machine Morale propose un outil très intéressant aux humains pour tester nos choix dans des situations concrètes. Deux modes sont proposés : soit vous pouvez décider du comportement d’une voiture autonome (qui doit-elle écraser), soit vous pouvez agir vous-même en tant qu’individu (qui doit écraser un tramway).

Mais des résultats étonnants !

Beaucoup de questions paraissent triviales : sauver des humains ou des animaux, sauver des enfants ou des personnes âgées, sauver une personne ou dix… En général, tout le monde sera d’accord.

Lorsque les questions deviennent plus sociales et confrontent criminels ou sans-abris, cela se complique grandement (faut-il vraiment les différencier ?) ! Notons cependant qu’une IA embarquée dans une voiture autonome n’aura pas le luxe de répondre à ce dilemme, car les informations à dispositions ne seront probablement jamais aussi précises…

Quoi qu’il en soit, Machine Morale vous donnera un détail précis de vos réponses et pourrait vous permettre d’en apprendre plus sur vous-même.

Si on compare avec les questions du mode classique où vous devenez l’acteur de la mort d’autres personnes, on constate qu’en moyenne on a tendance à l’inaction (même si cela implique davantage de morts), en particulier lorsqu’il s’agit de jeter quelqu’un d’un pont sur la route d’un véhicule pour le dévier…

Aurez-vous encore confiance en vos voitures autonomes ?

Vous avez fait le test. Vous comprenez que la voiture autonome devrait essayer de sauver un maximum de vies. Mais du coup, monteriez-vous dans une voiture qui pourrait vous tuer volontairement ?

Je pense, pour ma part, que les constructeurs vont (au moins le temps de démocratiser ce nouveau moyen de locomotion) privilégier la sécurité des passagers au détriment des personnes extérieures, car peu de gens accepteront le « risque ».

Dernière question en guise de conclusion : qui devra être tenu pour responsable si la voiture renverse quelqu’un ? Le constructeur ? Le propriétaire ? Le programmeur ? La commune ? Qui ?

PARTAGER
Article précédentLa suite d’Harry Potter par une IA, en français
Article suivantUn débat public sur l’IA avec Cédric Villani
Lambert R.
Ingénieur d'Etudes et Data Scientist depuis plusieurs années, mes travaux et mon parcours scolaire (master en mathématiques fondamentales) m'ont amené aux abords de l'intelligence artificielle. Aujourd'hui j'écris des articles en data science, deep learning, big data et intelligence artificielle pour PenseeArtificielle.fr, dans le but de promouvoir et vulgariser les promesses d'avenir qu'offrent ces domaines de pointe.

1 commentaire