AUTOMOBILE – Depuis quelques années, la Silicon Valley nous promet une révolution sur nos routes avec les voitures autonomes, bien plus sures et moins sujettes aux erreurs que nos pauvres cerveaux humains.
AUTOMOBILE – Depuis quelques années, la Silicon Valley nous promet une révolution sur nos routes avec les voitures autonomes, bien plus sures et moins sujettes aux erreurs que nos pauvres cerveaux humains.
Pensez donc: la Google car n’a été responsable que d’un tout petit accident après plus de 2 millions de kilomètres parcourus. Elon Musk affirme que son auto-pilote a réduit les accidents de 50%. La première étude américaine du genre a elle aussi affirmé que les voitures autonomes étaient plus sures que celles conduites par des êtres humains.
Et ce n’est que le début. Les algorithmes qui conduiront dans quelques années nos véhicules seront tellement rapides qu’ils pourront réagir bien plus vite que n’importe qui. Et c’est là que les ennuis commencent et que se pose une question effrayante. Si plusieurs personnes surgissent sur la route et que la seule solution pour les éviter est de se jeter contre un mur, tuant ainsi le conducteur, la voiture devra-t-elle faire ce choix?
Une équipe de chercheurs franco-américaine publie justement une étude à ce sujet, jeudi 23 juin dans la revue Science. Ils ont interrogé près de 2000 personnes et leur ont demandé leur point de vue sur cette question morale. Ils ne s’attendaient pas vraiment à ces résultats, qui vont poser un vrai dilemme à notre société dans les années à venir.
Le sens du sacrifice
Jean-François Bonnefon, directeur de recherche au CNRS et ses deux collègues Azim Shariff et Iyad Rahwan, ont donc mis les sondés devant plusieurs scénarios. Par exemple, une voiture autonome doit choisir entre tuer plusieurs piétons ou le conducteur, tuer un piéton ou le conducteur ou encore choisir de faire une embardée pour sauver des piétons, mais en tuer un dans le mouvement.
Des questions qui font clairement penser au dilemme du tramway. Dans cette expérience de psychologie, un tramway s’engage sur une voie à travers un canyon où se trouve un groupe de cinq personnes. Le tramway n’a pas le temps de freiner. Mais vous avez la possibilité d’actionner un bouton pour changer l’aiguillage et envoyer le véhicule sur une voie similaire où une seule personne se trouve. Ce dilemme philosophique (plus d’informations ici) est censé positionner les gens entre éthiques utilitariste (la fin justifie les moyens) et déontologique (ce choix est immoral par principe).
Si environ neuf personnes sur dix choisissent de sacrifier une personne pour en sauver cinq, elles sont bien moins nombreuses (38%) quand le seul moyen d’arrêter le tramway est de pousser un homme obèse sur la voie. Et quand c’est à une voiture de faire ce choix? Selon les chercheurs, la majorité des sondés pensent que l’algorithme doit être conçu dans une logique utilitariste et doit donc sacrifier son conducteur pour sauver plusieurs personnes (plus elles sont nombreuses, plus les sondés sont d’accord).
Mourir pour des idées, d’accord, mais de mort lente
Tant d’altruisme, c’est beau. Enfin, tant que le conducteur, c’est l’autre. Car quand les chercheurs ont demandé aux sondés s’ils achèteraient une voiture autonome programmée pour sacrifier le passager afin de sauver le plus grand nombre, les réponses étaient en grande majorité négatives.
Bref, d’accord pour que les voitures autonomes soient le plus sures possibles, quitte à devoir, dans des cas extrêmes, sacrifier le conducteur, mais ne comptez pas sur moi pour l’acheter. « C’est la signature classique d’un dilemme social dans lequel chacun a la tentation de la facilité plutôt que d’adopter un comportement positif pour le bien commun », notent les chercheurs.
Il faut reconnaître que « c’est une idée terrifiante, de posséder un objet programmé pour nous tuer. Il n’y a pas de précédent », explique au HuffPost l’auteur de l’étude Jean-François Bonnefon, professeur à l’école d’économie de Toulouse. Par contre, les économistes connaissent bien ce genre de dilemme. C’est un peu comme pour les impôts: tout le monde trouve ça bien pour le pays, mais beaucoup essayent de ne pas en payer.
Dilemme d’État
La solution semble donc toute simple. Comme pour les impôts, c’est à l’État d’imposer une régulation aux constructeurs pour le bien commun. Sauf que les personnes interrogées sont plutôt opposées à ce que l’État oblige les voitures autonomes à sacrifier leur conducteur. Bien sûr, un gouvernement pourrait choisir une mesure, certes impopulaire, mais nécessaire.
Mais quand bien même, « une législation pourrait être contre-productive, car si les gens n’achètent pas de véhicules autonomes et continuent à conduire leurs vieilles voitures, il y aura plus de morts », note Jean-François Bonnefon. Dans ce cas-là, faut-il donc imposer une loi pour gérer des cas qui seront extrêmement rares? « Si on ne le fait pas, il y aura un trou dans le code de l’algorithme, et que fera alors la voiture si cela arrive? », interroge Jean-François Bonnefon. Et l’autre solution, qui consiste à laisser les constructeurs choisir, n’est pas très reluisante non plus. On imagine déjà les publicités « notre voiture vous protège même à un contre dix! ».
Surtout, les choix à trancher seront beaucoup plus compliqués et ne seront jamais aussi binaires que le dilemme du tramway. « Faut-il compter pour deux une femme enceinte? », demande le chercheur. De même, la voiture aura-t-elle à prendre en compte le risque de mourir pour chaque personne et à pondérer ainsi son jugement?
Suite à cette étude, les auteurs ont mis en ligne un site qui permet justement aux internautes de se positionner sur des dilemmes encore plus tordus, voire même d’en inventer de nouveaux.
Faut-il mieux sauver des enfants que des personnes âgées, etc. Des questions qui donnent la chair de poule. Mais auxquelles nous n’auront peut-être pas à donner de réponse définitive. Comme le notait le site Vox en s’interrogeant sur cette effrayante question la semaine passée, les décisions morales doivent théoriquement être prises avec sagesse, clairvoyance et maîtrise de soi.
Or, l’intelligence artificielle devrait bien s’en sortir sur ces trois domaines. Comme cette technologie fonctionne grâce au deep learning, ce principe qui permet à une machine d’apprendre par l’exemple, il est possible que nous n’ayons pas à lui donner des instructions claires sur toutes les situations possibles. Mais plutôt une consigne générale, comme « tu ne dois pas blesser une personne », à laquelle l’algorithme tentera de répondre au mieux grâce à ses millions de données analysées en temps réel, ses dizaines de capteurs et ses réflexes surhumains.
Ainsi, les véhicules autonomes pourraient peut-être empêcher le dilemme du tramway de se produire, en conduisant mieux à la source, espère Vox. Mais quand on sait qu’aux Etats-Unis, plus de 3200 milliards de kilomètres sont parcourus chaque année, difficile de se dire que l’impossible ne se produira pas. Il faudra alors espérer que la manière dont l’algorithme interprétera la consigne qui lui a été donnée nous conviendra.
Une idée qui fait furieusement penser aux trois lois de la robotique, imaginées par l’écrivain de science-fiction Isaac Asimov et censées encadrer les robots avec des devoirs moraux symbolisés par trois lois (se protéger, obéir aux humains et, surtout, les protéger). Au fil des années, l’écrivain interrogea ces lois, les poussant dans leurs limites et imaginant finalement une loi zéro affirmant que la protection de l’humanité prévalait sur la protection de l’individu. Un choix clairement utilitariste et dont les conséquences furent notamment la destruction de la Terre, seule solution pour que l’espèce humaine survive en s’étendant dans l’espace. Espérons que nos machines ne se retrouveront pas face à cet extrême dilemme du tramway avant des siècles.
Lire aussi :
Source : Les voitures autonomes devraient sacrifier leur conducteur pour sauver des passants, mais…
Avis Pimpf : autant sur le choix d’un humain on pourrait le critiquer car il perd le contrôle du véhicule , mais demain quand ce sera piloté par un automate et des programmes ce sera la faute de qui ? du constructeur ? du logiciel ? Encore un grand dilemme.
La robotique pose beaucoup plus de questions que l’on veut bien nous faire croire. Ce sont de vraies questions comme dans cet exemple de la voiture autonome que Google veut nous vendre à tout prix. La question principale, pour moi, est la notion de libre arbitre.
Un jour, et je le souhaite grandement, les robots penseront par eux-même mais quel sera alors leur logique ? Auront-ils une pensée proche des humains ou se laisseront-ils guider par une entité, des dogmes… ? Ils auront les mêmes problématiques que nous.
C’est un peu complexe ce dont je parle, je ne suis pas sûre d’être clair même dans ma tête 🙂
Je suis sûre d’une chose : les robots font partie de notre avenir et sont déjà bien présents. Récemment j’ai vu un documentaire sur LCP concernant les robots autonomes sur les lieux de combats. Ce n’est pas le futur, c’est maintenant. Je pensais (naïvement ?) que nous n’étions encore qu’aux essais mais non, ils sont déjà bel et bien opérationnels. Je conseille vivement de regarder ce documentaire qui repassera très certainement sur cette même chaîne.
J’aimeAimé par 2 personnes
ce que tu abordes est depuis longtemps abordé dans les romans de science fiction dont en partie Isaac Asimov qui a abordé ainsi la progression des robots ans notre société, tout dépend le degré d’autonomie que l’on veut lui donner, à force de ne plus vouloir rien faire et de trop laisser les automates tout faire on risque de perdre le contrôle. Comme beaucoup il faut pouvoir exploiter ce qui peut nous aider mais en garder le contrôle … les voitures pourront surement nous aider à conduire mais de la à tout lacher je ne sais pas… merci de ton commentaire 🙂
J’aimeAimé par 1 personne
Oui Asimov a tout écrit et surtout nous a mis en garde !
Je pense que le contrôle n’est pas une solution et de toute façon cela nous échappera un jour ou l’autre… C’est un vrai débat de société que l’on met trop de côté.
J’aimeAimé par 1 personne
je ne sais pas si je dois me montrer aussi pessimiste avec l’avancée de la robotique et des automates de nos jours, Wall E le film de Disney est un bon exemple aussi, on peut essayer d’éviter que tout ne se produise au plus mal sans vouloir absolument s’eloigner de ce genre de technologies, mais l’avenir seul le dira 🙂 Merci de ton commentaire .
J’aimeAimé par 1 personne
et le jour ou des terroristes piraterons le système informatique ça va être un joli carnage…
J’aimeAimé par 1 personne
ça c’est clair que le piratage des systèmes ça peut faire peur
J’aimeAimé par 1 personne