En 2014, des chercheurs du MIT Media Lab ont conçu une expérience appelée Moral Machine, (dont je vous ai déjà parlé ici au sujet de la difficulté de placer un code éthique de l’IA). L’idée était de créer une plateforme semblable à un jeu qui donnerait aux gens la possibilité de prendre des décisions sur la façon dont les voitures autonomes devraient donner la priorité à la vie dans les différentes variantes du « problème des trolleybus« . Ce faisant, les données générées permettraient de mieux comprendre les priorités éthiques collectives des différentes cultures.

Les chercheurs n’ont jamais prédit la réception virale de l’expérience. Quatre ans après la mise en service de la plateforme, des millions de personnes dans 233 pays et territoires ont enregistré 40 millions de décisions, ce qui en fait l’une des plus grandes études jamais réalisées sur les préférences morales mondiales.

Un nouvel article publié dans Nature présente l’analyse de ces données et révèle à quel point l’éthique interculturelle diverge selon la culture, l’économie et la situation géographique.

Le problème classique des chariots est le suivant : Vous voyez un chariot qui roule à toute vitesse sur la voie ferrée, et qui est sur le point de percuter et tuer cinq personnes. Vous avez accès à un levier qui pourrait faire basculer le chariot sur une voie différente, où une personne différente rencontrerait un décès prématuré. Devriez-vous tirer sur le levier et mettre fin à une vie pour en épargner cinq ?

The Moral Machine a pris cette idée pour tester neuf comparaisons différentes qui polarisent les gens : une voiture autonome devrait-elle donner la priorité aux humains plutôt qu’aux animaux de compagnie, aux passagers plutôt qu’aux piétons, à plus de vies plutôt qu’à moins, aux femmes plutôt qu’aux hommes, aux jeunes plutôt qu’aux personnes âgées, aux personnes en bonne santé, au statut social supérieur aux personnes moins douées et aux contrevenants à l’ordre juridique ? Enfin, la voiture doit-elle faire une embardée (agir) ou maintenir le cap (ne pas agir) ?


Un exemple de question posée aux participants de Moral Machine.
MORAL MACHINE

Plutôt que de faire des comparaisons individuelles, l’expérience a présenté aux participants diverses combinaisons, par exemple, si une voiture autonome devrait continuer tout droit pour tuer trois piétons âgés ou s’écarter et rentrer dans une barricade pour tuer trois jeunes passagers.

(comme c’est très théorique, en faisant moi-même le test, j’ai eu un score élevé concernant la réaction et les embardées, en me « rassurant » que la voiture « protégeait davantage les passagers, que je les mettais seulement en danger, pas que je les tuais)

Les chercheurs ont constaté que les préférences des pays diffèrent considérablement, mais qu’elles sont aussi étroitement liées à la culture et à l’économie.

Par exemple, les participants de cultures collectivistes comme la Chine et le Japon sont moins susceptibles d’épargner les jeunes plutôt que les personnes âgées – peut-être, selon les chercheurs, en raison de l’importance accrue accordée au respect des aînés.

De même, les participants des pays les plus pauvres dont les institutions sont plus faibles sont plus tolérants à l’égard des piétons qui traversent légalement. Et les participants des pays où les inégalités économiques sont très marquées montrent des écarts plus importants entre le traitement des personnes ayant un statut social élevé et celui des personnes ayant un statut social faible.

Et, pour résumer la question essentielle du problème des chariots, les chercheurs ont constaté que le nombre de personnes en danger n’était pas toujours le facteur dominant dans le choix du groupe qui devrait être épargné. Les résultats ont montré que les participants de cultures individualistes, comme le Royaume-Uni et les États-Unis, mettaient davantage l’accent sur le fait d’épargner plus de vies étant donné tous les autres choix – peut-être, de l’avis des auteurs, en raison de l’importance accrue accordée à la valeur de chaque individu.

Les pays très proches les uns des autres ont également montré des préférences morales plus étroites, avec trois groupes dominants à l’Ouest, à l’Est et au Sud.

Les chercheurs ont reconnu que les résultats pouvaient être faussés, étant donné que les participants à l’étude étaient auto-sélectionnés et donc plus susceptibles d’être connectés à Internet, d’avoir un statut social élevé et d’être des experts en technologie. Mais ceux qui s’intéressent à la conduite automobile seraient susceptibles d’avoir ces caractéristiques aussi.

L’étude a des implications intéressantes pour les pays qui testent actuellement des voitures autonomes, car ces préférences pourraient jouer un rôle dans la conception et la réglementation de ces véhicules. Les constructeurs automobiles peuvent constater, par exemple, que les consommateurs chinois entreraient plus facilement dans une voiture qui se protège des piétons.

Mais les auteurs de l’étude ont souligné que les résultats n’ont pas pour but de dicter comment les différents pays devraient agir. En fait, dans certains cas, les auteurs étaient d’avis que les technologues et les décideurs devraient l’emporter sur l’opinion publique collective. Edmond Awad, l’un des auteurs de l’article, a donné l’exemple de la comparaison des statuts sociaux. « Il semble inquiétant de constater que les gens ont trouvé qu’il était tout à fait acceptable de privilégier un statut supérieur à un statut inférieur, a-t-il dit. « Il est important de dire : « on pourrait quantifier ça » au lieu de dire : « on devrait peut-être utiliser ça. » Les résultats, a-t-il dit, devraient être utilisés par l’industrie et le gouvernement comme base pour comprendre comment le public réagirait à l’éthique des différentes décisions en matière de conception et de politiques.

M. Awad espère que les résultats aideront également les technologues à approfondir leur réflexion sur l’éthique de l’IA au-delà de la conduite automobile. « Nous avons utilisé le problème des chariots parce que c’est un très bon moyen de recueillir ces données, mais nous espérons que la discussion sur l’éthique ne s’inscrira pas dans ce thème « , a-t-il dit. « La discussion devrait porter sur l’analyse des risques – sur les personnes qui courent plus ou moins de risques – au lieu de dire qui va mourir ou non, et aussi sur la façon dont les biais se produisent. Il espère étudier comment ces résultats pourraient se traduire par une conception et une réglementation plus éthiques de l’IA.

« Au cours des deux ou trois dernières années, d’autres personnes ont commencé à parler de l’éthique de l’IA, a dit M. Awad. « De plus en plus de gens ont commencé à prendre conscience que l’IA pourrait avoir des conséquences éthiques différentes sur différents groupes de personnes. Le fait que nous voyons des gens s’engager là-dedans, je pense que c’est quelque chose de prometteur. »

Publicités

1 commentaire »

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.