L’espace moral gris des décisions en matière d’IA

L’intelligence artificielle dans diverses applications – des robots sexuels aux machines de guerre – suscite des préoccupations tout aussi diverses : biais algorithmique, transparence, responsabilité, vie privée, impact psychologique, confiance et autres. Bien sûr, toutes ces questions ne se posent pas nécessairement dans toutes les formes d’IA ; par exemple, peu de gens, s’il y en a, se soucient de la vie privée avec les robots militaires. Mais une question éthique fondamentale qui s’applique à l’ensemble de la catégorie des technologies est la capacité générale de prendre des décisions. C’est la question centrale à examiner ici.

Bien qu’il n’y ait pas de consensus sur la façon de définir « intelligence artificielle » ou même « intelligence », voici une définition de travail : L’intelligence artificielle est un système informatique conçu pour automatiser les décisions, avec l’apparence de l’intelligence. Un robot est donc une IA incarnée qui traduit ces décisions en tâches physiques. Étant donné qu’une fonction essentielle de l’intelligence artificielle est d’automatiser les décisions, il est juste de se demander si l’intelligence artificielle remplit cette fonction « correctement ».

La question est plus difficile qu’il n’y paraît lorsqu’on reconnaît qu’il existe trois types de décisions en matière d’IA.

  • Premièrement, il y a les  » bonnes  » décisions, c’est-à-dire les décisions non controversées qui sont prises comme prévu ou attendu (en mettant de côté la question de savoir si elles sont objectivement justes ; le fait est que personne n’a vraiment de problème avec elles).
  • Deuxièmement, il y a de mauvaises décisions, par exemple lorsqu’un résultat indésirable est causé par une mauvaise conception (p. ex. erreurs de programmation)[1], ou par un comportement émergent (p. ex. des  » accidents soudains  » qui surviennent de façon inattendue en raison de la complexité même du système ou des programmes en interaction)[2], ou en  » jouant  » à un système IA avec des exemples contradictoires (c’est-à-dire des entrées qui lui font faire une erreur volontairement)[3].
  • Mais, troisièmement, il y a aussi des décisions qui n’ont manifestement ni raison ni tort, car elles s’inscrivent dans l’espace obscur mais non négligeable de l’exercice du jugement.

Ces appels au jugement, cristallisés sous forme de code, sont ceux qui exigent une considération éthique sérieuse, d’autant plus qu’ils peuvent soulever des défis en matière de risque et de responsabilité. S’il n’est pas pris en compte avec toute la prudence requise, cet espace moralement gris pourrait à la fois faire dérailler le progrès technologique et nuire à des choses importantes, comme le fait de refuser un emploi à une personne qui ne correspond pas au profil de ce qu’un programmeur ou un système considère comme un bon candidat.

Étude de cas 1 : Voitures Autonomes

Regardons les voitures autopropulsées comme une étude de cas qui permet de tirer des leçons pour d’autres types d’IA[4], d’autant plus qu’elles sont sur le point d’être les premières robotiques intégrées à l’échelle de la société, donnant le ton aux autres systèmes autonomes qui suivent. En cas d’urgence de conduite inattendue, une mauvaise décision d’un conducteur humain – disons, s’écarter d’une autre voiture – pourrait être pardonnée comme un réflexe de panique sans préméditation ni malice. Mais la même action d’une voiture qui se conduit elle-même, aussi raisonnable soit-elle, serait scénarisée ou autrement prédéterminée, même si l’action a été apprise (p. ex. au moyen de réseaux neuronaux). Quoi qu’il en soit, la décision relative à l’IA ressemble moins à un accident innocent qu’à une blessure préméditée, et l’éthique et le droit les traitent très différemment, le deuxième étant beaucoup plus sévère.

Certes, les dilemmes des accidents déclenchent une réaction allergique chez certaines personnes qui se plaignent d’être trop fausses. Ceci est peut-être mieux représenté par le fameux problème des trolleybus, un dilemme qui imagine un choix sans issue entre le changement de voie d’un train roulant à toute allure qui tuerait une personne au lieu des cinq autres qui se trouvent sur son chemin, ou l’inaction et la mort des cinq personnes[5]. Bien que cette critique populaire passe vraiment à côté du sujet[6], nous pouvons aussi trouver des décisions automatisées dans des scénarios quotidiens, si vous voulez plus de réalisme.

Prenons l’exemple d’une situation courante où une voiture autonome roule dans la voie du milieu d’une autoroute[7]. Si elle est flanquée d’un grand camion d’un côté et d’une petite voiture de l’autre, où la voiture robot devrait-elle être placée dans sa propre voie ? Il n’y a pas de bonne réponse évidente ici. Il serait raisonnable de demander à la voiture de rester exactement au milieu de sa voie, s’il n’y a pas d’urgence réelle ; ou de donner un espace plus large au camion, même si cela signifie se rapprocher d’une voiture plus petite ; ou même de prendre la décision inverse et de donner plus de place au plus petit objet, qui est le plus vulnérable dans le scénario. (Cette dernière décision peut être rendue plus claire en imaginant que le plus petit objet était un motocycliste, un cycliste ou un piéton.)

Toutes les réponses ci-dessus sont défendables, mais les jugements sur le risque sont souvent des hypothèses non énoncées et ne sont pas défendus de façon proactive. Si nous ne pouvons pas voir comment les maths morales sont calculées, alors il n’est pas clair que les développeurs d’intelligence artificielle ont fait preuve de diligence raisonnable et ont pris le soin nécessaire dans la conception de leurs produits. Accorder un traitement préférentiel à une catégorie d’objets, comme l’élargissement de l’espace pour les camions, transfère une partie du risque à d’autres usagers de la route sans leur consentement ou même sans qu’ils le sachent[8]. Ce choix de conception et d’autres, aussi raisonnables soient-ils, peuvent avoir des implications juridiques à la surprise de l’industrie.

Même si cela peut sembler ordinaire, le tracé de la voie est en fait une décision critique pour la sécurité qui peut partager le même genre de compromis que ceux que l’on trouve dans des scénarios d’accident plus dramatiques. Toute décision de programmation qui implique un compromis – comme frapper l’objet x au lieu de y, ou augmenter la distance entre x et y – exige un jugement sur la sagesse du compromis, c’est-à-dire sur les poids relatifs de x et y. Les décisions d’IA sont généralement opaques pour la plupart d’entre nous déjà, mais les décisions critiques pour la sécurité, notamment les calculs risques-avantages, exigent une attention particulière et une transparence.

Étude de cas 2 : Applications de routage du trafic

En tant que technologie d’IA largement déployée aujourd’hui et encore une fois avec pertinence pour d’autres formes d’IA, regardons l’application de navigation de trafic Waze pour faire ressortir l’éthique cachée dans des scénarios plus quotidiens. Souvent, il y a plus d’une façon raisonnable de se rendre à une destination : une route peut être la plus courte, mais implique un trafic plus dense, ou une autre peut être plus longue, mais plus rapide, ou la route la plus longue peut être plus panoramique, et ainsi de suite. Celles-ci ne semblent peut-être pas poser de problème éthique, jusqu’à ce que nous nous rendions compte que le choix d’une route comporte des risques. Par exemple, la route la plus rapide peut être statistiquement plus dangereuse si elle comporte plus d’intersections, de virages à gauche, de piétons et d’autres facteurs de risque.

Les applications telles que Waze choisiront généralement par défaut l’itinéraire le plus rapide, même si c’est statistiquement plus difficile[9]. Cela crée une responsabilité possible pour avoir fait ce choix dangereux à l’insu ou sans le consentement de l’utilisateur, surtout si la décision entraîne un accident. Mais il y a aussi la responsabilité d’ignorer les données sur les risques qui sont facilement accessibles, comme les statistiques d’assurance et les statistiques gouvernementales sur les endroits où se produisent le plus d’accidents dans une certaine ville. Waze donne aussi lieu à des plaintes sur le comportement du « flocage » : des groupes de voitures sont envoyés par algorithmes dans des quartiers calmes non conçus pour la circulation dense[10]. Cela pourrait accroître les risques pour les enfants qui jouent dans ces rues, diminuer la valeur des propriétés en raison du bruit de la route et créer d’autres effets externes ou des dommages involontaires.

Mais supposons que Waze veuille tenir compte de ces données sur les risques : Devrait-il éviter les quartiers pauvres s’il y a un risque statistique d’augmentation de la criminalité ou d’accidents ? Toute réponse sera controversée. Même si les données sur la criminalité identifient ces zones comme des risques évidents, il pourrait tout de même être discriminatoire d’acheminer le trafic autour d’elles. Par exemple, en ce qui concerne le racisme structurel, la surpolice dans les communautés minoritaires peut générer plus de rapports et de données sur les incidents, ce qui fait que leur situation semble pire qu’elle ne l’est réellement[11]. Le routage autour de ces quartiers pourrait également nuire aux commerçants locaux qui seraient alors moins visibles pour les clients potentiels, ce qui aggraverait encore la dépression économique qui a déjà tendance à exister dans ces régions.

D’autre part, si certaines données sur les quartiers sont exclues de la prise de décision dans un souci d’égalité – comme le revenu médian – alors la responsabilité est créée s’il y a une corrélation entre le risque et ces données. Là encore, le dilemme éthique de base qui consiste à faire un choix au détriment d’autre chose ressemble au difficile compromis qu’exigent le problème du trolleybus et d’autres « faux » dilemmes d’accident. En effet, étant donné leurs effets à grande échelle, ces scénarios de tous les jours donnent à penser que les concepteurs de technologies élaborent involontairement des politiques publiques – une activité sérieuse qui exige clairement tous vos esprits.

Pertinence par rapport aux autres systèmes d’IA

Les études de cas proposées ci-dessus sont polyvalentes ; leurs leçons générales peuvent être appliquées à d’autres domaines de l’IA. Tout d’abord, il y a un lien naturel avec les drones terrestres et aériens, qui doivent aussi naviguer dans les espaces sociaux[12]. Cela signifie qu’il faut prendre des décisions liées aux interactions humaines, dont certaines sont de nature critique pour la sécurité. Les robots sociaux, comme les  » robots collecteurs de soins « , peuvent aussi avoir à prendre des décisions – des décisions qui ne sont ni bonnes ni mauvaises de toute évidence – qui mettent en balance l’autonomie du patient et son bien-être ou les ordres du médecin (par exemple, s’il refuse de prendre ses médicaments)[13].

Dans la prise de décision en matière d’intelligence artificielle, nous devons être conscients des hypothèses, des préjugés et des considérations contextuelles qui sont invisibles et qui font la force de nos technologies. Sans cela, nous ne pouvons espérer comprendre les risques et, par conséquent, prendre des décisions éclairées. Dans le même temps, les concepteurs de technologies doivent faire preuve de prudence et de transparence dans cet espace moralisateur : les implications en matière de responsabilité et de confiance ne peuvent être contenues que pendant un certain temps sous le couvert de la propriété intellectuelle et des secrets commerciaux avant de sauter. À mesure que l’intelligence artificielle prend de plus en plus d’importance dans nos emplois, elle assume aussi de nouvelles responsabilités et de nouvelles tâches, peut-être plus que ce que les concepteurs de technologies apprécient aujourd’hui. Penser ouvertement à l’éthique aujourd’hui est essentiel à leur survie – ainsi qu’à la nôtre.

Références

1. Patrick Lin, « Here’s How Tesla Solves a Self-Driving Crash Dilemma », Forbes, 5 avril 2017, http://www.forbes.com/sites/patricklin/2017/04/05/heres-how-tesla-solves-a-self-driving-crash-dilemma/.

2. Drew Harwell, « A Down Day on the Markets ? Analysts Say Blame the Machines « , The Washington Post, 6 février 2018, https://www.washingtonpost.com/news/the-switch/wp/2018/02/06/algorithms-just-made-a-couple-crazy-trading-days-that-much-crazier/.

3. OpenAI, « Attacking Machine Learning with Adversarial Examples », OpenAI blog, 24 février 2017, https://blog.openai.com/adversarial-example-research/.

4. Patrick Lin, « The Ethical Dilemma of Self-Driving Cars », TED-Ed, 8 décembre 2015, .

5. Lauren Davis, « Voudriez-vous appuyer sur l’interrupteur du chariot ? C’est important ? » L’Atlantique, 9 octobre 2015, https://www.theatlantic.com/technology/archive/2015/10/trolley-problem-history-psychology-morality-driverless-cars/409732/

6. Patrick Lin, « Robot Cars and Fake Ethical Dilemmas », Forbes, 3 avril 2017, https://www.forbes.com/sites/patricklin/2017/04/03/robot-cars-and-fake-ethical-dilemmas/.

7. Noah Goodall, « Away from Trolley Problems and Toward Risk Management », Applied Artificial Intelligence 30, no 8 (2016) : 810-821, https://www.tandfonline.com/doi/full/10.1080/08839514.2016.1229922.

8. Patrick Lin, « The Robot Car of Tomorrow Might Just Be Programmed to Hit You », Wired, 6 mai 2014, http://www.wired.com/2014/05/the-robot-car-of-tomorrow-might-just-be-programmed-to-hit-you/.

9. Linda Poon, « Waze Puts Safety Over Speed by Minimizing Left Turns in LA », CityLab, 20 juin 2016, https://www.citylab.com/life/2016/06/waze-puts-safety-over-speed-by-minimizing-left-turns-in-la/487577/.

10. John Battelle, « The Waze Effect : AI and the Public Commons « , Newco Shift, 3 février 2016, https://shift.newco.co/the-waze-effect-ai-the-public-commons-d3926fce108e.

11. David Kennedy, « Black Communities : Overpoliced for Petty Crimes, Ignored for Major Ones « , Los Angeles Times, 10 avril 2015, http://www.latimes.com/opinion/bookclub/la-reading-los-angeles-kennedy-ghettoside-20150404-story.html.

12. Sibil Nicholson, « Latest Amazon Patent Includes Gesture-Recognizing Drones », Interesting Engineering, 25 mars 2018, https://interestingengineering.com/latest-amazon-patent-includes-gesture-recognizing-drones.

13. Michael Anderson et Susan Anderson, « Machine Ethics : Creating an Ethical Intelligent Agent « , AI Magazine 1, no 28 (2007) : 15-26, https://www.aaai.org/ojs/index.php/aimagazine/article/view/2065.

 

Par PATRICK LIN (Professeur de philosophie et directeur, Ethics + Emerging Sciences Group, California Polytechnic State University, San Luis Obispo) via AiShorensteincenter.

1 commentaire sur “L’espace moral gris des décisions en matière d’IA”

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.