Pourquoi la responsabilité éthique de la technologie devrait-elle s’étendre aux non-utilisateurs ?

Le mois dernier, Oscar Schwartz a écrit un article pour OneZero avec un titre familièrement provocateur : « Et si un algorithme pouvait prédire l’intelligence de votre enfant à naître ?« . L’article décrivait le travail de Genomic Prediction, une entreprise américaine qui utilise l’apprentissage automatique pour prélever les données génétiques des embryons afin d’établir le risque de problèmes de santé. Vu le titre de l’article, le résultat ne vous surprendra pas. Les futurs parents peuvent maintenant utiliser cette technologie pour étendre leur domaine à la « conception » de nouveaux enfants – et les « capacités cognitives » font partie des caractéristiques à sélectionner. (non ce n’est pas de la science fiction).

Si l’on met de côté la controverse sur la question de savoir si l’intelligence est même héréditaire, le débat éthique entourant ce type de présélection n’est pas nouveau. Le choix du sexe est une question d’actualité depuis des années. En 2001, le bioéthicien Julian Savulescu, de l’Université d’Oxford, avait déjà suscité la controverse en proposant un principe de  » Bienfaisance procréatrice  » selon lequel  » les couples (ou les célibataires) devraient choisir l’enfant, parmi les enfants qu’ils pourraient avoir, qui devrait avoir la meilleure vie, ou au moins une aussi bonne vie que les autres, en fonction des informations pertinentes et disponibles « . (Les opposants à la bienfaisance procréatrice ont souligné avec véhémence que – malheureusement – le principe de Savulescu conduirait probablement à des populations dominées par des mâles grands et pâles…).

Le sujet continue de fasciner. Beaucoup rejettent instinctivement l’idée de « jouer à Dieu » ou d’intervenir pour fixer apriori le destin d’un enfant. Mais ceux qui défendent de telles techniques sont généralement prudents en considérant la sélection génétique comme un choix plutôt qu’une obligation morale à la Savulescu. Dans l’article de Schwartz, le co-fondateur de la prédiction génomique, Stephen Hsu, est cité à cet effet :

« Si je dis à un couple qu’il est porteur d’une maladie et qu’il y a une chance sur quatre que son enfant meure d’une mort horrible, et que je le laisse choisir un embryon sain, est-ce de l’eugénisme ? Je suppose que oui. Mais si je leur donne l’option de faire un choix, et que je ne les force pas, je ne pense pas qu’il y ait un problème éthique. »

Il se passe beaucoup de choses avec cette déclaration. Mais ce qui frappe, c’est l’hypothèse intrinsèque selon laquelle il n’y a pas de controverse sur le fait d’accorder un choix. L’expansion ou la contraction des choix humains est souvent utilisée comme un baromètre qui permet de juger de la licéité éthique des nouvelles technologies. L’argument tend à aller dans le même sens : moins de choix = mauvais, plus de choix = bon. Mais ce n’est pas quelque chose que nous devrions nécessairement prendre comme une donnée, et ce que le commentaire de Hsu ne tient pas compte du fait que l’élargissement du choix peut être une mauvaise chose.

Pour commencer, lorsqu’une nouvelle option est ajoutée, nous perdons immédiatement la possibilité de ne pas choisir du tout. Ceci est particulièrement pertinent dans le genre de situation décrite par Hsu, où les parents pourraient être forcés de choisir entre un embryon sain et un embryon qui comporte le risque d’un handicap ou d’un trait considéré moins désirable – comme un score d’intelligence inférieur. Ce choix crée ici une responsabilité difficile et profondément troublante.

Il est important de noter à ce stade que le Hsu ne modifie pas génétiquement les embryons. Il ne facilite pas non plus la mort d’un enfant (d’après les estimations de la plupart des gens). Ces futurs parents choisissent quel(s) embryon(s) mettre au monde. Les autres ne verront tout simplement jamais le jour. Pourtant, si on les encourage, sur le plan de la procédure, à choisir des embryons « sains » – un choix qui pourrait sembler à beaucoup comme « sans cervelle » – alors ils pourraient être responsables d’un préjudice plus large pour la société. Après tout, des groupes entiers de personnes seraient éliminés, et ce vannage pourrait céder la place à un effondrement culturel préjudiciable. (Est-il vraiment « mieux » ou préférable de vivre dans un monde futur sans handicap physique ou mental ?)

Tout cela pour dire que nous ne pouvons pas laisser les technologues esquiver les questions de mauvaise utilisation et de préjudices en aval en indiquant l’autre option qui s’offrait à leurs clients/utilisateurs, c’est-à-dire ne pas utiliser du tout leur produit ou service. C’est une déviation qui fonctionne comme un gilet pare-balles tout en permettant aux fabricants de ne pas regarder vers l’intérieur.

Le philosophe de l’Université de Californie, le professeur Gerald Dworkin, a parlé des problèmes liés au choix dans son article « Is More Choice Better than Less« , où il remet en question les hypothèses paresseuses selon lesquelles il est toujours préférable d’avoir plus d’options. Dworkin cite le travail de philosophes comme John Rawls, qui n’hésitent pas à affirmer que tout individu rationnel préférerait voir ses choix élargis car nous ne souffrons pas « pour une plus grande liberté ». Dworkin continue en fournissant suffisamment de munitions pour le prouver à l’occasion.

D’une part, les décisions ont souvent des coûts associés à ces décisions qui ne sont pas présents lorsque nous n’avons qu’une seule option. Habituellement, pour faire un choix raisonné, nous devons rassembler toutes les informations pertinentes, ce qui représente un coût en soi. Selon M. Dworkin, plus la question est grave, plus il peut être difficile d’obtenir de l’information, ce qui entraîne des coûts plus élevés. De plus, il y a aussi des coûts psychiques à faire un choix. Nous pouvons nous remettre en question et nous demander si la bonne décision a été prise sur la base de l’information correcte.

Le choix s’accompagne aussi de la pression de se conformer, et l’ajout de nouveaux choix peut être problématique pour ceux qui ne veulent pas les exercer. Par exemple, ceux qui choisissent de ne pas avoir de bébé design ou – plus trivialement – d’acheter une Alexa ou d’optimiser la reconnaissance faciale, peuvent se retrouver désavantagés dans une société où un nombre croissant de personnes choisissent différemment. Se sentir exclu ou incommodé pourrait évidemment résulter de ce choix nouveau et non désiré.

Mais le plus important, c’est que le choix crée la responsabilité. En introduisant une nouvelle option dans le monde c’est l’utilisation ou autre qui devient maintenant la responsabilité de l’utilisateur. Comme le dit Dworkin, « Une fois que je suis conscient que j’ai un choix, mon échec à choisir compte contre moi. » Dans les scénarios futurs, nous verrons peut-être une décision d’empêcher un adolescent d’utiliser un robot de thérapie conversationnelle comme une certaine manière d’être négligent. Il en va de même pour la technologie de surveillance dans les voitures qui peuvent percevoir les émotions et la vigilance. La responsabilité peut se manifester sous la forme d’un simple sentiment, mais bien sûr, il y a aussi la possibilité d’être tenu responsable.

Dans un monde où ces nouveaux systèmes d’IA sont de plus en plus omniprésents, la non-adoption équivaut à un rejet. Il cesse d’être neutre.

Pour être clair,  Dworkin ne prétend pas que le choix technologique devrait être réduit ou que le statu quo est toujours (ou même généralement) préférable à l’élargissement du choix. Il s’agit plutôt d’une tentative de formuler l’idée que le choix n’est pas toujours préférable ou non controversé parce qu’il crée des points de pression ailleurs. Et commenter – comme Hsu l’a fait – qu’une nouvelle technologie fournit simplement une option qui peut être ignorée volontairement sous-estime les manières dont de telles technologies perturbent, ne serait-ce qu’en créant ce nouveau mode binaire.

Ainsi, lorsqu’on examine les effets éthiques en aval des nouvelles technologies, les décideurs devraient être encouragés non seulement à tenir compte de l’effet sur les utilisateurs directs et indirects, mais aussi de la façon dont la création d’une nouvelle option pourrait affecter l’environnement de choix plus largement, y compris l’impact sur ceux qui s’excluent. Ils ont une responsabilité envers ces non-utilisateurs parce qu’ils ont créé cette catégorie de la même façon qu’ils l’ont fait avec leurs utilisateurs.

Certes, toutes les technologies n’entraîneront pas le genre de dilemme que pose la sélection des embryons, mais il y en a beaucoup qui entraînent des changements subtils au statu quo qui devraient être reconnus et réfléchis. De toute évidence, la sphère d’influence d’un fabricant commence par son propre produit, de sorte que le point de départ d’une réflexion sur les responsabilités envers les non-utilisateurs commence peut-être par imaginer comment la vie changerait si leur nouvelle option technologique était la seule option – et ensuite par revenir en arrière.

La prédiction génomique pourrait-elle continuer à justifier leur produit si elle était rendue obligatoire ? Ou encore, s’ils atteignaient 70 % de saturation, quelle serait la vie pour les 30 % restants ?

Trop souvent, proclamer que les utilisateurs ont « librement choisi un produit » ou sont libres de « ne pas choisir » un produit semble être une tentative d’abdiquer la responsabilité de tout effet néfaste pour le consommateur (financier, moral, psychologique, etc). En fait, il semble que le fait de créer un nouveau choix là où il n’y avait auparavant qu’une seule option crée en fait une responsabilité plus large pour deux catégories – les utilisateurs et les non-utilisateurs.

Via YoutheData

 

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.