Google et Microsoft ne devraient pas décider de la manière dont la technologie est réglementée

Un chercheur qui étudie les principes de l’IA avertit que donner trop de crédit à la Big Tech, c’est comme « demander au renard des conseils sur les procédures de sécurité du poulailler ».

En ce qui concerne l’IA, la Big Tech veut participer à l’élaboration de la réglementation. Dans un article du 20 janvier dernier pour le Financial Times appelant à la réglementation de cette technologie, Sundar Pichai, PDG de Google, a fait valoir que les principes de l’intelligence artificielle de son entreprise pourraient servir de modèle pour les futures lois. Brad Smith de Microsoft a dit la même chose lors d’un discours au Forum économique mondial plus tôt cette semaine.

Google et Microsoft ont raison de dire qu’il est temps que le gouvernement intervienne et fournisse des garanties, et que la réglementation devrait s’appuyer sur les réflexions importantes qui ont déjà été faites. Cependant, ne considérer que les perspectives des grandes entreprises technologiques, qui se sont déjà imposées comme des acteurs dominants, revient à demander au renard des conseils sur les procédures de sécurité dans les poulaillers. Nous devons adopter une vision plus large.

Les progrès rapides de la technologie d’apprentissage machine, qui relève du domaine général de l’IA, ont rendu urgentes les questions sur la façon de construire et d’utiliser les systèmes d’IA de manière responsable, sûre et éthique. Les algorithmes de la justice pénale sont racistes, des véhicules autonomes ont été impliqués dans des accidents mortels et la modération du contenu algorithmique a contribué à une vague d’efforts de désinformation. La tâche consistant à s’assurer que l’IA soutient réellement les droits de l’homme et le bien-être a parfois été ressentie comme écrasante, les questions étant sans réponse.

Cela n’a pas empêché beaucoup de gens d’essayer d’y répondre. Outre Google et Microsoft, les gouvernements nationaux et les organisations intergouvernementales, les organisations de défense des droits, les groupes d’experts et bien d’autres encore ont adopté des principes d’éthique en matière d’IA.

Au cours de l’année dernière, j’ai travaillé avec une équipe de chercheurs pour analyser les principes de l’IA dans le monde entier, en essayant de voir ce qu’ils pourraient avoir en commun. Nous avons codé chaque principe dans les 36 documents sur lesquels nous avons fini par nous concentrer et avons découvert huit thèmes clés :

  • L’équité et la non-discrimination : Les systèmes d’IA ne devraient pas renforcer les inégalités sociales, mais plutôt promouvoir l’inclusion.
  • Responsabilité : Les développeurs doivent prévoir l’impact de leur technologie. Des mécanismes de suivi et d’audit doivent être mis en place, et les individus et populations concernés doivent avoir accès à des solutions adéquates.
  • Respect de la vie privée : L’IA doit respecter la vie privée, à la fois dans l’obtention des données utilisées pour le développement et dans l’attribution aux personnes d’un pouvoir sur le moment et la manière dont leurs informations personnelles sont utilisées pour prendre des décisions les concernant.
  • Transparence et possibilité d’explication : Nous devons savoir où les systèmes d’IA sont utilisés et comment ils prennent les décisions qu’ils prennent.
  • Sûreté et sécurité : Les systèmes d’IA doivent être testés pour s’assurer qu’ils fonctionnent comme prévu et qu’ils résistent aux interférences de parties non autorisées.
  • Responsabilité professionnelle : Les personnes impliquées dans le développement et le déploiement des systèmes d’IA ont l’obligation de privilégier l’intégrité, la collaboration, le professionnalisme et la prévoyance.
  • Contrôle humain de la technologie : Pour promouvoir la confiance et respecter l’autonomie, l’IA doit faire l’objet de contrôles humains, allant de l’examen des décisions importantes aux mécanismes de sécurité qui interviennent en cas de circonstances atténuantes.
  • Promotion des valeurs humaines : Nous devons être guidés par nos valeurs fondamentales et le bien-être de l’humanité tout entière lorsque nous concevons et déployons des systèmes d’IA.

La cohérence de ces divers documents de principes – provenant de différentes régions et de différents groupes d’intérêt – laisse supposer que des normes sociales pour l’IA sont en train d’émerger.

La loi et la réglementation trouvent leur origine dans les normes sociales, ce qui fait que Microsoft et Google ont raison d’affirmer que ces thèmes quasi-universels parmi les principes de l’IA sont un bon point de départ pour la réglementation. Cependant, comme nous noté dans ce document, il existe un fossé important et épineux entre la capacité à formuler des objectifs pour l’IA tels que l’équité, la transparence et la sécurité, et la rédaction de règles qui régiraient les milliers de décisions, petites et grandes, qui aboutissent à la construction et à l’utilisation responsable d’une technologie donnée.

Une façon de combler ce fossé est de reconnaître les visions très divergentes que les différentes organisations avancent sur ces thèmes. Par exemple, chaque document que nous avons examiné comportait une version d’un principe d’équité ou de non-discrimination. Mais ils appellent des mises en œuvre différentes. Certains s’attachent, par exemple, à interdire l’utilisation d’ensembles de données biaisées – même si les arguments selon lesquels il n’existe pas de données véritablement impartiales sont assez convaincants. D’autres demandent une plus grande diversité au sein des équipes de développement afin de garantir qu’un plus grand nombre de points de vue soient intégrés aux technologies dès le départ. D’autres encore souhaitent que l’IA soit utilisée pour découvrir et remédier aux cas de discrimination existants. Les régulateurs devraient analyser ces options avec soin et décider lesquelles sont appropriées.

En somme, si les progrès de la technologie de l’IA nous ont amenés en territoire inconnu, une analyse des principes de l’IA pourrait être la carte dont nous avons besoin pour donner un sens à tout cela. Mais cela n’est vrai que si nous regardons en dehors des visions des entreprises technologiques américaines pour trouver les réglementations qui les serviraient le mieux. Les principes d’un plus grand nombre de parties prenantes donnent une visibilité à tout, des plus grands risques que l’IA fait courir aux populations vulnérables et marginalisées aux valeurs humaines clés, telles que l’autodétermination, l’égalité et la durabilité, que nous devrions chercher à protéger.

Les principes de l’IA sont une carte qui devrait être mise sur la table lorsque les régulateurs du monde entier définiront leurs prochaines étapes. Cependant, même une carte parfaite ne fait pas le voyage à votre place. À un moment donné – et bientôt – les décideurs politiques devront définir les mises en œuvre concrètes qui garantiront que la puissance de la technologie de l’IA renforce le meilleur, et non le pire, de l’humanité.

Via Fasctcompany

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.