Amsterdam et Helsinki lancent des registres d’algorithmes pour apporter de la transparence aux déploiements publics de l’IA

Amsterdam et Helsinki ont lancé aujourd’hui des registres AI pour détailler la manière dont chaque administration municipale utilise des algorithmes pour fournir des services, certaines des premières grandes villes du monde à le faire. Un registre AI pour chaque ville a été introduit en version bêta aujourd’hui dans le cadre du Sommet sur la politique Internet de prochaine génération (Next Generation Internet Policy Summit), organisé en partie par la Commission européenne et la ville d’Amsterdam. Le registre d’Amsterdam comporte actuellement une poignée d’algorithmes, mais il sera étendu à tous les algorithmes après la collecte des réactions lors de la conférence virtuelle afin de définir une vision européenne de l’avenir de l’internet, selon un responsable de la ville.

Chaque algorithme cité dans le registre énumère les ensembles de données utilisés pour former un modèle, une description de l’utilisation d’un algorithme, de la manière dont les humains utilisent la prédiction et de la manière dont les algorithmes ont été évalués pour les biais ou les risques potentiels. Le registre fournit également aux citoyens un moyen de donner leur avis sur les algorithmes utilisés par leur administration locale, ainsi que le nom, le service municipal et les coordonnées de la personne responsable du déploiement d’un algorithme particulier. Un registre algorithmique complet peut responsabiliser les citoyens et leur donner un moyen d’évaluer, d’examiner ou de remettre en question les applications gouvernementales de l’IA.

Lors d’un développement précédent aux États-Unis, la ville de New York a créé en 2017 un groupe de travail sur les systèmes de décision automatisés pour documenter et évaluer l’utilisation des algorithmes par la ville. À l’époque, c’était la première ville des États-Unis à le faire. Cependant, suite à la publication d’un rapport l’année dernière, les commissaires de la task force se sont plaints d’un manque de transparence et de l’impossibilité d’accéder aux informations sur les algorithmes utilisés par les agences gouvernementales de la ville.

L’indice de préparation des gouvernements à l’AI 2020 récemment publié classe les Pays-Bas et la Finlande parmi les nations les plus préparées au monde à adopter les applications de l’AI. Un rapport du McKinsey Global Institute AI Readiness Index a obtenu des résultats similaires. Dans de nombreuses régions du monde, les responsables gouvernementaux se joignent aux chefs d’entreprise pour augmenter le nombre de cas d’utilisation de l’IA pour automatiser des tâches ou prendre des décisions, mais cela comporte certains risques. De mauvaises performances ou un biais algorithmique peuvent entraîner une perte de confiance entre les gouvernements et les citoyens, a mis en garde une étude conjointe Stanford-NYU analysant la manière dont le gouvernement américain déploie les systèmes d’IA.

Quelques exemples récents : Un tribunal néerlandais a ordonné aux fonctionnaires du gouvernement de cesser d’utiliser l’algorithme SyRI en raison de la discrimination dont sont victimes les immigrants et les personnes vivant dans des ménages à faibles revenus. Comme ce fut le cas pour la reconnaissance faciale au Royaume-Uni au début de l’année, un juge a estimé que l’utilisation de l’algorithme constituait une violation des droits de l’homme. Il y a également eu des protestations « Fuck the algorithm » en Grande-Bretagne cet été suite à un scandale de notation algorithmique qui a généré de meilleures notes pour les enfants des écoles privées et de moins bonnes notes pour les enfants des ménages à faible revenu.

Dans une déclaration accompagnant l’annonce, Pasi Rautio, directeur du projet Helsinki City Data, a déclaré que le registre vise également à accroître la confiance du public dans les types d’intelligence artificielle « avec la plus grande ouverture possible ».

(…)

Lire la suite sur VB

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.