Si vous ne les construisez pas, elles ne se manifesteront pas

Ana Brandusescu explique comment l’IA responsable et l’éthique en IA ne vont pas assez loin, la question ne peut pas seulement être comment construire quelque chose de manière responsable, mais si elle doit être construite en premier lieu. Il doit y avoir des sanctions plus sévères, des répercussions, y compris sur les personnes derrière ces produits qui vont en prison, et des consultations beaucoup plus larges avec divers spécialistes dans d’autres domaines. (L’article contient de nombreuses références à des recherches et à des articles.)

Murgia et Yang (2019) rapportent que des entreprises de technologie américaines comme Microsoft collaborent à la recherche sur la technologie de reconnaissance faciale avec l’Université nationale chinoise de technologie de défense, sous la direction de la Commission militaire centrale chinoise. […]

L’IA responsable doit inclure des règlements et des sanctions qui sont appliqués afin que les systèmes d’IA et les humains impliqués dans leur conception, leur construction et leur mise en œuvre soient tenus responsables – et soient responsables des conséquences, bonnes et mauvaises. […]

Les structures de pouvoir (et je ne veux pas dire les réseaux électriques) en IA et leur impact sur la conception et le développement des produits nécessitent des interrogations par des personnes extérieures. Cela signifie presque tout le monde qui n’est pas de l’industrie technologique. Par exemple, les régulateurs, les travailleurs sociaux, les ethnographes, les organisations de base, les militants locaux travaillant sur des projets numériques et non numériques, pour n’en citer que quelques-uns. L’action collective comprend également le déballage de la dynamique du pouvoir dans les interactions des utilisateurs.

Via Mcgill

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.