Publicités

Les 6 dangers réels de l’IA auxquels faire attention en 2019

Les 6 dangers réels de l’IA auxquels faire attention en 2019

L’année dernière, une série de controverses a révélé un côté plus sombre (et plus bête) de l’intelligence artificielle rapporte TechReview.

Autrefois, il était à la mode de s’inquiéter de la perspective que des machines super-intelligentes prennent le contrôle du monde. L’année dernière a montré que l’IA peut causer toutes sortes de dangers bien avant que cela ne se produise.

Les dernières méthodes d’IA excellent dans les tâches de perception telles que la classification des images et la transcription de la parole, mais le battage médiatique et l’enthousiasme suscité par ces compétences ont caché à quel point nous sommes loin de construire des machines aussi intelligentes que nous le sommes. 6 controverses à partir de 2018 se distinguent comme des avertissements que même les algorithmes d’IA les plus intelligents peuvent mal se comporter, ou que leur application négligente peut avoir de graves conséquences.

1.VOITURES QUI S’AUTO-CRASHENT

Après un accident mortel impliquant l’une des voitures autonome d’Uber en mars, les enquêteurs ont découvert que la technologie de l’entreprise avait connu une défaillance catastrophique, d’une manière qui aurait facilement pu être évitée.

Les constructeurs automobiles comme Ford et General Motors, les nouveaux venus comme Uber et une horde de startups se pressent pour commercialiser une technologie qui, malgré son immaturité, a déjà vu des milliards de dollars d’investissement. Waymo, filiale d’Alphabet, est celle qui a le plus progressé ; elle a déployé l’an dernier le premier service de taxi entièrement autonome en Arizona. Mais même la technologie de Waymo est limitée, et les voitures autonomes ne peuvent pas rouler partout dans toutes les conditions.

Ce qu’il faut surveiller en 2019 : Jusqu’à présent, les organismes de réglementation aux États-Unis et ailleurs ont adopté une approche non interventionniste par crainte d’étouffer l’innovation. La National Highway Traffic Safety Administration des États-Unis a même signalé que les règles de sécurité existantes pourraient être assouplies. Mais les piétons et les conducteurs humains ne se sont pas engagés à être des cobayes. Un autre accident grave en 2019 pourrait modifier l’attitude des régulateurs.

2.ROBOTS DE MANIPULATION POLITIQUE

En mars, on a appris que Cambridge Analytica, une société de conseil politique, avait exploité les pratiques de partage de données de Facebook pour influencer l’élection présidentielle américaine de 2016. Le tumulte qui en a résulté a montré comment les algorithmes qui décident des nouvelles et des informations à diffuser sur les médias sociaux peuvent être utilisés pour amplifier la désinformation, miner un débat sain et isoler des citoyens ayant des opinions différentes les uns des autres.

Lors d’une audition au Congrès, Mark Zuckerberg, PDG de Facebook, a promis que l’intelligence artificielle elle-même pourrait être formée pour repérer et bloquer les contenus malveillants, même si elle est encore loin de pouvoir comprendre la signification du texte, des images ou de la vidéo.

A surveiller en 2019 : la promesse de Zuckerberg sera mise à l’épreuve lors des élections qui se tiendront dans deux des plus grands pays d’Afrique : Afrique du Sud et Nigeria. La longue période précédant les élections américaines de 2020 a également commencé et pourrait inspirer de nouveaux types de technologies de désinformation alimentées par l’intelligence artificielle, y compris des bavardages malveillants.

3.ALGORITHMES POUR LA PAIX

L’année dernière, un mouvement pour la paix de l’IA a pris forme lorsque des employés de Google ont appris que leur employeur fournissait de la technologie à l’US Air Force pour la classification de l‘imagerie de drone. Les ouvriers craignaient qu’il ne s’agisse d’une étape décisive vers la fourniture d’une technologie permettant d’automatiser les frappes mortelles de drones. En réponse, l’entreprise a abandonné Project Maven, comme on l’appelait, et a créé un code d’éthique en matière d’IA.

Des universitaires et des poids lourds de l’industrie ont soutenu une campagne visant à interdire l’utilisation d’armes autonomes. L’utilisation militaire de l’intelligence artificielle ne fait cependant que gagner du terrain, et d’autres entreprises, comme Microsoft et Amazon, n’ont montré aucune réticence à apporter leur aide.

A surveiller en 2019 : Bien que les dépenses du Pentagone pour les projets d’IA augmentent, les militants espèrent qu’un traité préventif interdisant les armes autonomes émergera d’une série de réunions de l’ONU prévues pour cette année.

4. AFFRONTEMENT DE SURVEILLANCE

La capacité surhumaine de l’IA à identifier les visages a conduit les pays à déployer la technologie de surveillance à un rythme remarquable. La reconnaissance faciale vous permet également de déverrouiller votre téléphone et de marquer automatiquement les photos pour vous sur les médias sociaux.

Les groupes de défense des libertés civiles mettent en garde contre un avenir dystopique. La technologie est un moyen formidable d’envahir la vie privée des gens, et les biais dans les données de formation sont susceptibles d’automatiser la discrimination.

Dans de nombreux pays, notamment en Chine, la reconnaissance faciale est largement utilisée pour la police et la surveillance gouvernementale. Amazon vend la technologie à l’immigration américaine et aux organismes d’application de la loi.

A surveiller en 2019 : la reconnaissance faciale s’étendra aux véhicules et aux webcams, et servira à suivre vos émotions ainsi que votre identité. Mais il se peut aussi que nous en voyions une réglementation préliminaire cette année.

5. FAIRE SEMBLANT JUSQU’AU BOUT

Une prolifération de vidéos « deepfake » l’année dernière a montré à quel point il devient facile de faire de faux clips en utilisant l’IA. Cela signifie du faux porno de célébrités, des tas de mashups de films bizarres et, potentiellement, des campagnes de diffamation politique virulentes.

Les réseaux accusatoires génératifs (GAN), qui impliquent deux réseaux de neurones en duel, peuvent évoquer des images et des vidéos extraordinairement réalistes, mais complètement inventées. Nvidia a récemment montré comment les GANs peuvent générer des visages photoréalistes de n’importe quelle ethnie, sexe et âge que vous voulez.

A surveiller en 2019 : Au fur et à mesure que les deepfakes s’amélioreront, les gens commenceront probablement à se faire avoir cette année. Le DARPA testera de nouvelles méthodes de détection des deepfakes. Mais comme cela dépend aussi de l’IA, ce sera un jeu du chat et de la souris.

6. DISCRIMINATION ALGORITHMIQUE

Le biais a été découvert dans de nombreux outils commerciaux l’an dernier. Les algorithmes de vision formés sur des ensembles de données déséquilibrées ne reconnaissaient pas les femmes ou les personnes de couleur ; il a été prouvé que les programmes d’embauche fondés sur des données historiques perpétuaient la discrimination qui existe déjà.

Le manque de diversité dans le domaine de l’IA lui-même est lié à la question des préjugés – et c’est plus difficile à régler. Les femmes occupent tout au plus 30 % des emplois dans l’industrie et moins de 25 % des postes d’enseignement dans les universités de premier plan. Il y a relativement peu de chercheurs noirs et latinos également.

À quoi s’attendre en 2019 : Nous verrons des méthodes de détection et d’atténuation des biais et des algorithmes qui peuvent produire des résultats non biaisés à partir de données biaisées. La Conférence internationale sur l’apprentissage machine, une importante conférence sur l’IA, se tiendra en Éthiopie en 2020 parce que les scientifiques africains qui font des recherches sur les problèmes de biais pourraient avoir du mal à obtenir des visas pour voyager dans d’autres régions. D’autres événements pourraient également se déplacer.

Techreview

Publicités

1 comment

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

%d blogueurs aiment cette page :