2018

Elon, oubliez les robots meurtriers. Voici de quoi vous devriez vraiment vous inquiéter

Paniquer au sujet de robots tueurs est stupide, surtout lorsque vous avez beaucoup plus de problèmes immédiats, écrit la chroniqueuse Caroline Sinders.

Cher Elon,

Nous ne nous sommes jamais rencontrés, mais je suis convaincue de vous dire ceci: ça va aller, je le promets. Posez le café, et le whisky.

Les robots tueurs ne viennent pas pour nous, malgré vos avertissements le mois dernier (et, plus récemment, votre demande d’interdiction directe). La singularité ne se produira jamais, et les personnes devraient être préoccupées par le fait que les changements climatiques ne sont pas les plus grands et les plus sévères comparés à ce qui nous attend, et non pas par l’AI. Moi, Robot était une farce d’un livre et d’un mauvais film, et ce ne sera jamais notre avenir.

Mais.

Il y a plein de choses réelles au sujet desquelles s’inquiéter quand il s’agit de l’apprentissage par machine et l’intelligence artificielle. Et vous devriez vous en inquiéter. Vous devriez vraiment.

Vous devriez vous inquiéter (et lire) le rapport AI Now à partir de 2016. Vous devriez vous soucier des thèmes qu’ils mettent en évidence: ce qui arrive au travail, aux soins de santé, à l’égalité et à l’éthique lorsque l’intelligence artificielle s’intègre dans notre vie quotidienne. Vous devriez vous soucier de ce qui est dit sur le futur: le monde entier n’est pas DC ou acteur de la Silicon Valley, alors comment concevons-nous pour tous, tout le monde?

Vous devriez réfléchir à la façon dont l’apprentissage automatique change notre façon de travailler et le genre de travail que nous faisons. Vous devriez vous soucier de l’impact de l’intelligence artificielle sur les pertes d’emplois et la création d’emplois. Vous devriez vous soucier de la formation et de l’éducation pour de nouveaux emplois, et quel genre d’avantages ou de redistribution des revenus devrait résulter lorsque les systèmes d’AI déplacent les emplois. Vous devriez penser à l’automatisation, non seulement d’un point de vue robotique mais infrastructure. Comment l’industrie de l’expédition et du transport sera-t-elle affectée par l’apprentissage par machine? Alerte Spoiler: elles le sont déjà, et il y a beaucoup d’emplois qui seront perdus à cause de l’automatisation. Voici aussi une bonne lecture à ce sujet. En fait, vous devriez regarder ces vidéos à partir du symposium de AI Now 2017. Voici quelques personnels favoris.

Mais si vous ne pouvez regarder qu’un seul, regardez celui-ci .

 

[Source Image: Kevork Djansezian / Getty Images]

Vous devriez vous soucier de tous les articles que ProPublica publie sur le biais de la machine, en particulier celui-ci sur la façon dont les logiciels de police prédictifs accusent radicalement les personnes noires sur les personnes blanches. Vous devriez vous soucier de cet autre article de ProPublica qui rapporte comment certains fournisseurs d’assurance facturent aux gens de couleur plus pour la couverture. Il n’est pas clair pourquoi cela se produit mais selon ProPublica, la théorie de S est qu’il existe des algorithmes prédateurs qui favorisent les quartiers à prédominance des blancs par rapport aux autres. Vous devriez vous soucier de cet ensemble de données et de la négligence derrière elle. Vous devriez vous soucier des défauts évidents qui existent dans les logiciels que nous utilisons déjà de la reconnaissance faciale à l’analyse des sentiments et des émotions à ces deux exemples spécifiques que je viens de souligner. Ce ne sont pas des cas autonomes: il s’agit de systèmes implémentés à grande échelle.

Vous devriez vous inquiéter d’où proviennent les données pour former ces algorithmes. Vous devriez être en colère lorsque certaines de ces données sont prises sans consentement, comme en témoigne un récent  article de The Verge  sur les images de trans utilisées sans leur consentement dans un projet de recherche sur l’IA et la reconnaissance faciale.

Vous ne devriez pas vous inquiéter, vous devriez être indigné de la faillite éthique.

J’ai l’impression de donner des leçons, et je le fais. Je vous présente sans équivoque. Vous méritez d’être remis en question en ce moment. Vous êtes une personne en position de pouvoir qui pourrait effectuer des changements réels, et au lieu de cela, vous créez plus de bruit et de peur à propos d’une chose qui ne se produira jamais. N’incitez pas à la panique à moins qu’il soit nécessaire de paniquer. Paniquer pour des robots meurtriers est stupide quand vous avez de meilleures choses pour lesquelles paniquer.

Elon, en particulier, vous devriez vous soucier de cet article émis par le MIT Technology Review sur le plus grand obstacle aux voitures autonomes : les défauts de sécurité et ces défauts susceptibles d’être cibles de pirates informatiques. Vous devriez vous inquiéter du fait qu’une de vos voitures a eu du mal à différencier les endroits ensoleillé sur la route et que quelqu’un est mort pour cela. Vous devriez vous inquiéter de la façon dont les voitures sans conducteur seront mises en œuvre sur les routes avec les conducteurs dans les voitures.

[Source Image: Mlenny / Getty Images]

Je n’essaie pas d’être alarmiste ici, mais réaliste. Nous tous, consommateurs, créateurs et technologues, nous nous inquiétons. La série ProPublica publiée sur le biais de la machine n’est pas seulement sur les influences problématiques dans l’apprentissage par machine. Elle souligne également à quel point l’apprentissage par machine faillible est, et combien les utilisateurs lui font confiance et croient que les résultats sont véridiques sans l’interroger. Dans ses rapports, ProPublica a constaté que le marquage de «plus susceptibles de recommettre un crime» créé dans le cadre d’algorithmes de police prédictive a été utilisé comme renforcement pour des phrases plus sévères. Les juges ont spécifiquement examiné cette note comme support, car elle a été considérée comme une «preuve algorithmique» à partir d’une nouvelle forme d’outils technologiques aidant le système judiciaire. C’est l’une des plus grandes choses dont nous devrions nous inquiéter.Que se passe-t-il lorsqu’un utilisateur est bloqué dans une série de systèmes automatisés sans issue? Que se passe-t-il lorsqu’un chat est bloqué dans un endroit ou certaines données sont fausses et qu’il n’y a pas de personne pour que les utilisateurs rentrent dans l’information ou la remplacent? Les machines font des erreurs. Donc, cela pose la question: dans quelle mesure ces systèmes sont-ils conçus pour gérer les erreurs?

Les gens sont bons dans la navigation dans des situations nébuleuses – nous avons ce genre d’intelligence d’investigation latérale. Avez-vous déjà assisté à un événement ou être aller dans un lieu de location de voiture ou à un rendez-vous médical et avoir perdu votre réservation? Une personne peut vous balader à travers elle. Une partie de ce qui rend le service à la clientèle génial, en particulier dans une bureaucratie profonde c’est être capable de parler et de résoudre des problèmes difficiles. Les systèmes d’IA ne sont pas aussi bons, ils pensent avec leurs pieds. Aucun concepteur ou ingénieur ne veut construire un système frustrant pour les utilisateurs, mais un système conçu pour accomplir une tâche spécifique, quelle que soit sa formation, sera inflexible avec les cas particuliers.

Elon, vous devriez vous soucier de la vision par ordinateur qui ne reconnait pas la peau noire. Vous devriez vous soucier des produits défectueux qui sont «en couleur aveugle», les algorithmes ne voient pas la couleur de la peau, de sorte que les distributeurs de savon et les robinets automatiques ne fonctionneront pas sur les tons de peau noire. Vous devriez vous soucier des caméras qui suggèrent aux utilisateurs asiatiques qu’ils ont «cligné» parce que les jeux de données ont été formés sur des yeux principalement de type blanc. Nous sommes revenus à l’époque ou les tirages photos noir et blanc étaient adaptés aux peaux blanches…

Ce même problème a conduit à un site Web de passeport rejetant l’image d’un homme asiatique pour le renouvellement du passeport. Vous devriez vous inquiéter parce que dans ces scénarios, les utilisateurs ne peuvent pas intervenir et résoudre le problème, car le problème est autonome, le problème est dans le code, le problème est dans la conception. Vous devriez vous soucier des produits qui aliènent les utilisateurs et ne fonctionnent pas pour tous les utilisateurs. Vous êtes un homme d’affaires. J’imagine que cela vous concernera.

Les robots ne vont jamais « penser » comme des humains. Il y a tant de choses réelles au sujet desquelles s’inquiéter dans le présent, pourquoi vous concentrez-vous sur l’avenir de la science-fiction super-pas-très-proche-voir qui-ne-se-produira-jamais?

Il existe une ligne entre la construction d’algorithmes pour analyser des modèles semblables à la façon dont les cerveaux humains analysent les modèles et la pensée des machines et en déduisant la façon dont les gens le font. L’un concerne spécifiquement l’analyse et le dernier, celui dont vous vous inquiétez, concerne la façon dont la pensée originale se manifeste. Vous ne devriez pas vous soucier de faire voler des voitures ou des machines trop intelligentes. Je trouve que ces choses sont trop cool et amusantes pour s’en inquiéter. Mais elles ne sont pas réelles, et ne le seront jamais. Vous ne devriez pas vous soucier que les machines deviennent humanistes plus que vous ne devriez vous inquiéter si nous vivrons vraiment dans Matrix. Vous devriez vous inquiéter de la façon dont les systèmes blessent les gens – les personnes de tous les jours, les personnes qui utilisent tous les produits dans lesquels vous investissez et les produits que vous faites. Vous devriez vous inquiéter, mais à propos de la façon dont les gens sont touchés par les systèmes que nous construisons, et vous devriez vous inquiéter – toujours vous inquiéter – de la façon dont vos produits affecteront vos utilisateurs.

D’accord?

Restez calme,

Caroline

Caroline Sinders est une conceptrice d’interaction, une chercheuse et un chroniqueuse pour Fast Company / Co.Design couvrant l’intersection du design et de l’apprentissage par machine. Suivez-la sur  Twitter . En savoir plus sur ses colonnes ici et ici . 

Publicités

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s