Détours du monde

The Dark Secret au coeur de l’IA

Personne ne sait vraiment comment les algorithmes les plus avancés font ce qu’ils font. Cela pourrait être un problème, Elon.

L’année dernière, une étrange voiture autonome a été relâchée sur les routes tranquilles de Monmouth County, New Jersey. Le véhicule expérimental, développé par les chercheurs du fabricant de puce Nvidia, ne ressemblait pas à d’autres voitures autonomes, mais ce n’était rien de tout ce qui a été démontré par Google, Tesla ou General Motors : elle a montré le pouvoir croissant de l’intelligence artificielle. La voiture ne suivait pas une seule instruction fournie par un ingénieur ou un programmeur. Au lieu de cela, elle s’appuyait entièrement sur un algorithme qui s’était enseigné à conduire en regardant un humain le faire.

Obtenir une voiture capable de conduire de cette façon était un exploit impressionnant. Mais c’est aussi un peu inquiétant, car il n’est pas tout à fait clair comment la voiture prend ses décisions. Les informations provenant des capteurs du véhicule entrent directement dans un énorme réseau de neurones artificiels qui traitent les données et délivrent les commandes requises pour faire fonctionner le volant, les freins et d’autres systèmes. Le résultat semble correspondre aux réponses que vous attendez d’un conducteur humain. Mais un jour, elle a fait quelque chose d’inattendu, s’est écrasé dans un arbre ou s’est arrêtée à un feu vert? Dans l’état actuel des choses, il pourrait être difficile de savoir pourquoi. Le système est tellement compliqué que même les ingénieurs qui l’ont conçu peuvent avoir du mal à isoler la raison de toute action unique. Et vous ne pouvez pas le demander: il n’existe aucun moyen évident de concevoir un tel système afin qu’il puisse toujours expliquer pourquoi il a fait ce qu’il a fait.

L’esprit mystérieux de ce véhicule souligne un problème imminent avec l’intelligence artificielleLa technologie de l’IA sous-jacente de la voiture, appelée apprentissage approfondi, s’est révélée très puissante pour résoudre les problèmes ces dernières années et a été largement déployée pour des tâches telles que le sous-titrage d’image, la reconnaissance vocale et la traduction de la langue. On espère maintenant que les mêmes techniques seront en mesure de diagnostiquer des maladies mortelles, de prendre des décisions commerciales de plusieurs millions de dollars et de faire d’innombrables autres choses pour transformer des industries entières.

Mais cela n’arrive pas ou ne devrait pas se produire, à moins que nous ne trouvions des façons de rendre les techniques comme un apprentissage approfondi plus compréhensible pour leurs créateurs et rendre compte à leurs utilisateurs. Sinon, il sera difficile de prévoir quand des pannes pourraient se produire, et il est inévitable qu’elles arriveront. C’est une raison pour laquelle la voiture de Nvidia est encore expérimentale.

Déjà, les modèles mathématiques sont utilisés pour déterminer qui fait la libération conditionnelle, qui est approuvé pour un prêt et qui est embauché pour un emploi. Si vous pouviez avoir accès à ces modèles mathématiques, il serait possible de comprendre leur raisonnement. Mais les banques, les militaires, les employeurs et d’autres se tournent maintenant vers des approches d’apprentissage mécanique plus complexes qui pourraient rendre la prise de décision automatique tout à fait instable. L’apprentissage approfondi, le plus commun de ces approches, représente un moyen fondamentalement différent de programmer les ordinateurs. « C’est un problème qui est déjà pertinent, et cela va être beaucoup plus pertinent à l’avenir », a déclaré Tommi Jaakkola, professeur au MIT qui travaille sur les applications de l’apprentissage par machine. « Que ce soit une décision d’investissement, une décision médicale, ou peut-être une décision militaire.

Il y a déjà un argument selon lequel pouvoir interroger un système d’AI sur la façon dont il est parvenu à ses conclusions est un droit légal fondamental. À partir de l’été 2018, l’Union européenne peut exiger que les entreprises puissent donner aux utilisateurs une explication des décisions prises par les systèmes automatisés. Cela pourrait être impossible, même pour les systèmes qui semblent relativement simples en surface, tels que les applications et les sites Web qui utilisent l’apprentissage en profondeur pour diffuser des publicités ou recommander des chansons. Les ordinateurs qui exécutent ces services se sont programmés, et ils l’ont fait de manière à ne pas comprendre. Même les ingénieurs qui construisent ces applications ne peuvent pas expliquer complètement leur comportement.

Cela soulève des questions étonnantes. À mesure que la technologie avance, nous pourrions bientôt franchir un seuil au-delà duquel l’utilisation d’AI nécessite un saut de confiance. Bien sûr, nous, les humains, ne pouvons pas toujours expliquer vraiment nos processus de pensée, mais nous trouvons des moyens de faire confiance et de mesurer intuitivement les gens. Cela sera-t-il possible aussi avec des machines qui pensent et prennent des décisions différemment de la manière dont un humain le ferait ? Nous n’avons jamais construit des machines qui fonctionnent de la même façon que leurs créateurs ne comprennent pas. Dans quelle mesure pouvons-nous espérer communiquer – et s’entendre avec des machines intelligentes qui pourraient être imprévisibles et impénétrables? Ces questions amènent à un voyage à bord de la recherche sur les algorithmes AI, de Google à Apple et de nombreux endroits intermédiaires, y compris une rencontre avec des grands philosophes.

L’artiste Adam Ferriss a créé cette image et celle ci-dessous, en utilisant Google Deep Dream, un programme qui ajuste une image pour stimuler les capacités de reconnaissance de formes d’un réseau neuronal profond. Les images ont été produites en utilisant une couche de niveau intermédiaire du réseau de neurones.

ADAM FERRISS

En 2015, un groupe de recherche à l’hôpital Mount Sinai à New York a été inspiré à appliquer un apprentissage approfondi dans la vaste base de données des dossiers de patients de l’hôpital. Cet ensemble de données comporte des centaines de variables sur les patients, tirés de leurs résultats d’examens, des visites de médecin, etc. Le programme résultant, que les chercheurs ont appelé Deep Patient, a été formé en utilisant des données d’environ 700 000 personnes et, lorsqu’il a été testé sur de nouveaux enregistrements, il s’est avéré incroyablement bon pour prédire la maladie. Sans aucune instruction d’expert, Deep Patient a découvert des modèles cachés dans les données hospitalières qui semblaient indiquer que les gens correspondaient à un large éventail de maladies, y compris le cancer du foie. Il existe de nombreuses méthodes «assez bonnes» pour prédire la maladie à partir des dossiers d’un patient, explique Joel Dudley, qui dirige l’équipe Mount Sinai. Mais, ajoute-t-il :

Dans le même temps, Deep Patient est un peu déroutant. Il semble que l’apparition de troubles psychiatriques comme la schizophrénie est surprenante. Mais comme la schizophrénie est très difficile pour les médecins à prédire, Dudley se demandait comment cela était possible. Il ne sait toujours pas. Le nouvel outil n’offre aucun indice quant à la façon dont il le fait. Si quelque chose comme Deep Patient va effectivement aider les médecins, il leur donnera idéalement la raison d’être de sa prédiction, afin de les rassurer qu’il est exact et de justifier, par exemple, une modification des médicaments que l’on prescrit à quelqu’un. « Nous pouvons construire ces modèles », dit Dudley avec empressement, « mais nous ne savons pas comment ils fonctionnent ».

L’intelligence artificielle n’a pas toujours été ainsi. Dès le début, il y avait deux écoles de pensée sur la compréhension, explicable, de l’AI. Beaucoup pensaient qu’il était plus logique de construire des machines qui raisonnaient selon les règles et la logique, rendant leur fonctionnement interne transparent à quiconque se souciait d’examiner un certain code. D’autres ont estimé que l’intelligence serait plus facile à émerger si les machines s’inspiraient de la biologie et l’ont appris en observant et en expérimentant. Cela signifie transformer la programmation informatique sur sa tête. Au lieu d’un programmeur qui écrit les commandes pour résoudre un problème, le programme génère son propre algorithme basé sur des exemples de données et une issue souhaitée. Les techniques d’apprentissage mécanique qui évolueront plus tard vers les systèmes d’IA les plus puissants d’aujourd’hui suivraient le dernier chemin: la machine se programme essentiellement.

Au début, cette approche était d’une utilisation pratique limitée, et dans les années 1960 et 1970, elle restait largement confinée aux limites du champ. Ensuite, l’informatisation de nombreuses industries et l’émergence de grands ensembles de données ont renouvelé l’intérêt. Cela a inspiré le développement de techniques d’apprentissage mécanique plus puissantes, en particulier les nouvelles versions d’un connu sous le nom de réseau neuronal artificiel. Dans les années 1990, les réseaux de neurones pouvaient numériser automatiquement les caractères manuscrits.

Mais ce n’est qu’après le début de cette décennie, après plusieurs ajustements et raffinements intelligents, ces réseaux exceptionnels, très profonds, ont démontré des améliorations spectaculaires dans la perception automatisée. L’apprentissage approfondi est responsable de l’explosion d’IA d’aujourd’hui. Il a donné aux ordinateurs des pouvoirs extraordinaires, comme la capacité de reconnaître les paroles presque aussi bien qu’une personne pourrait le faire, une compétence trop complexe à coder dans la machine, à la main. L’apprentissage approfondi a transformé la vision par ordinateur et amélioré considérablement la traduction automatique. Il est maintenant utilisé pour guider toutes sortes de décisions clés en médecine, en finance, en fabrication et au-delà.

ADAM FERRISS

Le fonctionnement de toute technologie d’apprentissage par machine est intrinsèquement plus opaque, même pour les informaticiens, qu’un système codé à la main. Cela ne veut pas dire que toutes les techniques futures de l’IA seront tout aussi inconnaissables. Mais, par sa nature, l’apprentissage en profondeur est une boîte noire particulièrement sombre.

Vous ne pouvez pas regarder à l’intérieur d’un réseau neuronal profond pour voir comment cela fonctionne. Le raisonnement d’un réseau est intégré dans le comportement de milliers de neurones simulés, disposés en dizaines ou même des centaines de couches intrinsèquement interconnectées. Les neurones de la première couche reçoivent chacun une entrée, comme l’intensité d’un pixel dans une image, puis effectuent un calcul avant de produire un nouveau signal. Ces sorties sont alimentées, dans un site Web complexe, aux neurones de la couche suivante, etc., jusqu’à ce qu’une production globale soit produite. De plus, il existe une procédure appelée rétro-propagation qui modifie les calculs des neurones individuels d’une manière qui permet au réseau d’apprendre à produire une sortie souhaitée.

Les nombreuses couches dans un réseau profond lui permettent de reconnaître les choses à différents niveaux d’abstraction. Dans un système conçu pour reconnaître les chiens, par exemple, les couches inférieures reconnaissent des choses simples comme des contours ou des couleurs. Les couches supérieures reconnaissent des choses plus complexes comme la fourrure ou les yeux et la couche supérieure identifie tout cela comme un chien. La même approche peut être appliquée à peu près à d’autres entrées qui conduisent une machine à s’enseigner: les sons qui composent des mots dans la parole, les lettres et les mots qui créent des phrases dans le texte ou les mouvements du volant nécessaires à la conduite.

Des stratégies ingénieuses ont été utilisées pour essayer de capturer et expliquer plus en détail ce qui se passe dans de tels systèmes. En 2015, les chercheurs de Google ont modifié un algorithme de reconnaissance d’image fondé sur l’apprentissage en profondeur, de sorte que, au lieu de repérer des objets dans les photos, il les génère ou les modifie. En exécutant efficacement l’algorithme à l’envers, ils pourraient découvrir les fonctionnalités que le programme utilise pour reconnaître, par exemple, un oiseau ou un bâtiment. Les images qui en résultent, produites par un projet connu sous le nom de Deep Dream, a montré des animaux grotesques et étrangers provenant des nuages ​​et des plantes, et des pagodes hallucinantes qui fleurissent à travers les forêts et les chaînes de montagnes. Les images prouvent que l’apprentissage en profondeur n’a pas besoin d’être entièrement inséparable. Ils ont révélé que les algorithmes abritent des caractéristiques visuelles familières comme le bec ou les plumes d’un oiseau. Mais les images ont également laissé entendre comment l’apprentissage différent de l’être humain est perceptible, en ce sens qu’il pourrait faire quelque chose d’un artefact que nous ignorerions. Les chercheurs de Google ont noté que lorsque son algorithme a généré des images d’une haltère, il a également généré un bras humain la tenant. La machine avait conclu qu’un bras faisait partie de la chose.

D’autres progrès ont été réalisés en utilisant des idées empruntées à la neuroscience et à la science cognitive. Une équipe dirigée par Jeff Clune, professeur adjoint à l’Université du Wyoming, a utilisé l’équivalent AI d’illusions d’optique pour tester des réseaux nerveux profonds. En 2015, le groupe de Clune a montré que certaines images pourraient tromper un tel réseau pour percevoir des choses qui ne sont pas là, car les images exploitent les modèles de bas niveau. L’un des collaborateurs de Clune, Jason Yosinski, a également construit un outil qui agit comme une sonde dans un cerveau. Son outil cible n’importe quel neurone au milieu du réseau et recherche l’image qui l’active le plus. Les images qui se présentent sont abstraites mettant en évidence la nature mystérieuse des capacités perceptuelles de la machine.

Ce premier réseau de neurones artificiels, au Cornell Aeronautical Laboratory à Buffalo, New York, vers 1960, a transformé les intrants des capteurs de lumière. Ferriss a été inspiré à exécuter le réseau neuronal artificiel de Cornell via Deep Dream, produisant les images ci-dessus et ci-dessous.
ADAM FERRISS

Nous avons besoin de plus d’un aperçu de la pensée de l’AI, cependant, et il n’y a pas de solution facile. C’est l’interaction des calculs à l’intérieur d’un réseau nerveux profond qui est crucial pour la reconnaissance de motifs de niveau supérieur et la prise de décision complexe, mais ces calculs sont un bourbier de fonctions et de variables mathématiques. « Si vous aviez un très petit réseau de neurones, vous pourriez le comprendre », dit Jaakkola. « Mais une fois qu’il devient très grand, et il a des milliers d’unités par couche et peut-être des centaines de couches, il devient tout à fait impossible à comprendre ».

Dans le bureau à côté de Jaakkola, Regina Barzilay, un professeur du MIT qui est déterminé à appliquer l’apprentissage mécanique à la médecine. Elle a été diagnostiquée avec un cancer du sein il y a quelques années, à l’âge de 43 ans. Le diagnostic était choquant en soi, mais Barzilay était également consterné par le fait que les méthodes statistiques et les méthodes d’apprentissage mécanique de pointe n’étaient pas utilisées pour aider à la recherche oncologique ou pour guider le traitement patient. Elle dit que l’IA a un énorme potentiel pour révolutionner la médecine, mais se rendre compte que ce potentiel signifierait aller au-delà de simples dossiers médicaux. Elle envisage d’utiliser plus de données brutes qui, selon elle, est actuellement sous-utilisée: « données d’imagerie, données pathologiques, toutes ces informations ».

Après avoir fini avec le traitement du cancer l’année dernière, Barzilay et ses étudiants ont commencé à travailler avec des médecins de l’Hôpital général du Massachusetts pour développer un système capable d’extraire des rapports de pathologie afin d’identifier les patients présentant des caractéristiques cliniques spécifiques que les chercheurs pourraient vouloir étudier. Cependant, Barzilay a compris que le système devrait expliquer son raisonnement. Ainsi, avec Jaakkola et un élève, elle a ajouté une étape: le système extrait et met en évidence des extraits de texte représentatifs d’un motif qu’il a découvert. Barzilay et ses étudiants développent également un algorithme d’apprentissage en profondeur capable de détecter les signes précoces du cancer du sein dans les images de mammographie et ils visent à donner à ce système une certaine capacité à expliquer son raisonnement. « Vous avez vraiment besoin d’avoir une boucle où la machine et l’humain collaborent », déclare Barzilay.

L’armée américaine verse des milliards dans des projets qui utiliseront l’apprentissage par machine pour piloter des véhicules et des aéronefs, identifier des cibles et aider les analystes à dépister d’énormes tas de données de renseignement. Ici, plus que partout ailleurs, plus encore que dans la médecine, il y a peu de place pour le mystère algorithmique, et le ministère de la Défense a identifié l’explication comme une pierre d’achoppement.

David Gunning, un gestionnaire de programme de l’Agence de projets de recherche avancée de la Défense, supervise le programme d’Intelligence Artificielle Explainable. Un vétéran de l’agence qui a précédemment supervisé le projet DARPA qui a finalement conduit à la création de Siri, Gunning dit que l’automatisation s’installe dans d’innombrables domaines de l’armée. Les analystes du renseignement testent l’apprentissage par machine comme moyen d’identifier les profils dans de nombreuses quantités de données de surveillance. De nombreux véhicules terrestres autonomes et avions sont en cours de développement et de tests. Mais les soldats ne se sentiront probablement pas à l’aise avec un réservoir robotique qui ne s’explique pas par eux, et les analystes seront réticents à agir sur des informations sans raisonnement. « C’est souvent la nature de ces systèmes d’apprentissage par machine qu’ils produisent beaucoup de fausses alarmes.

En mars, DARPA a choisi 13 projets du milieu universitaire et de l’industrie pour financer dans le cadre du programme Gunning. Certains d’entre eux pourraient s’appuyer sur le travail dirigé par Carlos Guestrin, professeur à l’Université de Washington. Lui et ses collègues ont développé un moyen pour les systèmes d’apprentissage par machine pour justifier leurs résultats. Essentiellement, selon cette méthode, un ordinateur trouve automatiquement quelques exemples à partir d’un ensemble de données et les fournit dans une brève explication. Un système conçu pour classer un message électronique comme provenant d’un terroriste, par exemple, pourrait utiliser plusieurs millions de messages dans sa formation et sa prise de décision. Mais en utilisant l’approche de l’équipe de Washington, il pourrait mettre en évidence certains mots clés trouvés dans un message.

Un inconvénient de cette approche et d’autres comme celui-ci, comme celui de Barzilay, est que les explications fournies seront toujours simplifiées, ce qui signifie que des informations vitales peuvent être perdues en cours de route. « Nous n’avons pas réalisé tout le rêve, où l’AI a une conversation avec vous, et est capable d’expliquer », explique Guestrin. « Nous sommes loin d’avoir une IA véritablement interprétative ».

Il ne doit pas s’agir d’une situation à haut risque comme le diagnostic de cancer ou les manœuvres militaires pour que cela devienne un problème. Connaître le raisonnement d’AI sera également crucial pour que la technologie devienne une partie commune et utile de notre vie quotidienne. Tom Gruber, qui dirige l’équipe Siri chez Apple, explique que l’explication est une considération clé pour son équipe car elle tente de faire de Siri un assistant virtuel plus intelligent et plus capable. Gruber ne discuterait pas des plans spécifiques pour l’avenir de Siri, mais il est facile d’imaginer que si vous recevez une recommandation de restaurant de Siri, vous voudrez savoir quel était le raisonnement. Ruslan Salakhutdinov, directeur de la recherche AI ​​chez Apple et professeur agrégé à l’Université Carnegie Mellon, considère l’explication comme le noyau de la relation évolutive entre les humains et les machines intelligentes. « Il va introduire la confiance,

Tout autant d’aspects du comportement humain sont impossibles à expliquer en détail, peut-être qu’il ne sera pas possible pour l’IA d’expliquer tout ce qu’il fait. « Même si quelqu’un peut vous donner une explication raisonnable [pour ses actions], il est probablement incomplet, et il en va de même pour l’IA », explique Clune, de l’Université du Wyoming. « Cela pourrait simplement faire partie de la nature de l’intelligence que seule une partie de celle-ci est exposée à une explication rationnelle. Certains d’entre eux sont juste instinctifs, inconscients ou impénétrables.  »

Si tel est le cas, alors, à un certain moment, nous devrons simplement faire confiance au jugement d’AI ou ne pas l’utiliser. De même, ce jugement devra intégrer les services d’intelligence sociale. Tout comme la société repose sur un contrat de comportement attendu, nous devrons concevoir des systèmes AI pour respecter nos normes sociales. Si nous voulons créer des réservoirs de robots et d’autres machines de destruction, il est important que leur prise de décision soit compatible avec nos jugements éthiques.

Pour mesurer ces concepts métaphysiques,  Daniel Dennett, philosophe renommé et cognitif qui étudie la conscience et l’esprit a dédié un chapitre dans son dernier livre de Dennett, From Bacteria to Bach and Back , un traité encyclopédique sur la conscience, suggère qu’une partie naturelle de l’évolution de l’intelligence elle-même est la création de systèmes capables d’exécuter des tâches que leurs créateurs ne savent pas faire. « La question est, quels sont les accommodements que nous devons faire pour le faire judicieusement, quelles normes nous demandons, et de nous-mêmes? », dit-il dans son bureau.

Il a également un mot d’avertissement sur la quête de l’explication. « Je pense que par tous les moyens, si nous voulons utiliser ces choses et compter sur elles, nous serons en mesure de savoir comment et pourquoi ils nous donnent les réponses possibles », dit-il. Mais étant donné qu’il n’y a pas de réponse parfaite, nous devrions être aussi prudents avec les explications d’AI, car nous sommes liés l’un à l’autre, quelle que soit la taille d’une machine. « Si cela ne peut pas faire mieux que nous pour expliquer ce qu’il fait », dit-il, « alors, ne faites pas confiance ».

Publicités

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s