Du moins, pas pour les décennies à venir, rapporte le New York Times. Désolé, Mark Zuckerberg.

Dans son témoignage devant le Congrès cette année, Mark Zuckerberg, le directeur général de Facebook, s’est penché sur les préoccupations relatives à la diffusion stratégique de fausses informations, connues sous le nom de fake news, qui pourraient avoir affecté le résultat de l’élection présidentielle de 2016. N’ayez crainte, a-t-il assuré au Congrès, une solution est en route – si ce n’est l’année prochaine, au moins « sur une période de cinq à dix ans ».

La solution ?L‘Intelligence artificielle. La vision de M. Zuckerberg, que les membres du comité semblaient accepter, était que les programmes d’I.A. de Facebook seraient bientôt en mesure de détecter les fausses nouvelles et de les distinguer des informations plus fiables sur la plateforme.

Alors que les élections approchent à grands pas et que la perspective inquiétante que de fausses nouvelles puissent une fois de plus influencer les élections, nous aimerions pouvoir dire que nous partageons l’optimisme de M. Zuckerberg. Mais à court terme, nous ne trouvons pas sa vision plausible. Dans plusieurs décennies, il sera peut-être possible d’automatiser la détection des fausses nouvelles. Mais pour ce faire, il faudrait un certain nombre d’avancées majeures en matière d’I.A., qui nous mèneraient bien au-delà de ce qui a été inventé jusqu’à présent.

Comme M. Zuckerberg l’a reconnu, l’I.A. d’aujourd’hui fonctionne au niveau des « mots-clés« , en signalant les modèles de mots et en cherchant des corrélations statistiques entre eux et leurs sources. Cela peut être quelque peu utile : d’un point de vue statistique, certains modèles de langage peuvent en effet être associés à des histoires douteuses. Par exemple, pendant longtemps, la plupart des articles qui comprenaient les mots « Brad », « Angelina » et « divorce » se sont révélés peu fiables dans les tabloïds. De même, certaines sources peuvent être associées à des degrés plus ou moins élevés de véracité des faits. Le même récit mérite plus de crédit s’il paraît dans The Wall Street Journal que dans The National Enquirer.

Mais aucune de ces corrélations ne permet de faire le tri entre le vrai et le faux. Finalement, Brad Pitt et Angelina Jolie ont divorcé. Les associations de mots-clés qui pourraient vous aider un jour peuvent vous tromper le lendemain.

Pour vous faire une idée de ce qu’exigerait la détection automatisée des fausses nouvelles, considérez un article publié en mai sur le site Web d’extrême droite WorldNetDaily, ou WND. L’article rapportait que la décision d’admettre des filles, des gays et des lesbiennes chez les scouts avait conduit à exiger que des préservatifs soient disponibles lors de son « rassemblement mondial ». Un passage clé se compose des quatre phrases suivantes :

Les scouts ont décidé d’accepter dans leurs rangs les personnes qui s’identifient comme gais et lesbiennes. Et les filles sont maintenant les bienvenues dans l’organisation iconique, qui s’est rebaptisée Scouts BSA. Alors, qu’est-ce qu’on fait ensuite ? Un mandat pour que les préservatifs soient mis à la disposition de  » tous les participants  » de son rassemblement mondial.

Ce compte était-il vrai ou faux ? Les enquêteurs du site de vérification des faits Snopes ont déterminé que le rapport était  » plutôt faux « . Mais déterminer en quoi il est mal/faux est une affaire subtile qui dépasse les rêves des meilleurs spécialistes de l’insémination artificielle.

Tout d’abord, il n’y a pas d’ensemble de phrases révélatrices. « Les «  Boy Scouts  » et les  » gays et lesbiennes « , par exemple, sont apparus ensemble dans de nombreux rapports véridiques auparavant. Ensuite, il y a la source : WND, bien que notoire pour la promotion des théories de conspiration, publie et regroupe également les nouvelles légitimes. Enfin, phrase par phrase, il y a beaucoup de faits vrais dans le passage : des préservatifs ont en effet été disponibles lors du rassemblement mondial auquel les scouts ont assisté, et l’organisation des scouts en est venue à accepter dans ses rangs aussi bien des filles que des gays et des lesbiennes.

Ce qui rend l’article « le plus souvent faux », c’est qu’il implique un lien de causalité qui n’existe pas. Il suggère fortement que l’inclusion des gais et lesbiennes et des filles a conduit à la politique sur les préservatifs ( » Et ensuite ? « ). Mais en réalité, la politique du préservatif est née en 1992 (ou même avant) et n’avait donc rien à voir avec l’inclusion des gays, des lesbiennes ou des filles, ce qui s’est produit au cours des quelques dernières années seulement.

Les relations causales sont là où les techniques modernes d’apprentissage machine commencent à trébucher. Pour que l’article du WND soit considéré comme trompeur, un programme d’I.A. devrait comprendre l’implication causale de « quelle est la prochaine étape », reconnaître que le récit implique que la politique du préservatif a été modifiée récemment et savoir rechercher des informations qui ne sont pas fournies sur le moment où les différentes politiques ont été introduites.

Comprendre l’importance du passage nécessiterait également la compréhension de points de vue multiples. Du point de vue de l’organisation internationale des scouts, la mise à disposition de préservatifs lors d’un rassemblement mondial de 30.000 à 40.000 adolescents chargés d’hormones est une mesure de santé publique prudente. Du point de vue du WND, la disponibilité de préservatifs, comme l’admission de filles, de gays et de lesbiennes chez les Boy Scouts, est un signe qu’une institution sacrée a été corrompue.

Nous n’avons connaissance d’aucun système ou prototype d’I.A. capable de trier les différents faits impliqués dans ces quatre phrases, et encore moins de discerner les attitudes implicites pertinentes.

La plupart des systèmes d’I.A. actuels qui traitent le langage sont orientés autour d’un ensemble différent de problèmes. Les programmes de traduction, par exemple, s’intéressent principalement à un problème de correspondance – quelle expression française, par exemple, est le meilleur parallèle d’une expression anglaise donnée ? Mais déterminer que quelqu’un sous-entend, par une sorte de logique morale, que la politique d’inclusion des scouts a conduit à la fourniture de préservatifs aux scouts n’est pas une simple question de vérifier une réclamation par rapport à une base de données des faits.

Les systèmes d’I.A. existants qui ont été conçus pour comprendre les comptes rendus de nouvelles sont extrêmement limités. Un tel système pourrait être en mesure d’examiner le passage de l’article du WND et de répondre à une question dont la réponse est donnée directement et explicitement dans l’histoire (par exemple, « L’organisation des scouts accepte-t-elle les personnes qui s’identifient comme gays et lesbiennes ? »). Mais ces systèmes vont rarement beaucoup plus loin, faute d’un système robuste permettant de tirer des conclusions ou d’établir un lien avec un ensemble de connaissances plus vastes. Comme l’a dit Eduardo Ariño de la Rubia au NYT, informaticien chez Facebook, pour l’instant « l’I.A. ne peut pas dire fondamentalement ce qui est vrai ou faux – c’est une compétence bien mieux adaptée aux humains ».

Pour arriver là où M. Zuckerberg veut aller, il faudra développer un paradigme fondamentalement nouveau de l’I.A., un paradigme dont le but n’est pas de détecter les tendances statistiques mais de découvrir les idées et les relations entre elles. Ce n’est qu’alors que de telles promesses sur l’I.A. deviendront réalité, plutôt que de la science-fiction.

 

 

Publicités

1 commentaire »

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.