Fabriquer des outils de deepfakes n’est pas forcément irresponsable. Voici comment faire.

Il est possible de limiter les dommages que peuvent causer les outils de médias de synthèse, mais cela ne se fera pas sans effort.

Les technologies des médias de synthèse – communément appelées « deepfakes » – ont un réel potentiel d’impact positif. La voix de synthèse, par exemple, nous permettra de parler dans des centaines de langues avec notre propre voix. La vidéo de synthèse peut nous aider à simuler des accidents de la route pour éviter des erreurs à l’avenir. Et le texte de synthèse peut accélérer notre capacité d’écrire à la fois des programmes et de la prose.

Mais ces progrès peuvent avoir un coût gigantesque si nous n’y prenons garde : les mêmes technologies sous-jacentes peuvent aussi permettre la tromperie avec des ramifications mondiales.

Heureusement, nous pouvons à la fois concrétiser la promesse de la technologie et en atténuer les risques. Il faudra juste travailler dur.

Ce que Aviv Ovadya dit ici, c’est qu’il s’agit d’un appel à l’action et d’un guide pour aider ceux d’entre nous qui créent cette technologie, que ce soit pour faire de la recherche révolutionnaire, développer de nouveaux produits ou simplement pour s’amuser avec des systèmes open-source. Il en va de même pour ceux qui investissent ou financent de tels travaux, les journalistes qui pourraient aider à s’assurer que les créateurs de technologie prennent leurs impacts au sérieux, et les amis ou la famille de ceux qui créent cette technologie.

On peut s’absenter de nos responsabilités plus longtemps en disant : « On ne peut rien faire si les gens utilisent nos outils à mauvais escient. » Parce qu’il y a des choses que nous pouvons faire ; c’est juste que souvent nous ne nous donnons pas la peine. Un autre argument, « Cette technologie sera de toute façon mise au point », n’est pas entièrement faux, mais le comment et le quand sont importants et peuvent changer en fonction de nos choix. (Pour en savoir plus à ce sujet, y compris sur la modélisation des menaces, veuillez consulter ce document complet, en particulier la section 2 sur ce qui cause des dommages.) Enfin, nous ne pouvons pas nous cacher derrière la reconnaissance banale qu' »il y a toujours eu tromperie » tout en ignorant les différences significatives en termes de degré et d’impact.

Les coûts de la technologie des deepfakes ne sont pas seulement théoriques. Les vidéos synthétiques d’échange de visages harcèlent les journalistes dans le silence ; des voix de synthèse sont utilisées pour des transactions frauduleuses de grande envergure, et des visages synthétiques auraient soutenu l’espionnage. Tout cela malgré les défis actuels de l’utilisation de logiciels de qualité bêta piratés. Les obstacles à l’utilisation des médias synthétiques sont encore trop élevés pour que la technologie soit convaincante pour la plupart des acteurs malveillants, mais au fur et à mesure qu’elle passe des bêta buguées aux mains de milliards de personnes, nous avons la responsabilité d’éviter les pires scénarios en rendant aussi difficile que possible l’utilisation de deepfakes pour le mal. Comment ?

Approche 1 : Limiter qui peut utiliser un outil… et comment…
Il y a plusieurs choses que nous pouvons faire qui rendent l’utilisation malveillante beaucoup moins probable. Une approche évidente, simple et efficace consiste à examiner soigneusement ceux qui peuvent utiliser un outil. C’est ce que font des entreprises comme Synthesia, c’est-à-dire qu’elles ne travaillent qu’avec des entreprises clientes ayant fait l’objet d’un examen approfondi.

Une alternative est de limiter l’utilisation : limiter ce que les utilisateurs peuvent synthétiser ou manipuler. Par exemple, il est possible de construire des outils pour s’assurer que seules des voix ou des visages pré-sélectionnés peuvent être manipulés. C’est ce que fait Humen, par exemple, en fournissant un ensemble limité de mouvements que la personne dans une vidéo générée peut faire.

Toutefois, il se peut que ce ne soit pas une option pour de nombreux systèmes. Que peut-on faire d’autre ?

Approche 2 : Décourager l’utilisation malveillante
Pour les outils de médias synthétiques qui sont généraux et qui peuvent être largement disponibles, il existe encore de nombreuses façons possibles de réduire l’utilisation malveillante. En voici quelques exemples.

Divulgation claire : Demander que les supports de synthèse soient clairement indiqués comme tels, en particulier ceux qui pourraient être utilisés pour induire en erreur. Les outils peuvent être en mesure d’étayer cela en incluant des avis visuels ou sonores clairs dans les fichiers de sortie, tels que des avertissements visibles ou des divulgations verbales. Au minimum, les métadonnées devraient indiquer comment les médias ont été synthétisés ou manipulés.

Protection du consentement : Exiger le consentement des personnes usurpées. L’outil de clonage de la voix Lyrebird demande aux utilisateurs de prononcer des phrases particulières afin de modéliser leur voix. Il est donc plus difficile de se faire passer pour quelqu’un sans son consentement, ce qui serait tout à fait possible s’il se contentait de générer des voix en utilisant n’importe quel ensemble de données fourni. Ceci, bien sûr, ne s’applique qu’aux outils qui permettent de se faire passer pour quelqu’un d’autre.

Facilité de détection : Veiller à ce que le support synthétisé ne soit pas excessivement difficile à détecter ; tenir les outils de détection à jour ; collaborer avec ceux qui travaillent sur la détection pour les tenir au courant des nouveaux développements.

Filigranes cachés : Intégrer le contexte de la synthèse – ou même du support original – à travers des filigranes robustes, à la fois en utilisant des méthodes accessibles à tous avec les outils appropriés, et à travers des approches secrètes et difficiles à supprimer. (Par exemple, le filigrane Modulate.ai marque l’audio qu’il génère, tandis que des produits comme Imatag et leurs équivalents open-source permettent le filigranage pour l’imagerie).

Journaux d’utilisation : Stockez l’information sur l’utilisation et les résultats médiatiques de manière à ce que les chercheurs et les journalistes puissent identifier si, par exemple, une vidéo a probablement été synthétisée en utilisant un outil particulier. Cela pourrait inclure le stockage des horodatages de synthèse avec un hachage robuste ou l’incorporation d’un support.

Restrictions d’utilisation : Fournir et appliquer les conditions d’utilisation contractuelles qui interdisent et pénalisent les actions non désirées, telles que la tentative de supprimer des divulgations ou des filigranes, ou la violation du consentement d’autres personnes. Une version plus forte de cette approche implique l’élaboration explicite des utilisations autorisées de la technologie ou des résultats qui en résultent.

Toutes ces stratégies ne s’appliquent pas à tous les systèmes. Certains peuvent avoir leurs risques, et aucun n’est parfait – ou suffisant à lui seul. Ils font tous partie d’une  » défense en profondeur « , où plus c’est plus. Même s’il y a des vérifications ou des contraintes, ces approches rendent quand même un système plus robuste face à ses adversaires. Et bien que le respect de ces règles puisse fonctionner au mieux pour les systèmes « software as a service », qui sont livrés sans révéler de code source, elles pourraient néanmoins apporter une valeur ajoutée aux outils et modèles open-source : de nombreux mauvais acteurs n’auront pas les capacités techniques pour contourner ces mesures de protection. (L’article complet explore quand publier le code source en premier lieu).

Soutenir les outils éthiques du deepfake 
Il peut être difficile de justifier un surcroît de travail pour protéger les gens contre les préjudices dans l’environnement commercial concurrentiel d’aujourd’hui, jusqu’à ce qu’une catastrophe irréversible se produise. Alors, comment pouvons-nous faire en sorte que ces approches soient mises en œuvre avant qu’il ne soit trop tard ? Voici quatre choses que les investisseurs, les gouvernements, les journalistes et le public peuvent faire maintenant pour soutenir ceux qui fabriquent des outils médiatiques synthétiques éthiques.

Facilitez-vous la tâche en faisant ce qu’il convient de faire
Cela signifie que nous devons investir dans la recherche dans tous ces domaines afin de disposer d’outils open-source largement disponibles et bien financés pour mettre en œuvre ces approches. L’histoire de la sécurité de l’information montre que lorsque des outils open-source faciles à utiliser peuvent être utilisés pour sécuriser les choses, beaucoup plus de choses finissent par être sécurisées. La même logique s’applique ici : à tout le moins, nous devons de toute urgence faciliter la fourniture de métadonnées de divulgation, de filigranes et de journaux normalisés. Nous avons également besoin de recherches pour déterminer s’il est possible d’intégrer la détectabilité dans des modèles formés avant la distribution. Sans ce genre d’infrastructure et de recherche, de nombreux nouveaux outils bien intentionnés seront utilisés de façon horrible.

Favoriser l’expertise en matière d’atténuation des abus
Tout comme dans le domaine de la protection de la vie privée et de la sécurité, nous devons soutenir les communautés qui se concentrent sur le renforcement des systèmes et s’adressent aux mauvais acteurs, et les entreprises doivent payer les gens pour faire ce travail, soit comme consultants ou en interne.

Éviter de financer, de construire et de distribuer des outils irresponsables.
Si une entreprise ou un outil ne tente pas au moins de réduire les risques d’abus, les investisseurs et les développeurs ne devraient pas l’appuyer. Les fabricants d’outils qui n’implémentent pas les meilleures pratiques énumérées ci-dessus doivent avoir de très bonnes raisons, et les appstores devraient les exiger par défaut.

Créer des normes en responsabilisant les gens
S’ils sont négligents, nous devrions les appeler, même s’il s’agit de nos employés, de nos collègues, de nos amis ou de notre famille. Nous pouvons créer des normes éthiques en félicitant ceux qui font ce qu’il faut et en poussant ceux qui ne font pas mieux.

Les organisations qui font progresser la technologie du deepfake, comme Nvidia, Adobe, Facebook et Google, devraient investir massivement dans tout ce qui précède. Les investisseurs en capital-risque et les fondations devraient également faire leur part en soutenant ce travail et en faisant attention à qui ils soutiennent.

Il ne s’agit là que d’une partie d’un ensemble beaucoup plus vaste d’efforts qui sont nécessaires et, dans bien des cas, ils ne nous feront peut-être gagner un peu plus de temps. Cela signifie qu’il est impératif de veiller à ce que les plateformes et les décideurs utilisent ce temps à bon escient pour rendre notre écosystème de l’information plus résilient.

Notre passé est jonché de ceux qui auraient aimé présenter leurs inventions avec plus de soin – et nous n’avons qu’un seul avenir. Ne foutons pas tout en l’air.

Via TechReview

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.