Alors que les législateurs débattent du statut juridique de l’IA, certains ont suggéré la création de « personnes électroniques ».

Qui/Quoi blâmer quand l’intelligence artificielle tourne mal ? Son créateur ? Son propriétaire ? Ou l’IA pourrait-elle elle-même avoir une responsabilité légale ?

Les législateurs tentent de résoudre la difficile question du statut juridique de l’IA en cherchant à créer des lois applicables qui n’entraveront pas les avantages que la technologie peut apporter. L’une des suggestions qui sont apparues dans un rapport du Parlement européen en 2017 était l’idée de donner aux robots d’auto-apprentissage sophistiqués un statut juridique de  » personnes électroniques  » qui permettrait de réparer tout dommage qu’ils causent. Cela les mettrait sur un pied d’égalité avec les sociétés, qui sont aussi des « personnes » dans le système juridique (britannique).

Mais il y a une forte opposition à cette idée. Un groupe de 156 experts en intelligence artificielle de 14 pays, dont des directeurs généraux et des professeurs de technologie et de droit, ont écrit à la Commission européenne pour s’opposer à l’idée de donner ce statut aux robots. Leur argument ? Rendre l’IA responsable pourrait permettre à ses créateurs de s’en tirer à bon compte.

La question est très complexe. Un robot intelligent qui utilise l’apprentissage machine modifie continuellement ses propres fonctions et capacités au fil du temps. Par exemple, une voiture autonome est programmée pour apprendre à naviguer dans les rues de la ville en utilisant les données fournies par les fournisseurs de cartes, les feux de circulation et les capteurs des autres véhicules. Combien de temps doit donc s’écouler avant qu’un constructeur puisse prétendre qu’une voiture ayant causé un accident est différente de celle qui a quitté l’usine ? Un robot, comme un humain, pourrait-il atteindre l’âge de la majorité, où il est responsable de ses propres actions ?

L’avantage de conférer le statut de personne à un robot ou à un IA et de le rendre responsable de toute erreur ou erreur découlant de ses opérations est qu’il permettrait aux assureurs de créer des polices de  » responsabilité stricte « . Ceux-ci rendent une personne responsable des conséquences d’une activité sans avoir à démontrer une faute ou une intention criminelle. Ainsi, les assureurs paieraient en cas d’incident, sans qu’il soit nécessaire de prouver l’intention ou la négligence.

« Ce dont parlait le Parlement européen, c’était d’enregistrer les robots intelligents tels que les véhicules autonomes – donc, s’ils prennent un mauvais virage ou causent des dommages, les gens peuvent poursuivre la machine parce qu’elle est protégée par une assurance. Il y aurait un produit financier contre lequel les gens pourraient porter plainte « , dit Chris Holder, un avocat spécialisé dans l’externalisation informatique au cabinet d’avocats Bristow. Une fois qu’un robot est doté d’une  » personnalité électronique « , il est enregistré et assume sa responsabilité. Néanmoins, M. Holder admet que la personnalité juridique d’un robot peut conduire à des résultats absurdes.

Bien que les partisans de l’idée de la personnalité aient réfuté sarcastiquement les opposants en disant que cela ne signifie pas que les robots pourront se marier, d’autres résultats particuliers pourraient en découler. Par exemple, les robots et les IA participent de plus en plus à la création de propriété intellectuelle, comme les logos, les illustrations et les morceaux de musique, ainsi qu’au développement des inventions. Les brevets sont reconnus comme appartenant à des personnes, telles que des personnes physiques ou morales. Avec le statut de personne morale, les IA pourraient alors  » posséder  » leurs brevets et leur propriété intellectuelle de la même manière que les sociétés. Est-ce que cela signifierait que les robots pourraient poursuivre ceux qui utilisent leurs brevets sans permission ?

Le Parlement européen a lancé l’idée de la personnalité électronique comme une option possible pour aborder la responsabilité légale des robots et de l’IA. Il ne s’agit pas d’un plan définitif, et il est clair que les législateurs continueront à lutter pour créer un statut juridique pour les logiciels d’auto-apprentissage. En fin de compte, chaque type d’IA peut avoir besoin de sa propre définition juridique plutôt que de créer une seule version globale. Cela va créer des procès intéressants dans les années à venir.

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.