L’Union européenne veut réguler le recours à l’intelligence artificielle. Le Parlement européen a adopté un projet de loi en ce sens. L’UE se place ainsi en tête des efforts internationaux pour donner un cadre juridique à ces nouvelles technologies qui font irruption dans de nombreux domaines.
Mais des organisations de défense des droits humains telles qu’Amnesty International y voient une tentative de régulation manquée qui, en réalité, peut mettre en danger les droits et libertés fondamentales.
Ecoutez à ce propos notre entretien avec Katia Roux, d’Amnesty International
Lors de sa visite en Allemagne, le patron de l’entreprise californienne OpenAI, qui a mis sur le marché le générateur de texte CHatGPT, a mis en garde contre une “hyperrégulation”.
Sam Altman, c’est son nom, a même menacé dans un premier temps de désactiver ChatGPT en Europe – des propos qu’il a ensuite retirés.
Mais Sam Altman reste un poids lourd de l’IA - l’intelligence artificielle. Il a d’ailleurs été recu par le chancelier Olaf Scholz en personne, lors de sa tournée de lobby.
L’eurodéputé René Repasi, qui travaille justement sur l’intelligence artificielle reste confiant: selon lui, le marché européen est tellement important pour les entreprises qu’elles seront bien obligées de se plier à la réglementation en vigueur dans l’UE.
D’ailleurs, le Congrès américain aussi tente d’encadrer l’usage de ces machines ou logiciels qui simulent certains traits de l’intelligence humaine et qui sont par exemple susceptibles d’“apprendre”, d’améliorer leurs performances au fil du temps, grâce aux données dont on les nourrit.
Pour René Repasi, la puissance financière et la masse de données dont disposent les grands groupes technologiques américains ne sont pas forcément un frein pour le développement de start-ups en Europe. Selon lui, l’UE peut contribuer à établir des standards valables dans le monde entier, qui ne soient pas basés sur la compétition économique mais sur des valeurs.
Méfiance partagée
Geoffrey Hinton, un ancien employé de Google, s’est lui lancé dans une campagne pour alerter l’humanité contre les affres possibles de l’IA - une technologie qu’il a lui-même contribué à développer. Il estime que l’IA générative pourrait dépasser l’intelligence de ses créateurs, ce qui pourrait avoir des répercussions difficilement imaginables sur le marché de l’emploi, par exemple.
Et plusieurs chercheurs et ingénieurs de grands groupes comme Microsoft, Google et même Twitter, ont signé un appel pour suggérer de faire une pause dans le développement de l’intelligence artificielle dont le fonctionnement commence déjà à leur échapper un peu.
La loi européenne, qui devrait entrer en vigueur en 2025, si les 27 l’acceptent, est le fruit de discussions qui ont duré deux ans.
Pour faire simple, l’idée de base est de diviser les logiciels d’intelligence artificielle en plusieurs groupes en fonction du danger qu’ils représentent. Certains systèmes d’analyse et de prévision des comportements sociaux des humains pourraient être interdits car jugés trop dangereux. Tout comme d’autres usages, contraires aux droits humains, à la démocratie ou à l’Etat de droit.
Des applications simples, comme ChatGPT, pourraient continuer à être utilisées.
Et tout service qui userait de l’IA devrait être identifié comme tel. Par exemple un logiciel qui examine automatiquement – comme c’est déjà souvent le cas – la solvabilité d’une personne qui demande un emprunt à la banque.
Néanmoins, ce projet de loi ne satisfait pas plusieurs défenseurs des droits humains. Katia Roux, d'Amnesty International France, nous explique pourquoi.
Droits et Libertés est une émission de Sandrine Blanchard
Avec un merci cette semaine à Katia Roux d'Amnesty International France et Bernd Riegert