Le Parlement européen ouvre la voie à la régulation de l'IA, une première mondiale
Les eurodéputés ont approuvé mercredi un projet européen de régulation de l'intelligence artificielle (IA), ouvrant la voie à une négociation avec les États membres pour finaliser ce texte qui doit limiter les risques des systèmes de type ChatGPT.
Chatgpt (Others)

"Ce sont des moments historiques, car c'est une première mondiale", a réagi la commissaire européenne Margrethe Vestager, qui a porté le texte avec son collègue Thierry Breton.

La législation n'entrera cependant pas en application avant 2026. Le Parlement européen a réclamé de nouvelles interdictions, comme celle des systèmes automatiques de reconnaissance faciale dans les lieux publics.

La Commission voudrait autoriser son usage par les forces de l'ordre dans la lutte contre la criminalité et le terrorisme. Le sujet devrait nourrir les débats avec les États membres qui refusent l'interdiction de cette technologie controversée.

L'Union européenne espère conclure avant la fin de l'année le premier règlement au monde visant à encadrer et protéger l'innovation dans l'intelligence artificielle, un secteur stratégique dans la compétition économique.

Bruxelles a proposé il y a deux ans un projet ambitieux, dont l'examen a encore été retardé ces derniers mois par les controverses sur les dangers des IA génératives capables de créer des textes ou des images.

Le Parlement européen a adopté mercredi sa position lors d'un vote en séance plénière à Strasbourg. Dès la fin de journée, des négociations doivent commencer avec les États membres pour trouver un accord final. Thierry Breton a appelé à conclure le processus dans "les prochains mois".

"Agir vite"

"L'IA soulève de nombreuses questions — sur le plan social, éthique et économique. (...) Il s'agit d'agir vite et de prendre ses responsabilités", a-t-il déclaré mercredi.

Estimant qu'il y avait urgence alors que les mesures ne prendront pas effet avant 2026, M. Breton et Mme Vestager ont annoncé leur intention d'obtenir des engagements volontaires des entreprises aussi vite que possible.

D'une grande complexité technique, les systèmes d'intelligence artificielle fascinent autant qu'ils inquiètent. S'ils peuvent sauver des vies en permettant un bond en avant des diagnostics médicaux, ils sont aussi exploités par des régimes autoritaires pour exercer une surveillance de masse des citoyens.

Le grand public a découvert leur potentiel immense à la fin de l'année dernière avec la sortie du générateur de contenus rédactionnels ChatGPT de la société californienne OpenAI, qui peut rédiger dissertations, poèmes ou traductions en quelques secondes.

Exemple des prouesses possibles: une chanson inédite des Beatles enregistrée en utilisant l'IA pour récréer la voix de John Lennon sortira cette année.

Mais la diffusion sur les réseaux sociaux de fausses images, plus vraies que nature, créées à partir d'applications comme Midjourney, a alerté sur les risques de manipulation de l'opinion et les dangers pour la démocratie.

Des scientifiques ont réclamé un moratoire sur le développement des systèmes les plus puissants, en attendant qu'ils soient mieux encadrés par la loi.

"Règles excessives"

La position du Parlement confirme dans ses grandes lignes l'approche de la Commission.

Le texte s'inspire des réglementations existantes en matière de sécurité des produits et imposera des contrôles reposant d'abord sur les entreprises.

Le cœur du projet consiste en une liste de règles imposées aux seules applications jugées à "haut risque". Il s'agirait des systèmes utilisés dans des domaines sensibles comme les infrastructures critiques, l'éducation, les ressources humaines, le maintien de l'ordre ou la gestion des migrations.

Parmi les obligations: prévoir un contrôle humain sur la machine, l'établissement d'une documentation technique, ou encore la mise en place d'un système de gestion du risque.

Leur respect sera contrôlé par des autorités de surveillance dans chaque pays membre.

Le Parlement européen entend mieux prendre en compte les IA génératives du type ChatGPT en réclamant un régime spécifique d'obligations qui reprennent essentiellement celles prévues pour les systèmes à haut risque.

La proposition de la Commission prévoit déjà un encadrement des systèmes d'IA qui interagissent avec les humains. Elle les obligera ainsi à informer l'utilisateur qu'il est en relation avec une machine et contraindra les applications générant des images à préciser qu'elles ont été créées artificiellement. Une obligation qui sera probablement élargie aux textes.

Les interdictions seront rares. Elles concerneront les applications contraires aux valeurs européennes comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine.

La CCIA, le lobby représentant les intérêts des industries des technologies de l'information et des communications, a averti que certains changements apportés par les eurodéputés risquaient de "ralentir l'innovation en faisant crouler les développeurs d'IA en Europe sous le poids de règles excessives".

OpenAI a déjà prévenu qu'elle pourrait être contrainte à quitter l'UE en fonction de la teneur de la législation.

AFP