Régulation des IA : une course à la réglementation à l’échelle mondiale.

Les gouvernements du monde entier, de l’Europe aux États-Unis en passant par l’Australie et la Chine, s’engagent dans des mesures pour réguler l’utilisation des outils d’intelligence artificielle (IA). La vitesse des avancées technologiques concernant l’IA et ses applications, avec le succès fulgurant de ChatGPT et Midjourney parmi d’autres, ont engendré une situation d’urgence pour la création de lois, d’encadrement et de lignes directrices pour protéger les populations des risques liées à leur utilisation. Voici un aperçu des actions entreprises par différents pays dans l’objectif de mettre en place une régulation des outils d’IA.

Directia - Les gouvernements mondiaux pour une régulation de l’intelligence artificielle.

L’Union européenne envisage d’introduire un « AI Act » pour encadrer l’utilisation de l’IA

Le 13 avril, le comité européen de la protection des données (CEPD), chargé de coordonner les agences de protection des données et de la vie privée des différents pays membres de l’UE, a annoncé la création d’un groupe de travail « afin de favoriser la coopération et d’échanger des informations sur d’éventuelles mesures prises par les autorités chargées de la protection des données ». Ce groupe de travail pourrait représenter une première étape vers la création d’un « AI Act » européen, qui régirait toute personne ou entreprise fournissant un produit ou un service utilisant l’IA. Cet acte couvrirait les systèmes capables de générer des résultats, tels que des contenus, des prédictions, des recommandations ou des décisions influençant des environnements. Les législateurs ont proposé de classer les différents outils d’IA en fonction de leur niveau de risque perçu, allant de faible à inacceptable.

L’Italie bloque ChatGPT sur son territoire

La GPDP, agence de protection des données italienne, a imposé une interdiction temporaire sur ChatGPT d’OpenAI le 31 mars. L’instance italienne a soulevé des préoccupations concernant le respect de la vie privée et des données personnelles des utilisateurs, ainsi que la protection des mineurs. Le 13 avril, l’agence a formulé un certain nombre de conditions pour envisager de lever le blocage de ChatGPT en Italie.

La GPDP a fixé une échéance au 30 avril pour qu’OpenAI réponde à ses exigences en matière de protection des données et de confidentialité avant que le service ne puisse reprendre dans le pays.

La France enquête sur des plaintes concernant ChatGPT

Le 11 avril, la CNIL (Commission nationale de l’informatique et des libertés), organisme français de protection de la vie privée, a annoncé qu’elle enquêtait sur plusieurs plaintes concernant ChatGPT. En tout, ce sont 5 plaintes qui ont été déposées auprès de la CNIL, dont l’une a été déposée par le député Renaissance Éric Bothorel.

Toutefois, le Gouvernement également n’a pas l’intention de suivre la voie de son voisin Italien et ne souhaite pas bloquer ChatGPT, mais plutôt encadrer ses activités pour garantir les droits des utilisateurs en matière de protection de la vie privée. En mars, l’Assemblée nationale française avait d’ailleurs approuvé l’utilisation de la vidéosurveillance basée sur l’IA lors des Jeux olympiques de Paris en 2024.

L’Espagne exprime des préoccupations en matière de confidentialité concernant ChatGPT

Le 11 avril, l’agence de protection des données espagnole (AEPD) a saisi l’autorité de contrôle de la confidentialité de l’Union Européenne, afin d’évaluer les problématiques en matière de confidentialité et de respect de la vie privée entourant ChatGPT.

Le Royaume-Uni prévoit la mise en place d’une gouvernance partagée sur l’IA

En mars, le Royaume-Uni a annoncé son intention de répartir la responsabilité de la gouvernance et de la régulation de l’IA entre les régulateurs des droits de l’homme, de la santé et de la sécurité, et de la concurrence, plutôt que de créer un nouvel organisme dédié.

Aux États-Unis, une phase d’étude avant une éventuelle régulation

Le 11 avril, l’administration Biden a annoncé qu’elle souhaitait la mise en place de mesure plus fortes pour valider la sécurité des outils basés sur l’intelligence artificielle avant leur mise à disposition du grand public..

Le département du Commerce des États-Unis a également annoncé qu’il allait solliciter des audits, et recueillir des avis durant les deux prochains mois, afin d’évaluer les risques inhérents aux usages des outils basés sur l’IA, et prendre les mesures de régulation susceptibles de rassurer les consommateurs sur ces nouveaux systèmes (en savoir plus).

L’administration Biden avait déjà dévoilé l’année dernière, un ensemble d’objectifs ambitieux visant à maîtriser les risques liés à l’essor des systèmes d’IA.  Le président Joe Biden avait notamment déclaré que si l’IA pouvait contribuer à résoudre les problèmes importants de l’humanité tels que les maladies et le changements climatique, mais il était également important de prendre en compte les risques potentiels pour la société, la sécurité nationale et l’économie.

La Chine élabore des mesures pour gérer les services d’IA générative

Le 11 avril, la Cyberspace Administration of China (CAC) a dévoilé un certain nombre de recommandations de mesures concernant les services d’IA générative. Il souhaite que les fournisseurs de service soient responsables de la validité des données utilisées pour entraîner ces outils, et que des mesures devraient être prises lors de la conception des algorithmes et des jeux de données d’entraînement, pour prévenir les discriminations.

Par ailleurs, les éditeurs devront également soumettre des évaluations de sécurité au gouvernement avant de lancer leurs outils basés sur l’intelligence artificielle au public.

Cette démarche peut paraître parfaitement légitime au regard de la propension de certaines AI à dénaturer la vérité, et au biais culturel qui peut être induit par les données utilisées lors de leur entraînement. En effet, une IA entraînée avec un corpus de textes ou d’images occidental véhiculera forcément des propos ou des représentations conformes à la culture occidentale.

Mais on facilement imaginer que le gouvernement chinois ait pour objectif de mettre les IA sous un contrôle absolu, car elles peuvent représenter une menace pour le régime, en permettant de contourner la censure ou de contrer les moyens de contrôle de l’opinion qui assoient son pouvoir. On peut d’ailleurs s’interroger sur les raisons qui ont poussé Midjourney a interdire, depuis quelques jours, toute génération d’image mettant en scène le président chinois Xi Jing Ping.

Par ailleurs, en février dernier, le bureau de l’économie et de la technologie de l’information de Pékin avait déclaré qu’il soutiendrait les entreprises leaders dans la création de modèles d’IA capables de rivaliser avec ChatGPT.

L’Australie s’en remet à son conseil scientifique

Selon un porte-parole du ministre de l’industrie et de la science, Ed Husic, le gouvernement australien sollicite des conseils auprès de l’Australia’s National Science and Technology Council, principal organisme consultatif scientifique du pays, sur la manière de répondre aux enjeux de l’IA. Le gouvernement Australien, par ailleurs très enthousiaste sur les perspectives apportées par l’intelligence artificielle et son rôle déjà important dans l’économie du pays, reste vigilant et se tient prêt à intervenir dans la régulation des intelligences artificielles si l’industrie de l’IA ne s’auto-régule pas.

Le Japon souhaite que le G7 prenne position sur l’IA

Le 10 avril, le ministre japonais de la Transformation numérique, Taro Kono, a déclaré qu’il souhaitait que la prochaine réunion des ministres du numérique du G7, prévue les 29 et 30 avril, aborde les technologies liées à l’Intelligence Artificielle, y compris ChatGPT, et émette un message unifié du G7.

Conclusion

Le succès fulgurant des IA génératives, et la prise de conscience mondiale des perspectives de transformation de nos sociétés par ces IA, ont braqué les projecteurs des régulateurs et des opinions publiques sur ces outils. ChatGPT, qui a été l’étincelle déclenchant l’engouement mondial vers ces outils, a montré un certain nombre de failles, notamment concernant la véracité des informations, et le respect de la vie privée. OpenAI est aujourd’hui en première ligne sous la pression de nombreux gouvernements, mais derrière lui, c’est tout l’écosystème des intelligences génératives qui va devoir redoubler d’efforts pour intégrer les principes de sécurité, de responsabilité et de protection de la vie privée.

La volonté des gouvernements des différents pays de mettre en place une régulation sur les outils et services impliquant l’intelligence artificielle est motivée par des préoccupations sociétales, économiques et sécuritaires. À mesure que ces technologies continueront de progresser, il sera crucial pour les gouvernements de mettre en place des régulations efficaces pour garantir une utilisation responsable de l’IA.

Nous serions ravis de connaître votre avis

Laisser un commentaire

Direct Intelligence Artificielle
Logo