Lettre de la DAJ – Rapport d’information sur l’intelligence artificielle générative et les données personnelles

La mission d’information initiée par l’Assemblée nationale consacrée aux « défis de l’intelligence artificielle générative en matière de protection des données personnelles et d’utilisation du contenu généré » a rendu, le 14 février 2024 un rapport dans lequel elle formule différentes recommandations face au développement de l’intelligence artificielle générative.

Alors que l’intelligence artificielle (IA) connaît un essor important, particulièrement depuis une année, une mission d’information de l’Assemblée nationale s’est penchée sur une catégorie particulière d’IA : l’intelligence artificielle générative (IAG). Selon la définition de la CNIL, l’intelligence artificielle « est un procédé logique et automatisé reposant généralement sur un algorithme et en mesure de réaliser des tâches bien définies  ». L’intelligence artificielle générative, quant à elle, permet de générer des contenus nouveaux.

Dans son rapport sur les défis de l'IAG en matière de protection des données personnelles et d'utilisation du contenu généré, la mission d’information se penche sur les défis et les risques liés à cette technologie avant d’analyser les outils mis en place au niveau européen et national pour la réguler.

L’IAG : des opportunités et des risques

Alors qu’elle se développe de manière extrêmement rapide, l’IAG semble pouvoir ouvrir de grandes opportunités dans divers domaines. La capacité de l’IAG à traiter de gros volumes de données devrait permettre de réels progrès en matière de productivité grâce à l’automatisation de certaines tâches et l’on peut espérer une plus grande efficacité administrative si cette technologie est bien utilisée. Au-delà, l’IAG ouvre de grandes perspectives en matière de créativité et d’art, mais aussi en matière d’éducation et de formation.

En miroir des avancées espérées, l’IAG présente également des risques qu’il faut mesurer et qui appellent une régulation, ainsi qu’une vigilance particulière : les risques liés aux données personnelles, les risques de fuite de données par exemple. Le fonctionnement de l’IAG, via les algorithmes et l’incapacité à différencier le vrai du faux, comprend en lui-même un risque de développement des biais cognitifs et d’apparition de « deep fakes ». Enfin, les rapporteurs recommandent d’être particulièrement attentif aux effets sur l’emploi que son développement engendre. Dans un contexte de crise climatique, l’IAG représente aussi un défi tant son empreinte environnementale peut être importante.

L’action européenne : la confiance et la régulation

Les outils mis en place au niveau européen en matière de numérique (RGPD, DMA-DSA, Data Act…) ne seront pas suffisants pour réguler efficacement l’IAG dans la mesure où ils ne couvrent pas toutes les questions que cette technologie soulève. La nécessité, pour l’Europe, de rester dans la course à l’innovation, doit être prise en compte pour adopter des règles équilibrées. Les rapporteurs estiment qu’un socle commun sera nécessaire mais qu’il sera tout aussi nécessaire de laisser une marge de manœuvre suffisante aux Etats-membres pour articuler la régulation et le développement de l’IAG.

La régulation pourra consister i) ex ante en des mécanismes de certification et de marquage des contenus par exemple et ii) ex post en des mécanismes mis en place plus particulièrement dans le traitement des plaintes, dans la création de mécanismes de sanction efficaces et dissuasifs pour éviter un contournement par les opérateurs. La régulation va demander un très haut niveau de compétence, aussi les rapporteurs souhaitent-ils que soient mis en place un réel partage des compétences et des expériences au niveau européen. Tout cela ne doit ni entraver l’innovation et ni que les règles trop rigides viennent à entraver les initiatives. Les rapporteurs plaident pour une régulation qui contienne à la fois du « droit dur » et du « droit souple ».

Au niveau interne : des questions particulières à traiter

Selon les rapporteurs, la France doit créer un « cadre favorable à la diffusion de l’IAG ». Pour cela ils estiment que la CNIL sera le régulateur pertinent avec des missions et des moyens adaptés. Ils proposent que la CNIL soit transformée en une « Haute Autorité en charge de la protection des données et du contrôle de l’IA » qui travaillerait étroitement avec l’ARCOM. Dans les missions qui lui seraient confiées, il faudrait renforcer significativement son rôle d’accompagnement. Dans ce rôle, la CNIL édicterait les référentiels et recommandations, pourrait mettre en place des formations et dispenser des accompagnements renforcés.

Afin de développer un usage sain de l’IAG, il faut développer la culture de l’intelligence artificielle et une expérimentation dans le secteur public. Les rapporteurs rappellent que le Conseil d’Etat a déjà appelé à la construction d’une IA publique de confiance. Pour ce faire, il faudra identifier précisément les opportunités qu’offre l’IAG dans le secteur public, former les agents et assurer un environnement sécurisé. Les rapporteurs prennent l’exemple des Maisons France Services qui pourraient utilement utiliser cette technologie afin d’apporter des réponses de meilleure qualité aux usagers dans des domaines divers. Il faudra établir un cadre juridique propice aux expérimentations.

Le rapport constate aujourd’hui que la gendarmerie nationale est en avance sur ces sujets tout comme le ministère de la Justice qui a commencé à travailler sur l’IAG en matière d’aide à la décision. En tout état de cause, les rapporteurs estiment qu’un pilotage interministériel est nécessaire avec la création d’une instance de dialogue.

Dans le souci de protection des citoyens, il sera indispensable d’adapter la réponse pénale aux risques nouveaux liés à l’utilisation de l’IAG. Les rapporteurs soulignent l’importance d’une réflexion particulière en matière de plagiat, de faux et de contrefaçon. La question de la responsabilité du fait des dommages liés aux produits de l’IAG devra également être posée. Les rapporteurs considèrent également que la législation sur l’action de groupe devra évoluer. La définition de l’intérêt à agir en matière de données personnelles devra être revue.

Devant tous ces défis, les rapporteurs insistent sur le contrôle parlementaire qui devra être effectué au long cours et ils estiment que l’Office Parlementaire d’Evaluation des Choix Scientifiques et Techniques (OPESCT) sera le mieux à même d’assurer ce contrôle.