IA génératives : un danger pour les données personnelles ?

IA génératives : un danger pour les données personnelles ?

25/06/2023 Non Par Tim Rimbert

Alors que de nombreuses entreprises ont commencé à utiliser les IA génératives, ces outils font l’objet de vives inquiétudes concernant les données personnelles. Pour prévenir les risques potentiels, l’Union européenne a rédigé l’AI Act.

Bien que connue depuis quelques années, l’intelligence artificielle a véritablement pris son essor en fin d’année dernière avec le lancement de ChatGPT, l’agent conversationnel de la société américaine OpenAI. Ce chatbot est présenté comme le modèle de langage le plus accompli car ayant introduit une véritable révolution dans le traitement des textes.

La confidentialité et la vie privée en question

Pour réaliser ses prouesses, ce type d’algorithme mouline une quantité énorme de données piochées çà et là sur Internet. ChatGPT a tendance à fourrer tout ce qu’il trouve sur la toile. Ce qui fait que le chatbot produit parfois une bouillie indigeste, en plus de voler des informations protégées. Mais la création d’OpenAI n’est pas celle qu’il faut craindre le plus. Il existe d’autres systèmes qui s’appuient sur des données spécialisées, notamment les dossiers de patients pour développer un outil de diagnostic médical.

L’Union européenne adopte l’AI Act

Les IA de ce genre soulèvent de nombreuses questions, en particulier sur la confidentialité, la vie privée et la sécurité des personnes. Ces inquiétudes ont motivé en partie la lettre adressée aux décideurs publics par des patrons de la tech mondiale en mai. Ces dirigeants ont appelé à mettre en pause le développement de l’intelligence artificielle. De quoi mettre de l’eau au moulin de l’Union européenne qui a rédigé l’Artificial Intelligence Act (AI Act). Cette législation vise à interdire ou au mieux à restreindre l’usage des IA génératives afin d’assurer la sécurité des citoyens européens et protéger le droit d’auteur.

Non confirmité aux règles de certaines IA

L’Union européenne peut également trouver une raison de durcir son texte dans une étude menée par quatre chercheurs de l’université californienne de Standford (Rishi Bommasani, Kevin Klyman, Daniel Zhang et Percy Liang). Ces scientifiques américains relèvent que la plupart des modèles d’IA ne se conforment pas à la future réglementation de l’UE. Selon eux, seuls 7 des 10 modèles étudiés obtiennent des notes satisfaisantes sur les 12 critères étudiés, correspondant à autant d’exigences des législateurs européens.

Open Source Bloom en tête des modèles

Il s’agit par exemple de GPT-4 (version évoluée de ChatGPT), PaLM 2 de Google, Stable de Stability.ai et LLaMA de Meta. Mais ils ont un score compris entre 21 et 27 sur 48. Selon les chercheurs américains, le meilleur système est toutefois Open Source Bloom. Cet algorithme français affiche 36 points sur 48. Au vu des scores, la marge d’amélioration reste importante. Il faut donc contraindre les détenteurs des IA génératives à se conformer à l’AI Act pour assainir l’écosystème des systèmes d’apprentissage automatique.