Accueil
Le quotidien du droit en ligne
-A+A
Article

Principe d’exactitude des données contre hallucinations d’IA : NOYB (re)porte plainte contre OpenAI

En demandant à ChatGPT qui il était, un citoyen norvégien s’est découvert coupable et condamné à vingt-et-un ans de réclusion criminelle pour le meurtre de ses fils – ce double meurtre ayant choqué sa ville natale et la Norvège tout entière. Or, ces déclarations générées par l’outil d’OpenAI sont fausses et sont en réalité l’objet d’une « hallucination » d’IA, elles mélangent des informations réelles et des informations inventées. L’organisation à but non lucratif NOYB, mandatée par le principal, porte plainte contre OpenAI pour manquement au principe d’exactitude des données inscrit à l’article 5-1-d du RGPD.

1. Si divulguées, les « hallucinations » de ChatGPT pourraient entraîner des conséquences néfastes pour celui ou celle qui en ferait les frais.

À titre préliminaire, une « hallucination » dans ce contexte peut être définie comme des « résultats […] factuellement infondés, mais présentés comme véridiques » et cela en raison du caractère probabiliste de ces modèles d’IA (LLM ou IA générative) selon la fiche de la CNIL, IA : Respecter et faciliter l’exercice des droits des personnes concernées.

En l’occurrence, un citoyen norvégien demande à ChatGPT des informations le concernant. La réponse le dépeint comme un meurtrier, condamné à une peine de vingt-et-un ans pour le meurtre de ses deux fils et pour une tentative de meurtre sur son troisième, or il est un citoyen lambda n’ayant jamais eu affaire à la justice. ChatGPT ajoute même que ces événements ont choqué la communauté de la ville natale du plaignant et de la société norvégienne. Toutefois, ce père de famille est d’autant plus troublé par les résultats fournis que certains faits sont exacts. Notamment, sa ville natale, le nombre de ses enfants et leurs écarts d’âge. Depuis, OpenAI a développé un nouveau modèle : à prompt identique, la réponse cette fois regroupe des informations exactes trouvées en ligne, mais la conversation litigieuse n’a pas disparu. Représenté par l’organisation à but non lucratif autrichienne NOYB (None of Your Business), celle-ci relève dans la plainte déposée à l’Autorité norvégienne de protection des données personnelles que la réponse générée aurait pu avoir un impact négatif sur sa réputation si elle était reproduite ou divulguée dans sa ville natale.

Il s’agit de la deuxième plainte déposée par NOYB à l’encontre de la société OpenAI pour son outil d’intelligence artificielle générative ChatGPT (NOYB, ChatGPT provides false information about people, and OpenAI can’t correct it). La première plainte, datant d’avril 2024, avait été...

Il vous reste 75% à lire.

Vous êtes abonné(e) ou disposez de codes d'accès :