Rédigé par Emile Dev
10 juin 2023
L'intelligence artificielle (IA) a révolutionné de nombreux aspects de notre vie quotidienne, de la manière dont nous communiquons à la façon dont nous travaillons. Cependant, comme toute technologie, elle n'est pas sans failles. Récemment, un homme a intenté une action en justice contre OpenAI, la société derrière le chatbot d'IA ChatGPT, pour avoir diffusé de fausses informations à son sujet. Dans cet article, nous allons explorer cette affaire et ses implications pour l'avenir de l'IA.
En mai 2023, Fred Riehl, un journaliste, a utilisé ChatGPT pour obtenir un résumé d'une affaire judiciaire. Cependant, la réponse générée par le chatbot a faussement impliqué Mark Walters dans une affaire de détournement de fonds de la Second Amendment Foundation (SAF), une organisation à but non lucratif défendant les droits des armes à feu. Walters n'avait aucune affiliation avec l'organisation et n'était pas impliqué dans l'affaire
Mark Walters, un animateur de radio de Géorgie, a intenté une action en justice contre OpenAI après que ChatGPT ait faussement affirmé qu'il avait détourné des fonds de la Second Amendment Foundation (SAF), une organisation à but non lucratif défendant les droits des armes à feu. Cette affirmation a été faite en réponse à une requête d'un journaliste qui cherchait des informations sur une affaire judiciaire impliquant la SAF.
Selon la plainte de Walters, le journaliste Fred Riehl a utilisé ChatGPT pour obtenir un résumé de l'affaire "The Second Amendment Foundation v. Robert Ferguson". Cependant, la réponse de ChatGPT contenait des informations incorrectes et diffamatoires sur Walters, l'accusant d'avoir détourné des fonds de la SAF.
Il est important de noter que Walters n'a aucune affiliation avec la SAF et n'a jamais été impliqué dans l'affaire mentionnée. De plus, les informations fournies par ChatGPT étaient entièrement fabriquées, y compris le numéro de l'affaire.
Cette affaire soulève des questions importantes sur la responsabilité des entreprises d'IA pour les informations générées par leurs systèmes. Bien que les chatbots d'IA comme ChatGPT soient capables de générer des réponses qui semblent étonnamment humaines, ils sont également sujets à des erreurs et à des fabrications.
Ces "hallucinations", comme on les appelle dans le domaine de l'IA, peuvent causer des dommages réels, comme dans le cas de Walters. Cela soulève la question de savoir si les entreprises comme OpenAI devraient être tenues responsables des erreurs commises par leurs systèmes d'IA.
L'affaire Walters pose également des défis juridiques. Comment prouver en justice qu'un chatbot d'IA a porté atteinte à la réputation de quelqu'un ? Les lois actuelles sont-elles adaptées pour réguler ces technologies ? Ces questions restent sans réponse et cette affaire pourrait aider à façonner le discours juridique autour de ces outils.
La question de la responsabilité en matière d'IA est un domaine juridique complexe et en constante évolution. Dans le cas de Walters, il pourrait être difficile de prouver que OpenAI est responsable des actions de ChatGPT.
Cependant, cette affaire pourrait ouvrir la voie à d'autres poursuites similaires à l'avenir. Si Walters réussit à prouver que OpenAI est responsable des dommages qu'il a subis, cela pourrait créer un précédent pour d'autres affaires impliquant des erreurs d'IA.
Ce n'est pas la première fois que ChatGPT est impliqué dans une controverse. Dans une affaire précédente, un avocat a été sanctionné pour avoir cité des affaires fictives générées par ChatGPT. Dans une autre affaire, un animateur de radio a intenté une action en justice contre OpenAI pour avoir utilisé son émission comme source de données pour entraîner son modèle de génération de texte.
Malgré ces incidents, les modèles génératifs comme ChatGPT offrent des opportunités créatives et éducatives. Ils peuvent générer des idées, fournir des informations préliminaires et aider à la recherche. Cependant, il est crucial d'aborder leurs résultats avec scepticisme et de vérifier les informations auprès de sources fiables.
OpenAI est conscient des défis posés par les hallucinations de ChatGPT et travaille à réduire ces problèmes. Cependant, la société continue de présenter les chatbots d'IA comme un nouveau moyen de recherche d'informations, tout en mettant en garde contre une confiance totale dans les résultats générés par ces systèmes.
L'affaire Walters contre OpenAI souligne l'importance d'une réglementation et d'une responsabilité appropriées dans le domaine de l'IA. Alors que les technologies d'IA continuent de se développer et de s'intégrer dans notre vie quotidienne, il est essentiel que nous restions vigilants.