ChatGPT : un avocat invente de fausses affaires grâce à l’IA pour l’aider dans son travail

L’avocat Steven Schwartz a admis avoir eu recours à ChatGPT pour inventer de toutes pièces six affaires, qu’il a ensuite utilisées pour remplir des documents légaux. Ces derniers comportaient de fausses citations et pièces à conviction fictives. Il indique ne pas avoir questionné la véracité des propos du chatbot, alors qu’il fait désormais face à de lourdes sanctions judiciaires.

justice affaire canal TF1
Crédits : Pixabay

On s’y attendait, on ne compte plus les dérives liées à l’utilisation de ChatGPT. Depuis plusieurs mois, les professeurs ont peur que leurs étudiants trichent massivement, les constructeurs craignent les fuites, bref, tout le monde ne se réjouit pas de la popularité hors du commun de l’intelligence artificielle. Le secteur judiciaire lui-même est désormais impacté par les dangers engendrés par le chatbot d’OpenAI.

Steven Schwartz, du cabinet d’avocats Levidow, & Oberman, a en effet avoué publiquement avoir eu recours à ChatGPT pour inventer pas moins de six affaires imaginaires. Ces dernières contenaient notamment des noms d’intervenants qui n’existent pas, ainsi qu’une collection de pièces à conviction fictives et de fausses citations. L’avocat soutient que « ChatGPT a fourni sa source légale et assuré la fiabilité de son contenu ».

Sur le même sujet — ChatGPT : l’application iPhone est désormais disponible en France, toujours pas de nouvelles pour Android

ChatGPT invente de fausses affaires pour le compte d’un avocat

Steven Schwartz se défend donc d’avoir volontairement inventé des affaires pour son travail, mais reconnaît néanmoins qu’il aurait dû vérifier la validité des propos de ChatGPT. Ce dernier indique ainsi qu’après avoir demandé à l’IA de lui fournir des affaires, il a demandé à cette dernière si celles-ci étaient bien réelles. Ce à quoi l’intéressée aurait répondu par l’affirmative, ajoutant qu’elles « peuvent être trouvées dans des bases de données de recherche juridique telles que Westlaw et LexisNexis ».

Steven Schwartz « regrette vivement d’avoir utilisé l’intelligence artificielle générative pour compléter la recherche juridique effectuée dans le présent document et ne le fera plus à l’avenir sans vérification absolue de son authenticité ». Le juge fédéral Kevin Castel, de son côté, se dit estomaqué par l’affaire, qu’il qualifie de « sans précédent ». L’avocat s’expose désormais à de lourdes sanctions judiciaires.


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers  !