ChatGPT : deux avocats sanctionnés pour avoir utilisé l’IA au tribunal
Deux avocats ayant utilisé de fausses affaires générées par ChatGPT ont été condamnés à une amende commune de 5 000 dollars et ont reçu l'ordre de contacter les juges mentionnés dans les fausses affaires pour les informer de la situation.
Un juge de Manhattan a infligé une amende de 5 000 dollars à deux avocats qui lui ont remis un dossier juridique rempli d'affaires et de citations inventées, toutes générées par l’intelligence artificielle ChatGPT. Si l’IA conversationnelle s’avère souvent précise et efficace, il lui arrive parfois d’inventer des choses de toutes pièces.
Les avocats, Steven A. Schwartz et Peter LoDuca du cabinet Levidow, Levidow & Oberman, ont d'abord défendu leurs recherches, même après que l'avocat de la partie adverse eut signalé qu'elles étaient fausses, mais ils ont fini par s'excuser auprès du tribunal.
ChatGPT génère parfois de fausses informations
Schwartz et LoDuca représentaient Roberto Mata, qui affirmait avoir été blessé au genou après avoir été heurté par un chariot de service en métal sur un vol Avianca reliant le Salvador à l'aéroport international Kennedy de New York en 2019. Lorsque la compagnie aérienne colombienne a demandé à un juge de Manhattan de rejeter l'affaire au motif que le délai de prescription était dépassé, Schwartz a présenté un dossier juridique de 10 pages contenant une demi-douzaine de décisions de justice passées, sauf qu’une bonne partie de celles-ci n’existaient pas.
En condamnant les avocats et le cabinet d'avocats à payer l'amende, le juge a déclaré qu'ils avaient « abandonné leurs responsabilités lorsqu'ils ont soumis des avis judiciaires inexistants avec de fausses citations créées par l'outil d'intelligence artificielle ChatGPT, puis ont continué à soutenir les faux rapports après que des ordonnances judiciaires ont remis en question leur existence ».
Cet incident confirme donc une étude qui affirmait que ChatGPT était un paradis de fake news, y compris la dernière version basée sur GPT-4. Bien que l’IA commence à remplacer certains travailleurs, dont notamment les RH qui l’utilisent de plus en plus pour écrire des lettres de licenciement, il semble que les avocats ne sont pour l’instant pas encore menacés.
« Les progrès technologiques sont monnaie courante et il n'y a rien d'intrinsèquement inapproprié à utiliser un outil d'intelligence artificielle fiable pour obtenir de l'aide », a précisé le juge Castel. « Mais les règles existantes imposent aux avocats un rôle de gardien pour garantir l'exactitude de leurs déclarations ».