L’IA ChatGPT écrit si bien qu’elle peut tromper des scientifiques

ChatGPT serait en mesure de tromper des évaluateurs scientifiques. Un tel niveau de perfectionnement pourrait alimenter une crise de l'intégrité scientifique, avertissent les auteurs d’une nouvelle étude.

ChatGPT
Crédit : albund / 123RF

Le nouveau chatbot ChatGPT ne fait que gagner en popularité depuis son lancement il y a quelques mois, notamment grâce à ses performances assez exceptionnelles. Des chercheurs ont donc voulu savoir s’il était capable de produire de manière convaincante de faux résumés qui pourraient tromper les scientifiques en leur faisant croire que des études sont réelles.

Pour cela, les chercheurs de l'université Northwestern et de l'université de Chicago ont demandé à ChatGPT de générer de faux résumés de recherche à partir de 10 résumés réels publiés dans des revues médicales, et ont soumis les faux articles, ainsi que des vrais, à des scientifiques. Ceux-ci avaient pour but de faire la distinction entre les vrais et les faux, et le moins que l’on puisse dire, c’est que les résultats sont alarmants.

Lire égalementMicrosoft adore ChatGPT et propose 10 milliards $ pour devenir un actionnaire presque majoritaire

Les scientifiques ne font pas la différence entre les vrais rapports et ceux écrits par chatGPT

Les examinateurs humains à qui l'on a donné un mélange de résumés réels et faussement générés n'ont pu repérer les résumés générés par ChatGPT que dans 68 % des cas. Les examinateurs ont également identifié à tort 14 % des résumés réels comme étant générés par l'IA.

Les chercheurs ont également soumis les articles écrits par chatGPT à un logiciel de détection de plagiat. Si 100 % d’entre eux étaient bien uniques, puisque chatGPT génère des réponses sans copier une source, seuls 8 % d'entre eux respectaient les exigences de formatage requises par les revues scientifiques.

ChatGPT n’est donc pas encore près de remplacer les rédacteurs dans tous les domaines, mais le chatbot devrait faire de gros progrès d’ici quelques années. Les publications scientifiques universitaires reposent sur un processus de soumission et d'examen des articles par des experts humains dans les domaines concernés, mais si ceux-ci ne sont plus en mesure de faire la différence entre des articles générés par une intelligence artificielle et un humain, cela pourrait remettre en cause de nombreux métiers.

Pour l’instant, les chercheurs exhortent les revues et les conférences médicales qui s'appuient sur des études scientifiques à maintenir des « normes scientifiques rigoureuses » et à mettre en place des détecteurs de sortie d'IA lors de l'examen des articles. Un étudiant a d’ailleurs développé un logiciel permettant de savoir si un texte a été généré par chatGPT.


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers  !