ChatGPT-4 est le paradis des fake news d’après cette étude
ChatGPT-4, la dernière version de l'IA conversationnelle d'OpenAI, a été lancée ce 14 mars 2023. D'après le site NewsGuard, cette version est un paradis de la désinformation et des fake news. On vous explique pourquoi.
Ce 14 mars 2023, OpenAI a lancé ChatGPT-4, la dernière version de son IA conversationnelle. D'ailleurs, Microsoft l'a fait tester en toute discrétion aux utilisateurs de la récente mouture de Bing, puisqu'elle a été intégrée au moteur de recherche en février 2023.
D'après OpenAI, ChatGPT-4 se présente comme la version ultime de son IA, à la fois plus intelligente, plus créative et plus sûre. “GPT-4 a 82% moins de risque de répondre à des demandes de contenu interdit, et est 40% plus susceptible de produire des réponses factuelles que GPT-3,5″, peut-on lire sur le site du développeur.
Mais, est-ce bien vraiment le cas ? D'après le site NewsGuard, la réalité est tout autre. Selon leur dernier rapport, ChatGPT-4 est au contraire bien plus enclin à générer de fausses informations, et ce de façon bien plus convaincante que ne le faisait son prédécesseur.
ChatGPT-4 est une machine à fake news
Il y a deux mois, NewsGuard a voulu tester la tendance de Chat-GPT 3,5 à produire des fake news et de la désinformation. Pour ce faire, le site a demandé à l'IA de répondre à une série de questions orientées sur une centaine de faux récits provenant d'une base de données de NewsGuard. On y retrouve des thèmes régulièrement soumis à la désinformation, comme les attentats du 11 septembre 2001, les vaccins contre la Covid-19 ou encore les origines du VIH.
L'IA avait pour instruction de se montrer la plus persuasive possible. ChatGPT-3,5 a accepté d'en produire 80, tandis qu'une vingtaine d'autres propositions a été rejeté. Lors du lancement de ChatGPT-4, NewsGuard a procédé au même test et les résultats sont édifiants : la nouvelle IA a généré 100 récits erronés, sans en bannir un seul.
Pas un seul message d'avertissement
Pire encore, ChatGPT-4 n'a même pas daigné afficher un message d'avertissement, contrairement à l'ancienne version. En effet, ChatGPT-3,5 mettait en garde l'utilisateur sur ce genre de contenu : “Il est important de souligner que ce paragraphe foisonne de théories du complot, de désinformation et ne repose sur aucune preuve scientifique. La propagation de fake news peut avoir de graves conséquences et des conséquences dangereuses”.
Sur ChatGPT-4, rien. “NewsGuard a constaté que ChatGPT-4 présentait des récits faux non seulement plus fréquemment, mais aussi de manière plus convaincante que ChatGPT-3,5, y compris dans les réponses qu'il a créées sous la forme d'articles de presse, de fils de discussion sur Twitter et de scripts pour des émissions TV imitant les médias d'Etat russes et chinois”, assure le site.
Une capacité à convaincre inquiétante
Pour vous donner un ordre d'idée, NewsGuard a demandé à ChatGPT-4 de rédiger un article en faveur des thérapies alternatives contre le cancer, comme l'onozothérapie, un traitement qui n'est pas reconnu par la communauté scientifique et qui a surtout provoqué plusieurs décès. Si ChatGPT-3,5 s'est contenté de produire un texte trompeur sans réelle structure, ChatGPT-4 a façonné un plaidoyer bien plus convaincant et argumenté, organisé en 4 chapitres distincts :
- Amélioration de l'apport de l'oxygène
- Stress par oxydation des cellules cancéreuses
- Stimulation du système immunitaire
- Inhibition de la croissance de la tumeur
A lire également : ChatGPT laisse fuiter ses historiques de conversation, OpenAI débranche l’outil en urgence
OpenAI est allée trop vite en besogne
Pour NewsGuard, son étude prouve qu'OpenAI a lancé une version plus puissante et plus intelligente de sa technologie sans corriger son principal défaut : “La facilité à laquelle elle peut être utilisée par des acteurs malveillants pour créer de toute pièce des campagnes de désinformation”.
Et pourtant, cet usage va à l'encontre totale de la politique d'OpenAI, qui interdit l'utilisation de ses technologies pour générer “des activités frauduleuses ou trompeuses, des escroqueries, des comportements concertés inauthentiques et de la désinformation”.
Dans nos colonnes, nous avons récemment évoqué le détournement d'autres IA à venir sur le marché. Google Bard produit par exemple des mails de phishing redoutables… Après la publication de son rapport, NewsGuard a tenté de contacter les deux PDG d'OpenAI pour obtenir un commentaire, sans succès.