ChatGPT : voilà pourquoi l’IA s’est mise à délirer dans ses réponses

Ces derniers jours, ChatGPT répondait aux requêtes des internautes par des phrases qui n'avaient aucun sens, en anglais, en français ou en espagnol. On sait pourquoi désormais.

ChatGPT
Crédits : 123RF

Ça y est, ChatGPT ne donne plus l'impression de parler à quelqu'un ayant consommé des substances illicites. Pendant quelques jours, poser une question même simple à l'IA pouvait aboutir à des réponses qui n'avaient absolument aucun sens. La majorité des témoignages émanaient de pays anglo-saxons, mais pas que. L'espagnol ou le français n'étaient pas épargnés, quand le chatbot ne décidait pas de changer de langue et d'alterner entre le japonais ou le coréen entre deux phrases.

Dans certains cas, la réponse prenait la forme d'une suite de phrases ne voulant rien dire et dont chaque mot était surligné d'une couleur différente. Un comportement surréaliste qu'OpenAI, la maison-mère de ChatGPT, s'est empressé d'analyser pour y remédier.

La cause a été trouvée et elle se situe dans la manière dont l'IA choisit ses mots. D'une manière générale, elle étudie la demande et son contexte avant de sélectionner les mots qui selon ont le plus de chances de former la réponse attendue. Là, elle a un peu tout mélangé.

ChatGPT donnait des réponses sans queue ni tête, on sait désormais ce qu'il s'est passé

Une optimisation de l'expérience utilisateur a introduit un bug dans la façon dont le modèle traite le langage. Les LLM génèrent des réponses en échantillonnant des mots de manière aléatoire, en partie sur la base de probabilités. Leur « langage » est constitué de nombres qui correspondent à des jetons [tokens en anglais, ndlr]. Dans ce cas, le bug résidait dans l’étape où le modèle choisit ces numéros. Semblable à une erreur de traduction, le modèle a choisi des nombres légèrement erronés, ce qui a produit des séquences de mots qui n'avaient aucun sens“, explique OpenAI.

Lire aussi – ChatGPT actualise ses connaissances, mais pas pour tout le monde

Au niveau technique, la firme précise que “les noyaux d'inférence produisaient des résultats incorrects lorsqu'ils étaient utilisés dans certaines configurations GPU“. Toujours est-il qu'un correctif a été déployé et que l'incident est considéré comme résolu. Il semble néanmoins que les chatbots aient quelques soucis assez frappants en ce moment. On pense par exemple à l'inexactitude historique de Gemini qui a poussé Google à mettre en pause la génération d'images le temps de corriger ce qui cloche.

Voir les commentaires
Ailleurs sur le web