OpenAI (ChatGPT) craint d’avoir fait une découverte trop dangereuse pour l’humanité

Au milieu du chaos total dans lequel se trouve OpenAI depuis quelques jours, plusieurs chercheurs ont fait part de leurs inquiétudes dans une lettre destinée au conseil d’administration. Ils y expliquent notamment qu’un des projets menés par l’entreprise, le projet Q*, a atteint un stade de développement jugé trop dangereux pour l’humanité. Une lettre qui pourrait être à l’origine du renvoi de Sam Altmann.

Vient-on de découvrir la raison qui a poussé le conseil d’administration à licencier Sam Altmann, le PDG d’OpenAI — avant de le réembaucher en début de semaine ? Petit rappel des faits. Ce 17 novembre, OpenAI, l’entreprise à l’origine de ChatGPT, annonce le départ de son patron. S’en est suivie une ribambelle de péripéties qui a tenu en haleine le monde de la tech.

Entre menaces de démission de la part de 500 employés, Microsoft qui promet d’embaucher ces derniers, nomination de l’ancien patron de Twitch à la tête de la firme, puis finalement retour de Sam Altmann aux commandes, il fallait rester accroché pour tout suivre. On pensait donc le feuilleton terminé. Jusqu’à ce que nos confrères de Reuters mettent la main sur un document d’une importance capitale.

Sur le même sujet — OpenAI crée un outil de détection des images générées par son IA, pas de quoi faire disparaître les deepfakes

OpenAI craint désormais pour l’avenir de l’humanité

Ce document est une lettre écrite par un groupe de chercheurs d’OpenAI. Destinée au conseil d’administration, celle-ci évoque les avancées sur le Q* (prononcé Q Star). Initialement, le projet Q* consiste à permettre à une IA de résoudre des problèmes mathématiques. À l’heure actuelle, l’entreprise aurait mis au point une IA capable de s’atteler à des problèmes conçus pour des enfants.

On pourrait, dès lors, penser qu’il reste encore du chemin à parcourir avant d’obtenir des résultats vraiment impressionnants. Mais pour les auteurs de la lettre, ce cap a déjà été franchi. Il faut dire que la résolution de problèmes mathématiques demande à l’IA des capacités bien plus poussées qu’un chatbot comme ChatGPT, qui se « contente » d’analyser les prompts pour sélectionner une réponse adaptée.

Ainsi, les chercheurs auraient voulu mettre en garde le conseil d’administration d’OpenAI contre les avancées du projet Q*. Ces derniers n’hésitent d’ailleurs pas à se montrer alarmistes. Selon eux, les découvertes réalisées par l’entreprise représentent désormais un véritable danger pour l’humanité. Pour bien comprendre ce qui inquiète les chercheurs, il faut d’abord comprendre ce qu’est une AGI.

OpenAI se rapprocherait de l’AGI, et c’est une mauvaise nouvelle

Une AGI, pour Artificiel General Intelligence, ou intelligence artificielle générale, est en quelque sorte le modèle d’IA ultime. L’idée est de créer une IA fonctionnant de manière similaire à un cerveau humain, ce qui lui permettrait théoriquement de réaliser exactement les mêmes tâches. Si l’on s’inquiète déjà de la percée de l’IA dans le monde du travail, les AGI bouleverseraient complètement notre modèle économique, puisque plus rien n’empêcherait les entreprises d’y avoir recours plutôt qu’à leurs employés humains.

On ne sait pas si c’est sur ce point que les auteurs de la lettre ont insisté, Reuters n’ayant pas eu accès au document. En revanche, le média a pu interroger deux sources différentes, qui confirment qu’une lettre a bien été envoyée et, surtout, que cette dernière a précipité le licenciement de Sam Altmann. Le patron d’OpenAI ne se cache en effet pas de développer des outils qui mettront à mal le marché de l’emploi dans un futur proche.

Voir les commentaires
Ailleurs sur le web