Google : le numéro 1 de l’IA quitte le navire et craint pour l’avenir de l’humanité
Geoffrey Hinton, chercheur de renommée mondiale connue notamment pour ses travaux sur l'IA, vient de quitter les rangs de Google. Le scientifique se dit inquiet pour l'avenir et regrette même “l'oeuvre de sa vie”.
Le nom de Geoffrey Hinton ne vous dit peut-être rien, et pourtant sans les travaux de ce chercheur de renommé mondiale sur les réseaux neuronaux artificiels, des outils comme ChatGPT, Google Bard, Midjourney ou Bedrock n'auraient jamais vu le jour.
Ce scientifique de 75 ans, récompensé par le prestigieux prix Turing en 2019, l'équivalent d'un Nobel dans le domaine de l'informatique, vient tout juste de claquer la porte de Google après 10 ans de service. Désormais débarrasser de toute clause de confidentialité, ce pionnier de l'IA a décidé de prendre la parole dans de nombreux médias pour alerter sur les risques de cette technologie.
L'IA représente un risque pour l'humanité
Dans un article publié ce 1er mai 2023 par le New York Times, Geoffrey Hinton estime que “les futures versions de cette technologie pourraient être un risque pour l'humanité”. Il ajoute même qu'une “part de lui-même regrette l'oeuvre de sa vie”.
Auprès de la BBC, le psychologue cognitif et informatique britanno-canadien a déclaré que les chabots comme ChatGPT pourraient bientôt dépasser le niveau d'information et d'intellect d'un cerveau humain. “Pour l'instant, ce que nous voyons, c'est que des choses comme ChatGPT-4 éclipsent une personne en termes de culture générale, et de loin. En termes de raisonnement, il n'est pas aussi bon, mais il est déjà capable d'effectuer des raisonnements simples”, explique-t-il.
Une pause dans le développement des IA est impérative
Pour lui, il est impératif de faire une pause dans le développement effréné de ces technologies, et ce dans l'optique d'aboutir à l'instauration de régulations et garde-fous. Rappelons qu'au début avril 2023, des milliers d'experts ont apposé leur signature dans une lettre ouverte (on y retrouvait notamment Yoshua Bengio, ancien collaborateur de Geoffrey Hinton ou encore Elon Musk, PDG de Tesla et cofondateur d'OpenAI) dans laquelle ils tirent la sonnette d'alarme.
De son côté, le scientifique a préféré ne pas être signataire tant qu'il occupait une position chez Google. “Je suis parti pour pouvoir parler des dangers de l'IA sans me soucier d'un éventuel impact chez Google”, a-t-il déclaré dans un tweet.
Ne plus savoir distinguer le vrai du faux
Pour l'instant, les craintes de Geoffrey Hinton se concentrent surtout autour de la création de fausses images, vidéos et articles par ces outils propulsés par l'IA. Ainsi, il se dit terrifié à l'idée que “les gens normaux ne puissent plus distinguer le vrai du faux”. Une étude récente a d'ailleurs mis en lumière le nombre grandissant d'articles écrits par une IA sur le web. Le chercheur s'inquiète également de voir ces technologies exploitées à des fins militaires via la robotique (qui a dit Terminator ?).
Quoi qu'il en soit, la prise de parole de Geoffrey Hinton intervient alors que de nombreux gouvernements s'interrogent sur les effets néfastes de ChatGPT et des autres outils basés sur l'IA. En mars 2023, l'Italie a décidé de bloquer ChatGPT sur son territoire. D'après l'autorité italienne en charge de la protection des données, OpenAI et ChatGPT ne respectent pas le RGPD. En France, ChatGPT est toujours autorisée. Toutefois, le ministre de la Transition numérique Jean-Noël Barrot appelle au plus vite à la mise en place d'une législation européenne sur le sujet de l'IA.