ChatGPT, Bard : Google invite ses employés à ne pas partager d’infos sensibles sur les chatbots
Le groupe Alphabet, la maison-mère de Google, invite ses employés à la vigilance lors de l'utilisation de chatbots comme ChatGPT-4 et même Bard. Pourquoi ? Par crainte de voir ses IA récupérer et partager des informations confidentielles.
A l'image de la grande majorité des entreprises lancées dans la course à l'IA, Google souhaite avancer prudemment. Tout comme Alphabet d'ailleurs, la maison-mère du géant du web.
D'après un rapport partagé par nos confrères de Reuters, le groupe appelle ses employés à une certaine vigilance lors de l'utilisation des chatbots comme ChatGPT-4 et même Bard, l'IA conversationnelle de Google. Plus précisément, Alphabet invite ses collaborateurs à ne pas utiliser d'informations confidentielles lors de leurs échanges avec ces IA.
Alphabet (Google) a peur des fuites sur les chatbots
Les craintes d'Alphabet sont plutôt légitimes, dans le sens où ces IA exploitent l'apprentissage automatique pour s'améliorer au fil du temps. De fait, rien ne les empêcherait de reproduire et partager des données sensibles qu'elles auraient récoltées lors de précédentes conversations.
Par ailleurs, le groupe a également demandé à ses ingénieurs de ne pas utiliser le code informatique sur lequel repose Bard directement dans le chatbot. L'idée encore étant d'éviter des fuites éventuelles qui pourraient mettre en péril la sécurité du chatbot. Notez que Google n'est pas la seule entreprise à avoir mis en garde ses employés sur l'utilisation des chatbots accessibles au public. Plusieurs grands acteurs de la Tech comme Samsung, Apple ou Amazon ont également instauré des garde-fous.
A lire également : Google est contraint de reporter le lancement de l’IA Bard en Europe, voici pourquoi
De nombreux professionnels utilisent des chatbots sans s'inquiéter des risques
Ces mesures sont nécessaires, comme l'a prouvé une étude publiée en janvier 2021 du réseau social professionnel Fishbowl. Selon ce sondage effectué auprès de 12 000 personnes, 43% des professionnels interrogés ont utilisé des chatbots publics dans le cadre de leur mission sans en informer leur hiérarchie.
On le sait, ChatGPT-4 et d'autres IA conversationnelles sont parfaitement capables de rédiger des mails, des documents complexes y compris des logiciels. S'ils se présentent donc comme de formidables outils pour faciliter le travail de nombreux professionnels, les contenus générés peuvent contenir des informations erronées, confidentielles ou protégées.
Dès le 1er juin, Google a pris les devants dans un mémo partagé à ses employés et qui stipulait : “N'incluez pas d'informations confidentielles ou sensibles dans vos conversations avec Bard”. De l'avis de Matthew Prince, PDG de Cloudflare, saisir des données sensibles dans des chatbots publics revient à “confier à une bande d'étudiants en doctorat tous vos dossiers privés”. C'est un bon résumé.