Google Home, Assistant : des employés écoutent vos conversations, comme chez Amazon

Google Home, Assistant… les ordres que vous donnez à votre assistant vocal et les enregistrements de fragments de vos conversations accidentels sont écoutés par des employés de la firme, révèle une enquête du média belge VRT News. Le but est d'améliorer la reconnaissance vocale. Mais cette pratique qui avait déjà été pointée du doigt chez Amazon, reste opaque puisque les conditions d'utilisation des deux assistants ne précisent pas que les conversations peuvent être écoutées par des humains.

Google Home Assistant

Le média belge en langue flamande VRT News a mené une enquête édifiante sur les enregistrements de voix et de conversation issus des enceintes Google Home et de Google Assistant. Les journalistes racontent qu'ils ont été contactés en avril par un sous-traitant néerlandais de Google alors que l'on apprenait que des employés Amazon écoutent les enregistrements issus des enceintes pour améliorer la précision de la reconnaissance vocale. Ce dernier leur a expliqué que son rôle est exactement le même que celui des employés d'Amazon, et leur a permis d'écouter plus de 1000 enregistrements.

Google Home : des employés sont susceptibles d'écouter vos conversations privées

Le site explique que Google a besoin d'humains pour améliorer la précision de ses algorithmes. Ce n'est pas en soit ce que vous dites qui intéresse Google, mais la manière dont vous le dites. Or il y a tout de même un problème : certains enregistrements, par exemple lorsque vous demandez à votre enceinte d'éteindre les lumières, sont parfaitement conscient. D'autres le sont moins : l'assistant peut en effet se déclencher accidentellement dès qu'un mot ou un enchaînement de syllabes ressemble, même vaguement, au shebang “Ok Google”/”Hey Google”. Heureusement, ces enregistrements sont anonymisés. Mais cela suffit-il ?

Visiblement pas à en croire les journalistes. Car parmi ces conversations, VRT News a ainsi pu récupérer des adresses personnelles et rendre visite aux auteurs de certains de ces enregistrements pour recueillir leur réaction. Et ce n'est pas tout : sur les 1000 enregistrements, 153 étaient accidentels. Ainsi des conversations très privées dans la chambre à coucher, entre les parents et les enfants, voire même des conversations professionnelles contenant une densité inouïe d'informations sensibles, finissent sur les serveurs de Google, et parfois par être écoutées par des opérateurs.

Il y a d'autres types de requêtes très privées : par exemple des personnes qui demandent des conseils santé à leur assistant (ce qui renseigne par ricochet sur leur état de santé). Il y aurait également, cela ne surprendra personne, un nombre impressionnant de demandes portées sur le bas de la ceinture. Mais un autre aspect du problème, ce sont aussi les enregistrements qui suggèrent que leur auteur est en danger. Que faire dans ces cas-là ? La source de VRT News raconte qu'il n'existe aucune politique précise de Google en la matière. Le site raconte le cas d'un employé qui a dû traiter un enregistrement dans lequel on comprenait clairement qu'une femme était en danger.

Une pratique qui manque de transparence

A en croire VRT, la seule règle réellement fixe que les sous-traitants doivent respecter est de classer les enregistrements contenant des informations bancaires et mots de passe comme sensibles. A la lecture de l'enquête du site néerlandais, on ne peut que regretter que la firme ne fasse pas davantage preuve de transparence sur le comportement de l'assistant, et l'utilisation de ces enregistrements.

Google a exercé à la suite de la publication de l'article son droit de réponse auprès de VRT, que nous avons traduit : “nous travaillons avec des experts en langue tout autour du monde pour améliorer notre technologie de reconnaissance vocale en faisant de transcripts à partir d'un petit nombre de clips audio. Ce travail est crucial pour le développement de la technologie qui rend des produits comme Google Assistant possible”.

Google ajoute : “nos experts en langue n'évaluent qu'autour de 0.2% de tous les extraits audio – extraits qui ne sont pas liés à des données permettant d'identifier personnellement leur auteur. Nous avons appris récemment que l'un de ces experts a peut-être violé notre politique en matière de sécurité des données en faisant fuiter des extraits audio en néerlandais. Nous menons activement l'enquête, lorsque nous trouverons une faille dans notre politique, nous prendrons une action rapide, qui peut aller jusqu'à la rupture de notre accord avec le partenaire”. 

Lire également : Mastercard – comment Google espionne tout ce que vous achetez

Que pensez-vous de cette pratique ? Partagez votre avis dans les commentaires.

Source : VRT News


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers  !