Google Assistant, Siri, Alexa : les voix féminines par défaut, c’est du sexisme pour l’ONU

Google Assistant, Siri et Alexa sont plus connus pour leur voix de femme que d'homme. Et c'est un problème selon un rapport de l'ONU, qui estime que le fait de voir un assistant répondre systématiquement avec une voix féminine renforce les clichés sexistes comme quoi les femmes doivent répondre aux ordres et exécuter sans broncher ce qu'on leur dit de faire.

amazon echo alexa
Crédit : BestAI Assistant / Flickr

Google, Amazon et Apple contribuent-ils à véhiculer des clichés sexistes par l'intermédiaire de leurs assistants vocaux respectifs ? C'est en tout cas la conclusion d'un rapport de l'UNESCO (Organisation des Nations unies pour l'éducation, la science et la culture), l'une des branches de l'ONU. Les auteurs estiment que le fait que Google Assistant, Alexa ou Siri arborent généralement une voix de femme “reflète et renforce” l'idée que le rôle des assistants est à attribuer aux femmes.

Google Assistant, Siri, Alexa : les voix par défaut sont trop souvent féminines et renforcent les clichés selon l'ONU

Le rapport est intitulé “I'd blush if I could” (Je rougirais si je le pouvais), qui était une réponse que donnait Siri quand on lui demandait “Est-ce que tu es une salope ?”. “Parce que la plupart des assistants vocaux utilisent une voix féminine, cela envoie un signal comme quoi elles sont des aides serviables, dociles et désireuses de plaire, disponibles à tout moment en appuyant sur un bouton ou avec une commande vocale directe comme “hey” ou “ok”. L’assistant n’a aucun pouvoir au-delà de ce qu'on lui demande. Il honore les commandes et répond aux requêtes indépendamment de leur ton ou de leur degré d'hostilité. Dans de nombreuses communautés, cela renforce les préjugés sexistes généralement admis sur le fait que les femmes sont soumises et tolérantes aux mauvais traitements”, dénonce le document.

Lire aussi : Enceintes connectées : Google Assistant, Alexa et Siri comprennent mieux les hommes que les femmes

Les effets sur les enfants inquiètent particulièrement les chercheurs. Calvin Lai, de l'Université de Harvard spécialisé dans les biais inconscients, explique que “les associations de genre que les gens adoptent dépendent du nombre de fois que les gens y sont exposés. Au fur et à mesure que les assistant numériques se multiplient, la fréquence et le volume des associations entre “femme” et “assistante” augmentent considérablement”. Le professeur Noble ajoute “que les commandes aboyées aux assistants vocaux – telles que “trouver x”, “appeler x”, “changer x” ou “commander x” – agissent comme de puissants outils de socialisation et enseignent aux gens, et en particulier aux enfants, que le rôle des femmes, filles et personnes de sexe féminin est de répondre à leur demande. Représenter sans cesse les assistants numériques en tant que femme codifie de manière progressive un lien entre la voix de la femme et sa soumission”.

L'UNESCO recommande aux géants du numérique de se pencher sérieusement sur la question et de proposer des solutions plus adaptées. A noter que la voix par défaut des assistants peut varier selon les langues. Pour Siri, c'est généralement une voix de femme, mais c'est maintenant une voix d'homme en anglais britannique, en néerlandais, en arabe ou en français. Alexa de son côté n'a droit pour le moment qu'à une voix féminine.


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers  !