Sexistes les assistants vocaux ? Oui si l’on se réfère à un rapport des Nations Unies publié sous le titre « I’d blush if I could » (trad : Je rougirai si je le pouvais), un titre en relation avec l’une des réponses de Siri lorsqu’on lui demande si elle est une « cochonne » (la réponse de Siri a été modifiée depuis). Le rapport pointe notamment le fait que nombre d’assistants vocaux (Siri, Google Assistant, Alexa) proposent une voix féminine par défaut, ce qui renverrait à l’image d’une femme en tant qu’assistante permanente de l’homme, à ses petits soins en quelque sorte…

Plusieurs universitaires ayant participé à l’écriture du rapport soulignent ainsi que ce choix par défaut renforcerait les biais et les discriminations de genre… sans apporter le moindre chiffre ou preuve de type réellement scientifique permettant d’étayer ce rapprochement entre les discriminations faites aux femmes et les voix féminines des intelligences artificielles (si ce n’est l’étude aux conclusions assez capillotractées d’un professeur de Harvard).

Le second reproche semble déjà plus sérieux : une étude menée en 2017 par le journal Quartz avait montré que les assistants vocaux minoraient le harcèlement sexuel dans leur réponse. Face à des insultes de type franchement sexistes (et injurieuses de surcroit), la plupart des assistants vocaux répondaient de façon évasive, voire… positive (comme l’exemple de Siri plus haut) !

On notera toutefois que dans un petit nombre de pays, Siri est proposé avec le timbre masculin par défaut (pays du Proche et Moyen-Orient, France, Angleterre, Pays-Bas), un choix qui de toute façon est souvent modifié par l’utilisateur; une étude publiée en 2017 montrait en effet que l’immense majorité des utilisateurs et des utilisatrices préfère que leur assistant vocal s’exprime avec une voix féminine.