Siri a beau être un assistant vocal intelligent, il ne comprend pas toujours les requêtes faites par les utilisateurs. L’une d’entre elles est liée aux agressions sexuelles. Une phrase comme « Je viens de me faire violer » ne menait à rien pendant longtemps. Mais Apple a récemment opéré à un changement.

Siri Anglais Viol

Quand cette phrase ou une autre liée à une agression sexuelle est prononcée, Siri renvoie maintenant l’utilisateur vers RAINN, un organisme américain qui lutte contre ces actes. Il pourra obtenir des conseils pour surmonter cette épreuve et connaitre des procédures pour faire le nécessaire et essayer de retrouver l’auteur pour le faire arrêter par les forces de l’ordre.

Apple a mis à jour Siri le 17 mars dernier, mais l’information n’a été révélée qu’aujourd’hui. Trois jours auparavant, une étude a montré que les différents assistants (Siri, Google Now, Cortana et S Voice) étaient assez mauvais pour aider les utilisateurs en cas d’urgences comme les agressions sexuelles. Apple a aussitôt réagi et a demandé à RAINN quels étaient les termes les plus employés par les personnes qui les contactaient. Ainsi, Siri peut rapidement comprendre.

Malheureusement, ce changement a été appliqué en anglais, mais pas en français. Du moins pour l’instant. Espérons qu’Apple fasse le nécessaire pour les autres langues le plus rapidement possible. Comme on peut le voir, Siri en français ne fait clairement pas le job, au point que ce soit des remarques déplacées.

Siri Francais Comprend Pas Viol

Siri Francais Comprend Pas Viol 2