On pointe souvent du doigt les problèmes relatifs aux nouvelles technologies : obsolescence programmée, utilisation des données personnelles collectées, dérives possibles liées à la géolocalisation etc…  Mais ce n’est que récemment que la discrimination culturelle est devenue un problème majeur dans l’utilisation des technologies.

L’Iphone X : sa reconnaissance faciale mise en cause

Commercialisé depuis novembre 2017 dans le monde, l’Iphone X se présentait comme étant le smartphone révolutionnaire de l’année. En effet, plus besoin de l’ID Touche, désormais il vous suffit de présenter votre visage à la caméra pour déverrouiller votre téléphone : en principe, seul vous étiez donc en capacité de déverrouiller votre précieux smartphone. Seulement voilà, après un mois de commercialisation, un scandale venu tout droit de Chine remet en cause l’infaillibilité de la sécurité Apple. En effet, en décembre 2017, la technologie d’Apple fut accusée de discrimination culturelle, car si le Face ID fonctionnait quasiment parfaitement en occident, il n’en était pas de même en Extrême-Orient.

L’histoire commence début décembre 2017, dans l’empire du milieu, où une utilisatrice d’Iphone X parvient à déverrouiller le téléphone de son amie avec la reconnaissance faciale. Se rendant dans un app store pour découvrir l’origine du problème, la propriétaire du téléphone, se vit offrir un nouvel IPhone. Seulement voilà, le problème ne venait pas d’une déficience du premier téléphone, mais bien d’un problème du Face ID : ce dernier ne parvient pas à distinguer les utilisateurs chinois entre eux.

Ayant fait rapidement scandale en Chine puis dans le reste de monde, le cas de l’Iphone X repose donc la question de la discrimination culturelle dans les nouvelles technologies, question qui se retrouve à nouveau d’actualité avec une récente étude menée sur des assistants vocaux.

Les accents : bêtes noires des assistants vocaux ?

Récemment, le Washington Post, en partenariat avec des groupes de recherche, a fait état de la difficulté qu’avaient les assistants vocaux pour comprendre les personnes parlant l’anglais avec un accent autre que celui américain.  Ainsi, selon l’une des études menées, l’assistant Google ainsi qu’Alexa d’Amazon, verraient leur compréhension globale, se réduire de 2.6% en cas d’accent chinois et de 4.2% en cas d’accent espagnol.

Tandis que selon une autre étude, pour laquelle des expériences de lectures d’articles furent menées, même l’accent le plus léger dès lors qu’il n’est plus américain (ici l’accent britannique), n’est pas assez bien perçu par l’assistant pour que ce-dernier puisse rendre compte correctement d’un texte dicté.

Si la discrimination culturelle peut, à première vue, ne pas être un problème fondamentalement urgent à traiter, il pourrait le devenir. En effet, à l’image de l’aéroport de Nice ou celui de Paris utilisant la reconnaissance faciale pour effectuer le contrôle des frontières, d’autres instances adopteront bientôt également ce système de reconnaissance, or, comment considérer ces utilisations comme fiables, dès lors que la différenciation faciale de certaines ethnies est impossible ou que la reconnaissance vocale de certains accents est difficile ?  Plus que jamais donc, la discrimination culturelle doit être au cœur des préoccupations en matière de nouvelles technologies, à mesure où les utilisations de reconnaissances se généralisent.