Quand on pense au racisme, on a tendance à imaginer notre vieil oncle en réunion de famille ou cet ami qui a la fâcheuse tendance de commencer ses phrases par : “Je ne suis pas raciste, mais …”.

Malheureusement, le problème est bien plus intégré que ça, et donc bien plus difficile à comprendre et à renverser.

Twitter

Twitter est un réseau social de microblogging qui est utilisé par plus de 300 millions d’utilisateurs et d’utilisatrices. Ce chiffre implique qu’il influence la manière de voir le monde d’une bonne partie de la population, du moins de la population occidentale. Car oui, les choix techniques ont tous une incidence sur notre vie et donc sur notre appréciation des choses.

Apprentissage profond1, IA et consorts

Le but ici n’est pas d’apprendre le fonctionnement de ces méthodes. En revanche, je peux simplement vous expliquer le postulat global. On part du principe que ces systèmes d'intelligence artificielle vont évoluer en fonction de ce qu’on leur donne à manger et par retour d’expérience. En gros, et désolé pour les raccourcis, si on veut qu’un algorithme s’adapte à la reconnaissance de visages, on lui donne des milliers de visages à manger et on espère qu’il trouvera une manière de catégoriser ces images pour pouvoir reconnaître un visage dans un autre contexte. Plus on expose l’algorithme à un grand nombre de cas, plus il s’améliore. Et ça fonctionne !

Le problème est que si notre échantillon n’est pas neutre, l’algorithme ne le sera pas non plus. Un exemple tout bête, si on entraine notre reconnaissance de visages avec des photos de personnes ayant la peau blanche, l’algorithme aura de la peine, voir n’arrivera pas, à reconnaître une personne à la peau noire. Ou si on entraine de la reconnaissance vocale avec des voix masculines, il lui sera difficile de comprendre une voix féminine.

C’est un problème, nous en sommes conscients et nous pouvons tenter de le résoudre en diversifiant nos échantillons d’entrainement.

La preuve par l’exemple

Sur Twitter, depuis plusieurs jours certaines personnes ont testé la reconnaissance de visage automatique. En effet, lorsqu’une image contient un visage et qu’elle n’a pas les dimensions désirée par Twitter, ce dernier va tenter de redimensionnant en centrant sur le visage. L’objectif est d’avoir des miniatures le plus représentatives possibles de l’image source2. Sauf que, et ce problème n’est pas limité à ce réseau social, l’algorithme a une préférence envers les personnes ayant la peau blanche.

De nombreuses personnes en ont parlé mais je viens de tomber sur le message d’une certaine sina rawayama :

Aperçu des quatre images twitter, chacune montrant un homme blanc

On y voit quatre photos du même homme blanc, plus ou moins bien cadrées. Mais à quoi ressemblent les quatre images ?

Les quatre images complète, montrant un homme blanc et un homme noir

Voilà le problème, l’algorithme choisit à chaque fois de ne pas prendre en compte la personne ayant la peau noire pour son redimensionnement.

Je le répète, bien évidemment ce n’est pas lié à une volonté de faire disparaître une frange de la population, c’est uniquement la conséquence d’un manque de diversité dans l’apprentissage.

Petit rajout, merci Cyril Picard pour l’info, apparemment ce problème engendre également de graves conséquences dans le milieu médical. Je vous laisse lire l’article de nature sur le sujet si cela vous intéresse.

Conclusion

Le but ici n’est pas de blâmer Twitter mais que nous nous rendions compte que notre monde baigne dans un racisme systémique (et pas que, j’ai vite évoqué du sexisme dans ce billet mais ça mérite plusieurs bouquins). Il est de notre responsabilité, et je parle en tant qu’homme privilégié, de mettre tout en œuvre pour modifier ce fonctionnement.

Ensemble, faisons attention aux conséquences de nos actions.


  1. Deep learning, voir la page wikipedia sur le sujet pour plus d’informations. ↩︎

  2. Une autre solution serait d’agrandir l’image, en rajoutant du contenu sur les côtés pour avoir toute l’image dans la miniature. ↩︎