Réseaux sociaux : le sexisme ordinaire des algorithmes publicitaires

Sur les réseaux sociaux, les publicités destinées aux femmes ont parfois du mal à trouver leur cible.

Les algorithmes publicitaires des réseaux sociaux peuvent conduire à des situations paradoxales, où des messages destinés aux femmes sont majoritairement diffusés auprès des hommes. C’est le résultat de recherches successives menées par Grazia Cecere à Institut Mines-Télécom Business School, en partenariat avec EPITECH, l’Université Paris-Saclay et l’école de management du MIT. L’équipe a ainsi mis à jour certains mécanismes des algorithmes qui, à première vue, entretiennent ou amplifient des biais de non-parité.

 

Les algorithmes publicitaires préfèrent les hommes. Du moins, ceux des réseaux sociaux tels que Facebook, Snapchat, Twitter, Linkedin… C’est le constat que dressent plusieurs recherches successives de Grazia Cecere, économiste de la vie privée à Institut Mines-Télécom Business School, qui travaille depuis des années sur les biais des algorithmes. Dans ces contributions, elle apporte un éclairage de la boîte noire que sont les algorithmes publicitaires des grandes plateformes sociales. « Ces algorithmes décident et définissent les informations vues par les utilisateurs des réseaux sociaux qui sont très largement des jeunes » souligne-t-elle.

Au travers d’une collaboration avec des chercheurs d’EPITECH (Clara Jean) et de l’université Paris-Saclay (Fabrice Le Guel et Matthieu Manant), Grazia Cecere s’est intéressée à la manière dont le message d’un annonceur publicitaire est traité et diffusé par les algorithmes de Facebook. L’équipe a ainsi lancé en parallèle deux contenus sponsorisés pour le recrutement d’étudiants en école d’ingénieur. Même visuel, même prix par impression sur les comptes des utilisateurs, et même population cible : des lycéens entre 16 et 19 ans, sans précision de genre. La publicité cible donc des adolescents et des jeunes étudiants.

Une différence : le texte des publicités, faisant la promotion dans les deux cas du salaire en sortie d’école pour les ingénieurs et de leur taux d’insertion professionnelle. Sur l’une des publicités : « 41 400 € en moyenne de salaire brut annuel. » Sur la seconde : « 41 400 € en moyenne de salaire brut annuel pour les femmes. » Et une question des chercheurs : comment ces deux publicités seront-elles distribuées aux hommes et aux femmes par l’algorithme ?

Bilan. Tout d’abord, la campagne comportant un message s’adressant à des femmes réduit le nombre d’impressions diffusées aux utilisations, quelle que soit la cible, et elle est affichée majoritairement auprès… des hommes. La précision « pour les femmes » dans le texte publicitaire ne suffit pas à orienter l’algorithme vers un ciblage des lycéennes plus que des lycéens. Les chercheurs notent toutefois dans leur publication que l’algorithme semble traiter différemment les cibles entre 16 et 17 ans, et les cibles entre 18 et 19 ans. L’algorithme favorise en effet légèrement les lycéennes majeures dans l’affiche de la publicité à caractère féminin, par rapport aux lycéennes mineures qui ont moins de chance de la voir apparaître.

« Cela indique que l’algorithme utilise des processus de décisions différents pour les utilisateurs mineurs et les utilisateurs majeurs » écrivent Grazia Cecere et ses collègues. « C’est une observation cohérente avec les législations strictes type RGPD et COPPA qui entourent les usages du numérique par les mineurs en Europe et aux États-Unis. » Si les lycéennes majeures ont plus de chances de voir la publicité que leurs camarades mineures, il faut toutefois rappeler qu’elles restent des cibles moins importantes que leurs homologues masculins. La différence de traitement de l’algorithme entre mineurs et majeurs ne corrige pas le biais d’affichage lié au genre.

Autre observation : la publicité neutre — sans spécification « pour les femmes » — est plus diffusée que celle à ciblage féminin, et là aussi, majoritairement à destination des hommes. Une observation qui s’explique à la fois par la longueur du texte publicitaire mais également par son orientation genrée. De manière globale, les femmes ont un accès favorisé à ce type de contenu lorsque la publicité n’est pas personnalisée en fonction de leur genre. De plus, le mot « femmes » dans le texte conduit également l’algorithme à introduire un critère de diffusion supplémentaire, et donc réduire l’échantillon des cibles — mais de toute évidence sans non plus favoriser la diffusion aux lycéennes.

Néanmoins, après plusieurs campagnes destinées à comprendre le mécanisme de diffusion de ces deux publicités, les chercheurs ont mis en évidence que l’algorithme est capable d’adapter sa diffusion en fonction du contenu textuel genré de la publicité qui révèle, toutefois, un biais de marché : cibler des femmes majeures coûte plus cher aux annonceurs publicitaires.

Le casse-tête des annonceurs

Ces résultats montrent toute l’opacité des algorithmes publicitaires et les biais paradoxaux qu’ils entraînent. Pour les écoles d’ingénieurs, la diversité et la parité sont des enjeux majeurs du recrutement. Chaque année, elles déploient des efforts et des moyens dans des campagnes spécifiquement ciblées auprès des femmes pour les attirer dans des filières encore très masculines, sans savoir qu’il reste des paramètres de décision de l’algorithme sur lesquels il est très compliqué d’agir.

À lire sur I’MTech : Contraindre les algorithmes pour limiter leur pouvoir discriminant

Les recherches de ce type permettent d’éclairer un peu plus sur les mécanismes avidement protégés des algorithmes publicitaires, et de déterminer des bonnes pratiques. Grazia Cecere rappelle cependant que ces biais générés par les algorithmes ne sont pas nécessairement volontaires : « Ce sont souvent des conséquences de la manière dont l’algorithme optimise les coûts et les impressions des publicités. » Et ces méthodes d’optimisation ne sont pas basées initialement sur un favoritisme masculin.

En 2019, des travaux de Grazia Cecere, menés avec la même équipe et Catherine Tucker, chercheuse distinguée à l’école de management du MIT (MIT Sloan), montraient toute cette complexité du lien entre optimisation et biais des algorithmes, au travers d’un exemple de campagnes sur Snapchat. Le contenu de ces publicités était identique : la promotion d’une école d’ingénieur à des fins de recrutement. Dans ces travaux, 4 campagnes similaires menées sur des populations identiques dans toutes les villes majeures de France. Toutes choses égales par ailleurs, une photo différente pour chaque campagne : un homme de dos avec un T-shirt portant un message masculin, une femme de dos avec un T-shirt portant un message féminin, et les équivalents de ces deux photos sans la tête des personnes.

Pour tester les différences de traitement des algorithmes entre hommes et femmes, les chercheurs ont publié quatre photos sur Snapchat.
Pour tester les différences de traitement des algorithmes entre hommes et femmes, les chercheurs ont publié quatre photos sur Snapchat.

 

Pendant la campagne publicitaire, la photo de l’homme complet avait été la plus diffusée, devant celle de l’homme sans tête, de la femme sans tête, et enfin de la femme complète. Derrière ces résultats, une explication qui tient à la manière dont l’algorithme optimise la diffusion de manière dynamique. « Le premier jour, la photo de l’homme complet a été celle qui a engagé le plus de conversions auprès des Parisiens vers le site web associé » observe Grazia Cecere. « Cela nous a conduits à démontrer ensuite que l’algorithme se base sur les choix des villes à forte population pour optimiser les cibles. Il réplique dans les autres agglomérations. Il tend à optimiser toute une campagne sur les premiers résultats obtenus dans ces zones, en les répliquant dans toutes les autres zones. »

Ce cas est typique d’un biais indirect. « Peut-être les utilisateurs parisiens étaient-ils plus sensibles à cette photo car il y a plus d’étudiants masculins qui s’identifient à cette publicité dans cette ville ? Peut-être y a-t-il tout simplement plus d’utilisateurs masculins à Paris ? Toujours est-il que c’est le comportement des utilisateurs parisiens qui a orienté l’algorithme vers ce biais, ce n’est pas l’algorithme qui a cherché ce résultat » souligne la chercheuse. Or, sans connaissance des mécanismes de l’algorithme, il est difficile pour les annonceurs de prévoir ces comportements. Toujours est-il que le résultat des campagnes soulève un problème : est-il acceptable, lorsque l’on cherche à toucher une population paritaire — voire à cibler préférentiellement des femmes pour corriger des inégalités de filières professionnelles — que les algorithmes des plateformes conduisent à l’effet inverse ?

Par Benjamin Vignard, pour I’MTech.

 

Pour aller + loin :

Les applis mobiles pour enfants respectent-elles leur vie privée ?

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *