Quand l’intelligence collective bat l’intelligence artificielle

6 février 2020

Quand l’intelligence collective bat l’intelligence artificielle

Par Pauline Bar

Nos algorithmes et nos intelligences artificielles sont biaisés.

J’en ai fait l’expérience concrète sur le plus grand réseau social professionnel du monde à savoir LinkedIn qui comptait en 2019 près de 660 millions de membres.

Un utilisateur m’avertit que mon profil sur ce réseau est très intéressant mais une rubrique s’affichant en bas de ma page paraît complètement hors propos. Dans la fonctionnalité autres pages consultées qui indique les pages consultées par les autres utilisateurs s’affichent sur ma page une majorité de profils douteux à connotation sexiste (escort, modèle privé, etc.)

Sous le choc je commence à mener mes investigations. D’autres femmes CEO que moi sont également concernées.

Je publie un post sur ce même réseau social qui est vu par plus de 110,000 membres. Grâce à l’intelligence collective, chaque internaute contribue à la visibilité du post et certains m’envoient des recherches et études complémentaires, je progresse donc dans mon enquête : des millions de femmes sont en fait touchées à tous niveaux de responsabilité dans tous les pays du monde.

Suite à mes échanges répétés avec le service client, LinkedIn m’annonce avoir démarré une enquête et supprime les profils les plus douteux mais je me bats encore pour la suppression complète de cette fonctionnalité biaisée.Les conséquences sont dramatiques. Lucie postule par exemple un poste de Commerciale dans une société A. Comme la majorité des personnes travaillant en Ressources Humaines, la personne en charge du recrutement de l’entreprise A s’empresse de consulter le profil de Lucie, or elle découvre à ce moment sur la page de Lucie tout un tas de profils peu recommandables associés au sien. La candidature de Lucie est alors immédiatement écartée.

Des millions de femmes sont ainsi discriminées dans leur recherche d’emploi, les préjudices sont graves.

Les biais sexistes des algorithmes étant encore peu connus du grand public, les utilisateurs pensent que les algorithmes sont objectifs, que les intelligences artificielles sont intelligentes, que des réseaux professionnels qui possèdent autant d’utilisateurs ne peuvent pas avoir des biais aussi énormes.

Je prends dans cet article l’exemple de LinkedIn qui est très parlant mais n’est que la pointe émergée de l’iceberg. Les biais sexistes concernent plus largement les intelligences artificielles de tous les GAFA et entreprises de la Tech.

Début 2018, Joy Buolamwini, chercheuse au MIT et fondatrice de L’Algorithmic Justice League, dénonçait les biais sexistes des logiciels de reconnaissance artificielle, beaucoup moins efficaces pour reconnaître les visages des femmes et des personnes à peau foncée.

Fin 2018, Amazon abandonnait son programme de tri des CV avant embauche qui discriminait les candidates. Quelques mois plus tard, Google annonçait de son côté vouloir corriger les biais sexistes de son outil de traduction.

En 2019, deux scientifiques, Aude Bernheim et Flora Vincent publient le livre L’intelligence artificielle, pas sans elle ! dans lequel elles expliquent l’enjeu de l’implication des femmes dans l’économie numérique.

Il y a des solutions à mettre en place, une des plus pratiques et efficaces est d’accélérer rapidement la présence des femmes à tous les niveaux et dans les métiers de l’intelligence artificielle.

De façon plus large, les femmes doivent être partie prenante de la révolution digitale. Selon le collectif Sista qui vise à réduire l’écart de financement entre les fondateurs et les fondatrices des start-up, les chiffres sont sans appel : en France leur baromètre annonce que depuis 2008 seulement 2% des fonds levés le sont par des start-up dirigées par des femmes (89% par des start-up dirigées par des hommes et 9% mixtes)

Je suis persuadée, que pour cette fonctionnalité LinkedIn, s’il y avait eu parité dans les équipes à tous les niveaux, un tel scandale aurait été détecté bien en amont voire ne se serait pas produit du tout.

Il ne faut même pas nécessairement des compétences incroyables en informatique pour détecter ce genre d’anomalie dégradante, avant de fonder mon entreprise j’étais Business Analyste côté utilisateur.

En tant que femme, j’aurais pris la décision de suspendre cette fonctionnalité ultra discriminante dans la journée.

Pauline BarA propos de l’auteure : Après 15 ans d’expérience professionnelle en Marketing et Finance dans de grands groupes, Pauline fonde The Working Mums afin de rendre les entreprises plus performantes grâce à une meilleure gestion de la parité et de la parentalité au travail.

Auprès des particuliers, Pauline effectue du coaching pour propulser les femmes dans leur vie professionnelle et personnelle. 

Suivez ses posts et sa communauté sur LinkedIn : www.linkedin.com/in/pauline-bar

 

Recommandé pour vous