Unbias à Sophia : l'IA pour contrer le sexisme ordinaire des machines
L'Intelligence Artificielle peut-elle apporter une solution au sexisme de la vie quotidienne que reproduisent les machines (traducteurs automatiques ou chatbot)? Oui répond Unbias. Fondée par une anthropologue et un spécialiste de l'IA, la startup sophipolitaine propose des outils technologiques permettant aux data-scientists de développer une véritable IA éthique.
L'Intelligence Artificielle peut-elle apporter une solution contre le sexisme ordinaire ? Certainement. Eviter que l'IA ne répande insidieusement ce sexisme de la vie quotidienne dans les traducteurs automatiques ou les agents conversationnels (chatbot), c'est en tout cas le projet que développe Unbias. Cette startup sophipolitaine a été fondée autour de deux compétences : celle de Daphné Marnat, anthropologue, spécialiste des sciences sociales, et Benoit, un data scientist orienté IA.
Accompagnée par l'Incubateur Telecom Paris Eurecom Entrepreneurs, Unbias s'est lancée tout naturellement le 8 mars dernier, lors de la journée de la Femme. La startup a été depuis plébiscitée par les Business Angels lors de la dernière cession de Start Up Factory. Elle a mis au point son algorithme, peaufiné sa première vague d'apprentissage et a débuté la commercialisation en ce printemps. Sa solution pour outiller les concepteurs d’IA éthique ? Daphné Marnat l'explique.
Des outils pour développer une IA éthique
"L’intelligence artificielle est entraînée à partir de jeux de données qui comportent de nombreux biais possiblement discriminant, même dans les corpus les plus "propres" (issus de Wikipedia, reddit par exemple). Les biais se logent au cœur de nos cultures. Même si nous souhaitons sincèrement les éviter, il n'est pas facile de les identifier, encore moins pour les machines qui apprennent sur nos productions de textes, d’images. Si les déclarations d’intention sur l’intelligence artificielle pleuvent (voir le rapport Villani), il existe en revanche très peu d’outils technologiques qui permettent aux data scientits d’agir concrètement".
"Unbias a donc pour objectif d'apporter les moyens techniques nécessaires au développement d'une IA éthique. Nous avons créé un modèle d’apprentissage des machines capable de détecter des biais sexistes dans les phrases et de les remplacer par des mots ou des syntaxes moins discriminants. Par exemple, remplacer la question "qui est le chef de famille", par "qui prend les décisions pour la famille" ou encore, remplacer le mot "mère" par celui de "parents" dans la phase "en cas de maladie des enfants les mères peuvent prendre un congé garde d'enfants".
"Une IA peut avoir des préjugés sexistes, tout simplement parce qu’elle apprend en nous imitant"
"Car une IA peut avoir des préjugés sexistes, tout simplement parce qu’elle apprend en nous imitant. Les corpus d’apprentissage sont biaisés, comme ceux qui conçoivent les machines. L’idée est donc d’agir au cœur de ce discours pour changer profondément nos éléments de langage. Unbias se charge de débiaiser des machines comme un traducteur automatique ou un agent conversationnel (chat bot), des outils de plus en plus utilisés par les entreprises comme par les institutions. Ces machines peuvent ainsi nous aider à mettre en œuvre le changement que la plupart des grands acteurs institutionnels et économiques déclarent initier".
Ce sont les clients que cible Unbias. La startup s'adresse en premier lieu aux groupes qui utilisent des robots conversationnels ou des outils de traduction, qui ont mis en place une vraie politique RSE et ont besoin d'afficher leurs valeurs éthiques. Un marché en plein développement.