1. Are you Gay or Straight

La dernière invention de « scientifiques » : une intelligence artificielle avec un gaydar.

Deux chercheurs de l’Université de Standford, au sud de San Francisco en Californie, affirment, dans un article à paraitre dans The Journal of Personality and Social Psychology, avoir développé un réseau de neurones artificiels capables d’identifier l’orientation sexuelle d’hommes et de femmes à partir de l’analyse de leur visage. Une étude qui énerve, pleine de stéréotypes (avec un petit retour de la très controversée théorie de l’homosexualité par dérégulation hormonale au cours du développement du fœtus) et une vision très binaire de l’orientation sexuelle.

Qui n’a pas un jour entendu cette phrase : « Mais si, je te jure, elle est lesbienne ! Mon gaydar ne se trompe jamais. » ? Le gaydar, contraction de gay et radar, se définit comme une capacité intuitive à deviner l’orientation sexuelle d’une personne à partir d’indices indirects ou non verbaux (attitude sociale, gestuelle, code vestimentaire principalement). Tout le monde ne semble pas « posséder » cette capacité mais les doué.e.s du gaydar en sont généralement fie.è.r.e.s.

Alors développer une intelligence artificielle capable de savoir si une personne est hétérosexuelle ou homosexuelle, en quoi cela pose problème ? Après tout, ce ne serait qu’une robotisation du gaydar humain. Et un robot plutôt efficace. En effet, selon l’article de recherche dont il est question ici, lorsque l’intelligence artificielle, plus précisément un algorithme qui mime les connexions entre neurones dans notre cerveau, est confrontée à l’image d’un homme hétérosexuel et d’un homme homosexuel, elle est capable de donner la bonne orientation sexuelle dans 81% des cas (et dans 74% des cas pour des femmes). Là où un humain a des taux de réussite de l’ordre de 61% et 54% respectivement. Par ailleurs, ce taux de réussite de l’intelligence artificielle augmente lorsqu’on lui présente non pas une, mais cinq photos pour chacun des deux individus (taux de réussite de 91% dans le cas des hommes et de 83% dans le cas des femmes).

En réalité, cet article n’est pas crédible à la vue du nombre de biais méthodologiques qui ont conduit à l’obtention de ces résultats. Premièrement, au cours de ces travaux, l’intelligence artificielle a analysé plus de 35 000 images faciales d’homme et de femmes hétérosexuel.le.s et homosexuel.le.s représenté.e.s dans des proportions très éloignées de la réalité (50:50). Or, lorsque l’intelligence artificielle est confrontée à une situation plus réaliste (avec un ratio entre hétérosexuel.le.s et homosexuel.le.s plus bas), elle n’est capable d’identifier correctement que 47 homosexuel.le.s sur 100. Deuxièmement, la vision de l’orientation sexuelle est ici binaire et exclusive. Les auteurs se sont positionnés aux deux pôles de l’échelle de Kinsey quand l’orientation sexuelle devrait plutôt être considérée comme un continuum. De nombreuses personnes sont donc exclu.e.s de cette étude.

Troisièmement, l’origine des photos étudiées est à discuter : les photos ont été sélectionnées à l’aide d’un algorithme sur des sites internet de rencontres américains et sur Facebook (les critères de sélections sont la qualité, l’expression faciale -pour les auteurs une face neutre n’existe pas-, l’orientation de la tête et le fond de l’image) ! L’orientation sexuelle des personnes est basée sur le genre des partenaires recherchés ou sur le fait de « liker » des pages ou publications à contenu homosexuel. En effet, les gay-friendly, ça n’existe pas (au même niveau que les licornes). Si tu aimes une page avec du contenu homosexuel, tu es obligatoirement homosexuel.le. La question ne se pose même pas ! De plus, le fait de limiter la sélection de photos à des individus géographiquement localisés aux Etat-Unis est un biais majeur pour une étude qui interprète des caractères morphologiques et des comportements sociaux d’êtres humains. En effet, les américains ne sont pas des représentants des citoyens du monde entier ! A cela s’ajoute une sélection délibérée de la part des auteurs de photos d’individus uniquement Caucasiens (blancs). Leur argumentation est qu’ils n’avaient qu’un nombre insuffisant de participant.e.s volontaires homosexuel.le.s non-blancs. Une excuse en totale contradiction avec la méthodologie mise en place qui consiste en l’utilisation des données issues du domaine public (dans un contexte de législation américaine) et ne nécessitant donc pas l’accord des fameux « participants ». En conclusion, une étude raciste.

Quatrièmement, dans le cadre d’une démarche « scientifique », les auteurs ont cherché à vérifier par des êtres humains que les photos sélectionnées ne révèlent pas trop l’orientation sexuelle de la personne concernée. Tout ceci dans le but d’éviter que le « travail » ne soit trop facile pour l’intelligence artificielle (on cherche la performance du gaydar). Cette vérification a été effectuée par des employé.e.s de Amazon Mechanical Turk (AMT). Or, ces employé.e.s sont issu.e.s d’un même milieu socio-professionnel (souvent sous-payé.e.s) avec des particularités culturelles et sociales généralement communes, dont potentiellement des préjugés sur l’orientation sexuelle. De part cette démarche, on ne biaise bien entendu nullement l’étude (ironique).

Outre ces biais méthodologiques, cette étude soulève des questions d’éthiques majeures et pointe du doigts les stéréotypes qui circulent autour de l’orientation sexuelle. Voici quelques exemples de stéréotypes tirés de l’article original : selon les auteurs de l’étude, et corrélés à plusieurs articles de recherches, les homosexuel.le.s présentent des caractères physiques (expressions et traits) typiques à leur genre (le fameux gender atypical). Notamment, toujours selon les auteurs, les hommes homosexuels sont plus féminisés que les hommes hétérosexuels, tandis que les femmes homosexuelles sont plus masculines. Par ailleurs, les hommes homosexuels ont une mâchoire plus petite et un menton plus petit, des sourcils plus fins, un nez plus long et un front plus large. Les auteurs affirment que l’inverse de ces caractères est vrai pour les femmes homosexuelles. Tout ceci est établi à partir de l’étude de quelques photos (entre 40 et 400 selon les articles) qui ne représentent pas la diversité des orientations sexuelles et surtout en se basant sur la fameuse théorie de l’homosexualité par dérégulation de la balance hormonale au cours du développement du fœtus (pre-natal theory). Ce n’est pas de la science, c’est de la pseudo-science de fond de garage !

Mais les auteurs ont bonne conscience. En effet, dans leur conclusion, ils tiennent tout de même à nous mettre en garde contre une mauvaise interprétation ou une sur-interprétation des résultats présentés. Notamment, ils nous informent que les résultats obtenus n’indiquent nullement que l’orientation sexuelle peut être déterminée à partir de photos d’individus. Et ce malgré leur insistance précisément sur ce point dans toutes les pages précédentes. C’est d’ailleurs la raison pour laquelle ils ont bien entendu développé cette intelligence artificielle et écris ce papier (ironique).

En conclusion, outre la mauvaise science réalisée ici, cette étude nous pousse à nous interroger sur les dangers en matière de vie privé que représente le développement d’algorithmes capables de déterminer l’orientation sexuelle d’individus. Là encore, les auteurs expliquent que le but de l’étude est d’exposer les potentielles utilisations dangereuses de l’intelligence artificielle. C’est chose faite. Une utilisation malveillante de ces nouvelles intelligences artificielles par des gouvernements qui criminalisent l’homosexualité comme la Tchétchénie, l’Iran, l’Arabie Saoudite ou des entreprises peu tolérantes n’est plus utopique, puisque des chercheurs aux USA les développent (mais c’est pour nous prévenir) ! La rédaction d’une éthique des technologies à visée international devient urgente, ce sans quoi la discrimination notamment basée sur l’orientation sexuelle à de l’avenir devant elle. Et plus généralement, les « recherches » sur les sujets autour de l’homosexualité sont dangereuses et se doivent d’être plus contrôlées. Trop de théories totalement infondées sont considérés comme des dogmes et sont à l’origine de la vulnérabilité de la communauté LGBT.

Anne-Charlotte

Un très bon billet à lire en réaction à cet article

 

 

 

 

Leave a Comment

*