Donald Trump face aux "IA woke" : l’angle mort de la polémique qui déchire la Silicon Valley
Les Américains ne plaisantent pas avec l’IA. L’ambitieux plan d’action dévoilé cette semaine par Donald Trump montre sa détermination à faire de son administration une VRP zélée du secteur. Il encourage notamment ses champions de l’IA à élaborer des offres "tout en un" qu’agences et ministères pourront pousser à leurs homologues internationaux. Entre cela, le colossal Stargate et la dérégulation du secteur, les entreprises IA ont de quoi se réjouir.
Il y a cependant une condition à remplir pour bénéficier des largesses de Trump. Et c’est un détail d’importance. Le président américain ne veut pas d’IA "politiquement biaisée". Il met le doigt sur un sujet de préoccupation majeur dans le secteur. Hélas, l’occupant de la Maison-Blanche et une partie de ses partisans semblent le comprendre de travers.
Son camp s’était délecté d’une polémique visant Google. Celle-ci avait éclaté en février 2024, lorsque l’IA Gemini du groupe s’était mise à générer des images de nazis noirs ou de Vikings asiatiques. La preuve, selon certains pro-Maga, que la Silicon Valley discrimine les populations blanches. Ce n’est évidemment pas le cas. Google tentait en réalité de corriger un problème bien connu du secteur : le fait que les grandes bases d’images sur lesquelles les IA sont entraînées n’offrent pas une représentation fidèle de la société.
A l’inverse des plateformes payantes qui se différencient sur les photos d’actualité ou artistiques, beaucoup de bases d’image gratuites sont bourrées de visuels génériques assez stéréotypés. Elles œuvrent depuis quelques années à s’améliorer. Mais leurs catalogues ont encore tendance à ne proposer quasiment que des images de personnes blanches pour illustrer certains métiers ou activités - livre un livre, faire une recherche Internet, écouter de la musique, etc.
Des IA entraînées dessus, peuvent donc reproduire voire amplifier ce phénomène dans leurs productions. Raison pour laquelle Google avait créé une règle incitant l’IA à proposer plusieurs couleurs de peau lorsqu’un internaute demandait un visuel sans formuler d’exigence particulière à ce niveau. Une parade mal calibrée et particulièrement inadaptée lorsqu’il s’agit de produire des images à caractère historique, a vite reconnu le groupe à l’époque avant de corriger ce défaut.
Quand l’IA vote Marine Le Pen
Le sujet de l’orientation morale et politique des IA mérite d’être examiné avec plus de sérieux que ne lui en accorde le président américain Donald Trump. Deux problèmes se posent ici. Le premier est qu’il est incroyablement ardu de contrôler ce que font les IA génératives. Elon Musk en a fait l’expérience à deux reprises
Lui qui enrage contre les IA concurrentes qu’il juge trop "woke" a vu son propre outil, Grok, se retourner contre lui. Lorsqu’en mars dernier, des internautes ont demandé à l’IA qui partageait le plus d’information et de théories du complot sur X, celle-ci a désigné sans détour son créateur. Quelques mois et mises à jour plus tard, dérapage complet. Grok se met à multiplier les propos antisémites contre les "patrons juifs" accusés de dominer Hollywood et loue "l’efficacité" d’Hitler. Avant d’être reprogrammée, l’IA d’Elon Musk a également appelé à voter Marine Le Pen. En termes de neutralité politique, on repassera.
Faire en sorte que les IA obéissent n’est que le premier casse-tête que doit résoudre le secteur. Encore faut-il s’accorder avant sur les règles à leur fixer. Les plateformes spécialisées dans les offres d’emploi le savent pertinemment. Cela fait des années qu’elles se creusent les méninges à ce sujet. Car leur domaine est particulièrement sensible. Avantager une catégorie de personnes sur l’autre a en effet un impact immense sur leur capacité à trouver un emploi. Mais il n’y a pas de formule magique pour créer un terrain de jeu équitable.
Pour repérer les meilleurs candidats potentiels, les IA de recrutement sont entraînées sur les données d’embauches passées, miroir sans complaisance de nos préjugés. Ces biais qui favorisent parfois les candidats issus de certaines écoles, d’un âge précis, d’un sexe particulier, ou arborant tel ou tel patronyme.
Mais jusqu’où faut-il pour corriger les biais ? "Dans les domaines où il y a historiquement plus d’hommes que de femmes, faudrait-il prendre la décision de doper la visibilité de ces dernières ? Et si oui, jusqu’à quel ratio ?" s'interrogeait en 2024 dans L’Express Claire Lebarz, responsable Data et IA de Malt, illustrant la complexité des arbitrages à opérer. Ce ne sont pas seulement les entreprises, mais bien les Etats européens qui devront un jour s’emparer de ces sujets. Quant à l’Union européenne, elle aurait tout intérêt à scruter de près les règles encadrant les "IA tout-en-un" que les Américains tenteront de lui imposer.