Dans un article de blog consacré à la sortie de Llama 4, le modèle d'IA à pondération ouverte de Meta, l'entreprise affirme clairement que les préjugés constituent un problème qu'elle tente de résoudre. Cependant, contrairement à de nombreuses recherches démontrant que les systèmes d'IA sont plus susceptibles de discriminer les minorités en fonction de leur origine, de leur sexe et de leur nationalité, Meta s'inquiète spécifiquement du penchant politique de gauche de Llama 4. « Il est bien connu que tous les grands masters en droit ont connu des problèmes de préjugés ; ils ont notamment toujours penché à gauche sur les sujets politiques et sociaux débattus », a déclaré Meta sur son blog . « Cela est dû au type de données d'entraînement disponibles sur Internet. » Meta énumère ensuite quelques « améliorations » dans Llama 4, notamment le fait que le modèle refusera désormais moins souvent d'engager les utilisateurs qui posent des questions sur des sujets politiques et sociaux en général, qu'il « est considérablement plus équilibré avec les invites auxquelles il refuse de répondre », et compare favorablement son manque de « forte tendance politique » à Grok, le LLM de xAI qu'Elon Musk promeut continuellement comme une alternative non-woke, « basée » sur des produits comparables d'OpenAI, Google et Anthropic.
Si Meta attribue ce biais de gauche aux données de formation, la question la plus importante est de savoir ce que contiennent les données de formation, que Meta ne veut pas partager. Mark Zuckerberg pousse son entreprise et son modèle d'IA vers la droite, d'abord parce qu'il séduit l'administration actuelle, puis parce qu'il se voit en concurrence avec un Elon Musk de plus en plus extrême et à droite. Les systèmes d'IA sont biaisés et ont un impact concret sur la vie des gens, car ils autorisent et renforcent des technologies et des politiques plus populaires auprès des autoritaires et des conservateurs. La plupart des technologies de vision par ordinateur servent en fin de compte à la surveillance , les algorithmes de condamnation discriminant les personnes noires , et l'un des principaux moteurs des images, vidéos et audios générés par l'IA est la diffusion non consensuelle de femmes . Le blog pourrait expliquer ce que Meta fait pour atténuer ces préjudices, mais il ne le fait pas, car pour l'instant, cela ne correspond pas aux positions politiques de Meta et de Zuckerberg. (Lire la suite)