Le jury numérique : comment l’IA imite et déforme la confiance humaine

Alors que les grands modèles linguistiques (LLM) passent de simples chatbots à des participants actifs à la prise de décision, une question fondamentale se pose : Comment ces machines nous jugent-elles ?

Une nouvelle recherche de l’Université hébraïque de Jérusalem suggère que l’IA ne se contente pas de traiter des données ; il forme des évaluations structurées du caractère humain. Cependant, même si ces modèles imitent la logique de la confiance humaine, ils le font avec une rigidité mécanique qui peut amplifier les préjugés sociaux d’une manière que les humains ne pourraient pas faire.

La mécanique du jugement machine

Dans une étude approfondie publiée dans Proceedings of the Royal Society A, les chercheurs Valeria Lerman et Yaniv Dover ont comparé les processus décisionnels de cinq LLM différents à ceux de participants humains. Grâce à 43 200 simulations réalisées dans divers scénarios du monde réel, comme décider de prêter de l’argent à un propriétaire d’entreprise ou de faire confiance à une baby-sitter, l’équipe a identifié un parallèle frappant.

Les humains et l’IA ont tendance à fonder la confiance sur trois piliers fondamentaux :
1. Compétence : La capacité perçue à effectuer une tâche.
2. Intégrité : L’honnêteté perçue de l’individu.
3. Bienveillance : La gentillesse perçue ou les bonnes intentions de la personne.

Cependant, la façon dont ces piliers sont appliqués diffère considérablement. Alors que le jugement humain est souvent « désordonné » et holistique, l’IA fonctionne comme une feuille de calcul. Il décompose une personne en composants discrets, notant mathématiquement chaque trait. Il en résulte un style de jugement très cohérent et systématique, mais dépourvu de la compréhension nuancée et fluide qui définit l’interaction sociale humaine.

Le problème de l’amplification du biais

La conclusion la plus inquiétante de l’étude n’est pas que l’IA est biaisée, mais que ses biais sont systématiques et prévisibles.

Dans les scénarios impliquant des décisions financières, telles que la détermination du montant des prêts ou des dons de bienfaisance, les LLM ont démontré des disparités significatives basées uniquement sur des caractéristiques démographiques. Même lorsque tous les autres détails concernant une personne restaient identiques, le « verdict » de l’IA changeait en fonction de :
Âge : Les personnes plus âgées ont souvent obtenu des résultats plus favorables, même si les tendances étaient incohérentes.
Religion : Ce facteur a eu un impact profond, notamment sur les décisions monétaires.
Sexe : Certains modèles ont montré des changements de jugement distincts en fonction du sexe.

Même si les humains ont certainement des préjugés, les chercheurs ont noté que les biais de l’IA peuvent être plus dangereux car ils sont ancrés dans la logique du modèle, ce qui les rend plus difficiles à détecter et plus uniformes dans leur application.

La « loterie modèle » : pourquoi votre choix d’IA est important

L’étude a également révélé qu’il n’existe pas de perspective « universelle » en matière d’IA. Différents LLM sont souvent parvenus à des conclusions très différentes sur le même individu. Un modèle peut récompenser un trait de personnalité spécifique, tandis qu’un autre peut le pénaliser.

Cela crée un environnement à enjeux élevés pour les industries qui intègrent actuellement l’IA, notamment :
Ressources humaines : Sélection des candidats.
Finance : Évaluation de la solvabilité.
Soins de santé : Recommander des actions médicales.
Gestion : Orienter les décisions organisationnelles.

Si l’issue de la vie d’une personne, comme l’obtention d’un prêt ou d’un emploi, dépend du LLM spécifique qui effectue l’évaluation, le risque d’injustice systémique augmente.

Conclusion

La recherche nous rappelle que même si l’IA peut modéliser le raisonnement humain, elle ne reproduit pas l’empathie ou les nuances humaines. À mesure que ces systèmes s’intègrent de plus en plus dans l’infrastructure de la société, le principal défi n’est plus seulement de savoir si nous pouvons faire confiance aux machines, mais si nous pouvons interpréter avec précision la manière dont elles nous jugent.