El jurado digital: cómo la IA imita (y distorsiona) la confianza humana

A medida que los modelos de lenguaje grande (LLM) pasan de simples chatbots a participantes activos en la toma de decisiones, surge una pregunta fundamental: ¿Cómo nos juzgan estas máquinas?

Una nueva investigación de la Universidad Hebrea de Jerusalén sugiere que la IA no se limita a procesar datos; forma evaluaciones estructuradas del carácter humano. Sin embargo, si bien estos modelos imitan la lógica de la confianza humana, lo hacen con una rigidez mecánica que puede amplificar los prejuicios sociales en formas que los humanos no podrían.

La mecánica del juicio automático

En un estudio exhaustivo publicado en Proceedings of the Royal Society A, los investigadores Valeria Lerman y Yaniv Dover compararon los procesos de toma de decisiones de cinco LLM diferentes con participantes humanos. A través de 43.200 simulaciones en varios escenarios del mundo real (como decidir si prestar dinero al dueño de un negocio o confiar en una niñera), el equipo identificó un paralelo sorprendente.

Tanto los humanos como la IA tienden a basar la confianza en tres pilares fundamentales:
1. Competencia: La capacidad percibida para realizar una tarea.
2. Integridad: La honestidad percibida del individuo.
3. Benevolencia: La bondad percibida o las buenas intenciones de la persona.

Sin embargo, la forma en que se aplican estos pilares difiere significativamente. Si bien el juicio humano suele ser “confuso” y holístico, la IA funciona como una hoja de cálculo. Divide a una persona en componentes discretos y califica cada rasgo matemáticamente. Esto da como resultado un estilo de juicio que es muy consistente y sistemático, pero que carece de la comprensión fluida y matizada que define la interacción social humana.

El problema de la amplificación del sesgo

El hallazgo más preocupante del estudio no es que la IA esté sesgada, sino que sus sesgos son sistemáticos y predecibles.

En escenarios que involucran decisiones financieras, como determinar montos de préstamos o donaciones caritativas, los LLM demostraron disparidades significativas basadas únicamente en rasgos demográficos. Incluso cuando todos los demás detalles sobre una persona seguían siendo idénticos, el “veredicto” de la IA cambió basándose en:
Edad: Las personas mayores a menudo recibieron resultados más favorables, aunque los patrones fueron inconsistentes.
Religión: Este factor tuvo un profundo impacto, particularmente en las decisiones monetarias.
Género: Ciertos modelos mostraron distintos cambios de criterio según el género.

Si bien los humanos ciertamente tienen prejuicios, los investigadores observaron que los sesgos de la IA pueden ser más peligrosos porque están integrados en la lógica del modelo, lo que los hace más difíciles de detectar y más uniformes en su aplicación.

La “lotería modelo”: por qué es importante elegir la IA

El estudio también reveló que no existe una perspectiva “universal” de la IA. Diferentes LLM a menudo llegaban a conclusiones muy diferentes sobre el mismo individuo. Un modelo podría premiar un rasgo de personalidad específico, mientras que otro podría penalizarlo.

Esto crea un entorno de alto riesgo para las industrias que actualmente integran IA, que incluyen:
Recursos Humanos: Selección de candidatos a puestos de trabajo.
Finanzas: Evaluación de la solvencia.
Asistencia sanitaria: Recomendar actuaciones médicas.
Dirección: Orientar las decisiones organizacionales.

Si el resultado de la vida de una persona (como obtener un préstamo o un trabajo) depende de qué LLM específico realiza la evaluación, aumenta el potencial de injusticia sistémica.

Conclusión

La investigación sirve como un recordatorio fundamental de que, si bien la IA puede modelar el razonamiento humano, no replica la empatía ni los matices humanos. A medida que estos sistemas se integran más en la infraestructura de la sociedad, el principal desafío ya no es sólo si podemos confiar en las máquinas, sino si podemos interpretar con precisión la forma en que nos juzgan.