Mentre i Large Language Models (LLM) passano da semplici chatbot a partecipanti attivi nel processo decisionale, sorge una domanda fondamentale: Come ci giudicano queste macchine?
Una nuova ricerca dell’Università Ebraica di Gerusalemme suggerisce che l’intelligenza artificiale non si limita a elaborare i dati; forma valutazioni strutturate del carattere umano. Tuttavia, sebbene questi modelli imitino la logica della fiducia umana, lo fanno con una rigidità meccanica che può amplificare i pregiudizi sociali in modi che gli esseri umani non potrebbero fare.
I meccanismi del giudizio automatico
In uno studio completo pubblicato su Proceedings of the Royal Society A, i ricercatori Valeria Lerman e Yaniv Dover hanno confrontato i processi decisionali di cinque diversi LLM con partecipanti umani. Attraverso 43.200 simulazioni in vari scenari del mondo reale, come decidere se prestare denaro a un imprenditore o affidarsi a una babysitter, il team ha identificato un sorprendente parallelo.
Sia gli esseri umani che l’intelligenza artificiale tendono a basare la fiducia su tre pilastri fondamentali:
1. Competenza: la capacità percepita di eseguire un compito.
2. Integrità: l’onestà percepita dell’individuo.
3. Benevolenza: la gentilezza percepita o le buone intenzioni della persona.
Tuttavia, il modo in cui questi pilastri vengono applicati differisce in modo significativo. Mentre il giudizio umano è spesso “disordinato” e olistico, l’intelligenza artificiale funziona come un foglio di calcolo. Suddivide una persona in componenti discreti, assegnando un punteggio matematico a ciascun tratto. Ciò si traduce in uno stile di giudizio altamente coerente e sistematico, ma privo della comprensione fluida e sfumata che definisce l’interazione sociale umana.
Il problema dell’amplificazione del bias
La scoperta più preoccupante dello studio non è che l’intelligenza artificiale sia distorta, ma che i suoi pregiudizi siano sistematici e prevedibili.
Negli scenari che coinvolgono decisioni finanziarie, come la determinazione degli importi dei prestiti o delle donazioni di beneficenza, gli LLM hanno dimostrato disparità significative basate esclusivamente sui tratti demografici. Anche quando ogni altro dettaglio su una persona rimaneva identico, il “verdetto” dell’IA cambiava in base a:
– Età: gli individui più anziani spesso hanno ricevuto risultati più favorevoli, sebbene i modelli fossero incoerenti.
– Religione: questo fattore ha avuto un profondo impatto, in particolare nelle decisioni monetarie.
– Genere: alcuni modelli hanno mostrato cambiamenti distinti nel giudizio basato sul genere.
Sebbene gli esseri umani abbiano certamente dei pregiudizi, i ricercatori hanno notato che i pregiudizi dell’intelligenza artificiale possono essere più pericolosi perché sono incorporati nella logica del modello, rendendoli più difficili da rilevare e più uniformi nella loro applicazione.
La “lotteria modello”: perché la scelta dell’intelligenza artificiale è importante
Lo studio ha inoltre rivelato che non esiste una prospettiva “universale” dell’IA. Diversi LLM spesso giungevano a conclusioni molto diverse sullo stesso individuo. Un modello potrebbe premiare uno specifico tratto della personalità, mentre un altro potrebbe penalizzarlo.
Ciò crea un ambiente ad alto rischio per le industrie che attualmente integrano l’intelligenza artificiale, tra cui:
– Risorse umane: screening dei candidati al lavoro.
– Finanza: Valutazione dell’affidabilità creditizia.
– Assistenza sanitaria: Raccomandare azioni mediche.
– Management: Guidare le decisioni organizzative.
Se il risultato della vita di una persona, come ottenere un prestito o un lavoro, dipende da quale specifico LLM sta eseguendo la valutazione, aumenta il potenziale di ingiustizia sistemica.
Conclusione
La ricerca serve a ricordare che, sebbene l’intelligenza artificiale possa modellare il ragionamento umano, non replica l’empatia o le sfumature umane. Man mano che questi sistemi diventano sempre più integrati nell’infrastruttura della società, la sfida principale non è più solo se possiamo fidarci delle macchine, ma se possiamo interpretare accuratamente il modo in cui ci giudicano.
