Jak se velké jazykové modely (LLM) vyvíjejí z jednoduchých chatbotů na aktivní účastníky rozhodovacího procesu, vyvstává zásadní otázka: jak nás tyto stroje soudí?
Nový výzkum z Hebrejské univerzity v Jeruzalémě ukazuje, že umělá inteligence nejen že skřípe data; tvoří strukturovaná hodnocení lidského charakteru. I když však tyto modely napodobují logiku lidské důvěry, činí tak s mechanickou rigiditou, která může posílit sociální předsudky způsobem, který lidé nemohou.
Mechanika strojového úsudku
V obsáhlé studii publikované v časopise Proceedings of the Royal Society A výzkumníci Valeria Lerman a Yaniv Dover porovnávali rozhodovací procesy pěti různých LLM s rozhodováním lidí. Po provedení 43 200 simulací v různých reálných scénářích – jako je rozhodnutí majitele firmy o půjčce nebo důvěra chůvě – našel tým nápadné podobnosti.
Lidé i AI mají tendenci zakládat důvěru na třech „pilířích“:
1. Kompetence: vnímaná schopnost provést úkol.
2. Integrita: vnímaná poctivost člověka.
3. Příjemnost: vnímaná laskavost nebo dobré úmysly osoby.
Způsob použití těchto pilířů se však výrazně liší. Zatímco lidský úsudek je často „nejednoznačný“ a holistický, AI funguje jako tabulkový procesor. Rozkládá osobnost na její jednotlivé složky, přičemž každý rys matematicky vyhodnocuje. Výsledkem je styl úsudku, který je vysoce přesný a systematický, ale postrádá nuance a flexibilní porozumění, které definuje lidskou sociální interakci.
Problém rostoucí zaujatosti
Nejznepokojivějším zjištěním studie není, že umělá inteligence je zaujatá, ale že její zaujatosti jsou systematické a předvídatelné.
Ve scénářích zahrnujících finanční rozhodnutí – jako je stanovení výše půjček nebo charitativních darů – LLM vykazovaly významné nesrovnalosti založené pouze na demografických údajích. I když všechny ostatní podrobnosti o osobě zůstaly stejné, „verdikt“ AI se lišil v závislosti na:
– Věk: Starší dospělí často zaznamenali příznivější výsledky, i když tyto vzorce nebyly vždy konzistentní.
– Náboženství: Tento faktor měl hluboký vliv, zejména při peněžních rozhodnutích.
– Pohlaví: Některé modely vykazovaly jasné posuny v úsudku na základě pohlaví.
Zatímco lidé jsou jistě náchylní ke zkreslení, vědci poznamenali, že zkreslení AI může být nebezpečnější, protože je zabudováno do logiky modelu, takže je obtížnější jej detekovat a je při použití jednotnější.
Modelová loterie: Proč na výběru AI záleží
Studie také zjistila, že na AI neexistuje žádný „univerzální“ úhel pohledu. Různí LLM často došli ke zcela odlišným závěrům o stejné osobě. Jeden model může odměnit určitý charakterový rys, zatímco jiný jej může trestat.
To vytváří vysoce rizikovou situaci pro průmyslová odvětví, která v současné době přijímají umělou inteligenci, včetně:
– HR (Human Resources): výběr uchazečů o zaměstnání.
– Finance: hodnocení úvěruschopnosti.
– Zdravotní péče: doporučení pro lékařské úkony.
– Management: řízení organizačních rozhodnutí.
Pokud životní výsledek člověka – například získání půjčky nebo získání zaměstnání – závisí na tom, která LLM je posuzuje, zvyšuje se riziko systémové nespravedlnosti.
Závěr
Tato studie slouží jako důležitá připomínka toho, že i když umělá inteligence může simulovat lidské uvažování, neopakuje lidskou empatii nebo jemné vnímání. Jak se tyto systémy hlouběji začleňují do infrastruktury společnosti, problémem se stává nejen to, zda můžeme strojům věřit, ale také to, zda dokážeme přesně interpretovat, jak nás soudí.**
