У міру того, як великі мовні моделі (LLM) перетворюються з простих чат-ботів на активних учасників процесу прийняття рішень, виникає фундаментальне питання: як ці машини судять нас?

Нове дослідження, проведене в Єврейському університеті в Єрусалимі, показує, що ІІ не просто опрацьовує дані; він формує структуровані оцінки людського характеру. Однак, хоча ці моделі імітують логіку людської довіри, вони роблять це з механічною жорсткістю, яка може посилювати соціальні упередження так, як це не під силу людині.

Механіка машинного судження

У комплексному дослідженні, опублікованому в журналі Proceedings of the Royal Society A, дослідники Валерія Лерман та Янів Довір порівняли процеси прийняття рішень п’яти різних LLM з рішеннями людей. Провівши 43 200 симуляцій у різних реальних сценаріях — таких як рішення про видачу кредиту власнику бізнесу чи довіру няні — команда виявила разючу схожість.

І люди, і ІІ схильні ґрунтувати довіру на трьох «стовпах»:
1. Компетентність: сприйнята здатність виконувати завдання.
2. Порядність: чесність людини, що сприймається.
3. Доброзичливість: сприйнята доброта або добрі наміри людини.

Однак спосіб застосування цих стовпів істотно відрізняється. У той час як людське судження часто буває «неоднозначним» і цілісним, ІІ працює подібно до електронної таблиці. Він розбиває особистість окремі компоненти, математично оцінюючи кожну межу. Це призводить до стилю судження, який є високоточним та систематичним, але позбавлений нюансів та гнучкого розуміння, що визначає людську соціальну взаємодію.

Проблема посилення упередженості

Найбільш тривожним висновком дослідження є не те, що ІІ упереджено, а те, що його упередження систематичні та передбачувані.

У сценаріях, пов’язаних з фінансовими рішеннями — такими як визначення суми кредиту чи благодійних пожертв — LLM продемонстрували значні розбіжності, що ґрунтуються виключно на демографічних ознаках. Навіть коли всі інші деталі про людину залишалися ідентичними, «вердикт» ІІ змінювався залежно від:
Віку: люди похилого віку часто отримували більш сприятливі результати, хоча ці закономірності не завжди були послідовними.
Релігії: цей фактор надавав глибокий вплив, особливо при прийнятті фінансових рішень.
Пола: деякі моделі демонстрували явні зрушення у судженнях залежно від статі.

Хоча люди, безумовно, схильні до забобонів, дослідники зазначили, що упередженість ІІ може бути небезпечнішою, оскільки вона вбудована в логіку моделі, що робить її важчою для виявлення і більш одноманітною у застосуванні.

«Лотерея моделей»: чому ваш вибір ІІ має значення

Дослідження також показало, що «універсальної» погляду ІІ немає. Різні LLM часто приходили до зовсім різних висновків про одну й ту саму людину. Одна модель може винагородити певну рису характеру, тоді як інша покарати за неї.

Це створює ситуацію високого ризику для галузей, які нині впроваджують ІІ, включаючи:
HR (Людські ресурси): відбір кандидатів працювати.
Фінанси: оцінка кредитоспроможності.
Охорона здоров’я: рекомендації щодо медичних дій.
Менеджмент: керівництво організаційними рішеннями.

Якщо результат життя людини, наприклад, отримання кредиту чи робота, залежить від того, яка саме LLM проводить оцінку, ризик системної несправедливості зростає.

Висновок

Дане дослідження служить важливим нагадуванням у тому, що, хоча ІІ може моделювати людські міркування, не відтворює людську емпатію чи тонке сприйняття нюансів. У міру того, як ці системи все глибше впроваджуються в інфраструктуру суспільства, головним завданням стає не просто питання про те, чи можемо ми довіряти машинам, а питання про те, чи зможемо ми точно інтерпретувати те, як саме вони нас судять.