Цифровой суд: как ИИ имитирует — и искажает — человеческое доверие

По мере того как большие языковые модели (LLM) превращаются из простых чат-ботов в активных участников процесса принятия решений, возникает фундаментальный вопрос: как эти машины судят нас?

Новое исследование, проведенное в Еврейском университете в Иерусалиме, показывает, что ИИ не просто обрабатывает данные; он формирует структурированные оценки человеческого характера. Однако, хотя эти модели имитируют логику человеческого доверия, они делают это с механической жесткостью, которая может усиливать социальные предубеждения так, как это не под силу человеку.

Механика машинного суждения

В комплексном исследовании, опубликованном в журнале Proceedings of the Royal Society A, исследователи Валерия Лерман и Янив Довер сравнили процессы принятия решений пяти различных LLM с решениями людей. Проведя 43 200 симуляций в различных реальных сценариях — таких как решение о выдаче кредита владельцу бизнеса или доверие няне — команда выявила поразительное сходство.

И люди, и ИИ склонны основывать доверие на трех «столпах»:
1. Компетентность: воспринимаемая способность выполнять задачу.
2. Порядочность: воспринимаемая честность человека.
3. Доброжелательность: воспринимаемая доброта или благие намерения человека.

Однако способ применения этих столпов существенно различается. В то время как человеческое суждение часто бывает «неоднозначным» и целостным, ИИ работает подобно электронной таблице. Он разбивает личность на отдельные компоненты, математически оценивая каждую черту. Это приводит к стилю суждения, который является высокоточным и систематическим, но лишен нюансов и гибкого понимания, определяющего человеческое социальное взаимодействие.

Проблема усиления предвзятости

Самым тревожным выводом исследования является не то, что ИИ предвзят, а то, что его предубеждения систематичны и предсказуемы.

В сценариях, связанных с финансовыми решениями — таких как определение суммы кредита или благотворительных пожертвований — LLM продемонстрировали значительные расхождения, основанные исключительно на демографических признаках. Даже когда все остальные детали о человеке оставались идентичными, «вердикт» ИИ менялся в зависимости от:
Возраста: пожилые люди часто получали более благоприятные результаты, хотя эти закономерности не всегда были последовательными.
Религии: этот фактор оказывал глубокое влияние, особенно при принятии денежных решений.
Пола: некоторые модели демонстрировали явные сдвиги в суждениях в зависимости от пола.

Хотя люди, безусловно, подвержены предрассудкам, исследователи отметили, что предвзятость ИИ может быть опаснее, поскольку она встроена в логику модели, что делает ее труднее для обнаружения и более единообразной в применении.

«Лотерея моделей»: почему ваш выбор ИИ имеет значение

Исследование также показало, что «универсальной» точки зрения у ИИ не существует. Разные LLM часто приходили к совершенно разным выводам об одном и том же человеке. Одна модель может вознаградить определенную черту характера, в то время как другая — наказать за нее.

Это создает ситуацию высокого риска для отраслей, которые в настоящее время внедряют ИИ, включая:
HR (Человеческие ресурсы): отбор кандидатов на работу.
Финансы: оценка кредитоспособности.
Здравоохранение: рекомендации по медицинским действиям.
Менеджмент: руководство организационными решениями.

Если исход жизни человека — например, получение кредита или работа — зависит от того, какая именно LLM проводит оценку, риск системной несправедливости возрастает.

Заключение

Данное исследование служит важным напоминанием о том, что, хотя ИИ может моделировать человеческие рассуждения, он не воспроизводит человеческую эмпатию или тонкое восприятие нюансов. По мере того как эти системы все глубже внедряются в инфраструктуру общества, главной задачей становится не просто вопрос о том, можем ли мы доверять машинам, а вопрос о том, сможем ли мы точно интерпретировать то, как именно они нас судят.