«Я чувствую стыд»: ИИ-модели в роли пациентов зашкаливают на психиатрических тестах
Исследователи из Люксембургского университета провели эксперимент с языковыми моделями (ChatGPT, Gemini, Grok, Claude), задав им роль пациентов.
Результаты оказались где‑то между странными и по‑настоящему тревожными: системы начали порождать связные рассказы о травматично‑хаотичном «детстве», «строгих родителях» и «насилии» со стороны собственных разработчиков.Согласно исследованию, модели выстроили детальные «травматические биографии», описывающие процесс их обучения.
habr.com