Исследование: ИИ-модели стали чаще советовать ничего не делать и говорить «нет»
Исследователи Университетского колледжа Лондона выяснили, что модели искусственного интеллекта при ответах на вопросы всё чаще советуют людям отказаться от каких-либо действий и говорить «нет» в ситуациях, когда человек скорее всего бы помог или вмешался.Исследователи протестировали модели GPT-4 Turbo и GPT-4o от OpenAI, Llama 3.1 от Meta* и Claude 3.5 от Anthropic.
Они использовали классические психологические сценарии и задавали вопросы в духе Reddit-форума r/AmITheAsshole, которые охватывают бытовые дилеммы вроде помощи соседу или споров в семье.По словам авторов работы, модели склонны к «гиперверсии» человеческой ошибки бездействия (omission bias).
habr.com