Anthropic изучила, как ИИ начинает осознавать самого себя
Команда Anthropic опубликовала исследование о том, способны ли большие языковые модели понимать собственные мысли и внутренние состояния.Учёные применили метод внедрения концептов — искусственного добавления паттернов активности в нейроны модели.
К примеру, сигнал “ALL CAPS” соответствовал тексту, написанному заглавными буквами. Если после вмешательства активация появлялась в сети, это означало, что модель подумала о капсе.После внедрения сигнала исследователи спрашивали модель: «Ты чувствуешь, что что-то изменилось?» — и в 20% случаев Claude 4.1 действительно замечал изменение, ещё до того, как проявлял его в ответах.В другом эксперименте учёные вживляли в ответ случайное слово, например bread, и наблюдали.
habr.com