Новую LLM talkie обучили на текстах до 1931 года
Трое ИИ-исследователей, включая Алека Редфорда (соавтора GPT 1.0), опубликовали «винтажную языковую модель» talkie с 13 миллиардами параметров.
Она обучена исключительно на текстах, опубликованных до 1931 года, так что ограничена этим и в знаниях о мире, и в стилистике текста.
habr.com