ИИ обучили «научному вкусу»: модель на 30B обошла GPT-5.2 в оценке потенциала статей
Исследователи из Fudan University и команды OpenMOSS научили языковую модель отличать перспективные научные работы от посредственных — и она справляется с этим лучше GPT-5.2, Gemini 3 Pro и других топовых моделей.
Секрет в том, что вместо дорогой экспертной разметки модель училась на цитированиях — естественном "голосовании" научного сообщества.Идея простая: если две статьи вышли в одно время и в одной области, но одну цитируют в разы чаще — значит, сообщество считает ее более ценной.
habr.com