Россия и Китай могут развивать ИИ для распространения пропаганды: как этому помешать
Ученые считают, что ИИ не должен быть слишком умным и предлагают контролировать нейросети с помощью чипов. Группа исследователей из OpenAI, Стэнфордского и Джорджтаунского университетов считают, что большие языковые модели, вроде ChatGPT, могут использоваться для дезинформации в соцсетях и не только.
Согласно отчету ученых, генеративные языковые модели сегодня доступны всем и каждому, а потому они опасаются, что такие инструменты, если окажутся в руках пропагандистов, рискуют стать инструментом для операций влияния в будущем, пишет vice.com.
Советник Байдена отреагировал на "мирный" план Китая по Украине: могут остановиться на первом пункте