ООН культура профессор профессия

Исследователи предупреждают о гендерной и культурной предвзятости больших языковых моделей ИИ

Согласно исследованию, проведенному по заказу ЮНЕСКО, популярные инструменты генеративного искусственного интеллекта, такие как GPT-3.5, GPT-2 и Llama 2, демонстрируют явные признаки гендерных стереотипов и предвзятости в отношении женщин, представителей различных культур и сексуальных меньшинств.Команда исследователей из Калифорнийского университета во главе с профессором Джоном Шоу-Тейлором (John Shawe-Taylor) и доктором Марией Перес Ортис (Maria Perez Ortiz) выявила, что большие языковые модели склонны ассоциировать женские имена с традиционными гендерными ролями, такими как "семья", "дети" и "муж".

В то же время мужские имена чаще связывались со словами, ассоциируемыми с карьерой и бизнесом.Кроме того, в сгенерированных текстах наблюдались стереотипные представления о профессиях и социальном статусе.

DMCA