Крупнейшие ИИ-компании договорились бороться с изображениями насилия над детьми
Ведущие компании в сфере искусственного интеллекта, включая Google, Meta, OpenAI, Microsoft и Amazon, договорились принять меры по предотвращению использования материалов о сексуальной эксплуатации детей (CSAM) в обучающих наборах данных для моделей ИИ.Технологические гиганты подписали новый свод принципов, направленных на ограничение распространения CSAM.
Они обязуются гарантировать, что тренировочные данные не содержат вредоносный контент, избегать наборов данных с высоким риском включения таких материалов, а также удалять подобные изображения или ссылки на них из источников данных.Кроме того, компании намерены проводить "стресс-тестирование" моделей ИИ, чтобы убедиться, что они не генерируют CSAM-контент, и выпускать модели только после оценки их соответствия требованиям детской безопасности.К инициативе также присоединились такие компании, как Anthropic, Civitai, Metaphysic, Mistral AI и Stability AI.Рост популярности генеративного ИИ способствовал распространению поддельных изображений в сети, включая синтетические фотографии сексуальной эксплуатации детей.
gagadget.com