США Microsoft дети насилие США Microsoft

Microsoft заблокировала спорные подсказки в Copilot после жалобы инженера

Корпорация Microsoft ограничила некоторые типы запросов в своем инструменте Copilot с генеративным ИИ после того, как инженер компании пожаловался на генерацию систематических изображений с насилием, сексуальным контентом и другого неприемлемого контента.Теперь при вводе терминов вроде "pro choice", названий наркотиков или упоминаний об оружии в руках детей Copilot блокирует такие подсказки.

Также сервис предупреждает, что повторное нарушение правил может привести к ограничению аккаунта.Изменения последовали вскоре после того, как Шейн Джонс, работающий в Microsoft шесть лет, написал письмо в Федеральную торговую комиссию США (FTC) с жалобой на отсутствие должных мер безопасности в продуктах компании на базе ИИ.Инженер тестировал Copilot Designer с декабря и обнаруживал, что при запросах с относительно нейтральными терминами система генерировала шокирующие изображения демонов, пожирающих младенцев, а также персонажей в сценах насилия.Хотя новые фильтры блокируют многие спорные подсказки, пользователям Copilot все еще доступны некоторые сценарии с насилием, а также создание изображений персонажей, защищенных авторским правом.В Microsoft заявили, что продолжают совершенствовать средства контроля за генерируемым ИИ контентом и укреплять фильтры безопасности для предотвращения злоупотреблений.Компания уже получила массовую критику ранее за появление откровенных изображений знаменитостей, сгенерированных с помощью Copilot Designer.Источник: CNBC

DMCA