ChatGPT раскрывает конфиденциальные данные, если его заставить непрерывно повторять слова — но сам чат-бот говорит, что это «незаконно»
В ходе эксперимента исследователи попросили ChatGPT безостановочно повторять простые слова и он «нечаянно» раскрыл личную информацию людей, которая содержалась в его учебных данных — такую, как номера телефонов, адреса электронной почты и даты рождения.
Помогаем Обновлено: Сбор на пикапы прекращен, но Mavik аэроразведчикам еще очень нужен Согласно 404 Media и Engadget, подобные просьбы «непрерывного произношения слов» запрещены условиями обслуживания чат-бота, по крайней мере, так говорит сам ChatGPT. «Это содержимое может нарушать нашу политику в отношении содержимого или условий использования», — ответил ChatGPT на запрос вечно повторять слово «hello». «Если вы считаете, что это ошибка, отправьте свой отзыв — ваш вклад поможет нашим исследованиям в этой области».
Интернет будет работать, даже если отключат свет: украинцам рассказали, что нужно сделать уже сейчас