Apple отказалась от сканирования iCloud на наличие CSAM-изображений
Компания Apple отказалась от планов внедрения системы сканирования изображений в iCloud на наличие признаков материалов сексуального насилия над детьми (CSAM).
Об этом пишет Wired. Во время анонса новых функций безопасности для облачного хранилища техгигант сообщил, что не будет анализировать фотографии.