Официально: галерея iPhone будет сканироваться на предмет насилия над детьми
Компания Apple подтвердила информацию о том, что на айфонах появится система, которая будет автоматически проверять медиатеку пользователей на наличие изображений жестокого обращения с детьми, включая детскую порнографию (CSAM).
Первой новая функция заработает в США позднее в этом году, после выхода операционных систем iOS 15, iPadOS 15 и macOS Monterey.