Apple закрыла программу сканирования фотографий пользователей на предмет жестокого обращения с детьми. Об этом сообщает издание The Wall Street Journal.
В разговоре с корреспондентом WSJ Джоанной Штерн старший вице-президент Apple Крейг Федериги подтвердил, что IT-корпорация не будет сканировать фотографии пользователей из iCloud. Отказ от проекта косвенно связан с введением сквозного шифрования данных на iCloud, из-за которого изучение сохраненных в облачном хранилище изображений окажется технически невозможным.
Функция сканирования CSAM была анонсирована осенью 2021 года. В Apple отмечали, что данная технология позволит выявлять случаи жестокого обращения и сексуального насилия над детьми. В компании объяснили, что CSAM позволяет анализировать фотографии, изучая хэш-данные изображений.
«Сексуальное насилие над детьми можно предотвратить до того, как оно произойдет… Вот на что мы направляем нашу энергию», — заявил Крейг Федериги. В разговоре с журналистом издания топ-менеджер Apple подчеркнул, что обеспечение безопасности данных пользователей имеет решающее значение.
В августе стало известно, что Apple перестала комментировать ситуацию с программой по изучению фотографий пользователей iPhone на предмет жестокого обращения с детьми. Журналисты обратили внимание, что IT-компания удалила со своего сайта всю информацию о данной программе.