ПОДЕЛИТЬСЯ
06 августа 2021 | 10:18
Apple будет автоматически проверять iPhone на наличие запрещенных файлов
Компания Apple подтвердила информацию о том, что в iPhone появится система, которая будет автоматически проверять медиатеку пользователей на наличие изображений жестокого обращения с детьми, передает Tengrinews.kz со ссылкой на Reuters.
ПОДЕЛИТЬСЯ
Компания Apple подтвердила информацию о том, что в iPhone появится система, которая будет автоматически проверять медиатеку пользователей на наличие изображений жестокого обращения с детьми, передает Tengrinews.kz со ссылкой на Reuters.
Корпорация планирует сканировать смартфоны в поисках фактов сексуального насилия над детьми, включая детскую порнографию (CSAM). Новая функция заработает сначала в США. Изменения появятся как часть обновлений операционного программного обеспечения для iPhone, Mac и Apple Watch.
Отмечается, что для этого компания будет использовать инструмент neuralMatch. Алгоритм предназначен для обнаружения известных изображений сексуального насилия над детьми и будет сканировать изображения перед их загрузкой в iCloud. Если neuralMatch найдет совпадение, изображение пересмотрит человек. В случае подтверждения наличия детской порнографии учетную запись отключат и сообщат в Национальный центр пропавших без вести и эксплуатируемых детей.
При этом указывается, что система обнаружения будет отмечать только те изображения, которые уже есть в базе данных центра известной детской порнографии, поэтому у родителей, которые делают невинные фотографии ребенка в ванной, нет причин для беспокойства.
Уточняется, что подобное решение Apple является попыткой найти компромисс между обещанием защитить частную жизнь пользователей и постоянными требованиями властей, правоохранительных органов и активистов обеспечить защиту детей. В то же время эксперты полагают, что в итоге компания рискует позволить правительствам по всему миру получать доступ к личным данным граждан.
В Reuters отметили, что большинство других крупных компаний, включая Google, Facebook и Microsoft, уже проверяют изображения по базе данных известных изображений сексуального насилия над детьми.
Ранее студентка из США получила миллионы долларов за утечку интимных фото от Apple.
Показать комментарии
Читайте также