06 августа 2021 | 10:18

Apple будет автоматически проверять iPhone на наличие запрещенных файлов

@Reuters

Компания Apple подтвердила информацию о том, что в iPhone появится система, которая будет автоматически проверять медиатеку пользователей на наличие изображений жестокого обращения с детьми, передает Tengrinews.kz со ссылкой на Reuters.

ПОДЕЛИТЬСЯ

Компания Apple подтвердила информацию о том, что в iPhone появится система, которая будет автоматически проверять медиатеку пользователей на наличие изображений жестокого обращения с детьми, передает Tengrinews.kz со ссылкой на Reuters.

Корпорация планирует сканировать смартфоны в поисках фактов сексуального насилия над детьми, включая детскую порнографию (CSAM). Новая функция заработает сначала в США. Изменения появятся как часть обновлений операционного программного обеспечения для iPhone, Mac и Apple Watch.

Отмечается, что для этого компания будет использовать инструмент neuralMatch. Алгоритм предназначен для обнаружения известных изображений сексуального насилия над детьми и будет сканировать изображения перед их загрузкой в ​​iCloud. Если neuralMatch найдет совпадение, изображение пересмотрит человек. В случае подтверждения наличия детской порнографии учетную запись отключат и сообщат в Национальный центр пропавших без вести и эксплуатируемых детей.

Реклама
Реклама

При этом указывается, что система обнаружения будет отмечать только те изображения, которые уже есть в базе данных центра известной детской порнографии, поэтому у родителей, которые делают невинные фотографии ребенка в ванной, нет причин для беспокойства. 

Уточняется, что подобное решение Apple является попыткой найти компромисс между обещанием защитить частную жизнь пользователей и постоянными требованиями властей, правоохранительных органов и активистов обеспечить защиту детей. В то же время эксперты полагают, что в итоге компания рискует позволить правительствам по всему миру получать доступ к личным данным граждан.

В Reuters отметили, что большинство других крупных компаний, включая Google, Facebook и Microsoft, уже проверяют изображения по базе данных известных изображений сексуального насилия над детьми.

Ранее студентка из США получила миллионы долларов за утечку интимных фото от Apple.

Подпишись на наши новости в Instagram. Самые интересные видео, а также сотни комментариев казахстанцев в твоей ленте!

У Tengrinews.kz есть Telegram-канал. Это быстрый и удобный способ получать самые главные новости прямо на твой телефон.


Показать комментарии
Читайте также
Реклама
Реклама
Join Telegram