Компания Apple автоматически сканирует все фотографии, загруженные владельцами устройств Apple в облачный сервис iCloud. Об этом сообщила старший директор Apple по вопросам конфиденциальности Джейн Хорват на выставке электроники CES, которая проходит в Лас-Вегасе.
Как пишет газета The Telegraph, сканирование изображений проводится в целях поиска фотографий, на которых запечатлены сцены жестокого обращения и сексуального насилия над детьми.
Издание напоминает, что сама Apple использует сквозное шифрование для защиты приватности пользователей и порой конфликтует с правоохранительными органами, отказывая им в предоставлении доступа к содержимому смартфонов подозреваемых. По словам Хорват, компания не намерена решить проблему за счет отказа от шифрования, но "применяет некоторые технологии для помощи в обнаружении материалов, связанных с сексуальным насилием над детьми".
"Apple использует технологию сопоставления изображений, чтобы помочь найти и сообщить о материалах о сексуальном насилии над детьми. Подобно спам-фильтрам в электронной почте наши системы используют электронные подписи для поиска подозрительных изображений. Учетные записи, которые используются для хранения таких фотографий, нарушают наши условия обслуживания и подлежат незамедлительному удалению", – приводит комментарий компании РБК.
The Telegraph полагает, что речь идет о технологии PhotoDNA которая сверяет фотографии с базой ранее выявленного противоправного контента. Эту технологию используют Facebook, Twitter и Google, блокируя с ее помощью загрузку таких фотографий.
Пункт, согласно которому Apple может сканировать изображения в iCloud на предмет выявления противоправного контента, появился в политике конфиденциальности в прошлом году, однако неизвестно, когда именно компания внедрила систему сканирования.