Среда, 5 ноября, 2025
spot_img
ДомойТехнологииКаким образом Apple собирается отслеживать пользователей

Каким образом Apple собирается отслеживать пользователей

В первые дни августа 2021 года Apple организовала пресс-мероприятие, представив технологию распознавания изображений с признаками эксплуатации несовершеннолетних. Несмотря на благую цель — противодействие распространению запрещённых материалов — компания мгновенно столкнулась с волной осуждения.

Ранее Apple активно формировала образ защитника цифровой приватности. Грядущие обновления iOS 15 и iPadOS 15 пошатнули это доверие, но корпорация не отступает. Что случилось и как это повлияет на владельцев устройств? Попробуем проанализировать.

Суть технологии CSAM Detection

Общий принцип системы изложен на официальном сайте. CSAM Detection — инструмент для выявления на гаджетах пользователей материалов сексуального насилия над детьми (Child Sexual Abuse Material).

Термин CSAM считается этически более корректным, чем «детская порнография», согласно рекомендациям американского Национального центра по поиску пропавших и эксплуатируемых детей (NCMEC). Эта организация предоставляет IT-компаниям данные о запрещённых изображениях.

Анонс CSAM Detection сопровождался презентацией функций родительского контроля. Например, оповещением взрослых о получении ребёнком непристойных изображений в Messages.

Одновременное представление нескольких технологий вызвало путаницу. Многие ошибочно решили, что Apple начинает тотальный мониторинг. В статье рассматривается исключительно CSAM Detection.

Сроки внедрения системы

Функция станет частью iOS 15 и iPadOS 15, релиз которых запланирован на осень 2021 года. Обновление коснётся iPhone 6S, iPad пятого поколения и новее. Хотя технология доступна глобально, полноценный режим работы сначала реализуют только в США.

Принцип работы CSAM Detection

Система функционирует исключительно при активированной синхронизации с iCloud Photos. Отключение загрузки фотографий в облако прекращает её работу.

Однако проверка на соответствие базе NCMEC происходит непосредственно на устройстве. Apple опубликовала техническую документацию, где объясняет компромисс между безопасностью и конфиденциальностью.

Принципиальная схема действия CSAM Detection

Принципиальная схема действия CSAM Detection. Источник

Алгоритм NeuralHash создаёт цифровой отпечаток изображения. Совпадение с базой запрещённых материалов фиксируется локально, после чего зашифрованный отчёт поступает на серверы Apple для вторичной проверки.

Протокол Private Set Intersection шифрует данные так, что расшифровка возможна лишь при превышении критического порога — 30 совпадений. По утверждению Apple, вероятность ложного срабатывания составляет «1 на триллион».

Требование минимального количества совпадений для дешифровки

Требование минимального количества совпадений для дешифровки. Источник

При подтверждении нарушения сотрудник Apple проводит ручную проверку и передаёт информацию в NCMEC и правоохранительные органы США.

Причины критики системы

Возражения разделяются на две категории: этические и технические. Первые касаются концепции клиентского сканирования, вторые — возможных уязвимостей реализации.

Эксперты Electronic Frontier Foundation заявляют, что Apple внедряет бэкдор, создавая прецедент для расширения контроля. Если сейчас система ищет CSAM, что помешает правительствам потребовать мониторинг политических материалов или иного контента?

Эта дискуссия отражает глобальную дилемму цифровой эпохи — поиск баланса между безопасностью и приватностью. Оценка действий Apple зависит от личных взглядов на приоритеты.

Потенциальные технические риски

Любое ПО несёт риски уязвимостей. Обнаружено, что NeuralHash иногда присваивает одинаковые хеши разным изображениям, как показано ниже:

Ошибочное совпадение хешей в NeuralHash

Ошибочное совпадение хешей в NeuralHash. Источник

Теоретически злоумышленники могут создавать «безопасные» изображения с целевыми хешами, провоцируя ложные срабатывания. Это ставит под сомнение надёжность системы.

Аналитики также указывают, что протокол PSI передаёт метаданные до достижения порога в 30 совпадений. В теории это позволяет делать предположения о содержимом устройства до официальной проверки.

Последствия для рядовых пользователей

Сложность современных устройств затрудняет верификацию их защищённости. Выбор сводится к доверию или недоверию бренду.

Главный аспект: CSAM Detection активируется только при использовании iCloud Photos. Локально хранимые фото не анализируются.

История с противостоянием Apple и ФБР в 2016 году показала: компания передаёт облачные данные по запросу властей. Вопрос в том, что именно зашифровано на серверах:

  • Пароли и платежные реквизиты используют сквозное шифрование
  • Большинство данных доступно Apple для расшифровки

Интересно, что другие IT-гиганты (Google, Facebook) сканируют облака напрямую. Apple попыталась внедрить «деликатный» метод, но вызвала больший резонанс. Для пользователей принципиальных изменений нет: конфиденциальную информацию безопаснее хранить оффлайн.

Также по теме

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

- Advertisment -spot_img

Популярное

Последние комментарии