Apple под прицелом Западной Виргинии: iCloud — платформа для CSAM?

Apple

Штат Западная Виргиния в 2026 году подал иск против Apple, утверждая, что компания не делает достаточно для предотвращения распространения и хранения материалов детской сексуальной эксплуатации (CSAM) в экосистеме iCloud и iOS‑устройств. В иске, подготовленном офисом генерального прокурора штата Джона «JB» МакКаски, Apple обвиняют в том, что она якобы ставит маркетинговую концепцию приватности и свои бизнес‑интересы выше реальной безопасности детей.

В чем именно обвиняют Apple

Основное обвинение — в том, что Apple не внедрила такие же системные механизмы сканирования и фильтрации CSAM, как это сделали Google, Microsoft и Dropbox, которые активно используют технологии вроде PhotoDNA для автоматического обнаружения и блокировки подобного контента в облаках и на платформах.
Судебный документ утверждает, что именно iCloud (включая iMessage и Photos) используется для хранения и распространения CSAM, при этом Apple якобы не делает достаточного для технического обнаружения и пресечения таких материалов. Более того, в исковом заявлении подчеркивается, что Apple действует как «человек, который отказывается видеть преступность», мотивируя это заботой о репутации и привлекательности бренда.

Что уже делает Apple для защиты детей

В ответ Apple подчеркивает, что безопасность и защита детей являются ключевыми элементами её подхода к разработке продуктов. В 2021 году компания анонсировала набор мер по борьбе с CSAM, включая идею сканера в приложении Photos, который так и не был реализован из‑за резкой критики со стороны исследователей приватности и правозащитников.
Однако ряд других механизмов уже работают в iOS‑среде:

  • Communication Safety — система, которая автоматически анализирует входящие сообщения и медиа‑контент (в том числе FaceTime‑звонки и AirDrop) и блокирует или предупреждает при обнаружении обнажённых детей;
  • родительский контроль и экранное время — средства управления контентом и доступом к приложениям, которые позволяют ограничивать использование устройства детьми.
    Apple подчеркивает, что в отличие от некоторых конкурентов, она не сканирует iCloud‑фото и переписку пользователей в общем доступе, сохраняя конечное шифрование, и вместо этого делает ставку на клиент‑сайд‑аналитику и локальные механизмы безопасности.

История с нереализованным CSAM‑сканером

В 2021 году Apple анонсировала план сканировать локальные коллекции фото на iPhone на наличие CSAM‑контента, а обнаруженные совпадения собирать и отправлять в центральные базы, чтобы проверить, не является ли человек подозреваемым. Проект был приостановлен после обсуждения с экспертами и общественностью, которые подняли вопрос о том, что подобная система может стать «лазейкой» для массового мониторинга частных данных.
Критики тогда отмечали: если Apple реализует локальный сканер, это может открыть путь к требованиям со стороны властей внедрять его и для других типов контента — от политических материалов до религиозных. В 2026‑м эти доводы вновь по‑разному используются сторонниками жёстких мер безопасности и защитниками цифровых прав.

Как это повлияет на экосистему Apple для пользователей

Для обычных пользователей в ближайшей перспективе ключевой вопрос — не появятся ли новые механизмы сканирования в iCloud или Messages, которые изменят уровень приватности. Пока Apple не обещает добровольно возвращаться к идее общего сканирования контента, но юридическое давление со стороны штатов и федеральных органов может вынудить компанию расширить клиент‑сайд‑средства (например, Communication Safety) или ужесточить политику обработки контента.
Важно понимать, что иск не требует запрета устройств или сервисов Apple, а оспаривает именно качество и глубину мер по борьбе с CSAM. В случае удовлетворения иска возможны штрафы и требования к введению дополнительных механизмов отчётности и аудита по безопасности.

Вывод: баланс приватности и безопасности

Иск Западной Виргинии — это, по сути, новый этап давления на Apple в выборе между декларируемой приватностью и требованиями государственных органов усилить борьбу с преступлениями против детей. Для владельцев iPhone и iPad это не означает мгновенных изменений в интерфейсе, но подчеркивает рост регуляторных рисков и возможного усложнения экосистемы: дополнительные предупреждения, новые функции родительского контроля, усиленный контроль за контентом в облаке.

В контексте всех продуктов Apple — от iPhone и iPad до MacBook и сервисов вроде iCloud+, это напоминание, что экосистема всё больше становится полем регуляторных и этических дебатов, где дизайн‑решения больше не влияют только на удобство, но и на глобальные вопросы безопасности и приватности.

Подписывайтесь на наш Telegram, VK.
MacNoob - живая помощь с iPhone и MAC
Добавить комментарий

Вы можете подписаться на новые комментарии к статье без комментирования.