Apple объявляет борьбу сексуальному насилию над детьми

13.09.2021

Apple объявила о планах запустить новое программное обеспечение для анализа фотографий в iPhone на предмет жестокого обращения и сексуального насилия над детьми (CSAM). В случае обнаружения таких фото о пользователе будет сообщено в соответствующие органы.

Согласно отчету Марка Гурмана из Bloomberg, Apple также анонсировала функцию анализа всех изображений, отправленных и полученных в приложении «Сообщения». Если какое-либо из изображений соответствует тому материалу, который ищет Apple, соответствующее сообщение будет отправлено на серверы компании. Более того, купертиновцы даже голосового помощника включат в систему борьбы с сексуальным насилием над детьми - Siri теперь получит особые полномочия вмешиваться всякий раз, когда пользователь ищет сексуально откровенный контент с участием несовершеннолетних.

Если Apple заметит определенное количество изображений с сексуальным насилием над детьми в учетной записи пользователя, компания рассмотрит этот вопрос не в автоматическом режиме, а вручную, и об инциденте будет сообщено в Национальный центр пропавших без вести и эксплуатируемых детей. Технология, которая используется Apple для обнаружения таких изображений, называется NeuralHash, преобразующая изображения в хэш-ключ или уникальный набор чисел.

Несмотря на такой значимый и важный шаг в борьбе с детским насилием, новая технология обеспокоила некоторых пользователей и экспертов из-за конфиденциальности данных.

Стал ли iPhone шпионом Apple?

Калифорнийский технологический гигант утверждает, что сотрудники не обрабатывают информацию вручную - система является автоматизированной и применяет определенную форму системы хеш-данных для поиска материалов о сексуальном насилии над детьми. Купертиновцы также отмечают, что у этой системы присутствует специальная защита для сохранности конфиденциальных данных в случае сбоя.

Сторонники конфиденциальности считают, что после того как инженеры Apple создали подобную систему, компания встала на тернистый путь к неумолимому расширению сканирования контента на девайсах пользователей и составления отчетов, которые могут использоваться спецслужбами разных стран.

Как работает система Apple

Она основывается на трех ключевых элементах, которые появятся в iOS 15, iPadOS 15 и macOS Monterey в конце этого года.

Сканирование изображений

Система купертиновцев будет анализировать каждое изображение, которое хранится в Фото iCloud, и проверять его соответствие с базой данных CSAM, которая хранится в Национальном центре пропавших без вести и эксплуатируемых детей (NCMEC). Калифорнийский технологический гигант преобразует эту базу данных в защищенный набор хэш-ключей. Он будет храниться на всех пользовательских данных, а получить доступ к нему невозможно.

Процедура анализа будет осуществляться каждый раз, как только на гаджете появится новая фотография. В тот момент, когда на учетной записи будет превышен определенный порог в количестве нескольких экземпляров запрещенных изображений (точное число не сообщается), в «яблочную» компанию отправляется соответствующее предупреждение. При таком исходе данные будут проверяться вручную, учетная запись будет отключена, а NCMEC будет проинформирован о происходящем.

Тем не менее, система не безупречна. По заявлению производителя, вероятность некорректной идентификации учетной записи крайне мала и составляет менее одного триллиона. С учетом того, что в мире более миллиарда владельцев «яблочных» гаджетов, вероятность того, что ежегодно кто-то будет некорректно идентифицирован, выше, чем 1 к 1000. Пользователи, полагающие, что алгоритм Apple допустил ошибку, могут подать соответствующую заявку на разблокировку аккаунта.

Сканирование сообщений

Система применяет машинное обучение для анализа изображений в сообщениях, отправленных или полученных несовершеннолетними, на предмет сексуального содержания. Она сможет оповещать родителей, если такие изображения будут выявлены.

Родители в свою очередь смогут включить или отключить систему, а любой непристойный контент, который получит ребенок, будет размытым. Если же их чадо само попытается отослать контент сексуального содержания, то получит соответствующее предупреждение, а родители снова получат уведомление.

При этом купертиновцы отмечают, что не имеют доступа к изображениям, анализируемым на устройстве.

Сканирование поиска

Третьим элементом системы является Поиск и Siri. Голосовой ассистент и поисковик будут вмешиваться, когда пользователь осуществляет поисковый запрос, относящий к CSAM, объясняя, что интерес к этой теме нежелателен и проблематичен.

«Яблочная» компания говорит, что ее программа крайне амбициозна, а ее усилия будут «со временем развиваться и расширяться».

Техническая сторона медали

Корпорация опубликовала обширную техническую документацию, которая раскрывает определённые подробности о работе системы. Apple активно убеждает пользователей, что об изображениях, которые не совпадают с базой данных CSAM, никто ничего не узнает – другими словами, никаких утечек конфиденциальных данных.

Технология под названием NeuralHash сканирует доступные изображения CSAM, присваивая им уникальный идентификационный номер, присущий каждому отдельному изображению. Получить такой же номер может только другое, практически полностью идентичное изображение. Для наглядного понимания, одинаковый идентификационный номер NeuralHash присвоит изображению, которое отличается только размером или качеством кодировки.

При добавлении картинок в Фото iCloud происходит процесс поиска совпадений с базой данных. При положительном результате NeuralHash создает специальный ваучер криптографической безопасности, который при достижении предельно допустимого значения запрещенного контента и необходимости ручного вмешательства даст эксперту Apple возможность декодировать и получить доступ к изображению-нарушителю.

«Apple может узнать релевантную информацию об изображении ТОЛЬКО после того, как учетная запись превысит пороговое количество совпадений CSAM», - сказано в документации.

Apple не единственная в своем роде

Как оказалось, сообщать о подобном запрещенном контенте властям должна не только Apple. Согласно законодательству, любая американская компания, выявившая подобные данные на собственных серверах, обязана сообщить о них правоохранительным органам и способствовать дальнейшему расследованию. Крупнейшие игроки IT-рынка Facebook, Microsoft и Google уже некоторое время применяют подобные разработки, сканирующие нежелательный контент, отправляемый по электронной почте или через сервисы обмена сообщениями. Главное их отличие от разработки Apple состоит в том, что купертиновцы выполняют анализ непосредственно на устройстве, без передачи данных на сервер.

Сторонники конфиденциальности встревожены

Развитие технологий для защиты детей полностью поддерживается рациональными пользователями. Но защитников сохранности данных сильно волнует то, что во многих странах спецслужбы могут принудить американского производителя настроить NeuralHashна поиск других материалов, а Apple будет вынуждена покориться.

Мэтью Грин, доцент Института информационной безопасности Джонса Хопкинса, выразил серьезную обеспокоенность по поводу новых способов сдерживания и выявления сексуального насилия над детьми. Он считает, что инструменты, используемые Apple, определенно замедлят распространение детской порнографии в экосистеме iOS, но могут привести к нарушениям безопасности данных пользователей. Он считает, что это открывает двери для слежки за устройством.

Глава WhatsApp Уилл Кэткарт в серии твитов объяснил, почему он не принял бы систему Apple для своего мессенджера. По его мнению, применяемый купертиновцами подход привносит в мир нечто очень тревожное. Он сказал, что никогда не было предписания сканировать частный контент всех настольных компьютеров, ноутбуков или телефонов во всем мире на предмет незаконного контента. «Что произойдет, когда компании-шпионы найдут способ использовать это программное обеспечение? Что произойдет, если кто-то выяснит, как использовать эту новую систему?» - добавил он.

Фонд Electronic Frontier Foundation (EFF) предупреждает, что NeuralHash создает лазейку в безопасности. «Все, что потребуется, чтобы расширить узкую лазейку, которую создает Apple, - это расширение параметров машинного обучения для поиска дополнительных типов контента».

«Какими бы благими намерениями не руководствовалась Apple, с помощью этой технологии она развертывает массовую слежку по всему миру», - считает Эдвард Сноуден. «Если сегодня они могут сканировать CSAM, то завтра они смогут сканировать что угодно».

Контраргументы

В противовес вышеуказанному мнению есть и гораздо более лояльные аргументы. Одним из наиболее убедительных является то, что серверы интернет-провайдеров и поставщиков электронной почты уже сканируются на предмет наличия такого контента, и что Apple создала систему, которая сводит к минимуму участие человека и фиксирует проблему только в том случае, если определяет несколько совпадений между базой данных CSAM и контентом на девайсе.

По статистике из почти 26 500 убежавших из дома детей, о которых было сообщено NCMEC в 2020 году, каждый шестой стал жертвой торговли детьми в целях сексуальной эксплуатации. Централизованная система отчетности об эксплуатации детей в Интернете CyberTipline NCMEC(к которой, по всей видимости, подключится и Apple) получила более 21,7 миллиона отчетов, связанных с той или иной формой CSAM в 2020 году.

Президент и главный исполнительный директор NCMEC Джон Кларк сказал: «При таком количестве людей, использующих продукцию Apple, новые меры безопасности могут спасти жизнь тысячам детей, которых заманивают в интернете и чьи ужасающие изображения распространяются в CSAM. В Национальном центре пропавших без вести и эксплуатируемых детей мы знаем, что с этим можно бороться только если мы будем непоколебимы в нашей приверженности защите детей. Это становится возможным, потому что технологические партнеры, такие как Apple, делают шаг вперед и заявляют о своем стремлении сделать мир безопаснее».

Комментарии

Отзывы покупателей

Хотите поделиться своими впечатлениями?
Мы будем признательны если вы оставите отзыв, он может быть полезен другим пользователям нашего сайта
Написать отзыв

Сообщения не найдены

Написать отзыв

Последние записи