Apple объясняет, как iPhone будет сканировать фотографии на предмет сексуального насилия над детьми

Apple объясняет, как iPhone будет сканировать фотографии на предмет сексуального насилия над детьми

Вскоре после сегодняшних сообщений о том, что Apple начнет сканирование iPhone на наличие изображений жестокого обращения с детьми, компания подтвердила свой план и предоставила подробную информацию в пресс-релизе и техническом резюме.

«Метод Apple обнаружения известных CSAM (материалов о сексуальном насилии над детьми) разработан с учетом конфиденциальности пользователей», — говорится в объявлении Apple. «Вместо сканирования изображений в облаке система выполняет сопоставление на устройстве, используя базу данных известных хэшей изображений CSAM, предоставленную NCMEC (Национальным центром по пропавшим и эксплуатируемым детям) и другими организациями по безопасности детей. Apple также преобразует эту базу данных в нечитаемый набор хэшей, который надежно хранится на устройствах пользователей.»

Apple представила более подробную информацию о системе обнаружения CSAM в техническом резюме и сказала, что ее система использует пороговый набор для обеспечения чрезвычайно высокого уровня точности и гарантирует менее одного из триллиона шансов в год неправильно помечать данный счет.»

Эти изменения будут внедрены «позже в этом году в обновлениях для iOS 15, iPadOS 15, watchOS 8 и macOS Monterey», — говорится в сообщении Apple. Apple также развернет программное обеспечение, способное анализировать изображения в приложении Messages, для новой системы, которая будет «предупреждать детей и их родителей при получении или отправке фотографий откровенного сексуального характера».

Apple обвинили в создании “инфраструктуры для слежки”

Несмотря на заверения Apple, эксперты по безопасности и защитники конфиденциальности раскритиковали этот план.

«Apple заменяет свою стандартную сквозную зашифрованную систему обмена сообщениями инфраструктурой слежки и цензуры, которая будет уязвима для злоупотреблений и распространения информации не только в США, но и во всем мире»,-сказал Грег Нойхайм, содиректор Проекта Центра демократии и технологий «Безопасность и наблюдение». «Apple должна отказаться от этих изменений и восстановить веру своих пользователей в безопасность и целостность своих данных на устройствах и сервисах Apple.»

В течение многих лет Apple сопротивлялась давлению правительства США на установку «черного хода» в своих системах шифрования, заявляя, что это подорвет безопасность всех пользователей. Эксперты по безопасности высоко оценили эту позицию Apple. Но с его планом развертывания программного обеспечения, которое выполняет сканирование на устройстве и делится выбранными результатами с властями, Apple подходит опасно близко к тому, чтобы действовать как инструмент правительственной слежки, предположил профессор криптографии Университета Джона Хопкинса Мэтью Грин в Twitter.

Сканирование на стороне клиента, о котором Apple объявила сегодня, может в конечном итоге «стать ключевым компонентом в добавлении слежки к зашифрованным системам обмена сообщениями», — писал он. «Возможность добавления таких сканирующих систем к системам обмена сообщениями E2E [end-to-end encrypted] была главной «просьбой» правоохранительных органов во всем мире.»

Сканирование сообщений и “вмешательство”Siri

В дополнение к устройствам сканирования изображений, которые соответствуют базе данных CSAM, Apple заявила, что обновит приложение Messages, чтобы «добавить новые инструменты для предупреждения детей и их родителей при получении или отправке откровенных сексуальных фотографий.»

«Messages использует встроенное машинное обучение для анализа вложений изображений и определения того, является ли фотография откровенно сексуальной. Функция разработана так, что Apple не получает доступ к сообщениям», — сказал Apple.

Когда изображение в сообщениях помечено флажком, «фотография будет размыта, и ребенок будет предупрежден, представлен с полезными ресурсами и заверен, что все в порядке, если он не хочет просматривать эту фотографию.» Система позволит родителям получить сообщение, если дети действительно просматривают помеченную фотографию, и «аналогичная защита доступна, если ребенок пытается отправить откровенные сексуальные фотографии. Ребенок будет предупрежден перед отправкой фотографии, и родители могут получить сообщение, если ребенок решит отправить его», — сказала Apple.

Apple заявила, что обновит Siri и Search, чтобы «предоставить родителям и детям расширенную информацию и помощь, если они столкнутся с небезопасными ситуациями.» Siri и поисковые системы будут «вмешиваться, когда пользователи выполняют поиск по запросам, связанным с CSAM», и «объяснять пользователям, что интерес к этой теме вреден и проблематичен, а также предоставлять ресурсы от партнеров, чтобы получить помощь в решении этой проблемы.»

Центр демократии и технологий назвал фотосканирование в сообщениях «бэкдором», написав:

Механизм, который позволит Apple сканировать изображения в сообщениях, не является альтернативой бэкдору—это бэкдор. Сканирование на стороне клиента на одном «конце» сообщения нарушает безопасность передачи, а информирование третьей стороны (родителя) о содержании сообщения подрывает его конфиденциальность. Организации по всему миру предостерегают от сканирования на стороне клиента, поскольку оно может быть использовано правительствами и компаниями для контроля содержания частных сообщений.

Технология Apple для анализа изображений

Техническое резюме Apple по обнаружению CSAM включает в себя несколько обещаний конфиденциальности во введении. «Apple ничего не узнает об изображениях, которые не соответствуют известной базе данных CSAM», — говорится в нем. «Apple не может получить доступ к метаданным или визуальным производным для совпадающих изображений CSAM до тех пор, пока не будет превышен порог совпадений для учетной записи iCloud Photos.»

Технология хэширования Apple называется NeuralHash, и она «анализирует изображение и преобразует его в уникальный номер, специфичный для этого изображения. Только другое изображение, которое кажется почти идентичным, может произвести то же самое число; например, изображения, которые отличаются по размеру или качеству транскодирования, все равно будут иметь одно и то же значение NeuralHash», — писала Apple.

Прежде чем iPhone или другое устройство Apple загрузит изображение в iCloud, «устройство создает криптографический ваучер безопасности, который кодирует результат совпадения. Он также шифрует нейронный хэш изображения и его визуальную производную. Этот ваучер загружается на фотографии iCloud вместе с изображением.»

Используя «пороговый секретный обмен», система Apple «гарантирует, что содержимое ваучеров безопасности не может быть интерпретировано Apple, если учетная запись iCloud Photos не пересекает порог известного содержимого CSAM», — говорится в документе. «Только когда порог превышен, криптографическая технология позволяет Apple интерпретировать содержимое ваучеров безопасности, связанных с соответствующими изображениями CSAM.»

Отмечая вероятность ложного срабатывания 1 к 1 триллиону, Apple заявила, что «вручную проверяет все отчеты, поступающие в NCMEC, чтобы обеспечить точность отчетности.» Пользователи могут «подать апелляцию на восстановление своей учетной записи», если они считают, что их учетная запись была ошибочно помечена.

Пользовательские устройства для хранения слепой базы данных CSAM

Пользовательские устройства будут хранить «слепую базу данных», которая позволяет устройству определять, когда фотография совпадает с картинкой в базе данных CSAM, объяснила Apple:

Во-первых, Apple получает нейронные хэши, соответствующие известным CSAM, от вышеперечисленных организаций по безопасности детей. Затем эти нейронные хэши проходят через ряд преобразований, которые включают в себя последний шаг ослепления, основанный на криптографии эллиптических кривых. Ослепление выполняется с помощью серверного секрета ослепления, известного только Apple. Слепые хэши CSAM помещаются в хэш-таблицу, где позиция в хэш-таблице является чисто функцией нейронного хэша изображения CSAM. Эта слепая база данных надежно хранится на устройствах пользователей. Свойства криптографии с эллиптическими кривыми гарантируют, что ни одно устройство не сможет вывести что-либо о лежащих в основе хэшей изображений CSAM из базы данных blinded.

iPhone или другое устройство будет анализировать фотографии пользователей, вычислять NeuralHash и искать «запись в слепой хэш-таблице.» Устройство «также использует слепой хэш, который система искала, чтобы получить производный ключ шифрования», и использует этот ключ шифрования «для шифрования связанных данных полезной нагрузки.»

В сочетании с другими шагами это гарантирует, что будут расшифрованы только изображения, соответствующие базе данных CSAM, пишет Apple:

Если хэш изображения пользователя совпадает с записью в известном списке хэшей CSAM, то NeuralHash изображения пользователя точно преобразуется в слепой хэш, если он прошел через серию преобразований, выполненных во время настройки базы данных. Основываясь на этом свойстве, сервер сможет использовать криптографический заголовок (производный от NeuralHash) и, используя секрет на стороне сервера, сможет вычислить производный ключ шифрования и успешно расшифровать связанные с ним данные полезной нагрузки.

Если образ пользователя не совпадает, описанный выше шаг не приведет к правильному производному ключу шифрования, и сервер не сможет расшифровать связанные данные полезной нагрузки. Таким образом, сервер ничего не узнает о несоответствующих изображениях.

Устройство не узнает о результате матча, потому что это требует знания секрета ослепления на стороне сервера.

Наконец, клиент загружает изображение на сервер вместе с ваучером, содержащим зашифрованные данные полезной нагрузки и криптографический заголовок.

 Apple также опубликовала более длинное и подробное объяснение криптографической технологии «пересечение частного набора», которая определяет, соответствует ли фотография базе данных CSAM, не раскрывая результат.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.

Наш сайт использует файлы cookies, чтобы улучшить работу и повысить эффективность сайта. Продолжая работу с сайтом, вы соглашаетесь с использованием нами cookies и политикой конфиденциальности.

Принять