Объяснение: как Apple будет сканировать на устройствах изображения с детской эксплуатацией и почему это вызывает недоумение
Первоначально ожидается, что он будет запущен в Соединенных Штатах, функции включают использование новой технологии для ограничения распространения CSAM в Интернете, особенно через платформу Apple.

Apple объявила, что обновления программного обеспечения в конце этого года принесут новые функции это поможет защитить детей от хищников, использующих средства коммуникации для вербовки и эксплуатации детей, и ограничит распространение материалов о сексуальном насилии над детьми (CSAM).
Первоначально ожидается, что он будет запущен в Соединенных Штатах, функции включают использование новой технологии для ограничения распространения CSAM в Интернете, особенно через платформу Apple.
Затем на устройстве будет предусмотрена защита детей от отправки или получения конфиденциального контента с механизмами оповещения родителей в случае, если пользователю меньше 13 лет. Apple также будет вмешиваться, когда Siri или Search используются для поиска тем, связанных с CSAM. .
Какие технологии делает Apple, чтобы предотвратить распространение CSAM в Интернете?
В своем блоге Apple объяснила, что будет использовать криптографические приложения через iOS и iPadOS для сопоставления известных изображений CSAM, хранящихся в iCloud Photo. Технология будет сопоставлять изображения в iCloud пользователя с известными изображениями, предоставленными организациями по безопасности детей. И это делается без фактического просмотра изображения, а только путем поиска совпадения по отпечатку пальца. Если есть совпадения, превышающие пороговое значение, Apple сообщит об этих случаях в Национальный центр пропавших без вести и эксплуатируемых детей (NCMEC).
Apple пояснила, что ее технология учитывает конфиденциальность пользователей, и, следовательно, база данных преобразуется в нечитаемый набор хэшей, который надежно хранится на устройствах пользователей. Он добавил, что перед загрузкой любого изображения в iCloud операционная система сопоставляет его с известными хэшами CSAM, используя криптографическую технологию, называемую пересечением частных наборов. Эта технология также будет определять матч, не раскрывая результата.
На этом этапе устройство создает ваучер криптографической безопасности с результатом совпадения и дополнительными зашифрованными данными и сохраняет его в iClouds вместе с изображением. Технология порогового разделения секрета гарантирует, что эти ваучеры не могут быть интерпретированы Apple, если учетная запись iCloud Photos не превышает пороговое значение известного содержимого CSAM. Этот порог, как утверждается в блоге, был установлен для обеспечения чрезвычайно высокого уровня точности и гарантирует менее одного случая на один триллион в год неправильной пометки данной учетной записи. Таким образом, одно изображение вряд ли вызовет предупреждение.
Но если порог превышен, Apple может интерпретировать содержание ваучеров безопасности и вручную проверять каждый отчет на предмет совпадения, отключать учетную запись пользователя и отправлять отчет в NCMEC. Apple заявила, что пользователи смогут подать апелляцию, если посчитают, что были ошибочно отмечены.
Как работают другие функции?
Новая система безопасности связи Apple для Сообщений размывает чувствительное изображение и предупреждает ребенка о характере содержания. Если эта функция включена на серверной части, ребенку также можно было сообщить, что его родители были предупреждены о просмотренном сообщении. То же самое произойдет, если ребенок решит отправить конфиденциальное сообщение. Apple заявила, что Messages будет использовать машинное обучение на устройстве для анализа вложенных изображений и определения того, является ли фотография сексуально откровенной, и что Apple не получит доступа к сообщениям. Эта функция будет обновлена для учетных записей, созданных как семейства в iCloud для последних версий операционной системы.
Кроме того, с обновлением, когда пользователь пытается найти потенциальные темы CSAM, Siri и поиск объяснят, почему это может быть вредным и проблематичным. Пользователи также получат инструкции о том, как подать отчет об эксплуатации детей, если они попросят об этом.
| Объяснение: как и почему Google предложит больше защиты детям в Интернете
Почему Apple делает это и какие проблемы возникают?
На крупные технологические компании в течение многих лет оказывалось давление, чтобы они отказались от использования их платформ для эксплуатации детей. Многие отчеты за прошедшие годы подчеркнули, что делается недостаточно, чтобы помешать технологиям сделать контент CSAM более доступным.
Однако заявление Apple было встречено критикой, и многие подчеркнули, что это именно та технология наблюдения, которую многие правительства хотели бы иметь и хотели бы использовать неправильно. Тот факт, что это исходило от Apple, которая долгое время была поборником конфиденциальности, многих удивил.
Кроме того, эксперты по криптографии, такие как Мэтью Грин из Университета Джона Хопкинса, выразили опасения, что система может быть использована для фальсификации невиновных людей, отправляющих им изображения, предназначенные для запуска совпадений для CSAM. Исследователи смогли сделать это довольно легко, сказал он NPR, добавив, что такие алгоритмы можно обмануть.
Но The New York Times процитировала главного директора Apple по вопросам конфиденциальности Эрика Нойеншвандера, который сказал, что эти функции не будут означать ничего другого для обычных пользователей.
«Если вы храните коллекцию материалов CSAM, да, это плохо для вас», - сказал он изданию.
Новостная рассылка| Нажмите, чтобы получать лучшие объяснения дня на свой почтовый ящик
Есть ли аналогичные технологии у других крупных технологических компаний?
да. Фактически, Apple относительно поздно вышла на сцену, поскольку Microsoft, Google и Facebook предупреждали правоохранительные органы об изображениях CSAM. Apple отстала, потому что любая такая технология пошла бы вразрез с ее широко разрекламированной приверженностью к конфиденциальности пользователей. В результате в 2020 году, когда Facebook сообщил NCMEC о 20,3 млн нарушений CSAM, Apple смогла сообщить только о 265 случаях, сообщает The New York Times.
Только сейчас компания смогла найти технологическую точку, позволяющую делать это, не влияя на обычных пользователей или, по крайней мере, не пугая их. Однако, как показала первая реакция, это все еще путь по канату.
ПОДЕЛИТЕСЬ С ДРУЗЬЯМИ: