Apple сканирует ваши фотографии из iCloud в поисках насилия над детьми

Apple подтвердила, что будет проверять наши фото. А ещё сообщения и поисковые запросы

Вчера многие СМИ раструбили новость о намерении Apple начать проверять фотографии пользователей прямо в их iPhone на предмет насилия над детьми. Естественно, это вызвало удивление, если не сказать негодование среди большинства пользователей. Ведь насколько бы негативно мы ни относились к издевательствам над детьми, всё-таки рыться в личных снимках – это такое попирание правил приватности, что большего, пожалуй, даже представить нельзя. Однако в Купертино и не собирались рыться в наших iPhone вручную, выстроив модель защиты детей несколько по иному принципу.

Apple и правда будет анализировать ваши фото. Правда, только из iCloud Photos

В ночь с 5 на 6 августа Apple анонсировала три новых инициативы по обеспечению защиты малолетних пользователей iPhone, iPad и Mac. Они направлены на обнаружение материалов, содержащих признаки насилия над детьми и ограничение поисковых функций в отношении запрещённого контента. Эти механизмы начнут действовать позже в этом году после выхода iOS 15.

Как Apple проверяет наши фото

Первая инициатива, как и предполагалось, связана с фотографиями. Она предполагает изучение снимков из iCloud Photos на предмет признаков насилия над детьми. Компания разработала особую методику анализа, которая позволяет производить все вычисления прямо на устройстве, исключив человеческий фактор. То есть живые люди с фотографиями не взаимодействуют.

Анализироваться будут только те фото, которые выгружаются в облако. Но анализ будет производиться только на устройстве

Этим занимается специальный инструментарий, который основан на работе нейронных сетей и машинном обучении. Он отслеживает признаки, характерные для откровенных снимков с участием несовершеннолетних. Если Apple обнаружит фотографии с признаками насилия над детьми, она передаст эту информацию со всеми данными о владельце в компетентные органы.

С одной стороны, хорошо, что Apple исключила человеческий фактор из анализа фотографий. Так можно гарантировать, что никто из сотрудников компании не сможет увидеть ваши фотографии. Но, с другой, Apple всё равно будет рыться в наших смартфонах, пусть и несколько опосредованно. А это не самый лучший сценарий борьбы за конфиденциальность. Правда, на снимки, хранящиеся полностью локально это не распространяется.

Читает ли Apple наши сообщения

Похожий инструментарий Apple встроит и в приложение «Сообщения». Тут он будет играть роль своего рода брандмауэра, блокирующего доступ к нежелательному для детских глаз контенту. Суть этого нововведения состоит в том, что теперь, если ребёнок попробует отправить или получит снимок с откровенным содержанием, он увидит только размытое изображение и предупреждение.

Apple не будет читать сообщения малолетних пользователей, но даст такую возможность их родителям. Пусть и частичную

В этом предупреждении будет сказано, что изображение может носить чувствительный характер. Несмотря на это ребёнок сможет нажать на него, чтобы просмотреть, но увидит ещё одно предупреждение о том, что об этом действии узнают другие члены iCloud Family, с которыми связано его собственное устройство. Это правило будет действовать для детей младше 13 лет.

Apple плевать на вашу безопасность, или Почему в iOS 14 запретили слежку в приложениях

Apple объясняет, что «Сообщения» будут использовать те же нейросети и технологии машинного обучения, которые выявляют фотографии с насилием над детьми в iPhone пользователей. Они тоже будут действовать строго на устройстве, но только на первых порах брандмауэр заработает только для учётных записей iCloud, созданных в США. Другие страны подключат позднее.

Как Siri изменится в iOS 15

В iOS 15 будут расширены возможности Siri и функции поиска, которые позволят детям и их родителям чувствовать себя в безопасности при использовании интернета. Например, теперь пользователи смогут спросить голосового ассистента, куда пожаловаться на насилие над детьми или эксплуатацию труда несовершеннолетних, и Siri тут же подскажет эту информацию.

Читайте также:
Не пришла посылка из Китая (eBay)? Руководство как НЕ потерять свои деньги!

Siri не может ограничить поисковую выдачу, но она стремится к этому

Кроме того, Siri будет предупреждать о нежелательности контента с насилием или эксплуатацией несовершеннолетних детей. Если вы попросите голосового ассистента найти что-то такое в интернете, он предупредит о том, что эта информация может быть опасна. Поэтому вместо них Siri предложит ресурсы, где помогают людям, страдающим от влечения к подобным темам.

Правда, ограничивать поисковую выдачу Siri не сможет. Дело в том, что она не может исключать из неё определённые ссылки и оставлять другие, которые ей кажутся приемлемыми. Так что здесь Apple явно пригодился бы её собственный поисковик, где она сама смогла бы решать, каким контентом можно делиться с пользователями разных возрастов, а каким – категорически нельзя.

Новости, статьи и анонсы публикаций

Свободное общение и обсуждение материалов

Лонгриды для вас

iOS 15 нельзя назвать крупным обновлением, но значит ли это, что iOS 16 будет лучше? Судя по тому, что Apple официально разрешила не обновляться на новые версии iOS, всё не так однозначно.

iOS 14.8 вышла без предварительного бета-тестирования, что довольно необычно для функциональных обновлений. Однако у этого есть объяснение — апдейт исправляет критические уязвимости, а потому выпускать его нужно было срочно

Установка macOS на iPad Pro не имеет смысла, несмотря на компьютерное железо. Это не только невыгодно с точки зрения ведения бизнеса, но и бессмысленно с точки зрения удобства

Reviewed by Apple… Допустим, произошло ложное срабатывание. Хэш случайно совпал. Фото всё равно отправляется живым людям на проверку. И они таки будут что-то решать.

Но даже если и не отправилось. Получается постоянный виртуальный обыск без санкции прокурора. Я как бы всегда подозреваемый.

Нафиг мне такое надо, Apple! Нет, ребята, вы чего-то совсем берегов не видите. Уйду я от вас.

Apple будет сканировать хеш фотографий на наличие сексуального насилия над детьми

Пока только в США.

Фото: Александр Побыванец / Wylsacom Media

Компания Apple на своём сайте сообщила о расширении программы по защите детей. Согласно ей, в США на iOS 15, iPadOS 15, watchOS 8 и macOS Monterey появится система, сканирующая контент на наличие CSAM, то есть сексуального насилия над детьми.

Сканирование будет происходить с помощью нейросетей на самом устройстве, а не в iCloud. Apple подчёркивает, что это сделано ради конфиденциальности. Фотографии будут сверяться с хешем изображений, предоставленных Национальным центром пропавших без вести и эксплуатируемых детей (NCMEC), а также другими организациями.

Что такое хеш изображений?

Это изображение, которое было переведено в последовательный набор символов, понятный машинам. Эти символы помогают нейросетям определять, что именно изображено на иллюстрации. То есть, по сути, сравниваются не две фотографии, а закодированная информация этих фотографий.

Выглядит это так: h24Klsa6hpas6y3I91POSj7. Согласитесь, не очень похоже на изображение. Это называется цифровыми отпечатками фото.

Что будет дальше с фотографиями?

Все хеши будут храниться на самом устройстве. У кого будут ключи дешифровки, неизвестно. Но перевести эту информацию обратно в фотографии невозможно.

Фотографии будут загружаться в iCloud вместе с этим хешем, защищённым неназванными криптографическими методами. Тут Apple подчёркивает, что не сможет расшифровать этот ваучер безопасности, если не будет достигнуто пороговое значение известного содержимого CSAM. По словам компании, это свидетельство высокой точности.

Читайте также:
Apple продала 60 млн AirPods за 2019 год

Если система обнаруживает превышение этого порогового значения, то Apple вручную будет интерпретировать содержимое ваучеров безопасности. В случае подтверждения учётная запись в iCloud будет заблокирована, а отчёт будет отправлен в NCMEC, которая сотрудничает с правоохранительными органами США.

Если пользователь считает, что система ошиблась, он сможет подать апелляцию. В исходном тексте не уточняется, сколько раз до этого пользователю придётся побеседовать с представителями правоохранительных органов, а также как к этому отнесётся его окружение.

Критика

Вопросы есть к работе самой системы: например, как она определит возраст человека на фотографии? То есть мы можем посмотреть в паспорт человека и сказать, что ему или ей меньше или больше 18 лет. Тем более что есть множество примеров, когда подростки выглядят старше многих совершеннолетних людей.

Если Apple даёт доступ к этой информации таким организациям, как NCMEC, то что будет, если к компании придёт авторитарное правительство и поставит условие: либо вы даёте нам доступ и не лезете, либо уходите с рынка? С помощью системы вполне можно анализировать содержимое на момент оппозиционного контента, если знать, как именно её настроить. Именно об этом говорит Мэттью Грин, профессор криптографии из Университета Джона Хопкинса:

Apple научит ИИ выявлять случаи жестокого обращения с детьми на фотографиях в iPhone

Другой вопрос: на каком основании Apple вообще лезет в смартфоны пользователей, анализируя их контент? Я-то понимаю, что без этого невозможен поиск по галерее айфона, но в этом случае система не уходит из самого смартфона. А тут в облаке будет храниться хеш фотографий, неправильная интерпретация которого вполне может привести к тому, что интимные фотографии сексуальных отношений двух взрослых людей могут просматриваться другими людьми со стороны компании и даже правоохранительных органов.

Если же система будет исключать те случаи, когда непонятно, взрослый это или ребёнок, то что тогда говорить о сексуальном насилии над несовершеннолетними, которых система будет помечать как спорные?

Пока технология, представленная Apple, вызывает очень много вопросов. В первую очередь они касаются конфиденциальности — того, на чём компания делает особый акцент.

Забавно. А где гарантия, что будут сканировать только на детей? Обещать не значит жениться. На что они там будут сканировать, еще большой вопрос.
И еще интересно, отстегав по заднице своего ребенка, часто родители процесс и результат фотографируют?

Речь идет о сексуальном насилии, но проблема в том что не любой нюдес это обязательно насилие, например влюбленные подростки шлют друг другу свои фотки или фоткают просто самих себя что бы что-то рассмотреть вроде прыща на необычном месте допустим и к ним будет врываться отряд блюстителей морали вышибая дверь и забирая в автозак всех кто попадается под руку чем испортят жизнь как подросткам так и их родителям своим вмешательством, едва ли эти нейросети способны по фото качественно определить где реальное насилие и работорговля, а где фото сделано для себя или сверстника, а в такие дела вмешиваться полиция уже не должна, это уже переход границ личной жизни.

Вообще бесит что Apple мутит какую-то странную хрень для защиты детей, для их защиты есть другие надзорные органы, какого черта нужны всякие детские режимы для телефонов и прочего это ж такая хрень полная что всю свободу у детей отбирает, купят ребенку или подростку телефон и установят детский режим а тот не может ни приложение установить ни еще что-либо сделать без подтверждения с аккаунта родителя, а родитель моралфаг разрешает устанавливать не более 1 приложения раз в месяц или еще реже и то слово свое не держит и по пол года и более может не давать ничего установить, или установит ограничение по часам работы устройства и прочего типо 2 часа в сутки, а потом блокируется или еще какие-то функции отключаются или камеру заблокирует и так далее, я лично знаю человека кто страдает от таких функций «для защиты детей» и из-за вмешательства родителей в личную жизнь находится в депрессии, режет руки и думает о суициде, вот уж действительно защита детей, гении просто, а о том что многие родители используют эти функции для тирании над детьми, или муж тиран на женой которой он может детский режим на телефоне включить запросто а себя как родитель зарегать, никто думать не хочет, важнее ведь продать телефон большему числу моралфагов тиранов нежели реально подумать о правах несовершеннолетних которые у них отбирают как на законодательном уровне так и на семейном, а теперь еще и такую хрень мутить станут, ну ребят, потеряете прибыль чо, покупатели ваши начнут переходить на андроид потому что никому не нужны ФСБшники выламывающие дверь и дающие срок за скачанную картинку лольки с интернета или ошибку нейросети.

Читайте также:
Выход iPhone 12 с модемом 5G задерживается

Я надеюсь что эту хрень свернут обратно туда откуда развернуть придумали, иначе придется отказаться от покупки устройств Apple, мне и так хватает видеть страдания тех чьи родители используют детские режимы на устройствах что бы портить своим детям жизнь и делать из них суицидников, теперь решили еще больше судеб сломать и загубить ради популистской идеи, прям средние века с их инквизицией и громкими лозунгами о защите людей от ведьм, и как всегда во все времена и по сей день страдать будут не те кто заставляет других страдать, а будут те кто наоборот ничего плохого не сделал, зато таких родителей как того человека которых я упомянул никто и пальцем не тронет, ведь они действуют в рамках закона, а закон штука довольно лицемерная и пользуются им довольно часто отнюдь не во благо а уж в России так вообще сами же нарушители закона им и манипулируют что бы сажать невиновных. А реальные похитители и работорговцы как и многие обычные пользователи просто будут пользоваться Android причем скорее всего модифицированным с отключением вообще всех возможных отслеживающих функции, проще говоря жизнь испортят множеству обычных людей а реальным похитителям ничего не будет ведь они всегда найдут как это обойти ровно так же как в России обходят законы сами же законодатели

Новый тренд для молодо выглядящих стримерш Онлифанс будет. Делает макияж, чтобы выглядеть помоложе, одевается в школьницу, пилит контент с жестким секасом, пишет все на Айфон. А потом при попадании фоточек в правоохранительные органы многомилионный иск к Эппл за нарушение приватности.
В общем у Анастейши Стил новые возможности открываются.

Да-да. Именно такой контент они будут (типа сейчас нет) только смотреть. Никакой другой.
Это как слив ифны про айфоны до презентаций. Точно также проверяют реакцию людей.

Сообщения тоже будут мониторить! Набираемую(!) информацию в сообщениях тоже будут отслеживать. В режиме реального времени. Проверяйте новость

Сообщения тоже будут мониторить! Набираемую(!) информацию в сообщениях тоже будут отслеживать. В режиме реального времени. Проверяйте новость

Читайте также:
Контроллер Razer Kishi делает из iPhone игровую консоль

Сообщения тоже будут мониторить! Набираемую(!) информацию в сообщениях тоже будут отслеживать. В режиме реального времени. Проверяйте новость

Вы в этом уверены? У вас какие то проблемы с головой. ОТКУДА ВЫ НАШЛИ ТАКУЮ ФИГНЮ ПРО МОНИТОРИНГ СООБЩЕНИЙ, может вы просто наткнулись на дезинформацию.

Вы в этом уверены? У вас какие то проблемы с головой. ОТКУДА ВЫ НАШЛИ ТАКУЮ ФИГНЮ ПРО МОНИТОРИНГ СООБЩЕНИЙ, может вы просто наткнулись на дезинформацию.

Вы в этом уверены? У вас какие то проблемы с головой. ОТКУДА ВЫ НАШЛИ ТАКУЮ ФИГНЮ ПРО МОНИТОРИНГ СООБЩЕНИЙ, может вы просто наткнулись на дезинформацию.

Аймесседж тоже будет проверяться.

Бороться с сексуальным насилием над детьми это, конечно, благое дело, но в целом вся схема — это палка о двух концах. В статье верно подмечено, что сейчас 15-16 летние, в особенности девочки, выглядят лет на 20. В то время как пошла мода у всяких Онлифанщиц и Вебкамерш одеваться под школьницу и пародировать подростка. И как это поймёт нейросеть да и сам человек: где ребенок, выглядящий как взрослый; а где взрослый, выглядящий как ребенок?

Да и в целом отправлять друг другу и хранить нюдсы своего партнёра — обыденная вещь, даже для 15-16 летних подростков. Таки это теперь будет запрещено? Представляю ситуацию: айклауд 16-летнего пацана банят за ЦП в фотопленке, а на дели это был нюдс его девушки-сверстницы. Он подает на апелляцию в ментовку и в итоге все знают: его родители, родители его пассии, Эппл и менты, что его девушка ему голые фотки скидывала. И все их благополучным образом просмотрели. Прекрасно: режим гестапо для подростков уже здесь.

интересно, если сравнивать хеши, то изменение одного пикселя, полностью меняет хеш. именно поэтому запускается на телефоне, что бы иметь возможность анализа изображения, до его превращения в хеш.

Защита детей от насилия. Apple призналась, что сканирует изображения в iCloud

Лента новостей

  • 09:55 Умер экс-президент Южной Кореи Ро Дэ У
  • 09:26 Японская принцесса Мако вышла замуж
  • 08:57 В ходе протестов в Судане погибли не менее семи человек
  • 08:28 Эрдоган решил не высылать 10 послов из Турции
  • 07:57 В Набережных Челнах умерла пострадавшая при взрыве газа
  • 07:33 Молдавия впервые в истории закупила газ не у «Газпрома»
  • 07:01 Российский программист погиб после нападения в Оксфорде
  • 05:06 Байден открывает США для путешественников с 8 ноября
  • 03:55 Энергетический кризис ссорит европейские страны
  • 03:03 Основательница Spanx удивила своих сотрудников невероятным подарком
  • 02:02 К 2023 году развитые страны смогут выделить бедным $100 млрд на борьбу с изменением климата
  • 01:51 Джефф Безос планирует создать бизнес-парк в космосе
  • 01:01 Вашингтон готовится обложить налогом сверхбогатых
  • 00:43 Минобороны сообщило о попытке подрыва российского патруля в Сирии
  • 00:11 Москалькова назвала действия бывшего заключенного Савельева проявлением смелости
  • вчера, 23:34 Microsoft рассказала о новой волне кибератак, связав их с хакерами из России
  • вчера, 22:44 Источник: молдавские социалисты не смогли убедить Козака предоставить скидки на газ
  • вчера, 22:10 Россия выдвинула на «Оскар» фильм Киры Коваленко «Разжимая кулаки»
  • вчера, 21:36 Попова оценила уровень вакцинации и нынешнюю заболеваемость коронавирусом в регионах
  • вчера, 21:02 ООН считает, что Йемену грозит голод «библейского» масштаба
  • вчера, 20:28 Военные медики вновь направлены в Тульскую область для борьбы с COVID-19
  • вчера, 19:54 Московские суды общей юрисдикции в нерабочие дни будут работать по обычному графику
  • вчера, 19:20 Инфляционные ожидания россиян достигли 13,6%
  • вчера, 18:51 Путин и Джонсон провели телефонные переговоры
  • вчера, 18:24 Взрыв газа разрушил восемь квартир в доме в Набережных Челнах
  • вчера, 18:20 Атташе ФРГ вызвали в Минобороны РФ после заявлений о ядерном сдерживании
  • вчера, 17:55 Наталья Орейро получила гражданство России
  • вчера, 17:34 Мощный взрыв произошел в жилом доме в Набережных Челнах
  • вчера, 17:21 Арестованы подозреваемые по делу о взрыве в пороховом цеху под Рязанью
  • вчера, 16:52 Попова назвала цель введения нерабочих дней в России
  • вчера, 16:26 Суд отказался закрыть процесс по делу о терактах в столичном метро в 2010 году
  • вчера, 16:25 В Москве и Подмосковье выявили новую мутацию COVID-19
  • вчера, 16:12 Путин поручил создать систему управления качеством продуктов
  • вчера, 15:40 Ограничения в Петербурге сохранятся до вакцинации 80% населения
  • вчера, 15:20 Полиция начала розыск актрисы Светланы Светличной
  • вчера, 15:10 Минпросвещения не планирует переводить школы на дистант
  • вчера, 15:08 На въезде в Севастополь установят блокпосты для проверки QR-кодов
  • вчера, 14:51 В Москве не будут продлевать нерабочие дни после 7 ноября
  • вчера, 14:39 В Татарстане отказались переименовывать своего президента в главу региона
  • вчера, 14:09 Блокадники и защитники Ленинграда получат по 50 тысяч рублей
  • вчера, 13:40 Мишустин сообщил о плане финансовой помощи малому бизнесу
  • вчера, 13:10 Для моргов Крыма закупаются дополнительные холодильники
  • вчера, 12:39 Побочные эффекты от ковид-вакцинации подростков незначительны
  • вчера, 12:09 Группу россиян задержали в Турции за поджог леса
  • вчера, 11:55 Автомобиль врезался в ресторан в центре Москвы
  • вчера, 11:39 Новый антирекорд по COVID-19: новых случаев почти 38 тысяч
  • вчера, 11:19 Путин поручил правительству обеспечить регионы лекарствами от COVID-19
  • вчера, 11:10 На Тверской улице в Москве ограничено движение из-за пожара
  • вчера, 10:40 Военные увезли премьера Судана в неизвестном направлении
  • вчера, 10:10 «Почта России» начала доставлять посылки роботами «Яндекса»
Читайте также:
Выставка WWDC 2020 - что покажет Apple?

Все новости »

Все фотографии, поступающие в онлайн-хранилище iCloud, сканируются на запрещенный контент. Если его найдут, учетная запись будет заблокирована, а изображения — удалены. Насколько правомерны такие действия и зачем это нужно самой Apple?

Фото: depositphotos.com –>

О том, что Apple сканирует фотографии, попадающие в iCloud, сообщила старший директор компании по вопросам конфиденциальности Джейн Хорват. Интерес корпорации к личным данным она объяснила борьбой с «жестоким обращением с детьми», в частности, сексуальным насилием над несовершеннолетними, пишет The Telegraph. Хорват не стала раскрывать подробности, как настроен фильтр и каким образом система определяет, что на фотографиях именно дети. Возможно, имелся в виду известный сервис PhotoDNA, считает директор департамента информационной безопасности «Системный софт» Яков Гродзенский:

Яков Гродзенский директор департамента информационной безопасности «Системный софт» «Cервисом PhotoDNA пользуется уже достаточно большое количество интернет-компаний: Facebook, Google, Twitter. Этот сервис, разработанный компанией Microsoft, предназначен для того, чтобы находить незаконные изображения, которые, например, могут содержать элементы детской порнографии. Используется механизм хеширования: каждое изображение с помощью алгоритма сверяется с уже имеющимися хешами в базе и определяет, есть ли в данном изображении какие-то элементы, которые имеют незаконный характер».

Если фильтр находит подозрительный контент, учетная запись блокируется, а фотографии удаляются. Передают ли материалы в полицию, в Apple не уточняют. Джейн Хорват напомнила, что учетные записи с таким контентом нарушают условия использования iCloud. Другой вопрос — почему корпорация вообще считает нормой мониторинг личных данных? Ведь главное — продать устройство, какая разница, как покупатель будет его использовать? Так и есть, пока дело не касается детей, отмечает главный редактор портала iPhones.ru Никита Горяинов:

Никита Горяинов главный редактор портала iPhones.ru «Apple действительно не отвечает за контент, но по законам различных стран хранение такого вида контента на серверах в принципе незаконно. Поэтому тут Apple выполняет требование, как минимум, западных государств. Помимо того, что идет анализ, никаких дополнительных комментариев они не давали. Передают ли они дальше данные — тоже вопрос открытый, были ли какие-то открытые ситуации с дальнейшим разбирательством правоохранительных органов на основе этих данных — такой информации тоже не поступало».

Читайте также:
Спрос на iPhone 12 Pro превысил предложение на рынке

Сведения о том, что фотографии теперь сканируются, Apple внесла в свою политику конфиденциальности 31 декабря, а сообщила об этом 9 января, на одной из выставок электроники в Лас-Вегасе. Это, к сожалению, тренд — в те самые соглашения для пользователей постоянно вносятся изменения, и часто клиент даже не знает, на что подписывается. Продолжает руководитель аналитического центра Zecurion Владимир Ульянов:

Владимир Ульянов руководитель аналитического центра Zecurion «Сейчас в целом есть такая политика, что компании стараются максимально много информации получать о своем пользователе через любые сервисы. Запрашивают кучу разрешений, контакты, например, данные их геопозиционирования. С другой стороны, пользователи никогда эти соглашения не читают. Даже если там какой-то пункт был и ранее, то вряд ли они о нем знали. В большинстве случаев, все эти права компании — передавать информацию кому-то, анализировать, обрабатывать ее — прописаны, но пользователи о них в большинстве случаев просто не знают».

Как заверили в Apple, сканирование фото рассчитано только на контент с детьми. Остальные пользователи все также под защитой шифрования. Но не факт, что надолго. Возможно, пришло время все-таки прочитать пользовательское соглашение.

Нет, Apple не будет смотреть ваши фото. Но остаётся ряд вопросов

Недавно Apple рассказала, что будет сканировать фотографии пользователей на предмет насилия над детьми. Это вызвало большой резонанс: технологию посчитали вмешательством в личное пространство. В том числе потому, что не все поняли принцип её работы. Разбираемся, как всё устроено на самом деле.

Что входит в новую программу Apple по защите детей?

Apple планирует пресекать распространение материалов с сексуальным насилием над детьми с помощью трёх функций безопасности:

  • При получении или отправлении откровенного контента через «Сообщения» ребёнку будет показано предупреждение, а сами снимки окажутся размыты. Если юный пользователь всё же просмотрит их, родители получат уведомление.
  • При сохранении фото в iCloud Photos система проверит, нет ли совпадений с базой данных.
  • Siri и «Поиск» научатся помогать пользователям в небезопасных ситуациях, предлагая ресурсы, где можно сообщить об эксплуатации детей.

Нововведения появятся в iOS 15, iPadOS 15 и macOS Monterey и поначалу заработают только в США. Однако новость всколыхнула весь мир.

Как будет работать сканирование фотографий?

Apple уверяет, что её система не нарушает пользовательскую конфиденциальность. Вот как она будет искать на снимках запрещённый контент.

На гаджет владельца загружается база ресурсов, которые содержат контент с детским насилием. В США такой перечень ведёт некоммерческая организация «Национальный центр пропавших без вести и эксплуатируемых детей».

Читайте также:
Новая версия iOS 13.6.1 (и iPadOS 13.6.1) и macOS 10.15.6

Фотографии хранятся в виде хешей — набора уникальных символов, который не позволяет восстановить исходный материал, но при этом идентичен для тех же данных при многократной генерации. Хеши можно сличать между собой. Даже если обрезать или изменить картинку, она будет содержать тот же набор ключевых символов.

Каждое изображение, которое готовится к загрузке в iCloud Photos, тоже превращается в хеш для сопоставления. Это позволяет сравнить пользовательский снимок с незаконными кадрами, причём не отдавая алгоритму личные фото.

Когда система обнаружит сильное совпадение, сотрудник Apple вручную оценит наличие нелегальных материалов. Если он подтвердит нарушение правил, учётная запись заблокируется, а информация будет направлена в правоохранительные органы.

Ещё раз. Apple не будет искать детородные органы на снимках ваших детей.

Сравнение производится только с уже известным запрещённым контентом. Аналогичная функция ещё с 2019 года работает в iCloud Photos для загруженных в облако картинок. Теперь всё это происходит локально на устройстве владельца.

А что думают специалисты?

Несмотря на заверения Купертино в безопасности технологии, IT-эксперты уверены в обратном. Исполнительный директор Open Privacy Research Society задаётся таким вопросом: «Сколько времени пройдёт, прежде чем базу данных расширят за счёт террористического контента?» А исследователь в области безопасности и конфиденциальности Надим Кобейси напомнил, что FaceTime в Саудовской Аравии отключен из-за запрета на шифрование звонков. Значит, «яблочная» компания может изменить своим принципам и в случае сканирования контента.

Эксперты и обеспокоенные пользователи подписали открытое письмо к Apple, в котором призвали корпорацию немедленно отказаться от внедрения системы контроля за фото. К документу присоединились более 7400 человек, включая Эдварда Сноудена.

А на ваш взгляд, связана ли инициатива Apple с заботой о пользователях? Или же это очередной шаг корпорации по ограничению конфиденциальности?

Apple начнет сканировать iPhone для поиска изображений насилия над детьми

Корпорация Apple планирует устанавливать на iPhone программное обеспечение по обнаружению изображений жестокого обращения с детьми, сообщает Financial Times (FT) со ссылкой на источники. На первом этапе нововведение будет распространено только на жителей США.

Система Apple получила название neuralMatch. Ее компания представила на встрече некоторым ученым, рассказали изданию два эксперта в области безопасности. Уточняется, что о своих планах корпорация может объявить уже на этой неделе.

Алгоритм neuralMatch обучен на 200 000 изображений сексуального насилия, собранных Национальным центром пропавших без вести и эксплуатируемых детей. Система будет непрерывно сканировать фотографии, которые хранятся на iPhone пользователей или выгружены в iCloud, и сопоставлять их с имеющейся базой. При этом сами картинки для программного обеспечения выглядят как числовой порядок, а не конкретные изображения.

Таким образом, каждой фотографии будет присваиваться «ваучер безопасности» с указанием, является ли она подозрительной или нет. Как только определенное количество снимков получит отметку подозрительных, Apple позволит расшифровать все из них. Если система действительно обнаружила незаконные изображения, сведения об этом передадут соответствующим органам.

Apple отказалась прокомментировать информацию, полученную FT.

Издание уточняет, что подобное решение Apple является попыткой найти компромисс между обещанием защитить частную жизнь пользователей и постоянными требованиями властей, правоохранительных органов и активистов обеспечить защиту детей. В то же время эксперты полагают, что в итоге компания рискует позволить правительствам по всему миру получать доступ к личным данным граждан.

«Это абсолютно ужасная идея, потому что она приведет к массовой слежке за нашими телефонами и ноутбуками», — заявил профессор инженерной безопасности Кембриджского университета Росс Андерсон.

Читайте также:
Apple предлагает наносить смайлики на AirPods бесплатно

Пока система обучена распознавать сексуальное насилие над детьми, однако впоследствии ее можно адаптировать для сканирования любых других изображений и текста, например обезглавливания террористов или антиправительственных знаков во время протестов, утверждают исследователи. Кроме того, ситуация с Apple также может усилить давление на другие технологические компании, чтобы они использовали аналогичные методы, предупредили эксперты.

Рассылки «Ведомостей» — получайте главные деловые новости на почту

Хотите скрыть рекламу? Оформите подписку и читайте, не отвлекаясь

  • Подписка
  • Реклама
  • Справочник компаний
  • Об издании
  • Редакция
  • Менеджмент
  • Архив
  • Наши проекты

    • Спорт
    • Ведомости.Спб
    • Город
    • Экология
    • Ведомости&
    • Бизнес-регата
    • Как потратить
    • Конференции
    • Недвижимость
    • Форум

    Контакты

    Рассылки «Ведомостей» — получайте главные деловые новости на почту

    Ведомости в Facebook

    Ведомости в Twitter

    Ведомости в Telegram

    Ведомости в Instagram

    Ведомости в Flipboard

    Решение Федеральной службы по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор) от 27 ноября 2020 г. ЭЛ № ФС 77-79546

    Учредитель: АО «Бизнес Ньюс Медиа»

    И.о. главного редактора: Казьмина Ирина Сергеевна

    Рекламно-информационное приложение к газете «Ведомости». Зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор) за номером ПИ № ФС 77 – 77720 от 17 января 2020 г.

    Любое использование материалов допускается только при соблюдении правил перепечатки и при наличии гиперссылки на vedomosti.ru

    Новости, аналитика, прогнозы и другие материалы, представленные на данном сайте, не являются офертой или рекомендацией к покупке или продаже каких-либо активов.

    Сайт использует IP адреса, cookie и данные геолокации Пользователей сайта, условия использования содержатся в Политике по защите персональных данных

    Все права защищены © АО Бизнес Ньюс Медиа, 1999—2021

    Любое использование материалов допускается только при соблюдении правил перепечатки и при наличии гиперссылки на vedomosti.ru

    Новости, аналитика, прогнозы и другие материалы, представленные на данном сайте, не являются офертой или рекомендацией к покупке или продаже каких-либо активов.

    Все права защищены © АО Бизнес Ньюс Медиа, 1999—2021

    Решение Федеральной службы по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор) от 27 ноября 2020 г. ЭЛ № ФС 77-79546

    Учредитель: АО «Бизнес Ньюс Медиа»

    И.о. главного редактора: Казьмина Ирина Сергеевна

    Рекламно-информационное приложение к газете «Ведомости». Зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор) за номером ПИ № ФС 77 – 77720 от 17 января 2020 г.

    Сайт использует IP адреса, cookie и данные геолокации Пользователей сайта, условия использования содержатся в Политике по защите персональных данных

    Apple опубликовала FAQ о своей новой системе сканирования фотографий пользователей

    Xakep #270. Инструменты криминалиста

    • Содержание выпуска
    • Подписка на «Хакер»

    В ответ на критику компания Apple опубликовала FAQ , в котором отвечает на вопросы, касающиеся новой инициативны компании по поиску изображений, имеющих признаки сексуального насилия над детьми.

    Предыстория

    В конце прошлой недели весь мир взбудоражила новость о том, что компания Apple скоро начнет искать среди пользовательских изображений признаки сексуального насилия над детьми.

    В компании рассказали, что инициатива будет состоять из нескольких частей. Во-первых, Apple будет проверять все сообщения в Messages, полученные и отправленные детьми, в поисках наготы, и оповещать родителей, если обнаружит слишком откровенные фото.

    Во-вторых, все изображения на устройствах под управлением iOS и iPadOS, которые синхронизируются с iCloud, будут сличаться с базой CSAM (child sexual abuse materials; англ. материалы, содержащие признаки сексуального насилия над детьми), которую предоставляет Национальный центр пропавших без вести и эксплуатируемых детей (NCMEC).

    В-третьих, Siri и Search научатся «вмешиваться, когда пользователи выполняют поиск по запросам, связанным с CSAM», и «объяснят пользователям, что интерес к этой теме вреден и проблематичен, а также предоставят ссылки на ресурсы партнеров для получения помощи в решении этой проблемы».

    Как мы уже рассказывали ранее, в ответ на Apple обрушился шквал критики со стороны ИБ-экспертов, правозащитников, ученых и так далее. К примеру, специалисты «Фонда электронных рубежей» (Electronic Frontier Foundation, EFF), писали, что «даже тщательно задокументированный, продуманный и строго ограниченный бэкдор по-прежнему остается бэкдором». А также предупреждали, что в странах с авторитарным режимом эта система может использоваться отнюдь не для защиты детей.

    Эрик Рескорла (Eric Rescorla), технический директор Mozilla, и вовсе опубликовал технический анализ новой системы Apple, из которого следует, что безопасность такого сканирования в поисках CSAM-файлов полностью зависит от поведения Apple и доверия к компании. Дело в том, что ранее Apple заявила, что новая функциональность не будет работать, если у пользователей отключена синхронизация с iCloud, и не затронет «частные библиотеки фотографий на устройствах».

    «Важно понимать, что в системе нет ничего, что помешало бы Apple сканировать фотографии, которые никогда не покидают устройство; они просто решили этого не делать», — объясняет Рескорла.

    Также в сети уже появилось открытое письмо к Apple, которое подписали более 7000 физических лиц и множество организаций. В письме от Apple требуют пересмотреть позицию по поводу развертывания этой технологий и не «подрывать фундаментальные меры защиты конфиденциальности для всех пользователей продуктов Apple».

    Теперь представители Apple опубликовали FAQ, в котором попытались ответить на многочисленные вопросы, возникающие у специалистов и общественности, а также развеять опасения пользоватлей.

    Один из вопросов гласит: «Могут ли правительства вынудить Apple добавить в список хешей изображения, не относящиеся к CSAM?». И компания отвечает:

    «Apple отклонит любые подобные требования. Мы и ранее сталкивались с требованиями создать и внедрить санкционированные правительством изменения, которые ухудшат конфиденциальность пользователей, и упорно отказывались от таких требований. Мы продолжим отказывать им в будущем».

    На юристов такой ответ не произвел впечатления. Например, Элизабет Джо, профессор права Калифорнийского университета в Дэвисе, пишет вTwitter:

    «То есть, по сути, все, что стоит между пользователями и правительствами, требующими [добавления] в список хешей изображений, не относящихся к CSAM, — это твердый отказ Apple?».

    На это бывший заместитель генерального юрисконсульта Google Дафна Келлер, отвечает Джо:

    «Говорю как человек, который судился и проиграл именно по этому вопросу в трех разных странах (Великобритания, Германия, Франция), могу уверенно заявить, что твердый отказ добавлять новые фильтры, не относящиеся к CSAM, не имеет никакого значения перед лицом государственной власти».

    Сноуден мемом высмеял решение Apple сканировать фото пользователей на предмет насилия над детьми

    Бывший агент ЦРУ Эдвард Сноуден, передавший СМИ в 2013 году информацию о тотальной слежке за гражданами США и других государств, отреагировал в твиттере мемом на новость о решении руководства Apple сканировать фотографии своих пользователей в поисках кадров с насилием над детьми. Экс-сотрудник АНБ пошутил, что корпорация, некогда защищавшая права пользователей на конфиденциальность, теперь собирается сравнивать изображения клиентов с чёрным списком от правительства.

    Эдвард Сноуден, бывший сотрудник Агентства национальной безопасности США и ЦРУ, 6 августа в своём аккаунте в твиттере опубликовал мем с собаками — большим мускулистым Доге и маленьким грустным Чимсом. С помощью популярного формата, о котором ранее писал Medialeaks, технический специалист иронично обыграл новость о том, что Apple намеревается сканировать фотографии на устройствах своих пользователей в поисках контента с насилием над детьми.

    Мем Сноудена

    Apple в 2015 году: Мы заблокировали ФБР доступ к телефону террориста-смертника, чтобы защитить ваши личные данные.
    Apple в 2021 году: Мы сопоставляем ваши фотографии и облако с чёрным списком от правительства и сообщаем полицейским об этом. А ещё мы расскажем твоей маме, что ты пишешь в сообщениях.

    Пост Сноудена на момент написания материла набрал в соцсети около 60 тысяч лайков. Позже бывший сотрудник ЦРУ под записью опубликовал ещё один шутливый твит, чем дал понять, что с решением Apple, судя по всему, не согласен.

    Чимс (маленькая собака из мема — прим. Medialeaks), крошка, нет, что ж ты делаешь?

    Apple сообщила о проверке фотографий своих пользователей

    Издание Financial Times 5 августа рассказало, что американская компания Apple планирует запустить систему neuralMatch, которая проверяет содержание фотографий на айфонах, подключённых к сервису iCloud. Сначала программа будет действовать только на территории США. Система тренировалась на более чем 200 тысячах изображений из Национального центра по делам пропавших и эксплуатируемых детей. Предполагается, что фото будут хешированы и будут сравниваться с базой данных уже имеющихся изображений с сексуальным насилием над детьми.

    Apple на своём официальном сайте подтвердила сообщения журналистов о том, что будет проверять изображения в iCloud на предмет контента с абьюзом детей.

    Новая технология на IOS и iPadOS позволит Apple обнаруживать совпадение фото из облачного хранилища с известными изображениями, содержащими сцены сексуального насилия над детьми. С помощью этого Apple сможет сообщать об обнаружении подозрительных совпадений в Национальный центр по делам пропавших и эксплуатируемых детей, который сотрудничает с правоохранительными органами по всей территории США.

    При этом представители компании заявили, что система не будет сканировать кадры пользователей и разработана так, чтобы сохранять конфиденциальность. Для каждой фотографии будет создан «ваучер безопасности», содержащий зашифрованную информацию о результатах проверки — хеш, который отправляется в серверы Apple. Если код будет полностью совпадать с шифром изображения из базы данных, то фото станет видно. В ином случае кадр так и останется набором знаков.

    При этом мнение некоторых экспертов о нововведении Apple далеко от оптимистичного. Аналитик по безопасности Facebook Алек Маффет прокомментировал новость, вспомнив о романе Джорджа Оруэлла «1984».

    Apple планирует отказаться от конфиденциальности в пользу «1984», — сказал Маффет изданию Financial Times.

    Между тем Apple провозглашает неприкосновенность личной жизни не только фундаментальным правом человека, но и одной из ключевых ценностей компании. Ранее корпорация даже судилась с ФБР из-за отказа помогать сотрудникам внутренней разведки разблокировать телефон подозреваемого по делу стрельбы в Калифорнии. Однако затем представители ФБР своё требование отозвали.

    Ранее Medialeaks также писал, что программисты организации Amnesty International разработали программу Pegasus, которая позволяет пользователям проверить свой телефон на слежку.

Рейтинг
( Пока оценок нет )
Понравилась статья? Поделиться с друзьями:
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: