Слух: Apple начнет сканировать айфоны на наличие жестоких фото


EPA

В iOS может появиться функция, которая будет сканировать фото и видео на наличие изображений жестокого обращения с детьми, включая детскую порнографию. Сканирование будет выполняться локально — то есть прямо на устройстве, сообщил эксперт.

Компания Apple планирует внедрить в iOS функцию, которая будет автоматически проверять медиатеку пользователей на наличие изображений жестокого обращения с детьми (CSAM). Новая система будет анонсирована в ближайшее время, сообщил в твиттере эксперт по криптографии и кибербезопасности Мэтью Грин.

По его словам, эта информация поступила к нему сразу от нескольких независимых друг от друга источников. Как ожидается, в iOS начнут применяться алгоритмы хэширования контента, которые будут сопоставлять цифровые отпечатки фотографий и видео, хранящихся в памяти айфона, с имеющейся базой материалов насилия над детьми, включая детскую порнографию. В случае обнаружения CSAM-контента соответствующее уведомление будет направлено в Apple.

Подобная система уже применяется для фото и видео, загружаемых в облачный сервис iCloud. Ранее в Apple говорили, что алгоритмы работают по аналогии со спам-фильтром в электронной почте — то есть проверяются не сами изображения, а сопутствующие им "цифровые сигнатуры".

Теперь речь идет о том, что сканирование будет выполняться на стороне клиента — то есть на устройстве пользователя. Скорее всего, набор цифровых следов, идентифицирующих объекты и сцены как CSAM-контент, будет предварительно загружаться в iOS.

Эксперт назвал готовящийся Apple инструмент "очень плохой идеей". Он пояснил, что алгоритмы хэширования не являются надежным средством идентификации и могут давать ложные срабатывания. Кроме того, если компания разрешит контролировать базу с запрещенными материалами, то некоторые правительства, возможно, будут этим злоупотреблять. Например, обеспокоен Грин, вместо обнаружения противоправного детского контента инструмент может использоваться для подавления политической активности.