Слух: Apple сегодня начнёт сканировать фотографии на стороне клиента, чтобы выявлять насилие над детьми

Posted by

В январе 2020 года Apple начала сканировать фотографии, загруженных в облачный сервис iCloud, на наличие материалов сексуального насилия над детьми (CSAM). 

По слухам, сегодня компания планирует начать сканировать фото с той же целью, но уже на стороне клиента. 

Об этом в Twitter заявил инженер по криптографии Мэттью Грин (Matthew Green). Он сообщил, что сразу несколько источников независимо друг от друга рассказали ему о планах компании внедрить CSAM-сканирование на стороне клиента.

Краткий пересказ треда 

Вот, что Мэттью Грин написал в большом твиттер-треде по этому поводу.

Вакансии на techbyteshub.com

• CSAM-сканирование на стороне клиента позволит анализировать фотографии прямо на устройстве, если на нём включено резервное копирование iCloud. При нахождении материалов сексуального насилия над детьми система будет сообщать об этом в Apple. 

• Такой инструмент действительно полезен для поиска детской порнографии на смартфонах пользователей, но в авторитарных режимах его могут использовать не по назначению — для незаконного преследования. 

• Apple собирается начать с фотографий, не зашифрованных сквозным шифрованием (end-to-end). «Но зачем кому-то разрабатывать такую систему, если цели сканировать зашифрованные фотографии нет?», — пишет Мэттью Грин. 

• Даже если мы допустим, что Apple не будет злоупотреблять этим инструментом, есть ещё несколько поводов для беспокойства. CSAM-сканирование ищет на фотографиях «проблемные медиа-хеши» из своей базы данных, которую пользователь увидеть не может. 

• «Проблемные хеши» сгенерированы новым алгоритмом на нейронных сетях, который Apple недавно запатентовала. Исследователи практически ничего не знают об этой технологии. 

Читать тред полностью →

Источник: Matthew Green

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *