Mobile AppSec World
5.24K subscribers
142 photos
8 videos
19 files
675 links
Новости из мира безопасности мобильных приложений, а так же интересные статьи, обзоры инструментов, доклады, митапы и многое другое...

По всем вопросам - @Mr_R1p
Download Telegram
Алгоритм NeuralHash для обнаружения CSAM

Как все знают, с 15-й версии iOS компания Apple начнет анализировать фотографии на iPhone на предмет наличия детского порно. Обещали проверять только фотографии, которые загружаются в iCloud, но код и моделька почему-то будут и на устройствах. Ну так, чисто на всякий случай. 😁

Как по мне - это очень и очень странное решение, которое в принципе подвергает под сомнение наличие хоть какой-то приватности пользователя. Подумайте, Apple будет проверять все ваши фотографии и пропускать их через какой-то там алгоритм, что бы что-то там найти)) Звучит не очень)

И кстати, несмотря на то, что включить обещали эту функцию только в iOS 15, ее код, модели и сам механизм доступен уже в iOS 14.3! И один из исследователей разреверсил код, вытащил модель, которая используется и даже преобразовал исходную модель из MobileNetV3 в ONNX и перестроил весь алгоритм NeuralHash на Python!

Все инструкции доступны на Github, можно выкачать их, вытащить модельку c устройства (и не только с него) и попробовать, как она работает!

Потрясная работа, и в статье как обычно комментарии чуть-ли не подробнее и интереснее, чем сама новость 😄
Так что если вам хочется посмотреть, будут ли ваши фотки с котиками восприниматься как что-то запрещенное - самое время проверить!

Ну а я придумал хитрый план, у многих не отключена опция автоматического сохранения фотографий в WhatsUp. Так что кидаем своему недругу кучу компроментирующих фотографий, они сохраняются в облако, анализируется и за ним в срочном порядке выезжает FBI 👹

#iOS #NeuralNetworks #Data