Новости цифровизации

Система распознавания лиц и слежения. Как обойти эту систему?

2020 год является переломным для машинного обучения. Он стал свидетелем истинного появления удобного машинного обучения, где модели и алгоритмы глубокого обучения легко доступны для пользователей Интернета. 

Но доступное машинное обучение также имеет свои недостатки. В недавней статье New York Times, написанной Кашмиром Хиллом, была опубликована информация о clearview.ai, нерегулируемой службе распознавания лиц, которая загрузила более 3 миллиардов фотографий людей из Интернета и социальных сетей и использовала их для создания моделей распознавания лиц для миллионов граждан без их ведома или  разрешение. Clearview.ai демонстрирует, насколько легко создавать инвазивные инструменты для мониторинга и отслеживания с использованием глубокого обучения.

Как защитить себя от несанкционированных третьих лиц, создающих модели распознавания лиц, которые узнают нас, куда бы мы ни пошли?  Правила могут и будут способствовать ограничению использования машинного обучения государственными компаниями, но они окажут незначительное влияние на частные организации, отдельных лиц или даже другие национальные государства с аналогичными целями.

Лаборатория SAND в Чикагском университете разработала Fawkes1, алгоритм и программный инструмент (работающий локально на вашем компьютере), который дает людям возможность ограничить использование их собственных изображений для их отслеживания. На высоком уровне Фоукс берет ваши личные изображения и вносит крошечные изменения на уровне пикселей, которые невидимы для человеческого глаза, в процессе, который мы называем маскировкой изображения. Затем вы можете использовать эти «скрытые» фотографии, как обычно, отправляя их в социальные сети, отправляя друзьям, распечатывая или отображая на цифровых устройствах, так же, как и на любой другой фотографии.  

Разница, однако, заключается в том, что если и когда кто-то попытается использовать эти фотографии для построения модели распознавания лиц, «скрытые» изображения научат модель сильно искаженной версии того, что заставляет вас выглядеть как вы. Эффект плаща не легко обнаружить людям или машинам, и он не вызовет ошибок при обучении модели. Однако, когда кто-то пытается идентифицировать вас, представляя неизменившееся «незакрытое» изображение вас (например, фотографию, сделанную на публике) модели, модель не сможет вас узнать.

Fawkes был тщательно протестирован и доказал свою эффективность в различных средах и на 100% эффективен против современных моделей распознавания лиц (Microsoft Azure Face API, Amazon Rekognition и Face ++).