Полный Deep Fake: как обмануть систему биометрии на базе Big Data и Machine Learning

Big Data, Большие данные, предиктивная аналитика, бизнес-процессы, цифровизация, цифровая трансформация, бизнес, защита информации, Security, безопасность, машинное обучение, Machine Learning

Сравнив между собой наиболее популярные методы биометрии, сегодня мы подробнее рассмотрим, насколько они устойчивы к фальсификациям. Читайте в этой статье, как хакеры обманывают сканер отпечатков пальцев, путают Big Data системы уличной видеоаналитики и выдают себя за другое лицо с помощью модной технологии машинного обучения (Machine Learning) под названием Deep Fake.

От телефона до видеоаналитики Big Data: 7 реальных примеров взлома биометрических систем

Начнем с метода распознавания лиц в Big Data системах уличного видеонаблюдения. Существующие алгоритмы Machine Learning могут успешно распознать человека даже по 70% лица, например, если он частично скрылся под медицинской маской. Очки, головные уборы, борода и усы снижают точность распознавания примерно с 95% до 92%. При этом такие способы маскировки повышают вероятность ложного срабатывания (ошибка 1-го рода по confusion matrix) примерно в 5 раз – до уровня 0,01%. Менее сложные биометрические системы, установленные на индивидуальных устройствах типа смартфона, можно обмануть даже без использования специальных приспособлений. Отмечаются множественные случаи по взлому Face ID от Apple с помощью близнецов или визуально похожих людей.  Например, вьетнамская фирма Bkav смогла взломать это устройство с помощью недорогой маски всего за $200. А подвижные 3D-муляжи на основе случайных фотографий из соцсети Facebook помогли ученым Университета Северной Каролины обмануть 4 из 5 систем распознавания лиц в 2016 г. Сценический макияж (грим), парики и цветные стекла очков также повышают вероятность того, что алгоритм Machine Learning ошибется, совершив ложное срабатывание или ложный отказ [1].

В 2017 году хакеры смогли обмануть сканер радужной оболочки глаза смартфона Samsung Galaxy S8, подделав радужку с помощью обычной контактной линзы, на которую был помещен снимок чужого глаза. Такая имитация была сделана с помощью цифрового фото глаза с высоким разрешением в режиме ночной съемки, когда отключен инфракрасный фильтр. Распечатав на лазерном принтере фото с предварительно откорректированной настройкой яркости и контраста, злоумышленники наклеили его простую контактную линзу и показали сканеру смартфона [2]. В 2016 году подобным образом был дискредитирован дактилоскопический сканер, который принял за подлинный отпечаток пальца подделку, распечатанную токопроводящими чернилами на глянцевой бумаге. Таким образом исследователи cybersecurity из Мичиганского университета США успешно обманули встроенные сканеры смартфонов Samsung Galaxy S6 и Huawei Honor 7 [3].

А инженеры из Берлинского технического университета продемонстрировали, как можно обойти биометрическую систему аутентификации по рисунку вен на ладони. Для этого они разработали прототип прибора, который незаметно собирает эти биометрические данные с помощью одноплатного компьютера Raspberry Pi и компактной цифровой камеры без инфракрасного фильтра. Полученные фото ладоней были обработаны с целью четкого выделения вен, на месте которых были нарисованы однопиксельные линии. Затем изображение было распечатано и залито воском, имитирующим поверхность кожи. Работоспособность данного способы была показана на реальном оборудовании Hitachi и Fujitsu в 2018 году [4].

В 2019 году стало известно о возможности обмануть сканер отпечатка пальцев смартфона Samsung Galaxy S10 с помощью модели искусственного пальца, распечатанного на 3D-принтере [5]. Тогда же, в 2019 году, дактилоскопический сканер смартфона OnePlus 7 Pro был введен в заблуждение муляжом, сделанным из фольги и клея ПВА [6].

Вышеописанные инциденты были основаны на точном копировании биометрических данных конкретного человека. Однако, некоторые фрагменты папиллярных узоров у многих людей являются общими. Поэтому еще в 2017 году был предложен способ обмана биометрии с помощью универсального «мастер-отпечатка». Ученые Нью-Йоркского и Мичиганского университетов с помощью технологий Big Data проанализировали 8,2 тысяч отпечатков и обнаружили 92 универсальных фрагмента для каждой группы из 800 случайно отобранных образцов, который по крайней мере на 4% точно совпадал с остальными. Исследователи отмечают, что основе такой фрагментации можно создать целый ряд «мастер-отпечатков», способных обмануть практически любую систему дактилоскопической биометрии [7].

Отпечатки пальцев, биометрия, методы обмана биометрии
Обмануть дактилоскопический сканер современного смартфона возможно даже в домашних условиях

Что такое Deep Fake и насколько это опасно для биометрии

В 2019 году мир охватила истерия под названием Deep Fake, когда с помощью технологий глубокого машинного обучения (Deep Learning) начали создаваться многочисленные аудио- и видео-подделки на реальных людей. При этом используется генеративно-состязательные сети (GAN, Generative Adversarial Network), когда одна нейросеть генерирует подделку, а другая – распознает ее. Таким образом, обе сети тренируют друг друга, постепенно доводя результат до совершенства. Пока самым ярким примером практического и неправомерного применения этой технологии Machine Learning является случай с зарубежной энергетической компанией, которая потеряла около 220 тысяч евро, переведя их на счет злоумышленников в следствие телефонного звонка, где голосом руководителя фирмы было отдано распоряжение на перевод денег стороннему контрагенту. Характерно, что был правдоподобно имитирован не только голос начальника, но и его манера разговора, в частности, немецкий акцент [8]. Аналогичным образом с помощью Deep Fake возможна генерация видео в режиме онлайн, как это было продемонстрировано во второй половине 2019 года на конференции в Массачусетском технологическом институте [9].

Дополнительную опасность неправомерного использования GAN-моделей добавляет способность этих алгоритмов Machine Learning обучаться на разнородных аудио, видео и изображениях, которых полно в открытом доступе. Так могут быть созданы фейковые записи известных людей, знаменитостей и политиков, что влечет социальные, финансовые и политические риски. Кроме того, данная технология машинного обучения также потенциально опасна и для простых обывателей, которые используют лицо и голос в качестве биометрических идентификаторов, например, в российской ЕБС. Подробнее об этой системе биометрии и ее практическом внедрении в нашей стране мы рассказывали здесь.

Поэтому, даже если сгенерированные с помощью Deep Fake и опубликованные аудио и видеозаписи можно рассматривать как высокотехнологичный монтаж, то для защиты от таких приложений Machine Learning в реальных Big Data системах биометрии нужны дополнительные меры cybersecyrity. К ним относятся многофакторная аутентификация, защита биометрических шаблонов и кратная верификация, о которых мы поговорим в следующей статье.

Deep Fake, машинное обучение, Big Data в биометрии
Обеспечение информационной безопасности биометрии — одна из главных задач технологий Big Data и Machine Learning

Другие практические аспекты информационной безопасности больших данных, включая биометрию на базе машинного обучения, рассматриваются на наших образовательных курсах в лицензированном учебном центре обучения и повышения квалификации ИТ-специалистов (менеджеров, архитекторов, инженеров, администраторов, Data Scientist’ов и аналитиков Big Data) в Москве:

Источники

  1. https://www.vedomosti.ru/technology/articles/2018/03/28/755116-obmanut-sistemi
  2. https://hitech.newsru.com/article/24may2017/iris
  3. https://hitech.newsru.com/article/10mar2016/fingerprint
  4. https://nplus1.ru/news/2018/12/28/vein
  5. https://nplus1.ru/news/2019/04/08/galaxy-s10-fingerprint
  6. https://www.anti-malware.ru/news/2019-05-28-1447/29755
  7. https://www.securitylab.ru/news/485851.php
  8. https://www.securitylab.ru/blog/company/PandaSecurityRus/347085.php
  9. https://www.plusworld.ru/journal/2019/plus-9-2019/obman-sistem-biometricheskoj-identifikatsii-i-sposoby-protivodejstviya/
Поиск по сайту