Состязательное машинное обучение: концепции, типы атак, стратегии и средства защиты

Опубликовано: 2021-05-02

Экспоненциальный прогресс предыдущих десятилетий способствовал развитию современных технологий в современном мире. В настоящее время мы являемся частью продолжающейся «Индустрии 4.0», в центре которой находятся такие технологии, как искусственный интеллект и машинное обучение. Эта промышленная революция предполагает глобальный переход к научным исследованиям и инновациям в технологиях нейронных сетей, машинного обучения и искусственного интеллекта, Интернета вещей, оцифровки и многого другого.

Они предоставляют нам множество преимуществ в таких секторах, как электронная коммерция, производство, устойчивое развитие, управление цепочками поставок и т. д. Ожидается, что к 2027 году мировой рынок AI/ML превысит 266,92 млрд долларов США, и он по-прежнему остается предпочтительным выбором карьеры. для выпускников везде.

Хотя адаптация этих технологий прокладывает путь в будущее, мы не готовы к таким событиям, как атаки состязательного машинного обучения (AML). Системы машинного обучения, разработанные с использованием таких языков программирования, как SML, OCaml, F# и т. д., полагаются на программируемые коды, интегрированные в систему.

Изучайте машинное обучение онлайн в лучших университетах мира — магистерские программы, программы последипломного образования для руководителей и продвинутые программы сертификации в области машинного обучения и искусственного интеллекта, чтобы ускорить свою карьеру.

Внешние атаки AML, выполняемые опытными хакерами, представляют угрозу для целостности и точности этих систем ML. Небольшие изменения в наборе входных данных могут привести к тому, что алгоритм машинного обучения неправильно классифицирует фид и, таким образом, снизит надежность этих систем.

Чтобы получить необходимые ресурсы для разработки систем, способных противостоять таким атакам AML, зарегистрируйтесь на получение диплома PG по машинному обучению, предлагаемого upGrad и IIIT Bangalore .

Оглавление

Концепции, основанные на состязательном машинном обучении

Прежде чем мы углубимся в тему AML, давайте установим определения некоторых основных понятий этой области:

  • Искусственный интеллект относится к способности вычислительной системы выполнять логику, планирование, решение проблем, моделирование или другие виды задач. ИИ имитирует человеческий интеллект из-за информации, поступающей в него с помощью методов машинного обучения.
  • Машинное обучение использует четко определенные алгоритмы и статистические модели для компьютерных систем, которые основаны на выполнении задач на основе шаблонов и выводов. Они предназначены для выполнения этих задач без явных инструкций, а вместо этого используют предопределенную информацию из нейронных сетей.
  • Нейронные сети вдохновлены биологическим функционированием нейронов мозга, которые используются для систематического программирования данных наблюдений в модели глубокого обучения. Эти запрограммированные данные помогают расшифровывать, различать и обрабатывать входные данные в закодированную информацию для облегчения глубокого обучения.
  • Глубокое обучение использует несколько нейронных сетей и методов машинного обучения для обработки неструктурированных и необработанных входных данных в четко определенные инструкции. Эти инструкции облегчают построение многоуровневых алгоритмов автоматически посредством изучения их представлений/функций без присмотра.
  • Состязательное машинное обучение — это уникальная техника машинного обучения, которая предоставляет вводные данные, вводящие в заблуждение, чтобы вызвать сбой в модели машинного обучения. Состязательное машинное обучение использует уязвимости в тестовых данных встроенных алгоритмов машинного обучения, составляющих нейронную сеть. Атака по борьбе с отмыванием денег может поставить под угрозу результаты и создать прямую угрозу полезности системы отмывания денег.

Чтобы подробно изучить ключевые концепции машинного обучения, такие как состязательное машинное обучение , зарегистрируйтесь на степень магистра наук (M.Sc) в области машинного обучения и искусственного интеллекта от upGrad.

Типы AML-атак

Атаки состязательного машинного обучения классифицируются на основе трех типов методологий.

Они есть:

1. Влияние на классификатор

Системы машинного обучения классифицируют входные данные на основе классификатора. Если злоумышленник может нарушить этап классификации, изменив сам классификатор, это может привести к тому, что система машинного обучения потеряет доверие. Поскольку эти классификаторы являются неотъемлемой частью идентификации данных, вмешательство в механизм классификации может выявить уязвимости, которыми могут воспользоваться противодействия отмыванию денег.

2. Нарушение безопасности

На этапах обучения системы машинного обучения программист определяет данные, которые следует считать достоверными. Если законные входные данные неправильно идентифицируются как вредоносные или если вредоносные данные предоставляются в качестве входных данных во время атаки AML, отклонение можно назвать нарушением безопасности.

3. Специфика

В то время как конкретные целевые атаки допускают определенные вторжения/нарушения, неизбирательные атаки добавляют случайности во входные данные и создают сбои из-за снижения производительности/неспособности классификации.

Атаки AML и их категории концептуально выходят за рамки области машинного обучения. По данным Gartner, в связи с растущим спросом на системы машинного обучения почти 2,3 миллиона вакансий доступны для инженеров машинного обучения и искусственного интеллекта. [2] Вы можете узнать больше о том, как машинное обучение может стать прибыльной карьерой в 2021 году .

Состязательные стратегии машинного обучения

Чтобы дополнительно определить цель злоумышленника, его предварительные знания об атакуемой системе и уровне возможного манипулирования компонентами данных могут помочь в определении стратегий состязательного машинного обучения .

Они есть:

1. Уклонение

Алгоритмы машинного обучения идентифицируют и сортируют набор входных данных на основе определенных предопределенных условий и расчетных параметров. Тип уклонения от атаки AML имеет тенденцию уклоняться от этих параметров, используемых алгоритмами для обнаружения атаки. Это осуществляется путем изменения образцов таким образом, чтобы избежать обнаружения и ошибочно классифицировать их как законные входные данные.

Они не изменяют алгоритм, а вместо этого подделывают входные данные различными методами, чтобы они ускользнули от механизма обнаружения. Например, антиспамовые фильтры, которые анализируют текст электронного письма, обходят с помощью изображений со встроенным текстом вредоносного кода/ссылок.

2. Извлечение модели

Также известен как «кража моделей»; Этот тип атак AML выполняется в системах ML для извлечения исходных обучающих данных, используемых для построения системы. Эти атаки, по сути, способны реконструировать модель этой системы машинного обучения, что может поставить под угрозу ее эффективность. Если система содержит конфиденциальные данные или природа самого машинного обучения является закрытой/конфиденциальной, злоумышленник может использовать его в своих интересах или нарушить его работу.

3. Отравление

Этот тип атаки состязательного машинного обучения включает в себя нарушение обучающих данных. Поскольку системы ML переобучаются с использованием данных, собранных во время их работы, любое заражение, вызванное внедрением образцов вредоносных данных, может облегчить атаку AML. Для отравления данных злоумышленнику необходим доступ к исходному коду этого ML, и он переобучает его для приема неверных данных, тем самым препятствуя функционированию системы.

Надлежащее знание этих стратегий атак состязательного машинного обучения может позволить программисту избежать таких атак во время работы. Если вам нужно практическое обучение по проектированию систем машинного обучения, способных противостоять атакам AML, запишитесь на курс магистра машинного обучения и искусственного интеллекта , предлагаемый upGrad.

Определенные типы атак

Определенные типы атак, которые могут быть нацелены на системы глубокого обучения, наряду с традиционными системами машинного обучения, такими как линейная регрессия и «машины опорных векторов», могут угрожать целостности этих систем. Они есть:

  • Враждебные примеры, такие как FMCG, PGD, C&W и патч-атаки, приводят к тому, что машина неправильно классифицирует, поскольку они кажутся пользователю нормальными. В коде атаки используется специальный «шум», чтобы вызвать сбой в работе классификаторов.
  • Бэкдор/троянские атаки перегружают систему машинного обучения, бомбардируя ее нерелевантными и самовоспроизводящимися данными, что препятствует ее оптимальному функционированию. От этих атак состязательного машинного обучения трудно защитить, поскольку они используют лазейки, существующие внутри машины.
  • Инверсия модели переписывает классификаторы, чтобы они функционировали противоположным образом, для которого они были изначально предназначены. Эта инверсия не позволяет машине выполнять свои основные задачи из-за изменений, примененных к ее собственной модели обучения.
  • Атаки на вывод о членстве (MIA) могут применяться к SL (обучение с учителем) и GAN (генеративно-состязательные сети). Эти атаки основаны на различиях между наборами данных исходных обучающих данных и внешних образцов, которые представляют угрозу конфиденциальности. Имея доступ к черному ящику и его записи данных, модели логического вывода могут предсказать, присутствовала ли выборка во входных данных для обучения или нет.

Чтобы защитить системы машинного обучения от атак такого типа, во всех крупных ТНК работают программисты и инженеры машинного обучения. Индийские ТНК, которые размещают свои научно-исследовательские центры для поощрения инноваций в области машинного обучения, предлагают заработную плату в размере от 15 до 20 лакхов индийских рупий в год. [3] Чтобы узнать больше об этой области и получить солидную зарплату инженера по машинному обучению, зарегистрируйтесь на расширенную сертификацию по машинному обучению и облаку , организованную upGrad и IIT Madras.

Защита от AML

Для защиты от таких атак состязательного машинного обучения эксперты предлагают программистам использовать многоэтапный подход. Эти шаги будут служить мерами противодействия обычным атакам AML, описанным выше. Эти шаги:

  • Моделирование : Моделирование атак в соответствии с возможными стратегиями атаки злоумышленника может выявить лазейки. Идентификация их с помощью этих симуляций может предотвратить влияние атак AML на систему.
  • Моделирование: оценка возможностей и потенциальных целей злоумышленников может дать возможность предотвратить атаки AML. Это делается путем создания разных моделей одной и той же системы машинного обучения, способных противостоять этим атакам.
  • Оценка воздействия: этот тип защиты оценивает общее влияние, которое злоумышленник может оказать на систему, тем самым обеспечивая подготовку в случае такой атаки.
  • Отмывание информации : путем изменения информации, извлеченной злоумышленником, этот тип защиты может сделать атаку бессмысленной. Когда извлеченная модель содержит преднамеренно размещенные несоответствия, злоумышленник не может воссоздать украденную модель.

Примеры ПОД

Различные области в наших современных технологиях находятся под прямой угрозой атак состязательного машинного обучения . Поскольку эти технологии основаны на предварительно запрограммированных системах машинного обучения, они могут быть использованы людьми со злыми намерениями. Некоторые из типичных примеров атак AML включают:

1. Фильтрация спама: путем преднамеренного неправильного написания «плохих» слов, идентифицирующих спам, или добавления «хороших» слов, препятствующих идентификации.

2. Компьютерная безопасность : путем сокрытия вредоносного кода в данных файлов cookie или введения в заблуждение цифровых подписей для обхода проверок безопасности.

3. Биометрия: путем подделки биометрических характеристик, которые преобразуются в цифровую информацию для целей идентификации.

Заключение

Поскольку области машинного обучения и искусственного интеллекта продолжают расширяться, их применение увеличивается в таких секторах, как автоматизация, нейронные сети и безопасность данных. Состязательное машинное обучение всегда будет иметь важное значение для этической цели защиты систем машинного обучения и сохранения их целостности.

Если вам интересно узнать больше о машинном обучении, ознакомьтесь с нашей программой Executive PG по машинному обучению и программе искусственного интеллекта, которая предназначена для работающих профессионалов и предлагает более 30 тематических исследований и заданий, более 25 отраслевых наставничества, более 5 практических занятий. ключевые проекты, более 450 часов тщательного обучения и помощь в трудоустройстве в ведущих фирмах.

Опасны ли состязательные атаки для кибербезопасности?

Кибербезопасность является приоритетом в эпоху цифровых технологий. Он также хрупок, поскольку способен сдерживать угрозы своей структуре и функциям. Без защиты IoT становится уязвимым для кражи конфиденциальной информации, повреждения и неправильного использования. Состязательные атаки могут происходить, когда параметры, установленные алгоритмами, обходят путем неправильной классификации входящей атаки как входных данных. Это всего лишь один из способов взлома систем машинного обучения. С ростом числа атак со стороны злоумышленников на алгоритмы машинного обучения безопасность и эффективность кибербезопасности ставятся под угрозу. Для борьбы с этими угрозами было разработано состязательное машинное обучение.

Насколько уязвимы системы машинного обучения?

Системы машинного обучения должны быть прочными по своей структуре, чтобы быть надежными. В последние годы на эти системы было совершено множество вредоносных атак, враждебные атаки нарушают защитные барьеры этих систем. Это происходит путем дублирования модели и изменения исходных обучающих данных, обмана параметров алгоритма или переобучения существующих данных, чтобы игнорировать входящие атаки. Эти враждебные атаки могут нарушать этические параметры и манипулировать системами для запуска несанкционированных функций. Средства защиты от состязательного машинного обучения используются для выявления атак вредоносного ПО и восстановления целостности системы.

Какие стратегии работают для борьбы с состязательными атаками?

Враждебные атаки могут варьироваться от нарушения данных до манипулирования всей системой. Они широко распространены и могут быстро распространяться по системе, если злоумышленник имеет надежный доступ к системному алгоритму. Примером является фильтрация спама, в которой слова структурированы таким образом, что алгоритм не может определить их как спам. Используя Adversarial Machine Learning, программисты принимают меры против этих атак. Они пытаются имитировать атаки, визуализируя стратегию злоумышленника, распознавая его схему вторжения и выявляя лазейки. Они используют эту информацию для защиты системы от дальнейших взломов. Проверка уровня навыков и возможностей злоумышленника может помочь в модификации и защите системы.