Несколько недель назад я познакомился с состязательными атаками и изо всех сил пытался найти четкую разницу между состязательными атаками и дополнением данных.

Мое замешательство началось с этих двух причин:

  1. Оба они соответствуют преобразованию данных.
  2. Цель состоит в том, чтобы сделать нейронную сеть надежной в обоих случаях.

Рассмотрим гауссиан, примененный к обоим случаям. Мой руководитель дал очень хорошее объяснение, т.е.

Когда мы добавляем гауссиану к изображению в случае увеличения данных, это будет любая гауссиана, которая будет похожа на шум на изображении. Но когда мы добавляем гауссиану к изображению в случае атаки со стороны противника, это будет конкретная гауссиана, настроенная таким образом, что нейронная сеть может выйти из строя.

Не волнуйтесь, если вы не получили его, давайте пойдем один за другим.

Увеличение данных — это также преобразование данных, но оно используется для получения большего количества данных и для обучения надежной модели.

Состязательные примеры — это входные данные, в которых входные изображения подвергаются атаке (или преобразованию) с возмущениями наихудшего случая, так что возмущенные входные данные приводят к тому, что обученная модель выдает неверный ответ с высокой достоверностью. Этот метод показывает, как злоумышленник может манипулировать входными данными, чтобы поставить под угрозу безопасность системы машинного обучения.

Короче говоря, во время обучения применяется дополнение данных, чтобы сделать модель надежной. Принимая во внимание, что состязательные атаки (тщательно адаптированные) применяются к изображениям, которые затем отправляются через обученную модель для проверки ее надежности и безопасности.

Ссылки

  1. https://openai.com/blog/adversarial-example-research/
  2. https://en.wikipedia.org/wiki/Data_preparation
  3. https://en.wikipedia.org/wiki/Adversarial_machine_learning