Все още си спомням дните, когато индустрията за разработка на софтуер беше в начален стадий. Много хора бяха загрижени за софтуерни уязвимости и експлойти и тогава бяха прави, тъй като хакерите се възползваха от тези експлойти и започнаха да изпълняват своите злонамерени проекти. Всяко нарушение на данните и „атака срещу киберсигурността“ беше широко отразено от основните медии, както печатни, така и електронни.

Фокусът е повече върху изчистването на отделни грешки, отколкото върху идентифицирането на първопричината за проблемите. Няколко години по-късно осъзнахме, че единственото решение би било изграждането на защитен софтуер. Няколко десетилетия по-късно софтуерната сигурност се превърна в неразделна част от програмите за киберсигурност.

С днешния софтуер и приложения, използващи „машинно обучение и изкуствен интелект“, е важно да защитите системите за машинно обучение и изкуствен интелект, които използвате. Не ме разбирайте погрешно машинното обучение може да свърши много по-добра работа от хората при задачи като класифициране на изображения, превод, игра и победа на сложни игри като шах, заедно с други видео игри.

Въпреки предимствата си, някои фирми все още не са склонни да използват системи, базирани на машинно обучение, поради рискове за сигурността, свързани с тях. Ако възприемете машинно обучение по случаен начин, е по-вероятно да увеличите многократно риска за сигурността. Ето защо е важно за фирмите, които мислят за възприемане на машинно обучение, да разберат рисковете за сигурността, свързани с него.

В тази статия ще научите за пет общи рискове за сигурността при машинно обучение и какво можете да направите, за да смекчите тези рискове.

Предизвикателства пред сигурността на машинното обучение

Едно от най-големите препятствия при осигуряването на системи за машинно обучение е, че данните в системите за машинно обучение играят външна роля в сигурността. Това прави още по-трудно да защитите вашите системи за машинно обучение. В повечето случаи наборите от данни, на които се обучава система за машинно обучение, представляват 60% риск, докато алгоритмите за обучение и изходните кодове представляват 40% риск.

Ето защо е важно за бизнеса да насочи цялата си енергия към анализ на архитектурния риск. Според „доклад“, анализът на архитектурния риск е важна първа стъпка, която бизнесът трябва да предприеме, за да защити своите системи за машинно обучение. Освен това докладът подчертава повече от 70 риска, свързани със системите за машинно обучение. Защитата на данните, които са се превърнали в неразделна част от модел на машинно обучение, е друго голямо предизвикателство.

1. Заблуждаване на Системата

Една от най-честите атаки срещу системите за машинно обучение е да ги подмамят да правят фалшиви прогнози чрез даване на злонамерени данни. Най-просто казано, това са оптични илюзии за машини, които им показват картина, която не съществува в реалния свят и ги принуждават да вземат решения въз основа на това. Обхватът и вниманието са големи, което го прави много по-голяма заплаха от другите „рискове за сигурността на машинното обучение“. Този тип атака обикновено е насочена към модели на машинно обучение.

2. Отравяне на данните

Системите за машинно обучение зависят от данни за учебни цели. Ето защо е важно за бизнеса да гарантира надеждност, цялост и сигурност на тези данни, в противен случай може да получите неверни прогнози. Хакерите знаят това и се опитват да насочат данните, използвани от системите за машинно обучение. Те манипулират, корумпират и отравят тези данни по такъв начин, че поставят на колене цялата система за машинно обучение.

Бизнесът трябва да обърне специално внимание и да минимизира риска. Експертите по машинно обучение трябва да предотвратят щетите, като минимизират количеството данни за обучение, които киберпрестъпниците могат да контролират и до каква степен. Още по-лошото е, че ще трябва да защитите всички източници на данни, тъй като нападателите могат да манипулират всеки източник на данни, който може да използвате за обучение на вашите системи за машинно обучение. Ако не успеете да направите това, рискът вашето обучение за машинно обучение да се провали драстично се увеличава.

3. Манипулиране на онлайн системите

Повечето системи за машинно обучение са свързани с интернет, особено по време на оперативна употреба, докато продължава да се учи. Това дава на нападателите прозорец от възможности, които могат да използват. Киберпрестъпниците могат да подведат системите за машинно обучение в грешна посока, като дадат грешен системен вход или дори по-лошо, бавно да ги обучат да действат по техните команди и да направят грешното нещо.

Манипулирането на онлайн система за машинно обучение е не само лесно, но е толкова фино, че жертвата дори няма да разбере, че тяхната система за машинно обучение играе в ръцете на някой друг. „Инженерите по машинно обучение“ могат да се справят с този проблем, като изберат правилния алгоритъм, поддържат запис на собственост върху данните и рационализират и осигурят системните операции.

4. Transfer Learning Attack

Повечето системи за машинно обучение използват вече обучен „модел за машинно обучение“. Този общ модел на машинно обучение е променен, за да изпълнява конкретни цели, като му предоставя специализирано обучение. Това е моментът, в който атаката на трансферно обучение може да бъде смъртоносна. Ако избраният от вас модел е популярен, нападателите могат да стартират атаки, които дори могат да заблудят модела ви за машинно обучение за конкретна задача.

Винаги следете подозрителното и непредвидено поведение на машинно обучение, за да идентифицирате тези видове атаки. Тъй като алгоритмите за машинно обучение се използват умишлено по време на трансфери, това увеличава риска, особено ако трансферът на обучение се извършва извън предвидената употреба. По-добре е да изберете модели на групово публикуване, тъй като те ясно дефинират какво правят техните системи и как ще контролират риска.

5. Защита на данните и поверителноста

Както бе споменато по-горе, алгоритмите за машинно обучение използват данни за обучение и обучение. Осигуряването на поверителност и поверителност на тези данни, особено когато са вградени директно в модела на машинно обучение, е от решаващо значение. Хакерите могат да стартират атаки за извличане на данни, които могат да минат под радара, което може да изложи на риск цялата ви система за машинно обучение.

Дори ако тези атаки се провалят, киберпрестъпниците могат да стартират по-малки атаки за извличане на субсимволни функции, което не само изисква по-малко усилия и ресурси за изпълнение, но също така може да им помогне да изпълнят други типове атаки, като състезателни атаки със злонамерени входове. Това означава, че не само трябва да защитите системите си за машинно обучение срещу атаки за извличане на данни, но и да предотвратите атаки за извличане на функции.

Как преодолявате проблемите със сигурността на машинното обучение? Чувствайте се свободни да го споделите с нас в секцията за коментари по-долу.