Тази статия обяснява механиката на машинното обучение и как то е уникално позиционирано, за да помогне при откриването на лекарства.

Не, ваксината срещу COVID не е трик за имплантируеми микрочипове или средство да ни превърнат в генетично модифицирани организми. Но той има по-малко зловещ, по-завладяващ механизъм с изкуствен интелект в основата си. Преди да навляза в подробностите за разработването на ваксина, трябва да отговоря на един основен въпрос.

Как се учат машините?

Този въпрос на пръв поглед изглежда доста екзистенциален. Ако компютрите могат да разбират идеи, без да бъдат обучавани, тогава хората в крайна сметка трябва да станат ненужни. Това е толкова лудо, колкото да вярвате, че вашето домашно куче ще завладее света, само защото сте го научили как да се преобръща след месеци обучение. Просто е нереалистично.

Въпреки че има известна заслуга за това колко бързо се подобряват процесорната мощност, алгоритмите и паметта, повечето учени прогнозират, че компютърният интелект не е решението на всички проблеми. И разбира се, бита сметана на тази мелба от подозрение е, че е ужасно трудно да се моделира човешкият мозък и да се постигнат същите нива на креативност и разбиране. Ето една статия, за да започнете вашето проучване по темата, ако все още сте скептични.

Сега, след като измъкнахме слона от стаята, нека поговорим за основния алгоритъм зад машинното обучение: градиентно спускане. Използва се за обучение на модели за машинно обучение и подобряване на тяхната производителност. Гледайте на това като на алгоритъм за минимизиране, който намира точката на най-малка грешка.

Градиентът просто измерва колко се променят теглата в сравнение с това колко грешка се генерира. Има три основни части на фигурата по-горе: 2 тегла като входни данни, изходна загуба и 3D изображение на функция на разходите. Параметрите, означени като „тегла“, се променят итеративно, за да достигнат желаната минимална точка. Алгоритъмът първо присвоява произволни тегла на своята функция на разходите. Това ще изглежда като всяка точка от графиката по-горе. След това функцията ще определи в каква посока трябва да стъпи във входното пространство, за да намали изхода на функцията най-бързо. Помислете за топка, която тръгва от тази случайна точка и поема по пътя на най-малкото съпротивление, докато се търкаля надолу по хълма.

При смятане с много променливи вземането на отрицателния градиент на функция ще ви даде посоката на най-стръмното спускане. Една самообучаваща се машина просто намира начини да повтаря този процес отново и отново, често пъти с повече от две входни тегла.

Типичната невронна мрежа може да има около 13 000 тегла и отклонения, подредени в гигантски колонен вектор. Намирането на отрицателния градиент на функция на разходите ще ви даде вектор, който представлява най-бързото намаляване на грешката. Алгоритъмът за ефективно изчисляване на този градиент се нарича обратно разпространение.

Причината да има две тегла в първата графика е, че алгоритъмът за машинно обучение обикновено има тегла и отклонения. Помните ли вашето домашно куче, Чип, което току-що се научи как да се преобръща? Това е като Чип да коригира действията си въз основа на това колко положително реагирате на него и колко близо е действието му до желания резултат. В компютърните науки теглата са силните страни на връзките в невронна мрежа, а отклоненията са индикации за това дали даден неврон е активен или неактивен.

Невронната мрежа, моделирана от тази, която съществува в нашите мозъци, е поредица от взаимосвързани превключватели, които се включват или изключват. Използвайки фигурата по-долу, алгоритъмът за машинно обучение ще започне с произволни тегла и отклонения, точно както в обяснението за градиентно спускане по-горе, и ще използва функция за активиране, за да намери изход. Има много видове функции за активиране: Binary Step, Linear Activation, ReLU, Sigmoid, TanH, Softmax и Swish. Функцията за активиране може да се разглежда като начин да се реши коя информация е важна за задействане към следващия неврон.

Ако наблюдавате внимателно графиката по-горе, можете да разберете, че скоростта на учене на алгоритъма намалява с течение на времето. Тъй като изходът на програмата се доближава до желания резултат, градиентните вектори, които сочат към най-стръмното спускане, стават по-малки по величина.

Нека да намалим мащаба и да обобщим къде сме досега. Невронната мрежа е функция с iброй входове и oброй изходи, определени от претеглени суми, както е показано по-долу. Функцията на разходите е слой на сложност в допълнение към това, който взема всички тегла и отклонения в рамките на скритите слоеве на мрежата и изплюва изход, наречен грешка, който е открит спрямо всички данни за обучение. Градиентът на тази функция на разходите е третият слой на сложност. Той ви казва кои от теглата и отклоненията ще съответстват на най-бързото намаляване на изхода на функцията на разходите, грешка. Това просто ви казва кои промени в кои тегла са най-важни.

Дори и с разбиране за това как компютрите могат да открият собствените си грешки и да оптимизират изхода си, важно е да екстраполираме тези идеи в света около нас.

Защо AI е ключът към лечението на болестта?

Дълбокото обучение (DL) е способно на автоматично извличане на функции от необработени данни. Това просто означава, че алгоритъмът може да намали броя на случайните променливи, като пропусне всички налични функции, които не разграничават набор от данни от други групи. В алгоритъм, вдъхновен от еволюционната биология и естествения подбор, компютърът генерира оптимален двоичен вектор, където всеки бит е свързан с функция. Ако битът, подобно на ген в организъм, е силно свързан с желания резултат, тогава той ще бъде зададен на числото 1. Ако е вярно обратното, той ще бъде зададен на 0 и съответната характеристика няма да участва в класификацията . Тази техника за намиране на желани характеристики се изпълнява чрез версия на градиентно спускане.

Второ, по отношение на откриването на лекарства, DL моделите могат да използват своята генеративна способност, за да създадат повече лекарствени молекули и да подобрят прогнозирането на епитопа, намалявайки шанса за неуспех в клинично изпитване. Изолиран епитоп, който е част от чужда молекула, към която се прикрепя антитяло, може да симулира специфичен имунен отговор в организъм. Ефективните ваксини често имат коктейли от специфични епитопи, които предизвикват клетъчни имунни отговори. Хипервариабилните вируси, като тези, споменати по-горе, изискват антитела с различни полипептидни сегменти в техните краища. Моделите за машинно обучение са уникално позиционирани да разбират итеративно тези сложности.

И накрая, последното определящо качество в DL алгоритмите в борбата срещу новите вируси е трансферното обучение. Изкуственият интелект често е критикуван за неспособността си да приложи наученото си знание към различни задачи след леки промени в параметрите. Но новите постижения позволяват на алгоритмите да използват своите научени знания от предишни задачи. Наличните набори от данни за обучение на модели за in silico откриване на лекарства, просто фантастична фраза за компютърна симулация, често са малки. Освен това е трудно да се намерят етикетирани данни за откриване на лекарства. Настоящите алгоритми могат да използват своите съществуващи, обобщаващи знания от свързани задачи, за да изпълняват нови задачи без огромни количества допълнителни данни.

За автора:

👋 Аз съм Таша — 18-годишен новатор в The Knowledge Society, със специфични интереси в областта на изкуствения интелект, биологията, математиката и всичко между тях. Вижте другите ми проекти тук или се свържете с мен чрез LinkedIn!