В этой статье объясняется механизм машинного обучения и его уникальное положение для помощи в открытии лекарств.

Нет, вакцина от COVID — это не уловка для вживляемых микрочипов и не средство превратить нас в генетически модифицированные организмы. Но у него есть менее зловещий, более увлекательный механизм с искусственным интеллектом в основе. Прежде чем я углублюсь в детали разработки вакцины, необходимо ответить на один фундаментальный вопрос.

Как машины учатся?

Этот вопрос кажется довольно экзистенциальным на первый взгляд. Если компьютеры могут понимать идеи без обучения, то люди должны в конечном итоге стать ненужными. Это так же безумно, как верить, что ваша домашняя собака собирается захватить мир только потому, что вы научили ее переворачиваться после нескольких месяцев обучения. Это просто нереально.

Хотя в том, как быстро улучшаются вычислительная мощность, алгоритмы и память, есть определенные достоинства, большинство ученых предсказывают, что компьютерный интеллект не является решением всех проблем. И, конечно же, взбитые сливки на этом мороженом с подозрением заключаются в том, что ужасно сложно смоделировать человеческий мозг и достичь того же уровня творчества и понимания. Вот статья, чтобы дать толчок вашему исследованию темы, если вы все еще настроены скептически.

Теперь, когда мы выгнали слона из комнаты, давайте поговорим об основном алгоритме машинного обучения: градиентном спуске. Он используется для обучения моделей машинного обучения и повышения их производительности. Думайте об этом как об алгоритме минимизации, который находит точку наименьшей ошибки.

Градиент просто измеряет, насколько сильно изменяются веса по сравнению с тем, сколько ошибок возникает. На приведенном выше рисунке есть три основные части: 2 веса в качестве входных данных, выходные потери и трехмерное изображение функции стоимости. Параметры, помеченные как «веса», настраиваются итеративно, чтобы достичь желаемой минимальной точки. Алгоритм сначала присваивает случайные веса своей функции стоимости. Это будет выглядеть как любая точка на графике выше. Затем функция определит, в каком направлении она должна двигаться во входном пространстве, чтобы максимально быстро уменьшить вывод функции. Представьте мяч, стартующий из этой случайной точки и катящийся вниз по склону по пути наименьшего сопротивления.

В исчислении с несколькими переменными отрицательный градиент функции даст вам направление наискорейшего спуска. Самообучающаяся машина просто находит способы повторять этот процесс снова и снова, часто с более чем двумя входными весами.

Типичная нейронная сеть может иметь около 13 000 весов и смещений, расположенных в гигантском векторе-столбце. Нахождение отрицательного градиента функции стоимости даст вам вектор, представляющий наиболее быстрое уменьшение ошибки. Алгоритм эффективного вычисления этого градиента называется обратным распространением.

Причина, по которой на первом графике два веса, заключается в том, что алгоритм машинного обучения обычно имеет веса и смещения. Помните свою любимую собаку Чипа, которая только что научилась переворачиваться? Это похоже на то, как Чип корректирует свои действия в зависимости от того, насколько положительно вы на него реагируете и насколько его действия близки к желаемому результату. В компьютерных науках веса — это сила связей в нейронной сети, а смещения — это показатели того, активен или неактивен нейрон.

Нейронная сеть, смоделированная на основе той, которая существует в нашем мозгу, представляет собой серию взаимосвязанных переключателей, которые включаются или выключаются. Используя рисунок ниже, алгоритм машинного обучения начнет со случайных весов и смещений, как и в объяснении градиентного спуска выше, и будет использовать функцию активации для поиска выходных данных. Существует много видов функций активации: Binary Step, Linear Activation, ReLU, Sigmoid, TanH, Softmax и Swish. Функцию активации можно рассматривать как способ решить, какая информация важна для передачи следующему нейрону.

Если вы внимательно посмотрите на приведенный выше график, вы увидите, что скорость обучения алгоритма со временем снижается. По мере того, как результат программы приближается к желаемому результату, векторы градиента, указывающие на самый крутой спуск, становятся меньше по величине.

Давайте уменьшим масштаб и вспомним, где мы сейчас находимся. Нейронная сеть — это функция с iколичеством входных данных и oколичеством выходных данных, определяемых взвешенными суммами, как показано ниже. Функция стоимости — это слой сложности поверх этого, который принимает все веса и смещения в скрытых слоях сети и выдает вывод, называемый ошибкой, который найден относительно всех обучающих данных. Градиент этой функции стоимости представляет собой третий уровень сложности. Он сообщает вам, какой из весов и смещений будет соответствовать самому быстрому уменьшению выхода функции стоимости, ошибке. Это просто говорит вам, какие изменения каких весов имеют наибольшее значение.

Даже при понимании того, как компьютеры могут находить собственные ошибки и оптимизировать свою работу, важно экстраполировать эти идеи на окружающий нас мир.

Почему ИИ является ключом к излечению болезней?

Глубокое обучение (DL) способно автоматически извлекать признаки из необработанных данных. Это просто означает, что алгоритм может уменьшить количество случайных переменных, опуская любые доступные функции, которые не отличают набор данных от других групп. В алгоритме, вдохновленном эволюционной биологией и естественным отбором, компьютер генерирует оптимальный двоичный вектор, в котором каждый бит связан с функцией. Если бит, как и ген в организме, сильно коррелирует с желаемым результатом, то он будет установлен в число 1. Если верно обратное, он будет установлен в 0, и соответствующий признак не будет участвовать в классификации. . Этот метод поиска желаемых функций выполняется с помощью версии градиентного спуска.

Во-вторых, что касается открытия лекарств, модели DL могут использовать свою генеративную способность для создания большего количества лекарственных молекул и улучшения предсказания эпитопов, снижая вероятность неудачи в клинических испытаниях. Выделенный эпитоп, являющийся частью чужеродной молекулы, к которой прикрепляется антитело, может имитировать специфический иммунный ответ в организме. Эффективные вакцины часто содержат коктейли специфических эпитопов, которые вызывают клеточный иммунный ответ. Гипервариабельные вирусы, подобные ранее упомянутым, нуждаются в антителах с разными полипептидными сегментами на концах. Модели машинного обучения обладают уникальными возможностями для итеративного понимания этих сложностей.

Наконец, последнее определяющее качество алгоритмов глубокого обучения в борьбе с новыми вирусами — это трансферное обучение. Искусственный интеллект часто критикуют за его неспособность применять полученные знания для решения различных задач после незначительных изменений параметров. Но новые достижения позволяют алгоритмам использовать полученные знания из предыдущих задач. Наборы данных, доступные для обучения моделей для поиска лекарств in silico (просто причудливая фраза для компьютерного моделирования), часто бывают небольшими. Кроме того, трудно найти помеченные данные для открытия лекарств. Текущие алгоритмы могут использовать свои существующие обобщенные знания из связанных задач для выполнения новых задач без огромных объемов дополнительных данных.

Об авторе:

👋 Я Таша — 18-летний новатор в The Knowledge Society, особенно интересующийся искусственным интеллектом, биологией, математикой и всем, что между ними. Ознакомьтесь с другими моими проектами здесь или свяжитесь со мной через LinkedIn!