Мы находимся на неумолимом пути к созданию систем искусственного интеллекта, которые смогут конкурировать с человеческим интеллектом и потенциально превзойти его. Одним из наиболее ярких примеров этого прогресса является разработка больших языковых моделей (LLM), таких как те, которые используются в чате GPT и других диалоговых агентах. Эти модели впечатляют. Они обладают способностью хранить и запоминать огромные объемы информации, намного превосходящие то, на что когда-либо мог надеяться любой человек, даже несмотря на то, что они используют меньше параметров, чем человеческий мозг. Они могут в некоторой степени рассуждать и логически мыслить и даже могут писать простые коды. Однако они все еще сильно отстают от человеческих возможностей, когда дело касается здравого смысла и продвинутого рассуждения.

Эксперты по искусственному интеллекту пришли к единому мнению, что простого масштабирования нынешних архитектур моделей и объемов данных недостаточно, чтобы подтолкнуть нас к созданию общего искусственного интеллекта (AGI). Чего не хватает в нынешних системах? Давайте углубимся в это, ответив на следующие вопросы.

Достаточно ли текстовых данных?

Почему обучение с самоконтролем/без присмотра так важно для достижения ОИИ?

Может ли обратное распространение ошибки привести нас к общему искусственному интеллекту?

Моя точка зрения на этот вопрос основана на идеях двух выдающихся мыслителей в области искусственного интеллекта: Яна ЛеКуна и Джеффри Хинтона. Примечательно, что эти два эксперта придерживаются противоположных взглядов по нескольким темам. Теперь давайте обратимся к рассматриваемым вопросам, причем значимость каждого вопроса возрастает по сравнению с предыдущим.

Достаточно ли текстовых данных?

Достижение истинного общего искусственного интеллекта (AGI) требует комплексной ментальной модели нашего мира и интуитивного понимания его поведения.

Мы, люди, многое узнаем о мире еще до того, как начинаем говорить или изучать язык. Все мы разделяем эти общие знания и интуицию, и поэтому мы опускаем большую часть их в наших взаимодействиях или письмах. Поскольку эти модели учатся на основе того, что мы пишем, они раскрывают лишь частичный взгляд на мир. Можно возразить, что эти модели могут вывести недостающую низкоуровневую информацию из письменных источников, но задача получения богатых, сложных визуальных деталей и интуитивной физики из источника информации с низкой пропускной способностью, такого как текст, практически невозможна.

Хотя очевидно, что роботам необходимо учиться на визуальной информации, вы можете задаться вопросом, почему виртуальному юристу или программирующему ИИ необходимо понимать физический мир. Причина в том, что код, который они пишут, и законы, с которыми они имеют дело, в конечном итоге влияют на реальный мир и людей, которые в нем живут. Следовательно, им необходимо иметь некоторые знания и интуицию о том, как все работает, почему они происходят и что они означают на самом деле. Им необходимо уметь справляться со сложными и неоднозначными ситуациями, которые могут возникнуть в результате взаимодействия виртуальной и физической областей.

Может оказаться, что для создания полноценного ИИ человеческого уровня нам потребуются модели, которые не только учатся на визуальной информации, но и участвуют в той или иной форме физического взаимодействия с миром.

GPT-4 способен обрабатывать изображения в качестве входных данных, но не использует визуальную информацию в том же масштабе или таким же образом, как с текстом. Базовая модель по-прежнему основана на тексте. Мы еще не придумали, как успешно применять самообучение к изображениям и видео.

Почему обучение с самоконтролем/без присмотра так важно для достижения ОИИ?

Большая часть первоначального успеха в области искусственного интеллекта и нейронных сетей была достигнута благодаря контролируемому обучению. Этот метод требует, чтобы кто-то вручную указал желаемый результат нейронной сети для данного входа. Затем модель учится прогнозировать этот результат (например: классифицировать изображения по различным категориям). Однако у этого метода есть некоторые ограничения: для изучения любой конкретной задачи требуются огромные объемы данных, а также большое количество маркировок вручную, тогда как люди могут учиться на нескольких точках данных, поскольку они полагаются на свои предварительные знания о мире. Как люди приобретают эти предварительные знания? Через самоконтролируемое/неконтролируемое обучение. Как только модель получит достаточно знаний о мире, она сможет легче освоить новые навыки, используя обучение с учителем или обучение с подкреплением.

Целью обучения с самоконтролем/без присмотра является изучение закономерностей в заданных данных, не сосредотачиваясь на какой-либо конкретной задаче. Точную настройку под конкретные задачи можно будет сделать позже. При самостоятельном обучении в модель передается набор данных, части данных маскируются, и перед моделью ставится задача спрогнозировать недостающие части. Для этого модель должна изучить закономерности в данных. В этом методе нам не нужно вручную предоставлять метки, и, следовательно, модель может учиться на огромных объемах данных, что невозможно при контролируемом обучении. Таким образом, большие языковые модели (LLM) обучаются на текстовых данных, а затем настраиваются для конкретных задач с помощью контролируемого обучения или обучения с подкреплением.

Самообучение довольно успешно работает с текстовыми данными, но не с изображениями или видеоданными. Были предприняты попытки учиться на больших объемах изображений и видео путем маскировки частей изображений или нескольких кадров видео, но они не достигли такого же уровня успеха, как на текстовых данных. Это связано с тем, что в отличие от текста возможные прогнозы для недостающих частей изображения или видео бесконечно велики, и, следовательно, мы не можем построить простой классификатор. Вот блог от Meta, в котором объясняются трудности самостоятельного обучения с помощью изображений/видео и возможные решения.

Как человеческий мозг с этим справляется? Человеческий мозг не использует обратное распространение ошибки. Он изучает закономерности в данных без присмотра, используя только прямые проходы, и, следовательно, ему не требуется маскирование и маркировка. Затем он использует эти знания для удовлетворения нашей лимбической системы (голод, секс, боль и т. д.), используя обучение с подкреплением. И это подводит нас к следующему вопросу.

Может ли обратное распространение ошибки привести нас к AGI?

Обратное распространение ошибки — это метод обучения нейронных сетей путем корректировки весов (сил связи между нейронами) на основе ошибки между выходными данными сети и желаемыми выходными данными для данного входного сигнала. Он вычисляет градиент ошибки по отношению к каждому весу, используя правило цепочки и итерируя в обратном направлении от последнего слоя к первому. Это эффективный способ оптимизировать производительность сети с использованием методов, основанных на градиенте.

Обратное распространение ошибки не очень вероятно в биологическом мозге по множеству причин. Для этого требуется состояние нейронов во время обратного распространения ошибки, которое трудно поддерживать, особенно в рекуррентных нейронных сетях, где состояние нейрона перезаписывается несколько раз, прежде чем достичь окончательного результата. Некоторые исследователи пытались объяснить, как мозг может осуществлять обратное распространение ошибки, используя обратные связи, но они не симметричны прямым связям. Биологический мозг для обучения полагается на прямые проходы и локальный градиентный спуск (объясняется позже).

Я не говорю, что нам нужно точно воспроизвести механизмы, которые использует биологический мозг для достижения ОИИ. Но у обратного распространения ошибки есть некоторые недостатки, которые можно преодолеть с помощью прямого прохождения обучения. Вот некоторые проблемы обратного распространения ошибки:

Ему сложно обучать слишком глубокие модели из-за таких проблем, как исчезновение или взрыв градиентов. Такие методы, как пропуск соединений и правильная инициализация весов, помогают в обучении более глубоких моделей, чем это обычно возможно, но у них все еще есть ограничения.

Понимание реального мира требует знаний с огромной иерархией. Представьте себе обучение беспилотного ИИ, входные данные которого представляют собой пиксели, а выходные данные — управление рулевым управлением и педалями с использованием обратного распространения ошибки. Ему необходимо понимать поведение человека, дорожные знаки, правила дорожного движения и т. д., и все это только на основании рулевого управления и обратной связи с педалями. Знания и навыки, необходимые для этой задачи, имеют глубокую иерархию, что требует множества слоев (в том числе повторяющихся) в модели. Обучение такой модели с нуля с помощью обратного распространения ошибки невозможно.

Вместо этого люди, работающие над этой проблемой, вручную размечают множество низкоуровневых задач, а затем объединяют их с помощью другой нейронной сети и так далее. Но существует длинный хвост таких задач и крайних случаев, которые нужно обозначить, поэтому у нас пока нет беспилотного автомобиля человеческого уровня. Возможно, нам понадобится полноценный AGI, чтобы наконец решить проблему беспилотного вождения.

Обратное распространение ошибки всегда требует целевой метки для обучения, даже если мы просто хотим изучить закономерности в данных, используя неконтролируемые методы, а затем точно настроить модель. Вот почему при обучении без учителя/самоконтроля мы маскируем части входных данных и используем их в качестве меток. Однако с изображениями/видео это оказалось очень сложно.

Прогрессивное обучение может решить эти две проблемы. Этот метод не требует метки. В этом методе цель каждого нейрона — изучить паттерн, присутствующий в нижнем слое. (Я опубликую еще один подробный блог об обучении с прохождением вперед). По мере того, как мы проходим несколько проходов вперед, шаблоны постепенно изучаются от нижних уровней к верхним уровням иерархии. При наличии достаточного количества времени и итераций он может изучить сложные глубокие повторяющиеся закономерности, поскольку настройка нейрона зависит только от нижнего уровня. Как только модель стабилизируется или перестанет слишком сильно меняться, она усвоит закономерности, которые могла бы. Теперь эту модель можно тонко настроить под конкретные задачи с помощью обратного распространения ошибки.

Прямое обучение пытается изучить все закономерности, присутствующие в данных, используя огромные наборы данных, и это отлично подходит для обучения моделей ИИ общего назначения, которые позже можно легко настроить для конкретных задач. Для узких задач ИИ, таких как простая классификация изображений, обратное распространение ошибки будет более эффективным, поскольку модели не сложны и они изучают только те шаблоны, которые необходимы для конкретной задачи.

Обучение с прямым проходом можно сделать более эффективным, если ввести разные уровни способности к забыванию для каждого нейрона. Если нейрон не используется должным образом на более высоких уровнях, шаблон, полученный им от нижнего уровня, не очень полезен. Чтобы решить эту проблему, мы можем сделать нейроны, которые используются более высокими слоями, устойчивыми к изменениям, в то время как те, которые не используются должным образом, будут изменяться легче, чтобы их можно было перепрофилировать для изучения другой модели.

Таким образом, лучшим способом создания моделей ИИ общего назначения может быть обучение базовой модели изучению как можно большего количества шаблонов с использованием прямых проходов, а затем точная настройка для конкретных задач с помощью обратного распространения ошибки. Поскольку он может изучать более глубокие иерархии, он, возможно, сможет лучше рассуждать.

Вот недавняя статья Джеффри Хинтона, в которой предлагается алгоритм обучения с использованием прямых проходов. Это отличается от того типа обучения с прямым проходом, который я здесь обсуждал.

Вывод:

Помимо мыслей, которыми я поделился выше, я думаю, что архитектуру также необходимо разработать специально, чтобы модель могла лучше планировать, и в этой области также проводится много исследований.

Учитывая количество умственных способностей и денег, вложенных в эту проблему, неизбежно, что все эти проблемы будут преодолены. Существует много опасений по поводу того, что может произойти, когда мы достигнем ОИИ, но выгоды слишком велики, чтобы прекращать эту идею. Если все пойдет хорошо, мы можем открыть эпоху изобилия и полностью искоренить бедность в ближайшие несколько десятилетий.

На простом английском языке

Спасибо, что вы являетесь частью нашего сообщества! Прежде чем уйти: