Почему не будет искусственного интеллекта человеческого уровня до понимания биологического интеллекта в первую очередь.

В последнее десятилетие мы стали свидетелями возобновления интереса к искусственному интеллекту и возродили надежды на его будущие разработки. Эта новая волна оптимизма заметна не только в общественных дебатах и ​​коммерческой шумихе, но и в самом исследовательском сообществе, где в недавнем опросе более 90% ученых, занимающихся ИИ, заявили, что ИИ человеческого уровня будет достигнута к 2075 году.

Однако все еще остается неясным, как мы собираемся этого добиться. Примечательно, что большинство ученых, занимающихся ИИ, не думают, что «копирование мозга» было бы хорошей стратегией для достижения человеческого ИИ или общего искусственного интеллекта, , так как мы можем копировать его биологические ограничения .

Однако в этом кратком сообщении в блоге я выделю несколько идей о том, почему я думаю, что не будет искусственного интеллекта человеческого уровня до того, как сначала начнется понимание биологического интеллекта.

Исследования искусственного интеллекта: игра "Ударь крота"

Несмотря на заметный прогресс в области искусственного интеллекта, благодаря недавним достижениям в исследованиях машинного обучения, всеобъемлющий и согласованный подход к его развитию все еще кажется далекой целью. В настоящее время исследования в области ИИ часто проводятся в небольших исследовательских лабораториях, разрабатывая восходящие, поэтапные (и частичные) решения проблемы, которые редко приводят к созданию систем ИИ человеческого уровня.

Что еще более тревожно, алгоритмы и методы «ИИ» часто сосредоточены на очень узких аспектах интеллекта, взятых изолированно. Хотя, с одной стороны, изолированное изучение подкомпонентов может быть важным для их лучшего понимания и отделения от внешних факторов, с другой стороны, этот подход может оказаться невозможным, если то, что мы хотим понять это скорее взаимодействие этих подкомпонентов, которое приводит к появлению сложных интеллектуальных моделей поведения.

Первый подход, очень распространенный сегодня в исследованиях искусственного интеллекта, часто превращается в своего рода игру «ударь крота», в которой чрезмерно продуманное решение узкой задачи оказывается неэффективным или даже неэффективным. саморазрушающийся, если используется в более сложных условиях, где одновременно рассматриваются несколько аспектов проблемы.

Перефразируя Ф. Шолле в своей недавней статье Об измерении интеллекта »:

«[…] Оптимизация для одного показателя или набора показателей часто приводит к компромиссам и ярлыкам, когда дело доходит до всего, что не измеряется и не оптимизируется для […]. В случае искусственного интеллекта акцент на достижении производительности для конкретной задачи без указания условий того, как система достигает этой производительности, привел к системам, которые, несмотря на хорошее выполнение целевых задач, в основном не обладают таким человеческим интеллектом, который область искусственного интеллекта, которую мы собираемся построить ». - Ф.Чолле, «О мерах интеллекта», 2019 г.

В качестве примера вы можете рассмотреть различные ключевые вычислительные принципы, которыми мы, возможно, хотим, чтобы наши интеллектуальные системы были наделены (например, непрерывное обучение, репрезентативное обучение, последовательное обучение, композиционность, разреженные распределенные представления и вычисления и т. Д. ). Все эти принципы сосредоточены на конкретных аспектах интеллекта, которые могут быть также важны для разработки действительно интеллектуальных машин. Однако они редко изучаются вместе, и взаимодействие / конфликты их алгоритмических решений часто неизвестны.

Конечно, если мы вместо этого рассмотрим несколько измерений одновременно, пространство для поиска комплексного решения ИИ быстро расширится. Например, давайте рассмотрим упрощенный сценарий, в котором мы определили 10 свойств, которые необходимо выполнить, чтобы перейти к ИИ человеческого уровня. Предположим также, что существует 10 возможных решений для каждого из них (если рассматривать их по отдельности), и предположим, что также существует уникальное комплексное решение, наивно сочетающее по одному для каждого измерения. Общее пространство поиска по-прежнему будет 10¹⁰ = 10.000.000.000 возможных алгоритмических решений.

Хотя как исследовательское сообщество мы, несомненно, добились определенного прогресса за последние 60 лет в этой области, уверены ли мы, что сможем найти это решение без какой-либо помощи?

Подход Франкенштейна

Многие исследователи ИИ разделяют общее мнение о том, что, возможно, нам не нужно искать в этом огромном пространстве возможностей в исследовании главного алгоритма ». Мы можем просто разделять и поддерживать отдельные различные решения, которые отлично подходят для решения различных проблем, и только позже объединять их в комплексную систему, которая должна уметь сбалансировать их и использовать функциональные возможности, предлагаемые этими подсистемами, в зависимости от сложных обстоятельств.

Я называю этот подход «подходом Франкенштейна», поскольку я не думаю, что простое объединение вещей может составить масштабируемое решение, ведущее к сложному и возникающему интеллектуальному поведению (даже если подумать, что он может оказаться полезным для некоторых практических приложений. ). Напротив, я считаю, что наиболее интересным подходом к исследованию ИИ является понимание того, как ключевые вычислительные принципы синергетически, эффективно и эффективно действуют вместе, чтобы обеспечить потрясающие новые приличия, которые мы можем наблюдать в биологических интеллектуальных системах.

Гэри Маркус является одним из самых ярких защитников этой точки зрения, предлагая гибридные системы искусственного интеллекта, объединяя коннекционистов с символическим и вероятностный подходы:

Самый мощный A.I. системы ... используют такие методы, как глубокое обучение, как всего лишь один элемент в очень сложном ансамбле методов, начиная от статистической техники байесовского вывода до дедуктивного мышления. - Гэри Маркус, 2012 г.

Хотя Йошуа Бенжио больше соответствует моему личному мнению:

Я уверен, что простой гибрид, в котором выходные данные глубокой сети дискретизируются, а затем передаются в систему символической обработки GOFAI, не будет работать. Почему? По многим причинам: (1) вам необходимо обучение в компоненте системы 2, а также в части системы 1, (2) вам также необходимо представить неопределенность там (3) поиск грубой силы (основной инструмент вывода для обработки символов systems) не масштабируется, вместо этого люди используют бессознательную (систему 1) обработку, чтобы направлять поиск, участвующий в рассуждении, поэтому система 1 и система 2 очень тесно интегрированы и (4) ваш мозг полностью представляет собой нейронную сеть. - Йошуа Бенджио, 2019 г.

ИИ, основанный на неврологии

Одно из возможных решений проблемы - получить небольшую помощь от природы, направив наш титанический поиск в сторону ИИ человеческого уровня. Этот аргумент использовался многими, в первую очередь Демисом Хассабисом и его поиском Искусственный интеллект, вдохновленный нейробиологией. Однако в то же время другие исследователи искусственного интеллекта, в том числе лауреат премии Тьюринга Янн ЛеКун, например, предупреждают нас о необходимости изучения биологии, что также может быть контрпродуктивным. Главный аргумент в пользу этой идеи часто приводится в виде параллели с историей летательных аппаратов.

Величественный Avion III, который я имел удовольствие лично увидеть в Musée des Arts et Métiers в Париже, был примитивным паровым самолетом, построенным Клеманом Адером между 1892 и 1897 годами. Его конструкция была в значительной степени вдохновлена ​​природой (в частности, летучими мышами) с шарнирно-сочлененными крыльями, однако машина не могла летать, и ее исследования были остановлены в 1898 году правительством Франции. Первый летательный аппарат был построен братьями Райт около 1903 года.

Дизайн «Райт Флайер» был создан не на основе птиц, а, скорее, на основе изучения принципа аэродинамики. Следовательно, этот пример часто приводится в качестве убедительного аргумента в пользу того, чтобы не копировать биологию, а просто черпать вдохновение из нее: махание крыльями, перьями и т. Д. Оказалось не так. что важно для эффективного полета.

Однако я считаю, что этот аргумент был в основном неправильно понят исследовательским сообществом ИИ, поэтому все, что не связано с основными исследованиями ИИ и даже немного больше вдохновляется биологией, часто обозначается как «обречено на провал. ”, Если он не может достичь нужного процента точности по паре стандартных тестов.

Братья Райт проводили много времени, наблюдая за птицами в полете. Фактически, хотя это может быть правдой, что биология может создавать ограничения, которые конкретно не связаны с интеллектом, только путем тщательного изучения биологических систем мы можем понять правильный уровень абстракции , ключевые принципы интеллекта, отделив их от деталей «реализации», которые могут присутствовать по разным причинам эволюции.

Давайте будем честными, у большинства исследователей машинного обучения (включая меня) нет знаний, времени и энергии, чтобы изучить другие дисциплины и действительно понять, что там происходит. Когда они говорят, что черпают вдохновение из мозга, находятся на невероятно высоком уровне абстракции (подумайте, например, о воспроизведении памяти). Более того, они часто не хотят терять свое преимущество в реальных практических приложениях и вообще не рискуют изучать биологию.

Основа интеллекта, основанная на неврологии

В то же время мне все еще неясно, как мы можем представить создание действительно интеллектуальных машин без четкого понимания того, что такое интеллект в первую очередь. Как мы в итоге назвали ИИ даже простым алгоритмом распознавания рукописных цифр?

Я считаю, что исследования ИИ должны быть сосредоточены не на постепенных улучшениях по сравнению с узкими приложениями, а больше на разработке вычислительной структуры интеллекта, которая могла бы объяснить появление интеллектуального поведения у людей и машин.

В этом сообщении в блоге я использую термин «ИИ, основанный на неврологии», поскольку считаю, что мы должны развивать эту структуру интеллекта, не просто черпая вдохновение из биологии и не ограничиваясь деталями ее реализации, а скорее разработка теории интеллекта, которой следует строго руководствоваться и опираться на открытия в области теоретической и вычислительной нейробиологии.

На практике это означало бы перебрать следующие шаги:

  1. Определите ключевые вычислительные принципы, отделив их от деталей реализации.
  2. Понять их взаимодействие и новые свойства.
  3. Подтвердите основу в кремнии (в моделировании, а также в практических приложениях) и данных нейробиологии.

Нет смысла разрабатывать и сосредотачиваться на чрезмерно сконструированных узких ИИ, которые не включают в себя весь заранее определенный принцип интеллекта (удар крота, чрезмерный риск), если цель состоит в том, чтобы достичь человеческого уровня AI.

О конвергенции искусственного интеллекта и нейробиологии

Я считаю, что в следующее десятилетие, благодаря значительному прогрессу в области воображения мозга, интерфейсов мозг-компьютер, открытиях в нейробиологии и т. Д., Станет ясно, что самый быстрый путь к человеческому уровню ИИ лежит через понимание биологического интеллекта в первую очередь.

Многие исследователи ИИ часто не замечают того, что мы уже медленно движемся в этом направлении (см. рисунок 5 ниже). Например, нейронные сети постепенно интегрируют интересные функции и вычислительные свойства, которые всегда считались важными в нейробиологии. Возьмем, к примеру, «Непрерывное обучение»: это очень недавняя тенденция в нейронных сетях (с растущим интересом с 2016 года), но она уже давно считается ключевым вычислительным свойством, лежащим в самой основе биологических обучение и синаптическая пластичность.

Проблема в том, что мы движемся вперед и назад по оси неврологии и заземления только в пользу практического применения момента, но в долгосрочной перспективе мы просто замедляем наш путь к человеческому уровню AI.

Хотя мы можем найти более разумные решения, чем эволюция, для решения конкретных узких проблем (например, игры в шахматы или ГО), экспоненциальную сложность общей интеллектуальной системы может быть слишком сложно понять без какой-либо помощи природы в руководстве нашим исследованием.

Это признание вызовет естественное взаимодействие между искусственным интеллектом и нейробиологией на беспрецедентном уровне. Более того, общая структура интеллекта в этом контексте позволит нам не только создавать более умные машины, но также лучше понимать самих себя и, возможно, расширять наши когнитивные способности, сужая демаркационную линию между людьми и машинами.

Если вы хотите видеть больше сообщений об искусственном интеллекте и непрерывном обучении, подпишитесь на меня на Medium или присоединитесь к ContinualAI.org: открытое сообщество, состоящее из более чем 600 исследователей работают вместе над этой увлекательной темой! (Присоединяйтесь к нам на слабину сегодня! 😄 ​​🍻)
Если вы хотите связаться, посетите мой сайт vincenzolomonaco.com! 😃