Недавно я имел честь посетить ODSC East (Конференция по открытым данным) в Бостоне, США, с 9 по 11 мая этого года. Будучи ведущей конференцией по искусственному интеллекту и науке о данных, ODSC East собрал спикеров и докладчиков, чтобы обсудить самые последние разработки в мире искусственного интеллекта и машинного обучения. В этом блоге я расскажу о трех основных моментах конференции.

В течение трех дней более 5000 участников и 250 спикеров объединились в серии докладов, семинаров и демонстраций, посвященных последним разработкам в области науки о данных и искусственного интеллекта, причем конференция проходила по нескольким направлениям, включая машинное обучение, MLOps, НЛП, глубокое обучение, ответственный искусственный интеллект и многие другие. Среди множества увлекательных дискуссий по всем направлениям на конференции выделялись три темы: этика ИИ и ответственность за модель, внедрение технологии больших языковых моделей (LLM), такой как Chat-GPT4, и ускорение инициатив в области ИИ и машинного обучения в организациях. В этом сообщении в блоге я углублюсь в понимание, выделив три сеанса, которые мне больше всего понравились.

Этика ИИ и ответственность за модели

Доктор Кансу Канка, доктор философии, руководитель программы лаборатории этики ИИ в Северо-восточном университете, провела интригующую сессию, посвященную этике ИИ и ответственности за построение моделей. В ее презентации подчеркивалась необходимость для разработчиков и организаций применять этические принципы при создании моделей ИИ, гарантируя, что технология предназначена для ответственного служения человечеству. Доктор Канка предоставил руководство и набор инструментов, которые позволяют компаниям трансформировать свою стратегию ИИ в этическую основу.

Ее сессия была посвящена инструменту с открытым исходным кодом, позволяющему сравнивать принципы этики ИИ в разных организациях, доступному по адресу https://aiethicslab.com/big-picture/. Этот инструмент может помочь в сравнительном анализе этических стандартов для компаний по всему миру и позволяет людям оценить этические преимущества и недостатки своих собственных инициатив в области искусственного интеллекта. Принимая во внимание такие параметры, как самостоятельность, вред-польза и справедливость, разработчики могут получить ценную информацию об этических последствиях своих моделей ИИ. Доктор Канка подчеркнул, что этика должна определять действия на протяжении всего жизненного цикла ИИ, побуждая разработчиков постоянно задавать себе вопрос, что делать правильно и как реализовать справедливую политику.

Принципы искусственного интеллекта по типу организации из https://aiethicslab.com/big-picture/

Еще одним ключевым аспектом презентации доктора Канка был акцент на согласовании практики ИИ с фундаментальными ценностями. Она удачно процитировала:

«Исполнители ИИ должны уважать верховенство закона, права человека и демократические ценности на протяжении всего жизненного цикла системы ИИ. К ним относятся свобода, достоинство и автономия, неприкосновенность частной жизни и защита данных, недискриминация и равенство, многообразие, справедливость, социальная справедливость и международно признанные трудовые права».

Чтобы обеспечить соблюдение этих принципов, участники ИИ должны внедрить соответствующие механизмы и меры безопасности. Это включает в себя включение человеческой решимости в процесс принятия решений, обеспечение учета контекста и не отставание от последних достижений в области технологий искусственного интеллекта. Интегрируя эти меры, мы можем проложить путь к ответственной разработке и внедрению ИИ, способствуя гармоничному сосуществованию людей и машин.

Реализация больших языковых моделей (LLM)

Второй выдающейся презентацией стал основной доклад Хагая Лупеско, вице-президента по разработке в Mosaic ML, консультанта по искусственному интеллекту из США, и Джея Джексона, вице-президента по искусственному интеллекту и машинному обучению в Oracle. Их основной доклад был посвящен развенчанию ошибочного представления о внедрении больших языковых моделей (LLM) и предоставлению практического руководства по внедрению этой технологии в вашу собственную компанию. Принято считать, что интеграция LLM в процесс или продукт компании требует непомерных инвестиций, при этом затраты на обучение достигают миллионов, а размеры моделей растут до неуправляемых масштабов.

Изображение, созданное искусственным интеллектом с сайта https://openai.com/dall-e-2

Тем не менее, Mosaic ML объяснил, что внедрение этой технологии возможно и доступно для любой компании и может быть начато, если сначала понять, какой тип реализации LLM лучше всего подходит для сферы деятельности компании. Таким образом, они выделили три типа реализации LLM, каждый со своим набором соображений и компромиссов:

API Gated LLM:

Подход API Gated LLM предлагает быстрое и удобное решение для внедрения LLM. Наиболее распространенным примером может быть использование службы API существующей модели, такой как Chat-GPT4, и ее реализация в собственном предложении продукта/услуги. Это может потребовать минимальных знаний, поскольку не нужно выполнять построение модели, что позволяет организациям быстро использовать предварительно обученные модели. Однако за это удобство приходится платить, поскольку цены на использование модельных вычислений могут быть высокими и дорогостоящими для компаний в масштабе. Также могут возникнуть проблемы с конфиденциальностью, поскольку данные обрабатываются за пределами компании, поэтому использование конфиденциальных данных, данных исследований и разработок или данных клиентов в рамках этого подхода может создать риски для безопасности и конфиденциальности. Наконец, в этом методе возможности настройки ограничены, поскольку контроль над кодом или реализацией модели отсутствует.

LLM с открытым исходным кодом:

LLM с открытым исходным кодом — это готовая модель, доступная широкой аудитории. Например, META AI (https://ai.facebook.com/resources/) создала экосистему готовых фреймворков и моделей ИИ, которые компании могут использовать в своих собственных целях. Преимущество выбора пути с открытым исходным кодом заключается в том, что уже существует множество существующих моделей, из которых можно выбирать и настраивать в соответствии с вашим собственным вариантом использования. Хотя этот подход обеспечивает гибкость, контроль качества может быть сложным, поскольку модели создаются и обучаются за пределами компании. Это требует большой тонкой настройки для адаптации к конкретным случаям использования, что требует значительного опыта в области машинного обучения. Наконец, следует также уделить внимание лицензированию и правам, связанным с этими моделями, поскольку они могут различаться в зависимости от первоначального создателя модели.

LLM с собственным обучением:

Подход LLM с собственным обучением включает в себя создание и обучение LLM внутри компании. Этот подход обеспечивает полный контроль, конфиденциальность и соответствие требованиям, что делает его жизнеспособным вариантом для организаций. Кроме того, это проще сделать рентабельным в масштабе, позволяя использовать запатентованные технологии, соответствующие конкретным потребностям масштабирования бизнеса. На рынке уже есть много облачных платформ, таких как Azure или AWS, которые предоставляют планы использования машинного обучения и искусственного интеллекта для размещения и запуска обработки этих моделей в масштабе. Однако реализация этого подхода также подразумевает наличие собственной группы специалистов по обработке и анализу данных с техническими знаниями LLM для создания и обслуживания продукта, что может стать непомерно дорогим. Кроме того, создание LLM собственными силами подразумевает наличие доступа к большому размеченному набору данных, на котором можно обучать вашу модель, что, в зависимости от варианта использования, может быть сложным и дорогостоящим.

Понимая эти различные подходы к внедрению LLM, организации могут принимать обоснованные решения на основе своих конкретных требований, ресурсов, целей и вариантов использования. Очень важно тщательно оценить преимущества, ограничения и потенциальные компромиссы, связанные с каждым подходом, прежде чем переходить к использованию LLM в вашей организации.

Ускорение инициатив AI/ML

В третьем выступлении Шан Чидамбаран, руководитель отдела искусственного интеллекта в Fujitsu North America, подробно рассказал о причинах провала организационного подтверждения концепции искусственного интеллекта (PoC). Он выделил три основные причины, по которым многие PoC для AI и ML не достигают желаемых результатов:

Нехватка кадровых ресурсов:

Нехватка квалифицированных специалистов по данным и инженеров представляет собой серьезную проблему для организаций. Отсутствие таланта приводит к неспособности эффективно комбинировать технологии искусственного интеллекта для решения бизнес-задач. Сложность набора талантов в области ИИ усугубляет проблему, препятствуя прогрессу в инициативах в области ИИ/МО.

Долгое время подготовки модели:

Длительный характер подготовки модели часто приводит к снижению заинтересованности заинтересованных сторон и клиентов. Длительные итерации и задержки с получением ощутимых результатов могут ослабить энтузиазм и помешать успеху PoC AI/ML. Чтобы поддерживать темп и вовлеченность на протяжении всего процесса, необходимы быстрые действия.

Отсутствие дизайна конечного состояния:

Часто модели ИИ разрабатываются без учета конечного состояния. Например, модель может быть построена без тщательного рассмотрения того, как она будет интегрирована в масштабе ИТ-архитектуры организации или в процессы принятия решений заинтересованными сторонами. Это упущение создает препятствия и задерживает дальнейшую работу по интеграции модели машинного обучения. Это затрудняет масштабируемость решений ИИ и препятствует получению необходимой поддержки и внедрению в организациях. Без четкого видения и стратегического подхода потенциал инициатив AI/ML остается неиспользованным.

Шан Чидамбаран предложил многообещающее решение для решения этих проблем — AutoML. AutoML, что означает автоматизированное машинное обучение, представляет собой исследовательскую деятельность, которая оптимизирует применение ИИ за счет автоматизации значительной части процессов разработки. Используя AutoML, организации могут исключить длительные этапы проб и ошибок, обычно связанные с построением моделей ML. Это, в свою очередь, значительно сокращает время, необходимое для разработки модели и доставки ее заинтересованным сторонам. На самом деле, применение AutoML может сократить время доставки на ошеломляющие 80 %, и мы надеемся, что месячная работа может быть преобразована в трехдневный процесс.

Более того, AutoML позволяет специалистам по обработке и анализу данных использовать предварительно интегрированные платформы искусственного интеллекта, разработанные для конкретных структур данных. Это устраняет необходимость изобретать велосипед и может помочь ускорить процесс внедрения ML/AI. Это также может высвободить больше ресурсов у специалистов по данным, чтобы они могли тратить больше времени на проектирование конечного состояния модели, чтобы окончательная интеграция модели в процессы и инфраструктуру компании выполнялась гладко.

С другой стороны, чрезмерное использование AutoML для экспериментов с машинным обучением может привести к подводным камням. Это может включать в себя возможность переобучения модели, создание моделей «черного ящика», в которых трудно объяснить результаты, мультиколлинеарность или полное отсутствие интеграции выбросов данных в модель. При использовании AutoML специалист по данным должен знать об этих потенциальных проблемах и использовать сбалансированный подход между автоматизацией построения модели и проведением экспериментов с моделями вручную.

В целом, AutoML может быть мощным инструментом для организаций, позволяющим преодолеть нехватку навыков, ускорить построение моделей и сохранить интерес заинтересованных сторон к инициативам AI/ML, если специалист по данным использует сбалансированный подход при использовании этой технологии. Таким образом, можно было бы избежать распространенных ошибок, используя при этом весь потенциал этой технологии.

Изображение взято с https://unsplash.com/

Заключительные примечания

Мой визит на ODSC East 2023 позволил мне получить ценную информацию о текущем и будущем состоянии искусственного интеллекта. Дискуссии об этике ИИ, модели ответственности и реализации больших языковых моделей проливают свет на критические соображения, которые организации должны учитывать при внедрении ИИ. Учитывая потребность в справедливости, прозрачности и подотчетности, крайне важно интегрировать этические принципы ИИ на протяжении всего жизненного цикла ИИ. В то же время принятие соответствующего подхода к реализации LLM позволяет организациям эффективно использовать возможности языковых моделей. Более того, принимая во внимание AutoML в своих процессах построения моделей, организации могут преодолеть нехватку навыков, сократить время подготовки моделей и поддерживать поддержку заинтересованных сторон внутри организации. В целом, ODSC East оказался вдохновляющим событием, проложившим путь ИИ-сообществу к более этичному, ответственному и инновационному будущему.