Публикации по теме 'large-language-models'


Разгадка тайны: чего не могут большие языковые модели (ПОКА)
Разгадка тайны: чего не могут большие языковые модели (ПОКА) В недалеком будущем вы, вероятно, столкнетесь с, казалось бы, простым, но удивительно сложным вопросом от вашего руководства или коллег: «Что НЕ МОГУТ делать большие языковые модели (LLM)?» Причины этого вопроса понятны. Люди хотят понять, как могут измениться их роли по мере того, как эта технология продолжает проникать на рабочие места. Отчасти это любопытство проистекает из опасений, а отчасти вызвано желанием..

LangChain🦜🔗: Мощная платформа, революционизирующая приложения языковых моделей
Что такое Лангчейн? LangChain  — это мощная платформа, призванная совершить революцию в разработке приложений на основе языковых моделей. Языковые модели, такие как ChatGPT и Llama , невероятно универсальны и отлично справляются с широким кругом задач. Однако они могут столкнуться с проблемами, когда дело доходит до предоставления точных ответов или решения задач, требующих глубоких знаний или опыта в предметной области. Здесь на помощь приходит LangChain . Например: с помощью..

Безопасный AI-бот для конфиденциальных данных
Создайте свой личный ИИ с помощью Langchain + LLaMA 2 + Flask LLM (большие языковые модели) в настоящее время находятся в центре внимания сообщества искусственного интеллекта. С появлением GPT-4 модели LLM стали настолько распространены, что разработчики тесно интегрируют эти модели в несколько приложений. Хотя традиционные LLM хороши для большинства случаев использования, они, как правило, не оправдывают ожиданий, когда вы хотите использовать их «из коробки» с личными данными...

Суммируйте веб-страницы в десяти строках кода с помощью Unstructured + LangChain
Вам когда-нибудь приходилось читать множество документов только для того, чтобы быть в курсе последних событий по теме? Возможность быстро обобщать документы — это одна из задач, которую вы можете выполнить с минимальными усилиями благодаря нашей библиотеке. В этом посте мы покажем вам, как легко суммировать содержимое веб-страниц с помощью unstructured , langchain и OpenAI. Весь приведенный ниже код можно найти в следующей блокноте Colab . Подготовка информации Прежде..

Как выглядит жизненный цикл машинного обучения для LLM на практике?
Я не хочу сказать, что я был ярым отрицателем глубокого обучения, но я упорно держался, чтобы не попасть в ажиотаж вокруг LLM. Хотя я нахожу интересными почти все исследования ML, я действительно очарован исследованиями систем ML, посвященными практической реализации моделей ML. И казалось, что генеративный ИИ рекламировался больше как забавная игрушка, чтобы «посмотреть, на что он способен», чем что-то, что можно запустить в производство. Как обычно, сообщения LinkedIn начали поступать...

Transformers — Rise of the New Beasts: тест систем AI21, ALEPH ALPHA, MUSE vs. GPT-3
Transformers — Rise of the New Beasts: 100% субъективный тест систем AI21, ALEPH ALPHA, MUSE в сравнении с GPT-3 — с потрясающими результатами. За последние несколько месяцев несколько многообещающих языковых моделей начали работу, бросая вызов GPT-3. Я протестировал несколько таких платформ и отправил им данные. Всегда с такими вопросами, как: могут ли другие модели конкурировать с GPT-3? Или они еще лучше? У всех платформ есть определенные функции, некоторые из которых трудно..

Секретный соус за 100K контекстным окном в LLM: все хитрости в одном месте
Секретный соус за 100K контекстным окном в LLM: все хитрости в одном месте tldr; методы ускорения обучения и вывода LLM для использования большого контекстного окна до 100 000 входных токенов во время обучения и вывода: позиционное встраивание ALiBi, разреженное внимание, FlashAttention, внимание с несколькими запросами, условное вычисление, и 80 ГБ графических процессоров A100. Недавно было объявлено о новых больших языковых моделях (LLM), которые могут занимать чрезвычайно..