LLM для быстрой классификации текста, генерации кода: теперь LOKO AI интегрирует ChatGPT.
Компонент LLM в рабочем процессе вашего LOKO AI: узнайте, как раскрыть весь потенциал ChatGPT с помощью LOKO AI.
В этом месяце мы выпустили новую интеграцию в LOKO AI Community Edition.
Теперь в разделе LOKO AI › Приложения вы можете скачать расширение LangChain, соответствующее рабочей области LLM компонент.
Технические характеристики: генерация текста и кода для быстрой классификации текста, текстовый поиск, обобщение и анализ результатов (извлечение сущностей).
Случаи использования: Автоматизация поддержки клиентов (классификация и создание электронных писем, общение в чат-ботах и т. д.)
Расширение LangChain опирается на одноименную структуру для интеграции проектов LOKO AI с моделями OpenAI.
магистр права
Компонент LLM позволяет взаимодействовать с большими языковыми моделями. В зависимости от шаблона, который вы используете для запроса модели, вы можете реализовать множество различных задач, таких как классификация текста, генерация кода и генерация почты.
В блоке вы можете установить модель, которую хотите использовать, максимальное количество токенов, которые будут генерироваться при завершении, и температуру модели, представляющую случайность ответов. Модель может отслеживать предыдущие взаимодействия, память модели основана на окнах, сводках или векторах:
- WindowMemory использует последнее K взаимодействие, чтобы предсказать следующее завершение;
- SummaryMemory создает сводку беседы с течением времени;
- VectorStoreMemory сохраняет взаимодействия в векторах и запрашивает первые K документов при вызове.
Резюме LLM
Компонент Сводка LLM суммирует текст на основе LLM.
Внутри блока вы можете установить chunk_size и chunk_overlap, которые относятся к предварительной обработке входного текста для суммирования.
HTML2текст
Компонент HTML2Text принимает HTML в качестве входных данных и извлекает текстовое содержимое.
LLM Парсер
Компонент LLM Parser позволяет анализировать текст на основе LLM.
Внутри блока, а также для компонента LLM можно задать модель, которую вы хотите использовать, максимальное количество токенов, генерируемых при завершении, и температуру модели, представляющую случайность ответов. .
Параметр модели определяет структуру вывода.
Пример:
Учитывая модель, определенную на предыдущем рисунке, мы получаем:
Ввод:
Tom Hanks acted in Forrest Gump and Apollo 13.
Вывод:
{ "film_names": ["Forrest Gump","Apollo 13"], "name": "Tom Hanks" }
Конфигурация
В файле config.json вы можете установить OPENAI API KEY:
{ "main": { "environment": { "OPENAI_API_KEY": "<insert your OPENAI API KEY here>" } } }
Если вам нужна поддержка с LOKO AI, напишите нам, и наша команда будет готова оказать вам немедленную помощь.