LLM для быстрой классификации текста, генерации кода: теперь LOKO AI интегрирует ChatGPT.

Компонент LLM в рабочем процессе вашего LOKO AI: узнайте, как раскрыть весь потенциал ChatGPT с помощью LOKO AI.

В этом месяце мы выпустили новую интеграцию в LOKO AI Community Edition.

Теперь в разделе LOKO AI › Приложения вы можете скачать расширение LangChain, соответствующее рабочей области LLM компонент.

Технические характеристики: генерация текста и кода для быстрой классификации текста, текстовый поиск, обобщение и анализ результатов (извлечение сущностей).

Случаи использования: Автоматизация поддержки клиентов (классификация и создание электронных писем, общение в чат-ботах и т. д.)

Расширение LangChain опирается на одноименную структуру для интеграции проектов LOKO AI с моделями OpenAI.

магистр права

Компонент LLM позволяет взаимодействовать с большими языковыми моделями. В зависимости от шаблона, который вы используете для запроса модели, вы можете реализовать множество различных задач, таких как классификация текста, генерация кода и генерация почты.

В блоке вы можете установить модель, которую хотите использовать, максимальное количество токенов, которые будут генерироваться при завершении, и температуру модели, представляющую случайность ответов. Модель может отслеживать предыдущие взаимодействия, память модели основана на окнах, сводках или векторах:

  • WindowMemory использует последнее K взаимодействие, чтобы предсказать следующее завершение;
  • SummaryMemory создает сводку беседы с течением времени;
  • VectorStoreMemory сохраняет взаимодействия в векторах и запрашивает первые K документов при вызове.

Резюме LLM

Компонент Сводка LLM суммирует текст на основе LLM.

Внутри блока вы можете установить chunk_size и chunk_overlap, которые относятся к предварительной обработке входного текста для суммирования.

HTML2текст

Компонент HTML2Text принимает HTML в качестве входных данных и извлекает текстовое содержимое.

LLM Парсер

Компонент LLM Parser позволяет анализировать текст на основе LLM.

Внутри блока, а также для компонента LLM можно задать модель, которую вы хотите использовать, максимальное количество токенов, генерируемых при завершении, и температуру модели, представляющую случайность ответов. .

Параметр модели определяет структуру вывода.

Пример:

Учитывая модель, определенную на предыдущем рисунке, мы получаем:

Ввод:

Tom Hanks acted in Forrest Gump and Apollo 13.

Вывод:

{
  "film_names": ["Forrest Gump","Apollo 13"],
  "name": "Tom Hanks"
}

Конфигурация

В файле config.json вы можете установить OPENAI API KEY:

{
  "main": {
    "environment": {
      "OPENAI_API_KEY": "<insert your OPENAI API KEY here>"
    }
  }
}

Если вам нужна поддержка с LOKO AI, напишите нам, и наша команда будет готова оказать вам немедленную помощь.