LLM за бързо класифициране на текст, генериране на код: сега LOKO AI интегрира ChatGPT.

Компонентът LLM в работния процес на вашия LOKO AI: разберете как да разгърнете пълния потенциал на ChatGPT с LOKO AI.

Този месец пуснахме нова интеграция в LOKO AI Community Edition.

Вече в LOKO AI › Приложения можете да изтеглите разширението LangChain, съответстващо на работното пространство LLM компонент.

Технически характеристики: Генериране на текст и код за бързо класифициране на текст, търсене на текст, обобщаване и анализиране на резултати (извличане на обект).

Случаи на употреба: Автоматизиране на поддръжката на клиенти (класифициране и генериране на имейли, разговори с чатбот и др.)

Разширението LangChain разчита на одноименната рамка за интегриране на проектите на LOKO AI с OpenAI модели.

LLM

Компонентът LLM позволява взаимодействие с Големи езикови модели. В зависимост от шаблона, който използвате, за да заявите модела, можете да приложите много различни задачи като класифициране на текст, генериране на код и генериране на имейл.

В рамките на блока можете да зададете модела, който искате да използвате, максималния брой токени за генериране при завършване и температурата на модела, представляваща случайността на отговорите. Моделът може да следи предишните взаимодействия, паметта на модела се основава на прозорци, резюмета или вектори:

  • WindowMemory използва последното K взаимодействие, за да предвиди следващото завършване;
  • SummaryMemory създава резюме на разговора във времето;
  • VectorStoreMemory съхранява взаимодействията във вектори и отправя заявки към най-добрите документи, когато бъде извикана.

LLM Резюме

Компонентът Резюме на LLM обобщава текст въз основа на LLM.

В рамките на блока можете да зададете chunk_size и chunk_overlap, които се отнасят до предварителната обработка на въведения текст за обобщаване.

HTML2Текст

Компонентът HTML2Text приема HTML като вход и извлича текстовото съдържание.

LLM анализатор

Компонентът LLM Parser позволява анализиране на текст въз основа на LLM.

В рамките на блока, както и за LLM компонента, можете да зададете модела, който искате да използвате, максималния брой жетони за генериране при завършване и температурата на модела, представляваща произволността на отговорите .

Параметърът на модела дефинира изходната структура.

Пример:

Като се има предвид моделът, дефиниран в предишната фигура, получаваме:

Вход:

Tom Hanks acted in Forrest Gump and Apollo 13.

Резултат:

{
  "film_names": ["Forrest Gump","Apollo 13"],
  "name": "Tom Hanks"
}

Конфигурация

Във файла config.json можете да зададете OPENAI API KEY:

{
  "main": {
    "environment": {
      "OPENAI_API_KEY": "<insert your OPENAI API KEY here>"
    }
  }
}

Ако имате нужда от поддръжка с LOKO AI, пишете ни и нашият екип ще бъде готов да ви предостави незабавна помощ.