LLM за бързо класифициране на текст, генериране на код: сега LOKO AI интегрира ChatGPT.
Компонентът LLM в работния процес на вашия LOKO AI: разберете как да разгърнете пълния потенциал на ChatGPT с LOKO AI.
Този месец пуснахме нова интеграция в LOKO AI Community Edition.
Вече в LOKO AI › Приложения можете да изтеглите разширението LangChain, съответстващо на работното пространство LLM компонент.
Технически характеристики: Генериране на текст и код за бързо класифициране на текст, търсене на текст, обобщаване и анализиране на резултати (извличане на обект).
Случаи на употреба: Автоматизиране на поддръжката на клиенти (класифициране и генериране на имейли, разговори с чатбот и др.)
Разширението LangChain разчита на одноименната рамка за интегриране на проектите на LOKO AI с OpenAI модели.
LLM
Компонентът LLM позволява взаимодействие с Големи езикови модели. В зависимост от шаблона, който използвате, за да заявите модела, можете да приложите много различни задачи като класифициране на текст, генериране на код и генериране на имейл.
В рамките на блока можете да зададете модела, който искате да използвате, максималния брой токени за генериране при завършване и температурата на модела, представляваща случайността на отговорите. Моделът може да следи предишните взаимодействия, паметта на модела се основава на прозорци, резюмета или вектори:
- WindowMemory използва последното K взаимодействие, за да предвиди следващото завършване;
- SummaryMemory създава резюме на разговора във времето;
- VectorStoreMemory съхранява взаимодействията във вектори и отправя заявки към най-добрите документи, когато бъде извикана.
LLM Резюме
Компонентът Резюме на LLM обобщава текст въз основа на LLM.
В рамките на блока можете да зададете chunk_size и chunk_overlap, които се отнасят до предварителната обработка на въведения текст за обобщаване.
HTML2Текст
Компонентът HTML2Text приема HTML като вход и извлича текстовото съдържание.
LLM анализатор
Компонентът LLM Parser позволява анализиране на текст въз основа на LLM.
В рамките на блока, както и за LLM компонента, можете да зададете модела, който искате да използвате, максималния брой жетони за генериране при завършване и температурата на модела, представляваща произволността на отговорите .
Параметърът на модела дефинира изходната структура.
Пример:
Като се има предвид моделът, дефиниран в предишната фигура, получаваме:
Вход:
Tom Hanks acted in Forrest Gump and Apollo 13.
Резултат:
{ "film_names": ["Forrest Gump","Apollo 13"], "name": "Tom Hanks" }
Конфигурация
Във файла config.json можете да зададете OPENAI API KEY:
{ "main": { "environment": { "OPENAI_API_KEY": "<insert your OPENAI API KEY here>" } } }
Ако имате нужда от поддръжка с LOKO AI, пишете ни и нашият екип ще бъде готов да ви предостави незабавна помощ.