Свързани публикации 'large-language-models'


Трансформърс: Революция в машинното обучение и отвъд него. {Част 2}
Въведение Забележка: „Определено нямам предвид филма „Трансформърс!“ тук :-) В сферата на съвременните технологии изкуственият интелект (AI) заема централно място. Една революционна концепция, която се появи през последните години, е трансформаторът. Трансформаторите са тип архитектура за задълбочено обучение, която е имала дълбоко въздействие върху областите на обработка на естествен език (NLP), компютърно зрение и др. В тази статия ще изследваме света на..

FAISS: Turbo Boost за търсене ⚡️🔍
В днешния свят, управляван от данни, ефективното търсене на подобни елементи в огромни набори от данни стана решаващо в различни области. От разпознаването на изображения до системите за препоръки, търсенето на сходство е от основно значение за подобряване на потребителското изживяване, подобряване на точността на търсенето и активиране на разширени приложения. Признавайки тази необходимост, Facebook AI Research разработи FAISS,...

NVIDIA NeMo Megatron и модели с голям език
NVIDIA NeMo Megatron и модели с голям език Тази версия включва нови техники, задвижвани от пробивите на NVIDIA Research, които осигуряват повече от 30% по-бързо време за обучение за GPT-3 модели. NeMo Megatron е цялостна рамка от обработка на данни, до обучение, до изводи, до оценка. Въведение NVIDIA обяви най-новата версия на NeMo Megatron Large Language Model ( LLM ) рамка. Версията включва нови техники, задвижвани от NVIDIA Research, които осигуряват повече от 30% по-бързо..

Разчупване на границите на AI: Как агентите и инструментите се обединяват за резултати от следващо ниво
Изкуственият интелект е завладяваща област, не само заради своята сложност, но и заради очарователната си способност да имитира човешкото поведение. Важен компонент на това поле е „агентът“ — субект, който възприема своята среда и действа спрямо нея. Днес ще обсъдим доста уникален тип агент: големи езикови модели (LLM). Ще проучим как те използват инструменти за изпълнение на задачи и генериране на код, като същевременно го поддържат безопасен и удобен за потребителя. Да се ​​потопим!..

MPT-7B: Нов стандарт за комерсиално използваеми LLMs с отворен код
Големите езикови модели (LLM) променят света, но за тези извън индустриалните лаборатории с добри ресурси е трудно да се обучават и внедряват LLM модели. Оттук и ограничението на MosaicML addressm от новата моделна серия, наречена MPT В моделната серия MPT (MosaicML Pretrained Transformer): MPT-7B е трансформатор, обучен от нулата. Отворен код, лицензиран (Apache-2.0) за търговска употреба и съответства на качеството на LLaMA-7B (Meta AI). Обучен на голямо количество данни (1T..

Компоненти на LLM (Част 4: Оценка и бъдещи компоненти)
Тази статия е достъпна и под формата на видео на адрес: https://www.youtube.com/watch?v=bee1cIl7Y8w В предишната статия разгледахме как параметрите на модела се конфигурират по време на обучение. Тази статия, последната от поредицата, ще Подробности как се оценяват обучените модели Направете кратък преглед на няколко обещаващи изследователски области. оценка: В областта на LLMs оценяването става все по-голямо предизвикателство по много причини. Първото и най-важно..

Qubit Magic: Създаване на митични същества с квантово изчисление
РУКОВОДСТВО Qubit Magic: Създаване на митични същества с квантово изчисление Генериране на красиви изображения с кубити и големи езикови модели. Какво можете да направите с кубит? Помислете за природата на един кубит. Може да не изглежда толкова великолепно на пръв поглед. Всъщност може да изглежда, че няма много интересни неща, за които може да се използва само един кубит. Въпреки това, с малко „креативност“, можем да направим много впечатляващи подвизи. Едно от тях включва..