Свързани публикации 'hugging-face'


Незабавна предварителна обработка и нулево използване на дисково пространство — Използване на поточно предаване за обучение на Pytorch...
С няколко реда код се научете да предавате много големи набори от данни с минимално използване на диска и да ги обработвате в движение по време на обучение. Независимо дали искате да обучите свой собствен модел от нулата или да адаптирате предварително обучен модел за вашия собствен случай на употреба, обикновено по-голямата част от инженерните усилия отиват в предварителната обработка на набора от данни за обучение. За задачите на НЛП това обикновено включва почистване, трансформиране..

Как да обучим езиков модел RoBERTa от нулата
Как да обучим езиков модел RoBERTa от нулата Въпреки че много езикови модели вече съществуват в Hugging Face на много различни езици, все още може да бъде полезно да обучите свой собствен модел. Особено когато се опитвате да работите с език, който съдържа печатни грешки, жаргон, жаргон, той може лесно да надмине моделите, които са обучени върху статии в Уикипедия. Обучение на токенизатор Първото нещо, което трябва да направите, е да обучите свой собствен токенизатор. За моделите..

Работа с Hugging Face Transformers и TF 2.0
Моделите, базирани на Transformers, са актуалната сензация в света на НЛП. Библиотеката Transformers на Hugging Face предоставя всички SOTA модели (като BERT, GPT2, RoBERTa и т.н.) за използване с TF 2.0 и този блог има за цел да покаже неговия интерфейс и API 0. Отказ от отговорност Предполагам, че сте наясно с Трансформърс и неговия механизъм за внимание. Основната цел на този блог е да покаже как да използвате трансформаторната библиотека на Hugging Face с TF 2.0, т.е. блогът ще..