В последно време машинното обучение се внедрява в различни широкомащабни сектори за решаване на сложни проблеми от реалния свят. Границите му се разшириха до области, включително здравеопазване, образование, икономика и няколко други сектора, засягащи човешкия живот в различни фази. Обучението и внедряването на тези модели с големи размери изискват скъпи изчислителни разходи. Модели като blenderbot-9B например изискват 22 GB GPU памет, което изисква колосални разходи. С нарастването на размера на модела, разходите нарастват експоненциално. Това се превръща в бреме за малки компании или стартиращи фирми или понякога академичните експерименти се спират поради такова ценообразуване на GPU.

Parallelformers се притекоха на помощ, за да спасят умерено живота на онези, които се тревожеха за подобни проблеми. Той се появи в TUNib през юли 2021 г., предоставен ни от екип от фантастични инженери за машинно обучение (ML) на име Кевин Ко, Донг Шин и Пен Динг. TUNib създава модели на изкуствен интелект (AI), които могат да комуникират с хората на високо ниво. Инженерите почувстваха необходимостта да намалят разходите си, за да внедрят огромната 22 GB GPU памет, необходима на модела blenderbot-9B. parallelformers започна пътуването си с използване на множество графични процесори, като раздели големия модел на по-малки фрагменти и ги зареди в различни графични процесори. Той все още е в процес на разработка в TUNib AI и също така е с отворен код за участниците, които могат да работят по неговото развитие. В момента може да побере до 68 различни модела от библиотеката huggingface от своите 70 езикови модела. Неподдържаните модели са SqueezeBERT и RAG. Най-новата версия до днешна дата за parallelformers е 1.2.7, пусната през юли.

Пффф!!! Някой го е грижа за нас! — Случаен стартиращ ML инженер.

поддържа

parallelformers в момента поддържа само езика за програмиране python. За работа е необходим Python версия 3.6.0 или по-нова. Предлага се на всички платформи от облака, windows, Linux и mac OS. Множество графични процесори могат да бъдат паралелизирани, като се използва само един ред код, който може да се използва само за извеждане с най-новата версия в този момент. Съществуващите инструменти за паралелизиране, например DeepSpeed, позволяват само малък брой модели със сложна процедура и позволяват паралелизиране само когато пълният модел първо се зареди в GPU. По този начин, това може да се посочи като по-малко удобно за потребителя в сравнение с един ред код за parallelformers вместо това.

Инсталация

Преди да преминете към инсталацията на parallelformers, уверете се, че python е инсталиран и неговата версия е 3.6.0 или по-нова.

За да инсталирате библиотеката parallelformers, първо трябва да изпълните следната команда pip. Допълнителни задължителни зависимости като горелка, трансформатори и дацит ще се доставят заедно с инсталацията на паралелни формиращи пипи.

След инсталирането на pip, следната версия на зависимостите ще бъде налична за най-новата версия до днешна дата -

parallelformers — 1.2.7 (най-нова, версия 8)

трансформатори — 4.2

дацит — 1.6.0

факел — 1.12.1

Ако срещнете някакви грешки, докато инсталирате parallelformers или изпълнявате някакъв код, инсталирайте споменатите версии на горните библиотеки отделно. Можете да инсталирате наличните версии на parallelformers, вариращи от 1.0 до 1.2.7 (най-нова). Можете да понижите или надстроите версията с помощта на командата pip.

В заключение, опитах се да ви дам основно въведение в това какво е parallelformers и неговото съществуване и не навлязох в много технически подробности. Можете да научите повече технически неща и да допринесете за това, като използвате препратките, които прикачих по-долу. Надявам се, че ще получите въвеждаща интуитивна представа за паралелните формиратели от написаното от мен по-горе.

Препратки

  1. Въведение в паралелните формирачи от TUNib AI.
  2. parallelformers github хранилище.