Свързани публикации 'gpu'


DL Infra Series: CUDA програмиране — част 2
Част 2 от подсериите за програмиране на CUDA — Променливи на йерархията на нишките, стрийдирани цикли и NVIDIA Nsight Серията DL Infra има за цел да слее празнината между инженерство и изследвания в Deep Learning. Тъй като полето на DL или AI като цяло се развива доста бързо, лесно е да се изгубите в океана от теория и да забравите основите. Тази поредица има за цел да предостави на публиката фундаментални подробности за инфраструктурата в кратки и разбираеми части. Ускоряването..

По-бързо обучение за машинно обучение с GPU или TPU
Защо да използвате Google Colab? Можете да използвате Jupyter Notebook на вашия локален компютър. Google Colab подобрява Jupyter Notebook по много начини. Ето седемте най-важни причини да използвате Google Colab : Можете да получите всеки публичен бележник на Jupyter от хранилище на GitHub. Зареждате, редактирате и записвате всеки .ipynb файл в Google Диск, свързан с влизането в Colab. Полезно е да имате отделен акаунт в Google за всеки проект и по този начин различен Google..

Казус от практиката: Намаляване на разходите за облачни изчисления за компанията Generative AI
Стартиране на ранен етап, фокусирано върху Generative AI, използващо LLMs, използва GPU облачен сървър, състоящ се от 8x NVIDIA 32GB V100s с 48C Intel Xeon Platinum 8268 CPU @ 2,90GHz, 768 GB RAM и 1TB памет. Графичните процесори бяха хоствани в център за данни извън САЩ. Те се обърнаха към VALDI за помощ за намаляване на разходите си за облачни изчисления. Като се имат предвид техните специфични бюджетни ограничения, техническите изисквания на тяхното приложение и относителната..

От безплатно до готово за производство: Използване на Amazon SageMaker Studio Lab и Amazon SageMaker за машина...
Как да използвате безплатните за използване Amazon SageMaker Studio Lab и Amazon SageMaker заедно за вашите проекти за машинно обучение Като практикуващ машинно обучение вероятно прекарвате по-голямата част от времето си в базирана на Jupyter IDE за разработка, използвате ресурси на CPU/GPU за обучение и тестване и се нуждаете от хранилище с размер на низходящия размер за набори от данни и метаданни. Това са вашите най-основни нужди за среда за разработка на ML и SageMaker Studio Lab..

Две години наведнъж — RAPIDS 0.16
Преди около две години се прибрах от Мюнхен, изтощен. Екипът, само около 20 души по това време, беше изтощен. Подобно на сцената след надписите в Отмъстителите , нашата маса със супергерои се хранеха мълчаливо и размишляваха върху битката. Спечелихме. Имахме първата голяма победа в спасяването на мултивселената на науката за данни от неземните сили на еднонишковостта, сложността на кода и чакането. Бяхме пуснали RAPIDS. Има чувството, че оттогава са били 16 различни филма; всички..

Javascript за машинно обучение? Вземете истински език.
История за загубата и любовта към иновациите Подкаст Наскоро бях помолен от Gant Laborde да бъда в предстоящ подкаст и аз, след като не знаех какво да предложа за дискусионни точки, започнах да разсъждавам върху част от работата с отворен код, която правех... предложих като тема на дискусия за подкаста: „ Ами ако машинното обучение беше достатъчно просто за деца? Пътуване в осъществяването му. ”, и когато започнах да пиша, стана ясно, че тази история трябва да бъде споделена...

Обяснени са някои концепции на CUDA
Обзалагам се, че можете лесно да ускорите програмата си с 10 пъти, като приемете CUDA. Но това 10 пъти далеч не е краят на историята. Напълно оптимизиран CUDA код може да ви даде 100 пъти тласък. За да напишете силно оптимизирани CUDA ядра, трябва да разберете добре някои концепции за GPU. Открих обаче, че някои от концепциите не се обясняват добре в интернет и могат лесно да объркат хората. Тези понятия са объркващи, защото Някои терминологии са заимствани от програмата на..