Свързани публикации 'pytorch'


Търсене на хиперпараметър на случаен модел за конволюционни невронни мрежи: пример за PyTorch
Когато търсите в Google „Произволно търсене на хиперпараметри“, намирате само ръководства за това как да рандомизирате скоростта на обучение, импулса, отпадането, затихването на теглото и т.н. Какво ще стане, ако искате да експериментирате и с моделни хиперпараметри като размер на конволюционното ядро , крачка, брой ядра и дори брой напълно свързани слоеве? Без готови отговори, реших го сам. Рандомизирането на хиперпараметрите на модела има смисъл, когато решавате проблем, различен от..

Визуализирайте, за да реализирате: Използване на EDA за ефективно машинно обучение
Изграждане на многовариантна регресия от нулата с PyTorch и визуализиране на прогноза в 3D с PCA Готови ли сте за дълбоко гмуркане във вълнуващото царство на интерпретацията на данни? 📊 Днес многовариантната регресия е в менюто. Звучи сложно? Е, докато приключим, ще се чувстваме като разходка в парка 🌳🚶‍♂️ Ще разгледаме как да обучим модел на многовариантна линейна регресия, като демистифицираме тези сложни математически уравнения и ги трансформираме в прости, разбираеми концепции...

Сравнение на реализациите на WGAN (WGAN-GP и WGAN-SN)
WGAN е вид мрежа, използвана за генериране на фалшиви висококачествени изображения от входен вектор. В този експеримент внедрих две различни подобрения на WGAN в Pytorch, за да видя кой е в състояние да се представи най-добре по отношение на скоростта и качеството на генерираните изображения. (Github: https://github.com/BradleyBrown19/WGANOptimizations ). Какво е WGAN? Предполагам, че имам предварителни познания за GAN, така че препоръчвам да прочетете следното, ако не сте..

Интензивен курс на PyTorch, част 3
СТАТИЯ Интензивен курс на PyTorch, част 3 От Задълбочено обучение с PyTorch от Ели Стивънс и Лука Антига __________________________________________________________________ Вземете 37% отстъпка Задълбочено обучение с PyTorch . Просто въведете код fccstevens в полето за промоционален код за отстъпка при плащане в manning.com . __________________________________________________________________ В тази статия изследваме някои от възможностите на PyTorch, като играем..

Последната седмица на ключова концепция за невронна мрежа
10/08/2021 Днес ще продължим към дълбоката невронна мрежа. След като научих как работи дълбоката невронна мрежа за предаване напред, нотация и форма за всеки параметър и отклонение. Време е да комбинираме всички блокове заедно и да видим как изграждаме невронната мрежа от разпространение напред към разпространение назад. Вече споменахме общото уравнение и векторизираното уравнение за разпространение напред. Доста лесно е да се изгради с for цикъл за повторение на всеки скрит слой...

PyTorch и GANs: Микро урок
Изграждане на най-простите GAN в PyTorch Прекарах дълго време в правене GANs в TensorFlow / Keras . Твърде дълго, честно, защото промяната е трудна. Отне малко убеждаване, но в крайна сметка прехвърлих куршума и преминах към PyTorch. За съжаление, повечето от уроците за PyTorch GAN, на които се натъкнах, бяха прекалено сложни, фокусирани повече върху теорията на GAN, отколкото върху приложението, или странно непитонични. За да поправя това, написах този микро урок за..

Това е Великият PumpGAN, Чарли Браун | Блог | Точно
Влезте в духа на Хелоуин на GAN с този урок за генератор на тиква (Генеративно състезателно обучение. Сините линии показват поток от входове, зелените линии изходи, а червените линии сигнали за грешка.) Генеративните състезателни мрежи, или накратко GAN, са една от най-вълнуващите области на задълбочено обучение, възникващи през последните 10 години. Това е според, между другото, Yann LeCun от MNIST и славата на обратното разпространение. Бързият напредък след въвеждането на GAN..