Публикации по теме 'pytorch'


Поиск гиперпараметров случайной модели для сверточных нейронных сетей: пример PyTorch
При поиске в Google «Случайный гиперпараметрический поиск» вы найдете только руководства о том, как рандомизировать скорость обучения, импульс, отсев, снижение веса и т. Д. Что, если вы также хотите поэкспериментировать с гиперпараметрами модели , такими как размер сверточного ядра , шаг, количество ядер и даже количество полностью связанных слоев? Не имея готовых ответов, я решил это самостоятельно. Рандомизация гиперпараметров модели имеет смысл, когда вы решаете проблему, отличную от..

Визуализируйте, чтобы реализовать: использование EDA для эффективного машинного обучения
Создание многомерной регрессии с нуля с помощью PyTorch и визуализация прогнозов в 3D с помощью PCA Готовы к глубокому погружению в захватывающую область интерпретации данных? 📊 Сегодня в меню многомерная регрессия. Звучит сложно? Что ж, к тому времени, когда мы закончим, это будет похоже на прогулку в парке 🌳🚶‍♂️ Мы рассмотрим, как обучить модель многомерной линейной регрессии, демистифицируя эти сложные математические уравнения и преобразовывая их в простые и понятные концепции...

Сравнение реализаций WGAN (WGAN-GP и WGAN-SN)
WGAN - это тип сети, используемый для создания поддельных высококачественных изображений из входного вектора. В этом эксперименте я реализовал два различных улучшения WGAN в Pytorch, чтобы увидеть, какое из них может работать лучше всего с точки зрения скорости и качества сгенерированных изображений. (Github: https://github.com/BradleyBrown19/WGANOptimizations ). Что такое WGAN? Я предполагаю, что ранее знакомы с GAN, поэтому рекомендую прочитать следующее, если вы не знакомы:..

Ускоренный курс PyTorch, часть 3
СТАТЬЯ Ускоренный курс PyTorch, часть 3 Из Глубокое обучение с PyTorch Эли Стивенса и Луки Антиги __________________________________________________________________ Получите скидку 37 % на Углубленное обучение с PyTorch . Просто введите код fccstevens в поле с промокодом на скидку при оформлении заказа на manning.com . ________________________________________________________________________________ В этой статье мы исследуем некоторые возможности PyTorch, играя в..

Последняя неделя ключевой концепции нейронной сети
10/08/2021 Сегодня мы продолжим глубокую нейронную сеть. После того, как я узнал о том, как глубокая нейронная сеть работает для прямого распространения, нотации и формы для каждого параметра и смещения. Пришло время объединить все блоки вместе и посмотреть, как мы строим нейронную сеть от прямого распространения к обратному. Мы уже упоминали общее уравнение и веторизированное уравнение для прямого распространения. Довольно легко создать цикл for для повторения каждого скрытого слоя...

PyTorch и GAN: Микроучебник
Создание простейшей сети GAN в PyTorch Я долго делал GAN в TensorFlow / Keras . Честно говоря, слишком долго, потому что изменить сложно. Это потребовало некоторой убедительности, но в конце концов я укусил пулю и переключился на PyTorch. К сожалению, большинство руководств по PyTorch GAN, с которыми мне приходилось сталкиваться, были чрезмерно сложными, сосредоточены больше на теории GAN, чем на применении, или, как ни странно, не имели смысла. Чтобы исправить это, я..

Это великий PumpGAN, Чарли Браун | Блог | Точный
Окунитесь в хэллоуинский дух GAN с этим учебным пособием по генератору тыкв (Генеративное состязательное обучение. Синие линии обозначают поток входных данных, зеленые — выходные данные, а красные — сигналы ошибок.) Генеративно-состязательные сети, или сокращенно GAN, являются одной из самых захватывающих областей глубокого обучения, появившихся за последние 10 лет. Это, в частности, утверждает Янн ЛеКун из MNIST и известный специалист по обратному распространению. Быстрый..