Публикации по теме 'gradient-descent'


Машинное обучение с учителем линейной регрессии
Сегодня мы поговорим о линейной регрессии контролируемого машинного обучения. Прежде всего, что такое контролируемое машинное обучение? Обучение с учителем, также известное как машинное обучение с учителем, является подкатегорией «машинного обучения и искусственного интеллекта . Он определяется использованием размеченных наборов данных для обучения алгоритмов, позволяющих точно классифицировать данные или прогнозировать результаты», — IBM Его можно разделить на два типа проблем:..

Машинное обучение с линейной регрессией и приличным градиентом, часть 4 (КОД !!)
Итак, мы отправились в таинственное путешествие линейной регрессии и градиентного приличного, это было сложно, и я хорошо понимаю, что это заканчивается в этой части, где я превращаю математику в код, как волшебство, ну правда всего этого в том, что большинство проблем с машинным обучением обычно решаются с помощью библиотек, таких как numpy keras и tenserflow, библиотеки, подобные этой, помогают с некоторыми очень глубокими абстракциями, и давайте будем честны, если вы попросите кого-то..

Введение в нейронные сети
В этой записной книжке вы узнаете, как создать и использовать нейронную сеть для классификации предметов одежды. Для этого мы будем использовать подмодуль TensorFlow под названием keras . Керас Прежде чем мы углубимся в обсуждение нейронных сетей, я хотел бы кратко рассказать о keras. Из официальной документации keras ( https://keras.io/ ) keras описывается следующим образом. «Keras - это высокоуровневый API нейронных сетей, написанный на Python и способный работать поверх..

БЫСТРОЕ ПУТЕШЕСТВИЕ С ИИ: КУРС V3. ЧАСТЬ 2. УРОК 11.
Документирование моего пути к fast.ai: ОБЗОР БУМАГИ. СОКРАЩЕНИЕ ВРЕМЕНИ ПРЕДТРЕНИРОВКИ BERT С 3 ДНЕЙ ДО 76 МИНУТ. Для проекта Урок 11 я решил погрузиться в статью 2019 года под названием Сокращение времени предварительной подготовки к BERT с 3 дней до 76 минут , написанную Yang You , Jing Li , Джонатан Сю , Сяодань Сун , Джеймс Деммель , Чо-Джуй Се . Как всегда в этих сериях, наша цель — пройти все разделы один за другим, понять и обобщить их. 1. Введение. Авторы..

В глубины градиентного спуска
Это сообщение написано в соавторстве с Animesh Tiwari . « Градиентный спуск - это итерационный алгоритм оптимизации первого порядка для поиска минимума функции. ” Градиентный спуск - один из самых популярных алгоритмов оптимизации и, безусловно, самый распространенный способ оптимизации нейронных сетей. Его часто используют как «оптимизатор черного ящика» , но хорошее понимание различных вариантов и математики, стоящей за ними, часто бывает полезным. Градиентный спуск может очень..

Градиентный спуск - Введение и реализация на Python
Вступление Градиентный спуск - это алгоритм оптимизации в машинном обучении, используемый для минимизации функции путем итеративного движения к минимальному значению функции. Мы в основном используем этот алгоритм, когда нам нужно найти наименьшие возможные значения, которые могут удовлетворить заданную функцию стоимости. В машинном обучении мы чаще всего пытаемся минимизировать функции потерь (например, Среднеквадратичная ошибка ). Минимизируя функцию потерь, мы можем улучшить..

БЫСТРОЕ ПУТЕШЕСТВИЕ AI: КУРС V3. ЧАСТЬ 2. УРОК 9.
Документирование моего путешествия в fast.ai: ОБЗОР БУМАГИ. ВСЕ, ЧТО ВАМ НУЖНО - ХОРОШЕЕ НАЧАЛО. В рамках проекта Урок 9 я решил погрузиться в статью 2015 года под названием Все, что вам нужно, это хорошая инициализация , написанные Дмитрием Мишкиным , Иржи Матас , которая была опубликована как доклад на конференции ICLR 2016. Авторы выложили код здесь . Наша цель здесь - пройти все разделы один за другим, понять и обобщить их. Отказ от ответственности: как и в предыдущем..