Публикации по теме 'gradient-descent'
Машинное обучение с учителем линейной регрессии
Сегодня мы поговорим о линейной регрессии контролируемого машинного обучения. Прежде всего, что такое контролируемое машинное обучение?
Обучение с учителем, также известное как машинное обучение с учителем, является подкатегорией «машинного обучения и искусственного интеллекта . Он определяется использованием размеченных наборов данных для обучения алгоритмов, позволяющих точно классифицировать данные или прогнозировать результаты», — IBM
Его можно разделить на два типа проблем:..
Машинное обучение с линейной регрессией и приличным градиентом, часть 4 (КОД !!)
Итак, мы отправились в таинственное путешествие линейной регрессии и градиентного приличного, это было сложно, и я хорошо понимаю, что это заканчивается в этой части, где я превращаю математику в код, как волшебство, ну правда всего этого в том, что большинство проблем с машинным обучением обычно решаются с помощью библиотек, таких как numpy keras и tenserflow, библиотеки, подобные этой, помогают с некоторыми очень глубокими абстракциями, и давайте будем честны, если вы попросите кого-то..
Введение в нейронные сети
В этой записной книжке вы узнаете, как создать и использовать нейронную сеть для классификации предметов одежды. Для этого мы будем использовать подмодуль TensorFlow под названием keras .
Керас
Прежде чем мы углубимся в обсуждение нейронных сетей, я хотел бы кратко рассказать о keras.
Из официальной документации keras ( https://keras.io/ ) keras описывается следующим образом.
«Keras - это высокоуровневый API нейронных сетей, написанный на Python и способный работать поверх..
БЫСТРОЕ ПУТЕШЕСТВИЕ С ИИ: КУРС V3. ЧАСТЬ 2. УРОК 11.
Документирование моего пути к fast.ai: ОБЗОР БУМАГИ. СОКРАЩЕНИЕ ВРЕМЕНИ ПРЕДТРЕНИРОВКИ BERT С 3 ДНЕЙ ДО 76 МИНУТ.
Для проекта Урок 11 я решил погрузиться в статью 2019 года под названием Сокращение времени предварительной подготовки к BERT с 3 дней до 76 минут , написанную Yang You , Jing Li , Джонатан Сю , Сяодань Сун , Джеймс Деммель , Чо-Джуй Се .
Как всегда в этих сериях, наша цель — пройти все разделы один за другим, понять и обобщить их.
1. Введение.
Авторы..
В глубины градиентного спуска
Это сообщение написано в соавторстве с Animesh Tiwari .
« Градиентный спуск - это итерационный алгоритм оптимизации первого порядка для поиска минимума функции. ”
Градиентный спуск - один из самых популярных алгоритмов оптимизации и, безусловно, самый распространенный способ оптимизации нейронных сетей. Его часто используют как «оптимизатор черного ящика» , но хорошее понимание различных вариантов и математики, стоящей за ними, часто бывает полезным. Градиентный спуск может очень..
Градиентный спуск - Введение и реализация на Python
Вступление
Градиентный спуск - это алгоритм оптимизации в машинном обучении, используемый для минимизации функции путем итеративного движения к минимальному значению функции.
Мы в основном используем этот алгоритм, когда нам нужно найти наименьшие возможные значения, которые могут удовлетворить заданную функцию стоимости. В машинном обучении мы чаще всего пытаемся минимизировать функции потерь (например, Среднеквадратичная ошибка ). Минимизируя функцию потерь, мы можем улучшить..
БЫСТРОЕ ПУТЕШЕСТВИЕ AI: КУРС V3. ЧАСТЬ 2. УРОК 9.
Документирование моего путешествия в fast.ai: ОБЗОР БУМАГИ. ВСЕ, ЧТО ВАМ НУЖНО - ХОРОШЕЕ НАЧАЛО.
В рамках проекта Урок 9 я решил погрузиться в статью 2015 года под названием Все, что вам нужно, это хорошая инициализация , написанные Дмитрием Мишкиным , Иржи Матас , которая была опубликована как доклад на конференции ICLR 2016. Авторы выложили код здесь .
Наша цель здесь - пройти все разделы один за другим, понять и обобщить их.
Отказ от ответственности: как и в предыдущем..