Публикации по теме 'gradient-descent'
Методы математической оптимизации для машинного обучения
*Эта статья состоит из 2 частей (текстовый документ и примеры кода), примеры кода по методам доступны по этой ссылке: https://github.com/alevalve/Optimization_ML_Methods
Введение
Математика – это область, которая представлена во всех аспектах жизни человека. С начала первых математических теорем, созданных Архимедом, Платоном, Пифагором, до новейших математиков, таких как Ньютон и Лейбниц.
Однако с последних 3 столетий и по сей день математика играет ключевую роль в развитии..
Самообучающиеся компьютеры и вакцина от COVID-19, которую вы получаете
В этой статье объясняется механизм машинного обучения и его уникальное положение для помощи в открытии лекарств.
Нет, вакцина от COVID — это не уловка для вживляемых микрочипов и не средство превратить нас в генетически модифицированные организмы. Но у него есть менее зловещий, более увлекательный механизм с искусственным интеллектом в основе. Прежде чем я углублюсь в детали разработки вакцины, необходимо ответить на один фундаментальный вопрос.
Как машины учатся?
Этот вопрос кажется..
Глубокая нейронная сеть: прямое и обратное распространение
В этой статье я расскажу о шагах, связанных с решением задачи бинарной классификации с использованием глубокой нейронной сети, имеющей L слоев. Если вы новичок в нейронных сетях, я бы посоветовал сначала прочитать эту статью , где я обсуждал нейронную сеть с одним нейроном.
Входные данные X имеют размер (n𝕩, m), где n𝕩 — количество признаков, а m — количество выборок. Выход Y имеет размер (1, m).
Количество нейронов в слое l обозначается как n⁽ˡ⁾.
Мы будем использовать функцию..
Решение упражнений [Глава 4: Модели обучения]…
Глава 4: Модели обучения
1. Какой обучающий алгоритм линейной регрессии вы можете использовать, если у вас есть обучающий набор с миллионами функций?
Как нормальное уравнение, так и подход с разложением по сингулярным значениям (SVD) становятся очень медленными, когда количество признаков становится большим (например, 100 000). Тем не менее, Gradient Descent хорошо масштабируется с количеством функций; обучение модели линейной регрессии, когда есть сотни тысяч функций, намного..
Алгоритм градиентного спуска для детей: самое интуитивно понятное объяснение
Представьте, что у вас есть большой холм, и вы хотите добраться до его основания. Градиентный спуск похож на поиск наилучшего способа спускаться с холма шаг за шагом.
Теперь давайте поговорим о различных типах градиентного спуска:
⭕Пакетный градиентный спуск: представьте, что у вас есть группа друзей, и вы все хотите вместе спуститься с горы. При пакетном градиентном спуске вы смотрите на весь холм, вычисляете уклон (насколько он крутой) во всех направлениях, а затем делаете..
Масштабирование ваших функций
Масштабирование - важный процесс проектирования функций.
С помощью масштабирования мы стараемся привести наши данные в один и тот же диапазон.
Некоторые типы методов масштабирования:
· Шкала мин-макс : (от 0 до 1)
X = (X-мин. Из X) / Диапазон
· Стандартизация : (диапазон -3 и 3)
Z = (X-среднее X) / (Стандартное отклонение X)
· Десятичное масштабирование (от -1 до 1)
X = X /(10^d)
d = количество цифр
то есть для значения, скажем, 4997, d = 4
поэтому X / (10⁴) = 0,4..
Градиентный спуск в машинном обучении
Краткое и ясное введение
Что такое градиент?
Начнем с очевидного первого вопроса: что такое градиент? Если вы давно не посещали курс исчисления в третьем семестре (мой случай) или вообще не знакомы с исчислением, я дам краткое объяснение. Если вы уже знакомы с этими концепциями, пожалуйста, пропустите эту статью.
Градиент означает изменение всех весов с учетом изменения ошибки. Это также может выглядеть просто как наклон функции. Чем выше градиент, тем круче наклон и тем быстрее..