Публикации по теме 'hyperparameter-tuning'


Максимизация производительности модели: пошаговое руководство по настройке гиперпараметров
Что такое гиперпараметры? Гиперпараметры — это параметры, которые не извлекаются непосредственно из обучающих данных в процессе обучения модели машинного обучения, а задаются перед началом обучения. Они контролируют поведение алгоритма обучения и могут оказать существенное влияние на производительность модели. Гиперпараметры часто задаются пользователем или выбираются методом проб и ошибок, и они могут включать в себя такие параметры, как скорость обучения, размер пакета, сила..

Лучшие методы оптимизации для повышения производительности модели машинного обучения — Часть 1
После многих моих статей, посвященных данным, в этой статье мы увидим различные методы оптимизации, доступные инженерам машинного обучения, как их использовать и в каких сценариях использовать какой метод оптимизации. Эта история будет немного интенсивной ML ... наслаждайтесь чтением. Введение: Что такое оптимизация в машинном обучении? В контексте машинного обучения оптимизация относится к процессу поиска наилучшего набора параметров модели или гиперпараметров, которые..

Настройка гиперпараметров для ансамблей моделей машинного обучения
небольшое исследование для красивой оптимизации Привет всем! Давайте поговорим о настройке гиперпараметров в обучении ансамбля (в основном, смешивании). В таких ансамблях прогнозы одной модели машинного обучения становятся прогнозами для другой (следующего уровня). На рисунке ниже показаны некоторые варианты ансамблей, в которых данные передаются слева направо. Такие ансамбли в этом посте также будут называться конвейерами или составными моделями (составными конвейерами)...

Пошаговое руководство по байесовской оптимизации: подход на основе Python
Создание основы: реализация байесовской оптимизации в Python Байесовская оптимизация — это метод, используемый для глобальной (оптимальной) оптимизации функций черного ящика. Черный ящик — это система, внутренняя работа которой наблюдателю неизвестна. Он может иметь доступ только к входам и выходам системы, но не знает, как система достигает выходов на основе входов. В контексте оптимизации функция черного ящика относится к целевой функции. Для иллюстрации рассмотрим функцию..

Неделя 7 — Отслеживание взгляда и предварительные знания
Альпер Озонер и Али Утку Айдын На этой неделе мы использовали алгоритм поиска по сетке для SVM и RF, чтобы найти гиперпараметры и завершить нашу работу по курсу AIN311. Поиск по сетке для настройки гиперпараметров Чтобы найти лучшие параметры, мы использовали алгоритм поиска по сетке, который перебирает наши входные данные как гиперпараметры в моделях. Поскольку мы используем LOOCV, этот алгоритм работает; он использует 17 раз для набора данных из-за точек данных и принимает столько..

100-кратное ускорение CatBoost для больших наборов данных
Объедините методы ускорения обучения с использованием графического процессора и процессора. Я уже публиковал два поста об ускорении обучения CatBoost. Ускорение обучения с помощью графического процессора: В 10 раз быстрее скорость обучения CatBoost с графическим процессором NVIDIA Ускорение обучения с учетом ЦП: Советы по ускорению обучения ЦП CatBoost

Тюнер LightGBM: новая интеграция Optuna для оптимизации гиперпараметров
В этой статье мы познакомим вас с LightGBM Tuner в Optuna , фреймворке для оптимизации гиперпараметров, специально разработанном для машинного обучения. LightGBM Tuner - это один из модулей интеграции Optuna для оптимизации гиперпараметров LightGBM. Использовать LightGBM Tuner просто. Вы используете LightGBM Tuner, изменяя одну инструкцию импорта в вашем коде Python. Используя экспертную эвристику, LightGBM Tuner позволяет настраивать гиперпараметры за меньшее время, чем раньше. Во..