Публикации по теме 'hyperparameter-tuning'
Максимизация производительности модели: пошаговое руководство по настройке гиперпараметров
Что такое гиперпараметры?
Гиперпараметры — это параметры, которые не извлекаются непосредственно из обучающих данных в процессе обучения модели машинного обучения, а задаются перед началом обучения. Они контролируют поведение алгоритма обучения и могут оказать существенное влияние на производительность модели.
Гиперпараметры часто задаются пользователем или выбираются методом проб и ошибок, и они могут включать в себя такие параметры, как скорость обучения, размер пакета, сила..
Лучшие методы оптимизации для повышения производительности модели машинного обучения — Часть 1
После многих моих статей, посвященных данным, в этой статье мы увидим различные методы оптимизации, доступные инженерам машинного обучения, как их использовать и в каких сценариях использовать какой метод оптимизации. Эта история будет немного интенсивной ML ... наслаждайтесь чтением.
Введение:
Что такое оптимизация в машинном обучении?
В контексте машинного обучения оптимизация относится к процессу поиска наилучшего набора параметров модели или гиперпараметров, которые..
Настройка гиперпараметров для ансамблей моделей машинного обучения
небольшое исследование для красивой оптимизации
Привет всем! Давайте поговорим о настройке гиперпараметров в обучении ансамбля (в основном, смешивании). В таких ансамблях прогнозы одной модели машинного обучения становятся прогнозами для другой (следующего уровня). На рисунке ниже показаны некоторые варианты ансамблей, в которых данные передаются слева направо. Такие ансамбли в этом посте также будут называться конвейерами или составными моделями (составными конвейерами)...
Пошаговое руководство по байесовской оптимизации: подход на основе Python
Создание основы: реализация байесовской оптимизации в Python
Байесовская оптимизация — это метод, используемый для глобальной (оптимальной) оптимизации функций черного ящика.
Черный ящик — это система, внутренняя работа которой наблюдателю неизвестна. Он может иметь доступ только к входам и выходам системы, но не знает, как система достигает выходов на основе входов. В контексте оптимизации функция черного ящика относится к целевой функции.
Для иллюстрации рассмотрим функцию..
Неделя 7 — Отслеживание взгляда и предварительные знания
Альпер Озонер и Али Утку Айдын
На этой неделе мы использовали алгоритм поиска по сетке для SVM и RF, чтобы найти гиперпараметры и завершить нашу работу по курсу AIN311.
Поиск по сетке для настройки гиперпараметров
Чтобы найти лучшие параметры, мы использовали алгоритм поиска по сетке, который перебирает наши входные данные как гиперпараметры в моделях. Поскольку мы используем LOOCV, этот алгоритм работает; он использует 17 раз для набора данных из-за точек данных и принимает столько..
100-кратное ускорение CatBoost для больших наборов данных
Объедините методы ускорения обучения с использованием графического процессора и процессора.
Я уже публиковал два поста об ускорении обучения CatBoost.
Ускорение обучения с помощью графического процессора: В 10 раз быстрее скорость обучения CatBoost с графическим процессором NVIDIA Ускорение обучения с учетом ЦП: Советы по ускорению обучения ЦП CatBoost
Тюнер LightGBM: новая интеграция Optuna для оптимизации гиперпараметров
В этой статье мы познакомим вас с LightGBM Tuner в Optuna , фреймворке для оптимизации гиперпараметров, специально разработанном для машинного обучения.
LightGBM Tuner - это один из модулей интеграции Optuna для оптимизации гиперпараметров LightGBM. Использовать LightGBM Tuner просто. Вы используете LightGBM Tuner, изменяя одну инструкцию импорта в вашем коде Python. Используя экспертную эвристику, LightGBM Tuner позволяет настраивать гиперпараметры за меньшее время, чем раньше. Во..