Свързани публикации 'hyperparameter-tuning'


Максимизиране на производителността на модела: Ръководство стъпка по стъпка за настройка на хиперпараметър
Какво представляват хипер параметрите? Хиперпараметрите са параметри, които не се научават директно от данните за обучение по време на процеса на обучение на модел за машинно обучение, а вместо това се задават преди началото на обучението. Те контролират поведението на алгоритъма за обучение и могат да имат значително влияние върху производителността на модела. Хиперпараметрите често се задават от потребителя или се избират чрез процес на проба и грешка и могат да включват неща като..

Най-добрите техники за оптимизация, за да постигнете ефективност на ML модела — Част-1
След много от моите статии с интензивни данни, в тази история ще видим различни техники за оптимизация, които са достъпни за ML инженерите, как да ги използват и какви са сценариите за използване на коя техника за оптимизация. Тази история ще бъде малко ML интензивна..приятно четене. Въведение: Какво е оптимизация в ML? В контекста на машинното обучение оптимизацията се отнася до процеса на намиране на най-добрия набор от параметри на модела или хиперпараметри, които..

Настройка на хиперпараметри за ансамбли от модели за машинно обучение
малко проучване за добра оптимизация здравейте на всички! Нека да поговорим за настройка на хиперпараметри в ансамбълното обучение (предимно смесване). В такива ансамбли прогнозите от един модел на машинно обучение стават предиктори за друг (следващо ниво). Фигурата по-долу показва някои варианти на ансамбли, при които данните се прехвърлят отляво надясно. Такива ансамбли също ще бъдат наричани тръбопроводи или композитни модели (композитни тръбопроводи) в тази публикация...

Ръководство стъпка по стъпка за байесова оптимизация: базиран на Python подход
Изграждане на основата: Внедряване на байесова оптимизация в Python Бейсовата оптимизация е техника, използвана за глобална (оптимална) оптимизация на функциите на черната кутия. Черната кутия е система, чиято вътрешна работа е неизвестна на наблюдателя. Тя може да има достъп само до входовете и изходите на системата, но не знае как системата достига до изходи въз основа на входовете. В контекста на оптимизацията функцията на черната кутия се отнася до целева функция. За да..

Седмица 7— Проследяване на очите и предварителни знания
от Alper Özöner и Ali Utku Aydın През тази седмица използвахме алгоритъма за търсене в мрежа за SVM и RF, за да намерим хиперпараметри и да завършим работата си за курса AIN311. Търсене в мрежа за настройка на хиперпараметър За да намерим най-добрите параметри, използвахме алгоритъм за търсене в мрежа, който обхожда нашите входове като хиперпараметри в моделите. Тъй като използваме LOOCV, този алгоритъм работи; той използва 17 пъти за набор от данни поради точки от данни и отнема..

100 пъти CatBoost ускорение за големи набори от данни
Комбинирайте както GPU, така и CPU методи за ускоряване на обучението Вече публикувах две публикации относно ускоряването на обучението с CatBoost. Ускоряване на обучението чрез GPU: 10 пъти по-бърза скорост на обучение CatBoost с NVIDIA GPU Ускоряване на обучението по отношение на процесора: CatBoost CPU Training Speedup Tricks

Все още ли използвате търсене в мрежа за оптимизиране на хиперпараметри?
Нека обсъдим идеите зад това как да търсите по интелигентен начин хиперпараметрите за вашите модели за машинно обучение. Когато обучаваме модел за машинно обучение, трябва да направим някои избори, от кой модел да използваме, как да подготвим нашия набор от данни, как да се справим с отклоненията и т.н. Един от изборите са хиперпараметрите; това са параметрите, които контролират процеса на обучение, но не могат да бъдат получени от самото обучение. Някои примери са: Скоростта на..