Имаме задълбочени познания, че комплектните модели се представят по-добре от основните модели. В този случай има различни начини за трансформиране на слаби или основни модели в ефективен модел.

Тук ще обсъдим най-широко използваните методи, които са Bagging и Boosting. Тези два метода формират основата за повечето печеливши модели с високо качество.

Първо, нека разберем какво е обучение в ансамбъл?

Думата „ансамбъл“ буквално означава групиране или натрупване. В контекста на машинното обучение това просто означава, че ние обучаваме нашите данни с различни индивидуални модели и след това комбинираме всичките им резултати, за да произведем един резултат. С прости думи,комбинира прогнозите на много модели, за да постигне по-добро представяне.

Преди да навлезем в опаковане и усилване, нека се запознаем с някои терминологии,

Методи на паралелен ансамбъл

Паралелните методи са методи, при които основните учащи се обучават по паралелен начин. Ние използваме различни базови обучаеми, за да ги обучаваме всички паралелнои комбинираме техните индивидуални прогнози до един резултат.

Методи на последователен ансамбъл

Това е метод, при който базовите обучаеми се обучават един по един, при което най-скорошният обучаем се учи от предишния си модел и се опитва да поправи грешкитедопуснати в предишни обучения. Това е нещо подобно на получаване на обратна връзка от по-ранния обучаем, за да се подобри работното представяне на следващия обучаем

Пакетиране

За да започнем с опаковането, нека го проучим от самия термин „опаковане“. Пакетирането е един от методите за паралелен ансамбъл. При този метод всеки път се генерира подизвадка от набор от данни за обучение с фиксиран размер и се използва като набор за обучение за отделни обучаеми.

Bagginging приема Bootstrap Aggregation. Това е процедура за комбиниране на резултати от различни модели, използвайки различни набори за обучение. Той генерира проби за обучение чрез първоначално извадка.

Bootstrap вземането на проби е начин за генериране на различни подизвадки от оригиналните данни за обучение с някакъв размер „m“ със заместване и еднаква вероятност. Терминът „със заместване“ означава, че броят пъти, когато даден ред е избран, може да бъде нула, един или няколко пъти в едно и също подмножество за обучение (тъй като вече избраните редове също се поставят в оригиналния набор от данни след заместване).

Тези различни извадки от данни се използват от различни обучаеми за обучение и прогнозите се натрупват до крайната. Пакетирането обикновено се използва, за да се избегне претоварването. Тойнамалява отклонениетои по този начин предотвратява пренастройването.

Пример: Случайният горски регресор е разширение на процеса на пакетиране.

Подсилване

Повишаването идва от методите на последователния ансамбъл, където един обучаем се учи от другия. Започва с основен слаб учащ се и след това е последван от други учащи, които настройват теглото си съответно, за да минимизират стойностите на грешките.

За да го разберем просто от термина, той стимулира слабите учащи се да дадат по-добри резултати.

Първо, нашият основен обучаем се обучава с данните и теглата, присвоени на всяка функция, се коригират или модифицират в следващия модел въз основа на предишните резултати. Характеристиките, на които се придава по-малко значение, могат да бъдат присвоени по-високи тегла и относителните промени могат да бъдат извършени чрез процеса на обучение чрез следните модели и след това се получава краен резултат с по-добро представяне.

За да го разберем по-добре, този процес на обучение прилича на верижна структура, където грешките на всеки предишен модел определят промените в следващите модели.

Техниките за усилване обикновено се приемат, за да се избегне недостатъчно оборудване. Той намалява отклонениетои по този начин насърчава преодоляването на недостатъчното приспособяване на данните.

Пример: Gradient Boost, Extreme Gradient Boost, Ada Boost — всички те следват процедурата за усилване.

Насладете се на AI!