Свързани публикации 'gradient-descent'


Машинно обучение, контролирано от линейна регресия
Днес ще обсъдим линейната регресия на контролираното машинно обучение. Първо, какво е контролирано машинно обучение? „Контролираното обучение, известно още като контролирано машинно обучение, е подкатегория на „машинно обучение“ и „изкуствен интелект“. Дефинира се чрез използването на етикетирани набори от данни за обучение на алгоритми, които да класифицират данни или да предсказват точно резултатите” -IBM Може да се раздели на два вида проблеми: Ще говорим за линейна регресия...

Машинно обучение с линейна регресия и приличен градиент част 4 (КОДЪТ!!)
И така, ние се впуснахме в това мистериозно пътешествие на линейна регресия и градиент, прилично беше трудно и разбирам, че стига и завършва в тази част, когато превърнах математиката в код като магия, истината за всичко това е, че повечето проблеми с машинното обучение обикновено се решават с библиотеки като numpy keras и tenserflow, библиотеки като тази помагат с някои много дълбоки абстракции и нека бъдем честни, ако помолите някой като мен да направи някои неща без тези библиотеки,..

Въведение в невронните мрежи
В този бележник ще научите как да създавате и използвате невронна мрежа за класифициране на дрехи. За да постигнем това, ще използваме подмодул на TensorFlow, наречен keras . Керас Преди да се потопим и да започнем да обсъждаме невронните мрежи, бих искал да направя кратко въведение в keras. От официалната документация на keras ( https://keras.io/ ) keras е описан по следния начин. „Keras е API за невронни мрежи от високо ниво, написан на Python и способен да работи върху..

БЪРЗО AI ПЪТУВАНЕ: КУРС V3. ЧАСТ 2. УРОК 11.
Документиране на моето пътуване с fast.ai: ПРЕГЛЕД НА ХАРТИЯ. НАМАЛЯВАНЕ НА ВРЕМЕТО ЗА ПРЕДВАРИТЕЛНО ОБУЧЕНИЕ НА BERT ОТ 3 ДНИ НА 76 МИНУТИ. За проекта Урок 11 реших да се потопя в документа от 2019 г., наречен Намаляване на времето за предварително обучение за BERT от 3 дни на 76 минути , от Yang You , Jing Li , Jonathan Hseu , Xiaodan Song , James Demmel , Cho-Jui Hsieh . Както винаги по време на тези серии, нашата цел е да преминем през всички раздели един по един, като ги..

В дълбините на градиентното спускане
Тази публикация е в съавторство с Animesh Tiwari . „ Градиентно спускане е алгоритъм за итеративна оптимизация от първи ред за намиране на минимума на функция. ” Градиентното спускане е един от най-популярните алгоритми за извършване на оптимизация и най-често срещаният начин за оптимизиране на невронни мрежи. Често се използва като „оптимизатори на черни кутии“ но доброто вникване в различни варианти и математика зад тях често е полезно. Gradient Descent може много добре да..

Gradient Descent — Въведение и внедряване в python
Въведение Gradient Descent е алгоритъм за оптимизация в машинното обучение, използван за минимизиране на функция чрез итеративно придвижване към минималната стойност на функцията. Основно използваме този алгоритъм, когато трябва да намерим най-малко възможните стойности, които могат да задоволят дадена функция на разходите. В машинното обучение по-често се опитваме да минимизираме функциите за загуба (като средна квадратна грешка ). Като минимизираме функцията за загуба, можем..

БЪРЗО AI ПЪТУВАНЕ: КУРС V3. ЧАСТ 2. УРОК 9.
Документиране на моето пътуване с fast.ai: ПРЕГЛЕД НА ХАРТИЯ. ВСИЧКО, ОТ КОЕТО СЕ НУЖДАВАТЕ, Е ДОБЪР ИНИТ. За проекта Lesson 9 реших да се потопя в документа от 2015 г., наречен Всичко, от което се нуждаете, е добър инициал , от Dmytro Mishkin , Jiri Matas , който беше публикуван като конферентен доклад на ICLR 2016 г. Авторите са направили кода достъпен тук . Нашата цел тук е да преминем през всички раздели един по един, като ги разберем и обобщим. Отказ от отговорност: Както..