Сюзън Милър ме информира, че може да се пробвам в областта на изкуствения интелект. Мисля, че специализацията е дълъг път и междувременно прескачането през масиви от знания се оказва забавно! Април се обяви за месец на науката за данните, както и забавната част от него! Това не означава, че предварителната обработка не може да бъде забавна - не харесвам термина почистване на данни, сякаш данните не казват истината - но копаенето може да стане ненужно дълбоко. Миналата седмица си зададох въпроса: „Кое е най-малкото количество предварителна обработка, което мога да направя, за да се чувствам комфортно с използването на тези данни като вход?“ (Всъщност казах да се чувствам комфортно с моделирането на тези данни, след което моят ръководител ме посъветва, че извличането на характеристики не е моделиране, например. Но има нужда от модел, така че моделирането?). Мисля, че този въпрос ми даде връх в това, което е зад завесата, но наистина получих пълното шоу миналата седмица в петък на конференцията Deep Learning Indaba X, организирана в UCT.

Бях толкова впечатлен от мащаба на организацията, която влезе в това събитие, и енергията на всички лектори остана толкова последователна през цялото време. И така, най-важният акцент на деня беше лекцията за квантовите изчисления от д-р Исмаил Akhalwaya. Преди да говоря за това, просто искам да ви покажа един цитат, който намерих на неговата уеб страница на IBM:

„...изследванията му за докторантура го научиха на две важни често липсващи съставки за академичен напредък: радостта и благоговението от структурираното знание и бавен, постепенен и задълбочен подход към разбирането и в крайна сметка разширяването на тази структура.“

Къде бяхме? Добре квантово изчисление! Той премина през разбирането от феномена вълна/светлина до Копенхагенската интерпретация за разделяне на лъча до заплитане. Чувствах се толкова благодарен за онези няколко глави от Грифитс, които бях прочел, и за 6 седмици квантова механика, за да имам по-истинска оценка за спектакъла, който е квантовото поведение. Мисля, че инженерството на квантовите компютри е нещо почти напълно отделно от теорията, но това е мястото, където живеем - в пресечната точка на прекрасни научни търсения. Така че това, което трябва да знаете е, че IBM Q Experience ще ви позволи да имате достъп до техните 5 qubit квантови компютри! КАКВО! Това е страхотно — публикация в блога, която следва. Можете да намерите видеоклиповете в YouTube.

Чакай чакай има още. Миналата седмица д-р Bubacarr Bah и AIMS бяха домакини на семинар за наука за данни. Още по-цветни, сложни, нелинейни, сложни, многоизмерни алгоритми и някои важни бележки за невронните мрежи:

  • Теоремата за съществуване ни казва, че всяка непрекъсната функция с добро поведение в компактна област може да бъде изразена като претеглена нелинейна функция, действаща върху афинна трансформация. Това означава, че всяка функция може да бъде апроксимирана от 3-слойна изкуствена невронна мрежа. Така че защо имаме тези дълбоки структури? Броят на необходимите неврони в скрития слой може да бъде експоненциално голям и множеството скрити слоеве намаляват размерността.
  • Линейната алгебра може да помогне за справяне с големи размери, а нелинейността е сферата на смятането. Невронните мрежи са изградени да се справят с голяма размерност и използване на нелинейност.
  • Функцията за квадратна грешка се влияе до голяма степен от отклонения! Може би не е най-добрата функция за грешка.
  • Функцията за активиране на tanh е линейна около малки тегла (инициализация), което помага да се осигури глобална конвергенция.

Благодаря на д-р Ханс Георг-Цимерман за тях.

Благодарим на д-р Bubacarr Bah и екипа на AIMS за Workshop за Data Science.

И благодаря на екипа на Deep Learning Indaba X.

Конволюционни невронни мрежи за класификация на времеви редове Някой?