Повечето открития в медицината са кръстени на хора, които са ги открили. Наричат ​​се „епоними“ и правят изучаването на медицина абсурдно по-трудно. Просто погледнете този списък на всички болести, кръстени на хора и ще разберете, че борбата е реална.

Погледнете например електронномикроскопската структура на този органел.

Ако същият човек, който го беше кръстил Уоки Токи, го беше кръстил, щеше да го нарече Джигли Уигли или нещо подобно. Но той беше открит от професор Камило Голджи и той го нарече апарата на Голджи.

Не че се оплаквам.

Но едно фундаментално нещо, което тази тенденция предава е, че ако сте достатъчно умен, за да наблюдавате нещо, което други хора все още не са наблюдавали, името ви ще бъде гравирано в органела, синдром или болест.

Когато някой е диагностициран с рак, се взема проба от тумора и хистолозите разчитат най-вече на това, което четат от учебниците, за да открият определени показатели в пробите, които наблюдават под микроскоп, за да определят какъв вид рак е. Тези показатели и характеристики обикновено се откриват от „наистина наблюдателни“ учени.

Можем да направим по-добре, отколкото просто да чакаме наистина наблюдателен учен да докладва следващия най-важен индикатор за откриване на такива заболявания. Нечий живот зависи от това.

Влезте в Deep Learning!

Дълбоко обучение за диагностика

И двамата ми родители са офталмолози. Виждал съм много лагери и кампании за скрининг на хора с диабет за заболяване на очите, наречено диабетна ретинопатия.

В един от нашите изследователски проекти захранихме модели на Deep Learning със снимки на ретината, направени с помощта на специална камера, и ги обучихме да идентифицират на какъв етап от диабетна ретинопатия се намира.

Свърши доста добра работа. Google направи някои „пионерски изследвания“ по същия начин и дори беше постигнал свръхчовешка точност на откриване.

Ние обучихме конволюционна невронна мрежа с етикетиран набор от данни, получен от състезание за „откриване на диабетна ретинопатия“.

Нашата мрежова архитектура не беше нищо необичайно. Просто копирайте и вмъкнете код от обучената Inception Network на Google и след това „преквалифицирайте последния слой на мрежата“ на нашия набор от данни, за да го настроите фино, за да откривате етапи на диабетна ретинопатия вместо котки и кучета.

Мрежата се справи наистина добре със задачата за класификация. Но тук нещата станаха интересни. Искахме да видим какво всъщност е научила мрежата, за да направи това.

Задълбочено обучение за открития

Дълбоките конволюционни невронни мрежи винаги са имали тази „черна кутия“ като чувство за привързаност към тях. Те правят това, което правят наистина добре, но никой не разбира как го правят. Сякаш знаем, че хората могат да измислят нови идеи, но не разбираме точно невронните механизми за това.

За да се придобие перспектива за това какво е научил алгоритъмът за задълбочено обучение, имаше различни опити преди това. Един от популярните, който също е скандално зловещ, е „алгоритъмът Deep Dream“.

Например, вземете мрежа, обучена на снимки на индийски кобри и стетоскоп. Можем да научим какво смята мрежата за кобра или стетоскоп, като я помолим да „генерира снимка на тях от нулата“. Първо, започваме с произволно генерирани пиксели, което изглежда като телевизионна статика. След това бавно променяме пикселите, докато невронната мрежа реши, че наистина е нещо.

Можем да видим, че е научил някои характеристики на индийска кобра, тъй като мозъкът ни е подмамен да мисли, че има кобра и на горната снимка. В действителност няма. Това е картина, генерирана изцяло от нулата, за да направи активирането на неврона за индийската кобра побъркано за невронна мрежа.

Със същата техника за оптимизация на пиксели, ако подадем съществуващо изображение вместо произволни пиксели и поискаме от невронната мрежа да оптимизира пикселите за нещо, това дава наистина странни резултати.

Ако дадете снимка на дърво и поискате от невронната мрежа да го оптимизира за сгради, тя „вижда“ „сградата в дървото“ и подобрява тези функции, докато стане сграда.

Виждаме, че всички характеристики, които правят „сграда“, сграда присъстват.

Сега нека се върнем към проблема с диабетната ретинопатия.

Дадохме нормална картина на ретината и помолихме нашата невронна мрежа да оптимизира за пролиферативна диабетна ретинопатия (PDR), най-лошата форма на заболяването.

Нека да разгледаме по-отблизо. Можем да видим, че нашата визуализация изобразява много добре учебникарските характеристики на диабетна ретинопатия, като ексудати, кръвоизливи и венозни мъниста.

Генерират се дори някои фини характеристики като микроаневризми и неоваскуларизация.

Това е мрежа, която се обучава само на 1000 изображения на ретината (нещо, което може да се генерира за около седмица тежка офталмологична практика или скрининг на диабет) на различните етапи на заболяването.

В сравнение с 20-те години, необходими на цялото човечество, за да измисли всички показатели за диабетна ретинопатия, които използваме сега, и като се има предвид фактът, че отне само около 1 час, за да се обучи тази мрежа на GPU инстанция, не е толкова лошо всъщност.

Заключение

И така, сега се връщаме към нашата леля с рак. Ако болницата току-що беше събрала и съхранила всички микроскопични изображения от пациенти, само споменавайки кои пациенти в крайна сметка са умрели от рак и кои не, и бяхме пуснали този алгоритъм за дълбоко обучение, за да продължим да правим изводи относно индикаторите, нямаше да има нужда от „много наблюдателен“ учен. Алгоритъмът за визуализация би изкрещял в лицето ви с всички функции. Ако открием нещо, за което не сме знаели преди, ще знаем, че нещо се случва.

Помислете за всички тези данни, които спят в силози за данни в ЕМР отдела на болниците! Ако можем просто да използваме Deep Learn...

Добре, нека се съсредоточим върху отрицателните аспекти на този алгоритъм и бъдещите възможности за подобрение.

Недостатък №1: Твърде много артефакти

Вече знаем за всички функции, които сме „преоткрили“ в този случай. Ами ако бяхме осмислили визуализациите само защото знаехме за това. Всички останали „нови функции“, които мрежата ни показваше, можеха да бъдат разглеждани от нас като артефакти.

Недостатък #2: Лошо представяне на цветовете

По-голямата част от визуализацията беше изобразена в цветове, които не бяха свързани с оригиналния цвят. Формата е добра, но възпроизвеждането на цветовете трябва да е точно, за да бъде инструмент, който може да се използва с увереност за посочване на нови характеристики на заболявания.

Това са неща, които работим върху подобряването. Бъдещето на Deep Learning в медицината е светло. Ние само надраскахме повърхността.

Ако сте харесали статията, не забравяйте да разгледате нашата статия, която споменава по-подробно техническата архитектура. Свържете се с мен за предложения, принос или критика.