От Блейкли Хофман

През 2017 г. моите колеги от групата Personal Robots проведоха проучване. Деца на възраст 6–10 години бяха поканени в Медийната лаборатория да играят с различни смарт устройства (помислете: Amazon Alexa или Google Home). След като децата имаха възможност да играят и взаимодействат с тези устройства, изследователите им зададоха следния въпрос: смятате ли, че устройството е по-умно, също толкова умно или по-малко умно от вас? Ето и отговорите:

Моят колега от лабораторията Ранди обича да разказва история за едно от децата в изследването. Младо момиче попита: „Алекса, какво ядат ленивците?“

Със синтетичен глас Amazon Alexa отговори: „Съжалявам, не знам как да ви помогна с това.“

"Това е добре!" - възкликна момичето. Тя отиде до друг Amazon Echo, взе го и каза: „Ще видя дали другата Alexa знае.“

Обичам тази история, но също така ме тревожи. Децата са естествено любопитни и са нетърпеливи да използват технологиите като лещи, за да осмислят света около тях. Но резултатите от това проучване ми казват едно нещо: нашите деца придават много авторитет на технологията, като същевременно не разбират ясно как работи тази технология. И сега сме в ерата на ИИ, където децата растат не само дигитални местни, но и местни ИИ (както обича да казва моят съветник, Синтия Бризийл). И докато това може да е безобидно в случай на търсене на това, което ядат ленивците (предимно листа и от време на време насекоми, в случай че се чудите), страхувам се, че децата поставят толкова много авторитет в по-широко разпространени алгоритми – алгоритъма за препоръки на YouTube, например.

През 2018 г. Zeynup Tufecki написа статия в The New York Times, наречена YouTube, the Great Radicalizer, където тя разказва опита от гледането на политически митинги - от Доналд Тръмп, както и от Хилъри Клинтън и Бърни Сандърс — в YouTube. Изглежда обаче, че след гледане на тези видеоклипове - както би могъл всеки човек, който иска да бъде политически информиран - алгоритъмът за препоръки на YouTube, съчетан с функцията „Автоматично пускане“, все повече се препоръчва за нейното конспиративно съдържание. Нямаше значение дали е гледала много ляво или дясно ориентирано съдържание, алгоритъмът я бомбардира с видеоклипове, отричащи Холокоста или твърдещи, че правителството на САЩ е координирало атаките от 11 септември.

Именно тази констатация, във връзка с факта, че YouTube е най-популярната социална медийна платформа сред тийнейджърите и факта, че 70% от възрастните използват YouTube, за да научат как да правят нови неща или за новините в света, ме кара да се тревожа за авторитет, който децата ни дават в технологиите и по-специално в изкуствения интелект.

И така... как можем да подготвим децата си да бъдат съвестни потребители на технологии в ерата на ИИ? И можем ли да ги упълномощим да бъдат не само съвестни потребители на AI системи, но и съвестни дизайнери на технологии?

Овластяване на децата чрез AI + образование по етика

Тези два въпроса са в основата на „моето изследване“ в Медийната лаборатория, където се стремя да преведа теоретичните открития на онези, които изучават изкуствен интелект, дизайн и етика, в практични преподавателски упражнения.

Първият пилот на моята учебна програма по етика + AI беше семинар от три сесии, който проведох миналия октомври в средното училище David E. Williams, където успях да работя с над 200 ученици от средното училище. По време на трите сесии студентите научиха основите на задълбоченото обучение, за алгоритмичните пристрастия и как да проектират AI системи с оглед на етиката.

Целта на курса беше да накара студентите да видят системите с изкуствен интелект като променливи и да им даде инструментите за осъществяване на промяна. Идеята е, че ако можем да видим една система като нещо, което е гъвкаво, да знаем, че не е задължително да е такава, каквато е, тогава системата има по-малко власт над нас. Алгоритъмът става, както Кати О’Нийл веднъж каза, просто мнение.

Да накараш учениците да виждат алгоритмите като променливи първо означаваше да накараш учениците да видяталгоритмите изобщо. Те трябваше да осъзнаят алгоритмите, с които взаимодействат ежедневно: Google Търсене или системите за разпознаване на лица в SnapChat. След като учениците успяха да идентифицират алгоритми в света около тях, те успяха да научат как работят тези системи - например как една невронна мрежа се учи от набор от изображения?

Вярвам, че е от съществено значение да се въведат теми по етика в този момент, веднага щом учениците са научили основния технически материал. На колегиално ниво урокът по етика или урокът за „въздействие върху обществото“ често се прехвърля в последния час на семестъра или изобщо в независим курс. Това е проблематично по две причини. Първо, това неволно учи студентите да мислят за етиката като задна мисъл, а не като фундаментална за процеса на изграждане или проектиране на алгоритъм. Второ, инструкторите често нямат време! Спомням си многото уроци по история на САЩ, които посещавах в началното, средното и гимназиалното училище - моите учители никога не са подминавали Закона за гражданските права от 1964 г. Като възрастен имам смътно усещане за това какво представляваше Студената война, но не можах да ви разкажа подробностите по начина, по който мога да ви разкажа за Френската революция. Това не е съдбата, която искаме за темите по етика в часовете по технологии. Етичното съдържание трябва да бъде интегрирано с техническо съдържание.

Например, по време на пилота студентите обучиха свои собствени алгоритми за класификация на котки-кучета. Но имаше обрат: наборът от данни за обучение беше предубеден. Котките бяха свръхпредставени, а кучетата бяха недостатъчно представени в набора за обучение, което доведе до класификатор, който успя да класифицира котките с висока точност, но често погрешно етикетира кучетата като котки. След като видяха как данните от обучението се отразиха на класификатора, учениците имаха възможност да преработят набора си за обучение, за да накарат класификатора да работи еднакво както за кучета, така и за котки.

И накрая, курсът завърши със сесия за етичен дизайн. Студентите получиха задачата да преосмислят алгоритъма за препоръки на YouTube, като идентифицират заинтересованите страни в системата и стойностите, които тези заинтересовани страни могат да имат. Това, което създадоха, беше невероятно.

До лятото… и след това

Две неща станаха много ясни по време на този пилотен проект. Първо, учениците бяха много по-способни да се справят с този материал, отколкото очаквах. Второ, имаха нужда от повече време, за да се ангажират с материала. Три четиридесет и пет минутни сесии просто не бяха достатъчно време, за да създадат проекти, с които се гордеят, или да им позволят да изследват технологията, с която се занимават.

Това лято групата Personal Robots ще бъде домакин на едноседмичен летен семинар в MIT Media Lab. Този семинар ще включва много от същите теми от пилотната програма - децата ще се научат как да обучават свои собствени класификатори на изображения и ще научат за процесите на етичен дизайн, но едноседмичният формат ще ни позволи да разширим всяка от тези теми, така че учениците наистина се чувстват като експерти по изкуствен интелект и етика. Студентите ще научат за други видове изкуствени интелигентни системи, като алгоритъма за K-най-близък съсед. Те също така ще разширят своя етичен набор от инструменти чрез семинари за творческо писане на спекулативна художествена литература или ролеви упражнения. Докато усъвършенстваме учебната програма въз основа на нашите наблюдения и обратна връзка, планираме да я направим с отворен код по-късно тази година.

Семинарът ще се проведе от 24 до 28 юни в Media Lab в Кеймбридж, Масачузетс. Има такса от $150 за студенти за участие, която покрива разходите за обучени инструктори от нашия сътрудник EMPOW Studios и тениска. Можете да научите повече за семинара и да регистрирате детето си за него тук: https://empow.me/ai-ethics-summer-program-mit

Тази история е публикувана първоначално на уебсайта на Media Lab.