Поредица от 3 части, изследваща етичните проблеми в изкуствения интелект

Увеличаване

„Част 1 изследва какво и защо е етиката на ИИ“ и раздели етиката на четири области — какво е ИИ, какво прави ИИ, какво въздействие ИИ и какво може да бъде ИИ. В част 2 се гмуркам в етиката на това какво е AI.

Увеличаване

Най-често използваната форма на AI може да се опише като набор от математически функции (модел), които при дадени входове (данни), научават *нещо* и го използват, за да * извод* нещо друго (правете прогнози). С други думи AI е данни, модел и прогнози. Етичното изследване на тази сфера обхваща въпроси като Пристрастност в прогнозите на модела и Справедливост (или липса на такава) на резултатите; както и подходи за справяне с тях чрез Отчетност и Прозрачност.

Пристрастност и справедливост

Когнитивните пристрастия, всичките „104“ от тях, са присъщи на хората и влияят върху начина, по който вземаме решения. И AI, който изграждаме. По силата на „как се учи“, „безконтролните вериги за обратна връзка“, които може да задейства, и „мащаба на своето въздействие“, ИИ може да засили човешките пристрастия. И това има последствия. Пристрастните алгоритмични системи могат да доведат до несправедливи резултати, дискриминация и несправедливост. В мащаба

Разбирането на пристрастията в AI започва с разбирането на неговите източници и идентифицирането на кои от тях могат да бъдат противодействани с технологии и кои не. Пристрастията, както в „модел, който не представя входните данни или основната истина достатъчно точно“, е проблем с машинното обучение. Пристрастността, както в „модел, отразяващ неоправдани предразсъдъци в своите прогнози“, не е просто проблем с машинното обучение. За да „цитирам“ Кейт Крауфорд,

„Структурното пристрастие е първо социален проблем, а второ – технически.“

Глупаво е да мислим, че можем да се противопоставим на съществуващите предразсъдъци в нашите социални структури само чрез технологии. Всъщност можем да го влошим и често го правим.

Данните са голям източник на пристрастия в машинното обучение и получават „значително внимание в медиите“. Всички сме чували лозунга „Боклук вътре, боклук вън“ досега. Но пристрастните данни са само част от историята. Пристрастията могат да проникнат в интелигентността на машината и от други източници; по целия път от начина, по който изследователите на ИИ (да се четат хората) формулират проблема до това как обучават модела до това как системата се разгръща. Дори при безпристрастни данни, самият процес, чрез който някои модели на машинно обучение постигат точност, може да доведе до пристрастни резултати.

Нека рисуваме. (Потърпете ме за момент, ще разберете защо). Вземете лист хартия и поръсете няколко точки/точки върху него. Сега начертайте линия през това произволно разпределение на точките. Повече точки, разположени широко една от друга, по-извита линия. Сега добавете още няколко точки. Вашата линия вече не отговаря на всички точки! Досега разбирате, че вашата линия не може да побере всички точки без загуба на общоприетост за бъдещето, така че се задоволявате с „оставете ме да направя най-доброто, което мога“. Начертавате линия, която е възможно най-близо до възможно най-много точки. Вие обичате математиката, така че представяте вашата линия чрез уравнение (или функция) и представяте това „възможно най-близко“ изчисление чрез друга функция. Поздравления, получихте модел за машинно обучение! Е, порядъци по-прости от реалните, но схващате идеята.

Опитът да се напасне математическа функция към произволно разпределение на точки от данни чрез минимизиране на „функция на загуба“ често имитира поговорката „скърцащото колело смазва“. Функцията на загуба е изчислението „възможно най-близо“ за всички точки, представени от нейната противоположност – колко далеч е линията от точка, която се опитва да представи. По този начин, като го минимизирате, вие успешно се приближавате възможно най-много до възможно най-много точки. Но има страничен ефект. Тези с най-силно представяне получават най-малко загуби. Където представянето може да означава „количество данни за група“, както и „характеристиките“, използвани от модела за разбиране на тази група. Алгоритмите за машинно обучение разбират данните чрез модели, разчитайки на „характеристики“, идентифицирани от човека зад тях или чрез откриването им. И в двата подхода „характеристиките“, които доминират в данните, се превръщат в северната звезда на алгоритъма. Малцинството, тези с твърде уникални характеристики, за да създадат достатъчно силен сигнал, който да бъде уловен от модела, ще бъдат игнорирани в процеса на вземане на решение. Използването на този модел за вземане на решения за всички води до несправедливи резултати за някои.

Помислете за пример. Модел за лицево разпознаване на емоции, обучен върху лица от цял ​​свят. Да приемем, че имаме достатъчно разнообразие по отношение на възраст, пол, раса, етническа принадлежност и т.н. Всички интуитивно знаем, че интензивността, с която изразяваме емоции, също е свързана с други качествени фактори. Размерът на усмивката ми е свързан с това, което е културно подходящо за мен, колко дълбоко се свързвам със спусъка, какво чувствам за зъбите си, колко често съм бил критикуван, че се смея твърде шумно, психическото ми състояние в този момент и така нататък. Какво се случва тогава, ако използваме този модел, за да оценим колко „щастливи са учениците в класната стая“? (няма награда за отгатване защо някой би искал да направи това!) Може ли една математическа функция да представи всички възможни интензитети на щастие на базата на тези съображения, като използва видими и измерими характеристики като размер на усмивката, обем на смях, колко широко са отворени очите ? Изследователите на AI може да кажат, че може. Все още не съм убеден.

Така че пристрастието има множество източници и много форми. Една проста рамка за тяхното разбиране е представена в блога на Харини Суреш. Обобщавам нейните 5 източника на пристрастие: Историческото отклонение *вече* съществува в данните, докато отклонението на представянето и отклонението на измерването са резултат от това как се създава набор от данни. Отклоненията при оценка и обединяване са резултат от изборите, направени при изграждането на модела.

Изборът на етикети, изборът на модел, избраните характеристики, това, което се параметризира или оптимизира, са някои от изборите, направени от разработчиците на AI, т.е. хората, и следователно са изложени на риск от капсулиране на човешки пристрастия и слепи петна.

Какъв е тогава изходът от пристрастията? Вече се извършват изследвания на техники за премахване на предубежденията, корекции за дисбаланси в данните и т.н. (вижте този разговор за повече). Но това се появява, след като са идентифицирани отклоненията в набора от данни. Това изисква строг одит, по линията, предложена от Timnit Gebru et al. в техния документ „„Листове с данни за набори от данни““. Листове с данни, подобни на тези, които се намират в електронната индустрия и нормите за химическа безопасност, могат да помогнат за ранното идентифициране на отклоненията, но извън отклоненията в набора от данни са необходими интердисциплинарни усилия. Включването на експерт в областта, изграждането на „разнообразни и интердисциплинарни екипи са от ключово значение“ за ранното идентифициране на пристрастията.

Въпреки че идентифицирането на пристрастия е добро и опитът за премахването им чрез технология е благородна цел, това не е достатъчно.

Отговорност и поправимост

Алгоритмите се внедряват в системи за вземане на решения във всеки аспект на човешкия живот — „как гледаме на себе си“, „с кого взаимодействаме“; как ни назначават, кой се уволнява; какво купуваме, какво можем да купим; „къде живеем“, „как пътуваме до работното място“, „какви новини четем“, чак до „кой получава полиция и кой не“. Алгоритмите могат да доведат до несправедливи и дискриминационни резултати. Съберете две и две заедно; необходимостта алгоритмичните системи да бъдат държани отговорни не може да бъде подценена.

Отговорността насърчава доверието. Той дава възможност за път към справедливостта, за идентифициране и коригиране на несправедливи или дискриминационни резултати.

Отчетността може да бъде постигната чрез човешки одити, оценки на въздействието или чрез управление чрез политика или регулация. Технологичните компании обикновено предпочитат саморегулиране, но дори „сега те признават необходимостта“ от външна намеса. Управление чрез „човек в цикъла““, където някои решения, определени като високорискови, изискват проверка от човек, също беше предложено като модел за отчетност.

Но какво се случва, след като бъдат нанесени щети? Имат ли засегнатите страни възможност, път за коригиране на негативните ефекти? Имат ли право на дължимо обезщетение? Могат ли дори да идентифицират причинените вреди?! Досега не съм виждал каквато и да е използвана алгоритмична система да дефинира ясен процес за коригиране, въпреки че WEF идентифицира компенсацията като стълб на отговорния ИИ. Но похвала за разследващата журналистика и изследователски групи като ProPublica, Algorithmic Justice League и AI Now Institute за неуморното идентифициране на системи, които са несправедливи или дискриминационни и настояването за отчетност и действие. В някои случаи такива несправедливи системи са били „оттеглени“ или „променени“. Но в много други технологичните компании „продължават да отхвърлят опасенията“ или смятат, че тяхната отговорност приключва с предоставянето на „указания за употреба““.

Прозрачност, интерпретируемост и обяснимост

Голяма част от етичните опасения около AI произтичат от присъщото му поведение на „черна кутия“. Това отчасти се дължи на факта, че компаниите не искат да споделят „тайния сос“, който кара техния модел да щрака, и отчасти защото голяма част от обучението в машинното обучение е заключено в големи сложни математически операции. Но когато решенията водят до вреда, справедливото независимо разследване изисква установяване на фактите. Но кой определя какво ниво на фактите е достатъчно? Достатъчно ли е да знаете, че дадено решение е причинило вреда? Трябва ли да разберем как е взето това решение и от кого? Тези въпроси формират различните ъгли на изследване на прозрачността на системите за машинно обучение.

Алгоритмите се „учат“ от входни данни върху множество „слоеве“ (множество математически операции); прогресивно коригиране на „теглата“ (a и b в ax+b), за да се приближите все по-близо до моделите в данните. Досега прозрачността беше ограничена, тъй като нямаше лесен начин да се *интерпретира* слой по слой това, което се „научава“ или да се *обясни* как цялото това обучение води до крайното решение. За щастие това се променя, тъй като прозрачността се превръща в изследователски фокус.

Изследванията на интерпретируемостта до голяма степен са фокусирани върху „отварянето“ на черната кутия. Изследването на обяснимостта до голяма степен е фокусирано върху „разбирането“ на решението.

Някои изследователи казват, че само „резултатите на даден алгоритъм трябва да бъдат защитими, докато други казват, че това е недостатъчно“ или твърде рисковано. Някои смятат, че „алгоритмите трябва да се обясняват сами“. Докато малцина „отхвърлят обяснимостта и нейната необходимост“ изцяло от гледна точка на прозрачността. По мое мнение, за всички неща честни и справедливи, контекстът ще има значение при определянето на това колко интерпретируема, обяснима или прозрачна трябва да бъде една алгоритмична система; и някакъв външен регламент или съгласуван стандарт ще трябва да определи и наложи това.

Прозрачността от различен вид също трябва да се спомене тук. Организационна прозрачност. Доколко технологичните компании са отворени за публикуване на своите AI изследвания, техните мотиви и цели с AI, как използват AI в продуктите си, какви показатели използват, за да проследят неговата ефективност и т.н.; всичко това има значение.

Намаляване, до следващото пътуване

Изграждането на AI е трудно. Разбирането на взаимодействието му с обществото е по-трудно. Толкова много истории, толкова много изследвания, такива нюанси. Едва надрасках повърхността, но се надявам, че е достатъчно, за да повиша осведомеността и да предизвикам размисъл.

Препратки и допълнителна литература

Това е част 2 от поредица от 3 части, изследваща етиката на ИИ. „Част 1, достъпна тук“, очертава ландшафта на проблемите. Част 3, налична тук, разглежда етиката на това, което AI прави и какво въздействие AI.

Много благодаря на Rachel Thomas, Karthik Duraisamy и Sriram Karra за техните отзиви относно ранните чернови.