Да се ​​твърди, че етичният AI не е лесна тема, всъщност е лесно. Просто помислете за двете думи етичен и AI отделно. И двете думи се отнасят до концепции, върху които са написани много книги. Въпреки това в тази публикация ще твърдя, че етичният ИИ е по-труден без причинно-следствени изводи (CI). И да, по тази тема също има написани много книги.

В скорошна статия Traag и Waltman (2022) използват структурни причинно-следствени модели (SCM), ключов компонент на CI, за да дефинират справедливостта и пристрастието в AI. С един удар шепа конкуриращи се дефиниции на пристрастие условно се консолидират чрез прилагане на структурно причинно-следствено моделиране. Това показва доколко дискусията все още се оформя от техническа гледна точка. SCM бяха въведени от Judea Pearl и са част от AI или от страна на техническия анализ на нещата. Статията на Трааг и Уолтман е добре написана и си заслужава да бъде прочетена.

В тази публикация искам да опростя нещата. Целта е да се очертае етичният AI чрез очертаване на етичната част, както и частта AI, всичко това в рамките на 10 минути четене (пуснете хронометъра!). Етичната част ще се основава на презентация, направена от Рейчъл Томас (2023 г.). Що се отнася до частта AI, ще приема практическо етично AI предизвикателство и ще го оформя в контекста на SCM, в светлината на Traag и Waltman (2022), ако желаете.

Ще твърдя, че етичната част е свързана с по-общи демократични предизвикателства и че частта AI е свързана с предизвикателствата при прозрачното прилагане на технологията и как причинно-следствените изводи могат да свържат две части по много начини. Ще отрежа някои ъгли и някои познания за структурните причинно-следствени модели ще помогнат. Нека започнем с етичната част.

Кратко описание на етичните проблеми в ИИ

Този раздел се опира до голяма степен на работата на Рейчъл Томас (2023 г.). Може би нейните думи правят идеята по-добра, те могат да бъдат намерени тук. Като начало, етичният AI често се нарича и етичен и справедлив AI (EFA), отсега нататък ще използвам това обозначение.

От гледна точка на практикуващ машинно обучение, EFA често се равнява на обяснимост. Обяснимостта предполага, че резултатът, генериран от алгоритъм, може да бъде обяснен в смисъл на това как различните характеристики са допринесли за конкретен резултат. Освен факта, че много от методите, използвани за обяснение на резултат, сами по себе си не са лишени от недостатъци и често са локални по природа, обяснимостта не е достатъчна, както ще бъде обяснено в параграфа за обжалване.

Няма да е изненада, че алгоритмите, тъй като са софтуер, могат да съдържат грешки. Конкуренцията, способността да се идентифицират и адресират грешките е много важна. Още повече, че грешките в алгоритмите не се ограничават само до софтуера. Има грешки при вземане на проби, грешки в данните, грешки при моделиране и със сигурност има повече начини, по които алгоритмите могат да правят грешки. Някои грешки могат лесно да бъдат идентифицирани, след като бъдат забелязани, но оспорването на алгоритъм може да бъде сложно и изисква познания. Пример за тази сложност ще бъде даден в раздела Пример. Уверяването, че даден алгоритъм няма последната дума, а вместо това помага на вземащия решение, в случай на очевидна грешка, е важна част от оспорваемостта.

Предоставя се иск, ако е ясно какви действия може да предприеме дадено лице, за да промени резултата си, ако приемем, че алгоритъмът е неоспорим. С други думи, какво мога да направя, за да променя резултата, генериран от алгоритъм за мен? Регресът, подлежащ на действие, превъзхожда обяснимостта, защото показва, че резултатът има ясна и приложима връзка с реалния свят. Например: ако карате кола, произведена след 2010 г., тогава вашата автомобилна застрахователна полица ще бъде по-ниска, тъй като по-новите автомобили представляват по-малък риск поради технологичния напредък. Действащият регрес е свързан с създаването на общо и приемливо разбиране на предизвикателството, което алгоритъмът се опитва да разреши. В идеалния случай това позволява разпространение на знания, генерирани по време на изграждането на алгоритъма, към неговите потребители.

Важен въпрос в етичния AI е дали трябва да се създаде алгоритъм на първо място. Наблюдението с широкомащабна камера например има значителни разходи за поверителност, особено след като без това наблюдение да е пълно и тотално, то вероятно просто ще измести поведението, което се опитва да предотврати, на друго място. Друг пример би бил интензивният мониторинг на многобройните производствени работници от Amazon и предполагаемият алгоритъм, който уволнява служители (полу-)автоматично, ако стандартите за ефективност не са изпълнени.

Друга причина да бъдете много предпазливи с прилагането на AI е, че в мащаб алгоритмите не могат само да кодират пристрастия, но също така да усилват или дори активно да създават резултата, който алгоритъмът се е опитвал да предвиди чрез вериги за обратна връзка. Помислете например за предубедени алгоритми, които на първо място управляват полицейското наблюдение и след това определят условното освобождаване по подобен начин: хората се хващат в алгоритмична мрежа, която активно създава резултата, който е трябвало да предвиди, създавайки нови и пристрастни данни. Оживено въведение в тази тема е дадено от O’Neil (2017).

Това, което трябва да стане ясно, е, че мащабните алгоритми дават много мощност. И тъй като броят на хората, създаващи алгоритми, е много по-малък от броя на хората, които са подложени на алгоритми, също така е справедливо да се каже, че AI централизира властта. Ето защо въпросът как AI премества властта е валиден. Може лесно да разшири бюрокрацията, да избегне отговорността, да стане друго място за насочване. Парадоксално, засегнатите хора имат най-малко власт, виждат последствията най-рано и често разбират какво първо трябва да се поправи. Обърнете внимание как тези проблеми се припокриват с демократичните предизвикателства като цяло.

Въпросите на етичния и справедлив ИИ се припокриват до голяма степен с демократичните предизвикателства като цяло.

Проницателният читател сигурно е забелязал, че не съм засегнал директно определението за несправедливост или пристрастие. Причината за това е, че въпреки че понятията за пристрастност и несправедливост интуитивно имат смисъл, се оказва, че предоставянето на недвусмислени определения не е лесна задача. Засега ще предложа само представа за разсъжденията зад едно условно определение, за пълното определение ще се позова на Traag и Waltman (2022).

Пример в това отношение

За да илюстрирам практическо приложение на CI в контекста на автомобилното застраховане, ще използвам пример, който взех от вестник. Оказа се, че застрахователите, живеещи на втория етаж, плащат по-висока премия от застрахователите, живеещи на първия етаж. Това изглежда като странно нещо. И въпреки че примерът може да изглежда като дребна неудобство, той лесно се превръща в по-неоправдани примери. Как CI може да помогне за разглобяването на този пример? Тъй като информацията в статията беше оскъдна, както обикновено е този вид информация, ще използвам някои спекулации, за да видя какво може да се е случило.

На пръв поглед моделът изглежда предполага, че живеенето на втория етаж е свързано с по-висок риск от злополука. Но какво точно е значението на това твърдение? Формулирано като SCM, което посочва, че живеенето на втория етаж причинява по-висок риск, това твърдение би извело следния SCM.

Дали преместването на човек на първия етаж наистина би повлияло на поведението му при шофиране? Едва ли. Така че връзката не е причинно-следствена. По-вероятно е връзката да е създадена от един или повече объркващи фактори, които може да са действителните причини. Следният SCM вероятно предлага по-здрави разсъждения.

В този SCM се оказва, че социално-икономическият статус (SES) е объркващ фактор, а притежаването на нова кола е посредник между SES и риска от злополука. SES влияе както на собствеността върху дома, така и на автомобила, поради тази причина се нарича объркващ фактор. Хората с по-висок SES вероятно са по-склонни да купуват крайградски жилища на първи етаж, а също и по-нови коли. По-новите автомобили, подпомогнати от технологиите, представляват по-малък риск. Връзката между живеенето на втория етажириска от злополукаможе да бъде обяснена от SES. Може да има още объркващи неща, но нека останем прости.

От горния анализ може да се заключи, че някой, живеещ на втория етаж, който също притежава нова кола, вероятно не би трябвало да плаща по-висока премия, тъй като връзката между живеенето на втория етаж и риска от злополука изчезва при условие за нова кола. Преди този вид разсъждения ме изнервяха, но вече не. Технически погледнато, затворихме задна врата. Тази процедура е стандартен инструмент в структурно причинно-следствено моделиране. И има повече инструменти за анализ на модели: оказва се, че това е механика на всички вероятности. Хубаво въведение е дадено от Pearl and Mackenzie (2019).

Същността е, че характеристиката живеенето на втория етаж не е валидна причина за риск от злополука. Функцията вероятно ще бъде неутрализирана в модела, ако има функция за нова кола и което е важно, функцията за нова кола предлага възможност за действие. Линеен модел вероятно ще изхвърли живеенето на втория етаж в присъствието на нова кола, но моделът на дърво е по-алчен и вероятно ще го поддържа без ефект. Този пример трябва да изясни, че просто добавянето на функции и превръщането им в обясними не е достатъчно. Да се ​​надяваме, че грешните функции ще бъдат някак автоматично неутрализирани в случай, че необходимите за това функции са налице, не е добра стратегия.

В този момент може да си помислите: всичко хубаво и добре, но целият този случай се основава предимно на вашите собствени спекулации. Ще бъдеш прав, ако мислиш по този начин. Страхотното при причинно-следствените изводи е, че с набора от данни, използван за създаване на оригиналния модел, имам добър шанс действително да тествам спекулативните си предположения. Мога да потвърдя или опровергая тези предположения, използвайки данни.

Заключение

Целта на тази публикация беше да очертае етичния AI, като очертае както етичната, така и AI частта за 10 минути, като изреже някои ъгли. И за да покаже, че въпреки че и етиката, и ИИ са големи области, добавянето на причинно-следствени изводи всъщност може да изясни нещата.

Започнах с очертаването на етичната част и показах как етичните въпроси са до голяма степен свързани с демократичните проблеми като цяло. Това поражда големи притеснения.

Що се отнася до частта AI, на първо място са необходими добри дефиниции. Последните разработки показват, че причинно-следствените изводи може просто да бъдат отрязани за тази работа.

Освен confounders, в SCM може да има и колайдери. Колайдерите могат да бъдат свързани с проблеми с вземането на проби, рационализирайки друг проблем в EFA. И има още. Застрахователният пример беше илюстриран от гледна точка на това как отделно лице, сключило полица, може да получи оправдано обезщетение. CI, чрез SCM, също така предоставя средства за разсъждение относно въздействието на алгоритмите или политиките върху по-големи групи от хора чрез съпоставителни факти, рационализирайки още един проблем.

Имаме чувството, че едва започваме.

Препратки

O’Neil, C. (2017). Оръжия за математическо унищожение. Книги за пингвини.

Пърл, Дж. и Макензи, Д. (2019). Книгата защо. Книги за пингвини.

Томас, Р. (2023). ИИ и мощност: Етичните предизвикателства на автоматизацията, централизацията и мащаба. Преместване на етиката на ИИ отвъд обяснимостта и справедливостта към овластяване и справедливост. Изтеглено на 14/07/2023 от https://rachel.fast.ai/posts/2023-05-16-ai-centralizes-power/

Traag, V.A., & Waltman, L. (2022). Причинно-следствени основи на пристрастие, несъответствие и справедливост. ArXiv, abs/2207.13665.