„Изравняване и безопасност на AI“

Как можем да направим изкуствения интелект етичен?

За един по-справедлив свят са необходими колективни усилия.

Миналата седмица завършихме впечатляваща дейност в един от моите встъпителни курсове за висше образование. За определен контекст класът е предназначен да предостави въведение в различни изследователски парадигми в рамките на взаимодействието човек-компютър (HCI) и свързаните с него области. Прекарахме първата половина на тримесечието в обсъждане на елементите на високо ниво на качествените изследвания и наскоро обсъждахме методи за измерване на етиката и надеждността на научните изследвания.

За дейността нашият професор накара всеки от нас да анализира изследователска работа по избор и да напише кратък фрагмент от 300 думи, обсъждайки етичните проблеми, присъстващи директно в изследването или загатнати от него. След това събрахме всички наши статии заедно в малко „виртуално списание“, което може да се използва като бърза бъдеща справка при четене на научни статии.

Крайният резултат беше завладяващ, особено защото успяхме да открием редица етични опасения, които все още присъстват в реални, публикувани изследвания. Ето само някои от проблемите, открити от хората:

  • Правене на общи твърдения въз основа на данни от малка, непредставителна извадка
  • Позовавайки се на остарели изследвания
  • Незачитане на поверителността на събраните данни
  • Провеждане на изследвания на маргинализирани общности, но след това никога не се връща, за да помогне на същите тези общности
  • Използване на ненадеждни данни (напр. данни, събрани на MTurk без подходяща метрика за това дали потребителите наистина отговарят на въпросите или не)

Нашето псевдо-списание беше умишлено общо - и преглеждайки го, не можех да не свържа всички обсъждани въпроси с моя опит в компютърните науки. По-специално разгледах колко от горните проблеми са свързани с изкуствения интелект (AI).

AI е процъфтяваща област от години, но напоследък има нарастващ интерес към етичния AI. Това беше подтикнато от осъзнаването, че много съществуващи в момента форми на изкуствен интелект са силно предубедени - например има доказателства за „алгоритмите за лицево разпознаване, работещи по-зле при хора с по-тъмна кожа [1].“

Проблемът произтича от данните, върху които се обучават AI алгоритмите. Когато един модел се обучава на непълни или неточни данни, няма значение колко добър е той - способността му за прогнозиране винаги ще бъде лоша.

Това е мястото, където се намесва дейността, която направихме в клас. В средата на нея си зададох въпрос: можем ли да разширим и надградим тази стратегия в търсенето на етичен изкуствен интелект? Ако е така, откъде да започнем?

Вярвам, че отговорът е „да“ и откъдето започваме е да идентифицираме решаващ аспект от дейността ми в клас, който я направи много уникален: богатото разнообразие от гледни точки.

Нека го разясня малко. Моята дипломирана програма е интердисциплинарна и приема студенти от няколко различни среди. В тази стая имахме студенти, специализирали в компютърни науки, социология, UI/UX, икономика, графичен дизайн, обществено здраве, математика и др. Изследователските статии, които изследвахме, обхващаха гамата от визуализация на информация до аксиология (клон на философията, занимаващ се с това какво прави нещата ценни). Поради това успяхме да създадем списание, което е едновременно специфично и общо — специфично, тъй като ни позволява ефективно да изследваме етичните проблеми в съвременните изследвания, и общо, тъй като ни позволява да правим това в редица различни изследователски области .

Това ме довежда до основната ми точка: включването на различни гледни точки в началната фаза на изследването е от съществено значение за създаването на етични форми на изкуствен интелект. Ако една AI технология е предубедена, това е защото основните данни също са предубедени. Много пъти това може да е неволно, защото изследователите просто не са осъзнали недостатъка в тяхната техника за събиране на данни. Ако не знаете за пристрастие, как можете да се справите с него? Чрез включването на хора от различен произход в създаването на тези алгоритми можем да гарантираме, че крайният продукт е етичен и приобщаващ.

Да се ​​върнем към примера с технологията за лицево разпознаване. Алгоритъмът, споменат в статията, свързана по-горе, се представи зле при жени с тъмна кожа. И въпреки че не мога да направя пряко твърдение за изследователския екип, който е проектирал този алгоритъм, добре е документирано, че както жените, така и цветнокожите хора са недостатъчно представени в областите на STEM, особено в компютърните науки. Съответно, не е изключено екипът да не е успял да вземе под внимание лошите си данни за обучение поради собствената си хомогенност.

За да направим изкуствения интелект етичен, трябва да започнем от самото начало. Не е достатъчно да създадете алгоритъм и след това да обмислите как да го направите етичен и приобщаващ в ретроспекция. По-скоро трябва да използваме нови техники в началните фази на изследването и да асимилираме множество перспективи в самото същество на нашите алгоритми. И за да направим това, имаме нужда от две ключови съставки:

  1. Изследователски екипи, които включват изследователи от всички общности, което ще улесни гарантирането, че получените алгоритми не са неволно дискриминационни.
  2. Изследователски екипи, които използват смесени методи - с други думи, в комбинация с количествените изследователи, които вършат математическата работа по създаването и програмирането на алгоритъм, имаме нужда от качествени изследователи, които могат да проектират по-добри методи за събиране на данни и анализ, които отчитат човешките аспект на AI — не само машината.

Разбира се, това не е достатъчно само по себе си, но е едно начало. Изкуственият интелект не показва признаци на забавяне в близко бъдеще. Ако не се научим да го правим етичен, това, което ни очаква в остатъка от 21 век, ще бъде всичко друго, но не и добро.

Препратки

[1] А. Наджиби, Расова дискриминация в технологията за разпознаване на лица(2020). https://sitn.hms.harvard.edu/flash/2020/racial-discrimination-in-face-recognition-technology/