Свързани публикации 'explainable-ai'


survex: моделно-агностична обяснимост за анализ на оцеляването
В този блог бихме искали да покрием как обяснимостта на модела може да помогне при вземането на информиран избор при работа с модели за оцеляване, като демонстрира възможностите на пакета survex R. Анализ на оцеляването и обяснимост Когато говорят за машинно обучение, повечето хора имат предвид задачите за класификация и регресия, тъй като те са най-популярните. Тези задачи обаче не са единственото приложение на ML моделите. Друг популярен, особено в областта на медицината и..

Алгоритми за обяснимост и справедливост в AI
Алгоритмите за обяснение имат за цел да осигурят представа за това как AI моделите вземат решения. Това става все по-важно, тъй като AI моделите се използват в много критични приложения, като здравеопазване и финанси, където е от съществено значение да се разберат мотивите зад решенията, взети от AI модели. От друга страна, справянето с проблемите на справедливостта и пристрастията в AI е важно, тъй като моделите на AI могат да запазят и разширят съществуващите пристрастия в данните, върху..

IBM Research пуска Explainable AI Toolkit
Обяснимостта или интерпретируемостта на AI е огромна работа в наши дни, особено поради увеличаването на броя на предприятията, зависещи от решенията, взети от машинно обучение и дълбоко обучение. Естествено, заинтересованите страни искат ниво на прозрачност за начина, по който алгоритмите са изготвили своите препоръки. Така наречената „черна кутия“ на AI бързо се поставя под въпрос. Поради тази причина бях насърчен да науча за последните усилия на IBM в тази област. Изследователският..

Обяснение на вашите модели за машинно обучение с SHAP и LIME!
Обяснение на вашите модели за машинно обучение с SHAP и LIME! Помага ви да демистифицирате това, което някои хора може да възприемат като „черна кутия“ за вашите модели за машинно обучение Здравейте всички! Добре дошли отново в друг бърз съвет за науката за данни. Тази конкретна публикация е най-интересна за мен не само защото това е най-сложната тема, с която сме се занимавали до момента, но също така е и тази, която току-що прекарах последните няколко часа да уча сам. И разбира..

Използвате ли библиотеката Shap в пълния й потенциал?
Научете как да прилагате функционалността на групиране по графики на Shap, маркирайте силно корелирани променливи и създавайте интерактивни диаграми, за да видите връзката между променливите и резултата на модела 1. Въведение 1.1 Тази статия е за вас, ако: Вече сте използвали библиотеката Shap на Python Искате да знаете какви функции може да предложи, с изключение на добре познатите графики на Shap Summary и Shap Force: Работите основно с таблични данни (схемите на Shap за..

Правене на черната кутия на AI прозрачна с eXplainable AI (XAI)
Да направим черната кутия на AI прозрачна с eXplainable AI (XAI) Бърз преглед на стойностите на Shapley(SHAP). Системите с изкуствен интелект (AI) се използват все повече в ежедневието ни, за да ни помогнат при вземането на решения. Когато човек вземе решение, можете да го попитате как е стигнал до своите решения или прогнози. Но при много AI алгоритми се предоставя прогноза без конкретна причина и не можете да поискате от тази машина да обясни как е стигнала до това решение...

Внедряване на обяснимост за дървета с градиентно усилване
Внедряване на път на решение в Gradient Boosting, което доказва локална обяснимост без XAI метод. Автори : Беа Ернандес @ chucheria , Анхел Делгадо @thinbaker 1. Мотивация В машинното обучение ансамбълът от дървовидни модели като случайна гора (RF) и градиентно усилване (GB) дадоха страхотни резултати при проблеми с класификацията и регресията, като например прогнозирането на цените на жилищата. Един приятел и аз работихме в проект за прогнозиране на цените на жилищата и..