Публикации по теме 'explainable-ai'


Survex: модельно-независимая объяснимость для анализа выживания
В этом блоге мы хотели бы рассказать, как объяснимость модели может помочь сделать осознанный выбор при работе с моделями выживания, демонстрируя возможности пакета Survex R. Анализ выживания и объяснимость Говоря о машинном обучении, большинство людей имеют в виду задачи классификации и регрессии, поскольку они наиболее популярны. Однако эти задачи — не единственное применение моделей ML. Еще одним популярным, особенно в области медицины и страхования, является анализ выживания,..

Алгоритмы объяснимости и справедливости в ИИ
Алгоритмы объяснимости призваны дать представление о том, как модели ИИ принимают решения. Это становится все более важным, поскольку модели ИИ используются во многих критически важных приложениях, таких как здравоохранение и финансы, где важно понимать причины решений, принимаемых моделями ИИ. С другой стороны, решение вопросов справедливости и предвзятости в ИИ важно, потому что модели ИИ могут увековечивать и усиливать существующие предубеждения в данных, на которых они обучаются. Это..

IBM Research запускает Explainable AI Toolkit
Объяснимость или интерпретируемость ИИ в наши дни имеет огромное значение, особенно из-за роста числа предприятий, зависящих от решений, принимаемых машинным обучением и глубоким обучением. Естественно, заинтересованные стороны хотят прозрачности того, как алгоритмы выдвигают свои рекомендации. Так называемый черный ящик ИИ быстро ставится под сомнение. По этой причине мне было приятно узнать о последних усилиях IBM в этой области. Исследовательское подразделение компании только что..

Объяснение ваших моделей машинного обучения с помощью SHAP и LIME!
Объяснение ваших моделей машинного обучения с помощью SHAP и LIME! Помогает вам развенчать то, что некоторые люди могут воспринимать как «черный ящик» для ваших моделей машинного обучения. Привет всем! Снова добро пожаловать в еще один быстрый совет по науке о данных. Этот пост наиболее интересен для меня не только потому, что это самая сложная тема, над которой мы работали на сегодняшний день, но и потому, что я потратил последние несколько часов на изучение этой темы. И, конечно..

Используете ли вы библиотеку Shap в полной мере?
Узнайте, как применять функцию «Группировать по» к графикам Shap, отмечать сильно коррелированные переменные и создавать интерактивные графики, чтобы увидеть взаимосвязь между переменными и оценкой модели. 1. Введение 1.1 Эта статья для вас, если: Вы уже использовали библиотеку Python Shap Вы хотите знать, какие функции он может предложить, кроме известных графиков Shap Summary и Shap Force: Вы работаете в основном с табличными данными (графики Shap для изображений и..

Как я могу объяснить бизнесу свои модели машинного обучения?
3 фреймворка, которые сделают ваш ИИ более понятным Объяснимость, безусловно, была одной из самых горячих тем в области ИИ - поскольку в область ИИ вкладывается все больше и больше инвестиций , а решения становятся все более эффективными, некоторые компании обнаружили, что они не могут использовать ИИ. у всех! А почему? При этом многие из этих моделей считаются черными ящиками (вы, вероятно, уже встречали этот термин), что означает, что нет никакого способа объяснить результат..

Сделать черный ящик AI прозрачным с помощью eXplainable AI (XAI)
Сделать черный ящик AI прозрачным с помощью eXplainable AI (XAI) Краткий обзор значений Шепли (SHAP) Системы искусственного интеллекта (ИИ) все чаще используются в нашей повседневной жизни, чтобы помочь нам в принятии решений. Когда человек принимает решение, вы можете спросить его, как он пришел к своим решениям или прогнозам. Но для многих алгоритмов ИИ прогноз предоставляется без какой-либо конкретной причины, и вы не можете попросить эту машину объяснить, как она пришла к..