Обзор
В этом шаблоне кода вы получите лучшее понимание и объяснимость, изучив, как использовать AI 360 Explainability Toolkits, чтобы демистифицировать решения, принимаемые моделью машинного обучения. Это не только помогает политикам и специалистам по обработке данных разрабатывать надежные и объяснимые приложения ИИ, но и обеспечивает прозрачность для всех. Чтобы продемонстрировать использование инструментария AI Explainability 360 Toolkit, мы используем существующие шаблон кода обнаружения мошенничества объяснение алгоритмов AIX360.
Описание
Представьте себе сценарий, в котором вы посещаете банк, где хотите взять ссуду в 1 миллион долларов. Кредитный специалист использует систему на базе искусственного интеллекта, которая предсказывает или рекомендует, имеете ли вы право на получение ссуды и размер этой ссуды. В этом примере система AI рекомендует, чтобы вы не имели права на получение ссуды. Итак, у вас может возникнуть несколько вопросов, над которыми вам нужно подумать:
- Удовлетворены ли вы как клиент сервисом?
- Хотели бы вы оправдать решение, принятое системой ИИ?
- Следует ли кредитному инспектору перепроверить решение, принятое системой ИИ, и хотите ли вы, чтобы он знал базовый механизм модели ИИ?
- Следует ли банку полностью доверять системе на базе искусственного интеллекта и полагаться на нее?
Согласитесь, недостаточно просто делать прогнозы. Иногда нужно хорошо понимать, почему было принято решение. Есть много причин, по которым вам необходимо понимать механизм, лежащий в основе моделей машинного обучения. Они включают:
- Удобочитаемость
- Снижение смещения
- Оправданность
- Интерпретируемость
- Укрепление доверия к системам ИИ
В этом шаблоне кода мы демонстрируем, как работают три алгоритма объяснимости:
- Алгоритм Contrastive Explanations Method (CEM), доступный в AI Explainability 360 Toolkit.
- AI Explainability 360 - ProtoDash работает с существующей моделью прогнозирования, чтобы показать, как клиент сравнивается с другими, у которых есть аналогичные профили и записи погашения, аналогичные прогнозам модели для текущего клиента. Это помогает оценить и спрогнозировать риск соискателя. На основе прогноза модели и объяснения того, как была получена эта рекомендация, кредитный специалист может принять более обоснованное решение.
- Алгоритм Generalized Linear Rule Model (GLRM) в AI Explainability 360 Toolkit обеспечивает повышенный уровень объяснимости специалисту по данным, может ли модель быть развернута.
Поток
- Войдите в IBM Watson® Studio на базе Spark, запустите IBM Cloud Object Storage и создайте проект.
- Загрузите файл данных .csv в IBM Cloud Object Storage.
- Загрузите файл данных в записную книжку Watson Studio.
- Установите AI Explainability 360 Toolkit и Adversarial Robustness Toolbox в записную книжку Watson Studio.
- Получите визуализацию объяснимости и интерпретируемости модели ИИ для трех различных типов пользователей.
инструкции
Найти подробные шаги в README файл. Эти шаги объясняют, как:
- Создайте учетную запись в IBM Cloud.
- Создайте новый проект Watson Studio.
- Добавить данные.
- Создайте тетрадь.
- Вставьте данные как DataFrame.
- Запустите ноутбук.
- Проанализируйте результаты.
Этот шаблон кода является частью Набор инструментов AI 360: объяснение моделей ИИ серия вариантов использования, которая помогает заинтересованным сторонам и разработчикам полностью понять жизненный цикл модели ИИ и помогает им принимать обоснованные решения.
Источник: https://developer.ibm.com/patterns/analyzing-fraud-prediction-ai-models/- Учетная запись
- AI
- алгоритм
- алгоритмы
- Приложения
- архитектура
- Банка
- тело
- облако
- код
- доверие
- содержание
- Текущий
- данным
- ученый данных
- обнаружение
- развивать
- застройщиков
- Объяснимость
- Объясняемый ИИ
- поток
- мошенничество
- Как
- How To
- HTTPS
- IBM
- IBM Cloud
- размышления
- IT
- изучение
- уровень
- варианты
- обучение с помощью машины
- модель
- Хранение объектов
- сотрудник
- Другое
- шаблон
- прогноз
- Predictions
- Профили
- Проект
- причины
- учет
- Итоги
- Снижение
- Ученые
- Серии
- So
- диск
- система
- Прозрачность
- Доверие
- пользователей
- визуализация
- Уотсон
- Уотсон Студио
- КТО
- Работа
- работает