Объяснимые модели искусственного интеллекта на Python

Мишра Прадипта

Код товара: 4891633
(0 оценок)Оценить
ОтзывНаписать отзыв
ВопросЗадать вопрос
1 / 2
PDF
-33%
1 974
2 945
Доставим в
г. Москва
Планируемая дата
7 мая (Вт)
Курьером
Л-Пост
бесплатно от 10 000 ₽
В пункт выдачи
от 155 ₽
бесплатно от 10 000 ₽
Точная стоимость доставки рассчитывается при оформлении заказа
Издательство:
Оригинальное название:
Practical Explainable Using Python. Artificial Intelligence Model Explanations
Год издания:
2022 г.
Может быть отгружен товар указанного или более позднего года
Переводчик:

Описание

Характеристики

В этой книге рассматриваются так называемые модели «черного ящика» для повышения адаптивности, интерпретируемости и объяснимости решений, принимаемых алгоритмами искусственного интеллекта (ИИ), с использованием таких фреймворков, как библиотеки Python XAI, TensorFlow 2.0+, Keras, а также пользовательских фреймворков, использующих оболочки Python. Излагаются основы объяснимости и интерпретируемости моделей, обсуждаются методы и системы для интерпретации линейных, нелинейных моделей и моделей временных рядов, используемых в ИИ. Вы узнаете, как алгоритм ИИ принимает решение и как сделать модель ИИ интерпретируемой и объяснимой, ознакомитесь с моделями глубокого обучения.
количество томов
1
количество страниц
298 стр.
переплет
Твёрдый переплёт
размеры
240x170x20 мм
цвет
Белый
тип бумаги
офсетная (60-220 г/м2)
ISBN
978-5-93700-124-5
возрастная категория
18+ (нет данных)
вес
код в Майшоп
4891633
язык
русский

Содержание

Об авторе
О рецензентах
Благодарности
Введение
Глава 1. Объяснимость и интерпретируемость
модели
Создание основ
Искусственный интеллект
Необходимость XAI
Сравнение объяснимости с интерпретируемостью
Типы объяснимости
Инструменты для объяснимости моделей
SHAP
LIME
ELI5
Skater
Skope_rnles
Методы XAI для ML
Совместимые с XAI модели
XAI удовлетворяет требованиям ответственного AI
Оценка XAI
Заключение
Глава 2. Этика, предвзятость и надежность AI
Основы этики AI
Предвзятость в AI
Предвзятость данных
Алгоритмическая предвзятость
Процесс снижения предвзятости
Предвзятость интерпретации
Предвзятость при обучении
Надежность в AI
Заключение
ГЛАВА 3. Объяснимость для линейных моделей
Линейные модели
Линейная регрессия
VIF и проблемы, которые он может породить
Окончательная модель
Объяснимость модели
Доверие к модели ML: SHAP
Локальное объяснение и индивидуальные
прогнозы в модели ML ....
Глобальное объяснение и общие прогнозы в модели
ML
Объяснение LIME и модель ML
Объяснение Skater и модель ML
Объяснение ELI5 и модель ML
Логистическая регрессия
Интерпретация
Вывод LIME
Заключение
ГЛАВА 4. Объяснимость для нелинейных моделей
Нелинейные модели
Объяснение дерева решений
Подготовка данных для модели дерева решений
Создание модели
Дерево решений - SHAP
График частичной зависимости
PDP с использованием Scikit-Learn
Объяснение нелинейной модели - LIME
Нелинейное объяснение - Skope-Rules
Заключение
ГЛАВА 5. Объяснимость для ансамблевых моделей
Ансамблевые модели
Типы ансамблевых моделей
Почему ансамблевые модели?
Использование SHAP для ансамблевых моделей
Использование интерпретации, объясняющей
модель повышения ...
Модель классификации ансамблей: SHAP
Использование SHAP для объяснения
категориальных
моделей повышения
Использование многоклассовой категориальной
модели
повышения SHAP
Использование SHAP для объяснения модели
легкой GBM
Заключение
ГЛАВА 6. Объяснимость для моделей временных
рядов ....
Модели временных рядов
Выбор подходящей модели
Стратегия прогнозирования
Доверительный интервал прогнозов
Что происходит с доверием?
Временные ряды: LIME
Заключение
ГЛАВА 7. Объяснимость для NLP
Задачи обработки естественного языка
Объяснимость для классификации текстов
Набор данных для классификации текста
Объяснение с помощью ELI5
Вычисление весов характеристик для локального
объяснения
Локальное объяснение. Пример 1
Локальное объяснение. Пример 2
Локальное объяснение. Пример 3
Объяснение после удаления стоп-слов
Классификация текста на основе N-грамм
Объяснимость многоклассовой классификации
текста по меткам
Локальное объяснение. Пример 1
Локальное объяснение. Пример 2
Локальное объяснение. Пример 3
Заключение
ГЛАВА 8. Справедливость модели AI,
использующей сценарий "что, если"
Что такое WIT?
Установка WIT
Метрика оценки
Заключение
ГЛАВА 9. Объяснимость для моделей глубокого
обучения ...
Объяснение моделей DL
Использование SHAP с DL
Использование Deep SHAP
Использование Alibi
Объяснитель SHAP для глубокого обучения
Еще один пример классификации изображений
Использование SHAP
Deep Explainer для табличных данных
Заключение
ГЛАВА 10. Контрфактуальные объяснения
для моделей XAI
Что такое CFE?
Применение CFE
CFE с помощью Alibi
Контрфактуал для задач регрессии
Заключение
ГЛАВА 11. Контрастные объяснения
для машинного обучения
Что такое CE для ML?
CEM, использующие Alibi
Сравнение оригинального изображения и
изображения,
сгенерированного автокодировщиком
Объяснения CEM для табличных данных
Заключение
ГЛАВА 12. Модельно независимые объяснения
путем определения инвариантности прогноза
Что такое независимость от модели?
Что такое якорь?
Объяснения якорей с помощью Alibi
Якорь текста для классификации текста
Якорь изображения для классификации
изображений
Заключение
ГЛАВА 13. Объяснимость модели для экспертных
систем, основанных на правилах
Что такое экспертная система?
Прямая и обратная цепочки
Извлечение правил с помощью Scikit-Learn
Потребность в системе, основанной на правилах
Проблемы экспертной системы
Заключение
ГЛАВА 14. Объяснимость моделей
для компьютерного зрения
Почему объяснимость для данных изображений?
Якорь изображения с помощью Alibi
Метод интегрированных градиентов
Заключение

Отзывы

Вопросы

Поделитесь своим мнением об этом товаре с другими покупателями — будьте первыми!

Дарим бонусы за отзывы!

За какие отзывы можно получить бонусы?
  • За уникальные, информативные отзывы, прошедшие модерацию
Как получить больше бонусов за отзыв?
  • Публикуйте фото или видео к отзыву
  • Пишите отзывы на товары с меткой "Бонусы за отзыв"
Правила начисления бонусов
Задайте вопрос, чтобы узнать больше о товаре
Если вы обнаружили ошибку в описании товара «Объяснимые модели искусственного интеллекта на Python» (авторы: Мишра Прадипта), то выделите её мышкой и нажмите Ctrl+Enter. Спасибо, что помогаете нам стать лучше!
Ваш населённый пункт:
г. Москва
Выбор населённого пункта