В программе лояльности

Надежность нейронных сетей. Укрепляем устойчивость ИИ к обману

Уорр Кэти

Код товара: 4403420
(0 оценок)Оценить
ОтзывНаписать отзыв
ВопросЗадать вопрос
1 / 2
PDF
Нет в наличии
Доставим в
г. Москва
Курьером
Л-Пост
бесплатно от 10 000 ₽
В пункт выдачи
от 155 ₽
бесплатно от 10 000 ₽
Точная стоимость доставки рассчитывается при оформлении заказа
Издательство:
Оригинальное название:
Strengthening Deep Neural Networks. Making AI Less Susceptible to Adversarial Trichery
Год издания:
2021
Переводчик:

Отмечено тегами

Описание

Характеристики

Глубокие нейронные сети (DNN) становятся неотъемлемой частью IT-продуктов, провоцируя появление нового направления кибератак. Хакеры пытаются обмануть нейросети с помощью данных, которые не смогли бы обмануть человека.
Кэти Уорр рассматривает мотивацию подобных атак, риски, которые влечет вредоносный ввод, а также методы повышения устойчивости ИИ к таким взломам. Если вы специалист по data science, архитектор системы безопасности и стремитесь повысить устойчивость систем с ИИ или вас просто интересует различие между искусственным и биологическим восприятием, то эта книга для вас.
код в Майшоп
4403420
возрастная категория
16+
количество томов
1
количество страниц
272 стр.
размеры
234x165x12 мм
формат
70x100/16 (170x240) мм
ISBN
978-5-4461-1676-8
тип бумаги
офсетная (60-220 г/м2)
цвет
Белый
стандарт
вес
язык
русский
переплёт
Мягкая обложка

Содержание

Предисловие
Для кого предназначена книга
Структура издания
Условные обозначения
Использование примеров программного кода
Математические обозначения
Благодарности
От издательства
ЧАСТЬ I. ОБЩИЕ СВЕДЕНИЯ ОБ ОБМАНЕ
ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
глава 1. Введение
Неглубокий обзор глубокого обучения
Очень краткая история глубокого обучения
Неожиданное открытие: оптические иллюзии
искусственного интеллекта
Что такое вредоносные входные данные
Вредоносное искажение
Неестественные вредоносные входные данные
Вредоносная заплатка
Вредоносные образы в физическом мире
Вредоносное машинное обучение в более широком
смысле
Последствия воздействия вредоносных входных
данных
глава 2. Мотивация к атакам
Обход веб-фильтров
Репутация в Интернете и управление брендом
Камуфляж против видеонаблюдения
Личная конфиденциальность в Интернете
Дезориентация автономных транспортных средств
Устройства с голосовым управлением
Глава 3. Основные понятия ГНС
Машинное обучение
Концептуальные основы глубокого обучения
Модели ГНС как математические функции
Входные и выходные данные ГНС
Внутреннее содержимое ГНС и обработка
с прямым распространением
Как обучается ГНС
Создание простого классификатора изображений
Глава 4. ГНС-обработка изображений, аудио- и
видеоданных
Изображения
Цифровое представление изображений
ГНС для обработки изображений
Общие сведения о сверточных нейронных сетях
Аудиоданные
Цифровое представление аудиоданных
ГНС для обработки аудиоданных
Общие сведения о рекуррентных нейронных сетях
Обработка речи
Видеоданные
Цифровое представление видеоданных
ГНС для обработки видеоданных
Соображения о вредоносности
Классификация изображений с помощью сети
ResNet50
ЧАСТЬ II. ГЕНЕРАЦИЯ ВРЕДОНОСНЫХ ВХОДНЫХ
ДАННЫХ
Глава 5. Базовые принципы вредоносных входных
данных
Входное пространство
Обобщение обучающих данных
Эксперименты с данными вне распределения
Что "думают" ГНС
Искажающая атака: максимальный эффект
при минимальном изменении
Вредоносная заплатка: максимальное отвлечение
внимания
Оценка выявляемое™ атак
Математические методы оценки искажения
Особенности человеческого восприятия
Резюме
Глава 6. Методы генерации вредоносных
искажений
Методы белого ящика
Поиск во входном пространстве
Использование линейности модели
Вредоносная значимость
Повышение надежности вредоносного искажения
Разновидности методов белого ящика
Методы ограниченного черного ящика
Методы черного ящика с оценкой
Резюме
ЧАСТЬ III. ПОНИМАНИЕ РЕАЛЬНЫХ УГРОЗ
Глава 7. Схемы атак против реальных систем
Схемы атак
Прямая атака
Атака с копированием
Атака с переносом
Универсальная атака с переносом
Многократно используемые заплатки и искажения
Сводим все вместе: комбинированные методы и
компромиссы
глава 8. Атаки в физическом мире
Вредоносные объекты
Изготовление объекта и возможности камеры
Углы обзора и окружение
Вредоносный звук
Возможности микрофона и системы
воспроизведения
Положение аудиосигнала и окружение
Осуществимость атак с использованием
физических
вредоносных образов
ЧАСТЬ IV. ЗАЩИТА
Глава 9. Оценка устойчивости модели к
вредоносным входным данным
Цели, возможности, ограничения и знания
злоумышленника
Цели
Возможности, осведомленность и доступ
Оценка модели
Эмпирические метрики устойчивости
Теоретические метрики устойчивости
Резюме
Глава 10. Защита от вредоносных входных данных
Улучшение модели
Маскирование градиентов
Вредоносное обучение
OoD-обучение
Оценка неопределенности случайного отсева
Предварительная обработка данных
Предварительная обработка в общей
последовательности обработки
Интеллектуальное удаление вредоносного
контента
Сокрытие информации о целевой системе
Создание эффективных механизмов защиты от
вредоносных
входных данных
Открытые проекты
Получение общей картины
Глава 11. Дальнейшие перспективы: повышение
надежности ИИ
Повышение устойчивости за счет распознавания
контуров
Мультисенсорные входные данные
Вложенность и иерархия объектов
В заключение
Приложение. Справочник математических
обозначений
Об авторе
Об обложке

Отзывы

Вопросы

Поделитесь своим мнением об этом товаре с другими покупателями — будьте первыми!

Дарим бонусы за отзывы!

За какие отзывы можно получить бонусы?
  • За уникальные, информативные отзывы, прошедшие модерацию
Как получить больше бонусов за отзыв?
  • Публикуйте фото или видео к отзыву
  • Пишите отзывы на товары с меткой "Бонусы за отзыв"
Правила начисления бонусов
Задайте вопрос, чтобы узнать больше о товаре
Если вы обнаружили ошибку в описании товара «Надежность нейронных сетей. Укрепляем устойчивость ИИ к обману» (авторы: Уорр Кэти), то выделите её мышкой и нажмите Ctrl+Enter. Спасибо, что помогаете нам стать лучше!
Ваш населённый пункт:
г. Москва
Выбор населённого пункта