Глубокое обучение без математики. Том 1. Основы

Гласснер Эндрю

Код товара: 3635168
(0 оценок)Оценить
ОтзывНаписать отзыв
ВопросЗадать вопрос
1 / 2
PDF
Фиксированная скидка
Акция до 01.10.2024
 Подробнее
-35%
2 946
4 531
Доставим в
г. Москва
Курьером
Л-Пост
бесплатно от 10 000 ₽
В пункт выдачи
от 155 ₽
бесплатно от 10 000 ₽
Точная стоимость доставки рассчитывается при оформлении заказа
Издательство:
Оригинальное название:
Deep Learning: From Basics to Practice. Volume 1
Год издания:
2019
Переводчик:
Редактор:

Описание

Характеристики

Эта книга не похожа на большинство других учебников и руководств по глубокому обучению – в ней нет ни детального алгоритмического анализа, сопровождаемого обширной математикой, ни развернутых листингов программного кода. Автор выбрал золотую середину - благодаря дружелюбному подходу, сопровождаемому огромным количеством цветных иллюстраций, а также детальному и скрупулезному описанию, он глубоко освещает основополагающие идеи и фундаментальные основы глубокого обучения и нейронных сетей.

Издание предназначено для всех читателей, кто хочет использовать глубокое обучение в своей работе. Это программисты, инженеры, ученые, руководители, музыканты, врачи и все, кто хочет работать с большими объемами данных, извлекая из них полезную информацию или формируя новые данные.
код в Майшоп
3635168
возрастная категория
18+ (нет данных)
количество томов
1
количество страниц
584 стр.
размеры
241x172x35 мм
страна изготовления
Россия
формат
70x100 1/16
ISBN
978-5-97060-701-5
тип бумаги
офсетная (60-220 г/м2)
стандарт
вес
язык
русский
переплёт
Твёрдый переплёт

Содержание

Т0М1. ОСНОВЫ
Предисловие. Добро пожаловать!
Глава 1. Введение в машинное обучение и глубокое
обучение
1.1. Зачем здесь эта глава
1.1.1. Извлечение значащей информации изданных
1.1.2. Экспертные системы
1.2. Изучение маркированных данных
1.2.1. Стратегия обучения
1.2.2. Стратегия компьютерного обучения
1.2.3. Обобщение
1.2.4. Более внимательный взгляд на обучение
1.3. Обучение с учителем
1.3.1. Классификация
1.3.2. Регрессия
1.4. Обучение без учителя
1.4.1. Кластеризация
1.4.2. Подавление шума
1.4.3. Понижение размерности
1.5. Генераторы
1.6. Обучение с подкреплением
1.7. Глубокое обучение
1.8. Что последует дальше
Справочные материалы
Заимствованные рисунки
Глава 2. Хаотичность и базовая статистика
2.1. Зачем здесь эта глава
2.2. Случайные переменные
2.2.1. Случайные числа на практике
2.3. Некоторые общеупотребительные
распределения
2.3.1. Равномерное распределение
2.3.2. Нормальное распределение
2.3.3. Распределение Бернулли
2.3.4. Мультиномиальное распределение
2.3.5. Математическое ожидание
2.4. Зависимость
2.4.1. Независимые, одинаково распределенные
переменные
2.5. Выбор и возврат
2.5.1. Выбор с возвращением
2.5.2. Выбор без возвращения
2.5.3. Осуществление выбора
2.6. Оценка ошибки обобщения. Бутстраппинг
2.7. Многомерные пространства
2.8. Ковариация и корреляция
2.8.1. Ковариация
2.8.2. Корреляция
2.9. Квартет Энскомба
Справочные материалы
Глава 3. Вероятность
3.1. Почему здесь эта глава
3.2. Метание дротика
3.3. Простая вероятность
3.4. Условная вероятность
3.5. Совместная вероятность
3.6. Маргинальная вероятность
3.7. Корректность измерений
3.7.1. Классификация выборок
3.7.2. Матрица неточностей
3.7.3. Интерпретация матрицы неточностей
3.7.4. Когда неправильная классификация
приемлема
3.7.5. Верность
3.7.6. Точность
3.7.7. Полнота
3.7.8. О точности и полноте
3.7.9. Другие критерии
3.7.10. Совместное использование точности и
полноты
3.7.11. Мера f1
3.8. Применение матрицы неточностей
Справочные материалы
Глава 4. Правило Байеса
4.1. Почему здесь эта глава
4.2. Частотная и байесовская вероятности
4.2.1. Частотный подход
4.2.2. Байесовский подход
4.2.3. Обсуждение
4.3. Подбрасывание монеты
4.4. Это несмещенная монета?
4.4.1. Правило Байеса
4.4.2. Замечания по поводу правила Байеса
4.5. Поиски жизни
4.6. Повторные применения правила Байеса
4.6.1. Цикл постериор-приор
4.6.2. Пример: какую монету мы имеем?
4.7. Множественные гипотезы
Справочные материалы
Глава 5. Кривые и поверхности
5.1. Почему здесь эта глава
5.2. Введение
5.3. Производная
5.4. Градиент
Справочные материалы
Глава 6. Теория информации
6.1. Почему здесь эта глава
6.1.1. Информация: одно слово, два значения
6.2. Удивление и контекст
6.2.1. Удивление
6.2.2. Контекст
6.3. Бит как единица информации
6.4. Измерение информации
6.5. Размер события
6.6. Адаптивные коды
6.7. Энтропия
6.8. Кросс-энтропия
6.8.1. Два адаптивных кода
6.8.2. Смешение кодов
6.9. Расходимость
Справочные материалы
Глава 7. Классификация
7.1. Почему здесь эта глава
7.2. Двумерная классификация
7.2.1.20-бинарная классификация
7.3. 20-многоклассовая классификация
7.4. Бинарная многоклассовая классификация
7.4.1. Один против остальных
7.4.2. Один против одного
7.5. Кластеризация
7.6. Проклятие размерности
7.6.1. Странности большой размерности
Справочные материалы
Глава 8. Обучение и тестирование
8.1. Почему здесь эта глава
8.2. Обучение
8.2.1. Тестирование качества обучения
8.3. Тестовые данные
8.4. Поверочные данные
8.5. Кросс-валидация
8.5.1. к-кратная валидация
8.6. Использование результатов тестирования
Справочные материалы
Заимствованные изображения
Глава 9. Избыточное обучение и недостаточное
обучение
9.1. Почему здесь эта глава
9.2. Избыточность и недостаточность
9.2.1. Избыточность
9.2.2. Недостаточность
9.3. Избыточные данные
9.4. Преждевременный останов
9.5. Регуляризация
9.6. Смещение и дисперсия
9.6.1. Аппроксимация базовых данных
9.6.2. Большое смещение, маленькая дисперсия
9.6.3. Маленькое смещение, большая дисперсия
9.6.4. Сравнение кривых
9.7. Аппроксимация по правилу Байеса
Справочные материалы
Глава 10. Нейроны
10.1. Почему здесь эта глава
10.2. Реальные нейроны
10.3. Искусственные нейроны
10.3.1. Персептрон
10.3.2. История персептрона
10.3.3. Современные искусственные нейроны
10.4. Заключение
Справочные материалы
Глава 11. Обучение и мышление
11.1. Почему здесь эта глава
11.2. Ступени обучения
11.2.1. Представление
11.2.2. Оценка
11.2.3. Оптимизация
11.3. Дедукция и индукция
11.4. Дедукция
11.4.1. Ошибки категориальных силлогизмов
11.5. Индукция
11.5.1. Термины индукции в машинном обучении
11.5.2. Ошибки индукции
11.6. Объединенные умозаключения
11.6.1. Шерлок Холмс - "мастер дедукции"
11.7. Оперантное обуславливание
Справочные материалы
Глава 12. Подготовка данных
12.1. Почему здесь эта глава
12.2. Преобразование данных
12.3. Типы данных
12.3.1. Кодирование с использованием
индивидуальных переменных
12.4. Базовая очистка данных
12.4.1. Очистка данных
12.4.2. Очистка данных на практике
12.5. Нормализация и стандартизация
12.5.1. Нормализация
12.5.2. Стандартизация
12.5.3. Запоминание преобразований
12.5.4. Типы преобразований
12.6. Выбор характеристик
12.7. Понижение размерности
12.7.1. Анализ главных компонентов (РСА)
12.7.2. Стандартизация и РСА для изображений
12.8. Преобразования
12.9. Фрагментарная обработка
12.9.1. Обработка по выборкам
П.9.2. Обработка по характеристикам
12.9.3. Обработка по элементам
12.10. Преобразование с кросс-валидацией
Справочные материалы
Заимствованные изображения
Глава 13. Классификаторы
13.1. Почему здесь эта глава
13.2. Типы классификаторов
13.3. Метод к-ближайших соседей (KNN)
13.4. Метод опорных векторов (SVM)
13.5. Деревья решений
13.5.1. Построение деревьев
13.5.2. Разделение узлов
13.5.3. Контроль избыточного обучения
13.6. Наивный Байес
13.7. Обсуждение
Справочные материалы
Глава 14. Ансамбли
14.1. Почему здесь эта глава
14.2. Ансамбли
14.3. Голосование
14.4. Бутстрап-агрегация
14.5. Случайные леса
14.6. Рандомизированные деревья
14.7. Бустинг
Справочные материалы
Глава 15. Библиотека Scikit-learn
15.1. Почему здесь эта глава
15.2. Введение
15.3. Конвенции Python
15.4. Оценщик
15.4.1. Создание объекта
15.4.2. Обучение с fit()
15.4.3. Предсказание с predictQ
15.4.4. Функции ded.si.on_function(), predict_proba()
15.5. Кластеризация
15.6. Преобразователи
15.6.1. Инверсные преобразования
15.7. Уточнение данных
15.8. Ансамбли
15.9. Автоматизация
15.9.1. Кросс-валидация
15.9.2. Поиск гиперпараметров
15.9.3. Поиск полным перебором по сетке
15.9.4. Поиск случайным перебором по сетке
15.9.5. Конвейер
15.9.6. Граница решения
15.9.7. Конвейерные преобразования
15.10. Наборы данных
15.11. Утилиты
15.12. Завершение
Справочные материалы
Глава 16. Нейронные сети прямого
распространения
16.1. Почему здесь эта глава
16.2. Графы нейронных сетей
16.3. Синхронные и асинхронные потоки
16.3.1. Графы в практике
16.4. Инициализация весов
16.4.1. Инициализация
Справочные материалы
Глава 17. Функции активации
17.1. Почему здесь эта глава
17.2. Что делает функция активации
17.2.1. Формы функций активации
17.3. Основные функции активации
17.3.1. Линейные функции
17.3.2. Лестничная функция
17.4. Ступенчатые функции
17.5. Кусочно-линейные функции
17.6. Гладкие функции
17.7. Галерея функций активации
17.8. Софтмакс
Справочные материалы
Глава 18. Обратное распространение
18.1. Почему здесь эта глава
18.1.1. О тонкости настройки
18.2. Очень медленный способ обучения
18.2.1. Медленный способ обучения
18.2.2. Более быстрый способ обучения
18.3. Пока без функций активации
18.4. Выходы нейронов и ошибка сети
18.4.1. Пропорциональность изменения ошибок
18.5. Маленькая нейронная сеть
18.6. Шаг 1: дельты для выходных нейронов
18.7. Шаг 2: использование дельт для изменения
весов
18.8. Шаг 3: дельты других нейронов
18.9. Обратное распространение в действии
18.10. Использование функций активации
18.11. Скорость обучения
18.11.1. Исследование скорости обучения
18.12. Обсуждение
18.12.1. Обратное распространение одной
диаграммой
18.12.2. Что обратное распространение не делает
18.12.3. Что обратное распространение делает
18.12.4. Поддержка нейрона
18.12.5. Мини-пакеты
18.12.6. Параллельное обновление
18 12.7. Чем привлекательно обратное
распространение
18 12.8. Обратное распространение не
гарантировано
18.12.9. Немного истории
18.12.10. Погружение в математику
Справочные материалы
Глава 19. Оптимизаторы
19.1. Почему здесь эта глава
19.2. Геометрия ошибки
19.2.1. Минимумы, максимумы, плато и седла
19.2.2. Двумерная кривая ошибки
19.3. Настройка скорости обучения
19.3.1. Обновления постоянного размера
19.3.2. Изменение скорости обучения в процессе
обучения
19.3.3. План затуханий
19.4. Стратегии обновления
19.4.1. Пакетный градиентный спуск
19.4.2. Стохастический градиентный спуск
19.4.3. Мини-пакетный градиентный спуск
19.5. Варианты градиентного спуска
19.5.1. Метод импульса
19.5.2. Импульс Нестерова
19.5.3. Adagrad
19.5.4. Adadelta и RMSprop
19.5.5. Adam
19.6. Выбор оптимизатора
Справочные материалы
Предметный указатель
ТОМ 2. ПРАКТИКА
Глава 20. Глубокое обучение
Глава 21. Нейронные сети сверток
Глава 22. Рекуррентные нейронные сети
Глава 23. Keras,часть1.
Глава 24. Keras, часть 2
Глава 25. Автокодировщики
Глава 26. Обучение с подкреплением
Глава 27. Порождающие состязательные сети
Глава 28. Применения для творчества
Глава 29. Наборы данных
Глава 30. Глоссарий

Отзывы

Вопросы

Поделитесь своим мнением об этом товаре с другими покупателями — будьте первыми!

Дарим бонусы за отзывы!

За какие отзывы можно получить бонусы?
  • За уникальные, информативные отзывы, прошедшие модерацию
Как получить больше бонусов за отзыв?
  • Публикуйте фото или видео к отзыву
  • Пишите отзывы на товары с меткой "Бонусы за отзыв"
Правила начисления бонусов
Задайте вопрос, чтобы узнать больше о товаре
Если вы обнаружили ошибку в описании товара «Глубокое обучение без математики. Том 1. Основы» (авторы: Гласснер Эндрю), то выделите её мышкой и нажмите Ctrl+Enter. Спасибо, что помогаете нам стать лучше!
Ваш населённый пункт:
г. Москва
Выбор населённого пункта