КаталогКниг.РФ

Глубокое обучение без математики. Том 1. Основы (Гласснер Эндрю) ; ДМК-Пресс, 2019

Книга: Глубокое обучение без математики. Том 1. Основы (Гласснер Эндрю) ; ДМК-Пресс, 2019

от 952 р. до 4619 р.


Сравнить цены

Цена от 952 р. до 4619 р. в 9 магазинах

МагазинЦенаНаличие
Лабиринт

5/5

3398 р. 4854 р.
Буквоед

5/5

4619 р.
Минимальная сумма заказа 100 рублей
ЛитРес

5/5

952 р. 1190 р.
электронная книга | скачать фрагмент
Book24

5/5

4619 р.
Яндекс.Маркет

5/5

3192 р.
МАЙШОП

5/5

2946 р. 4531 р.
Читай-город

5/5

3799 р.
наличие уточняйте
01.11.2023
Мегамаркет

5/5

3331 р. 4720 р.
наличие уточняйте
13.04.2024
OZON
2155 р.
наличие уточняйте
03.01.2024
AliExpress

5/5

Как купить или где мы находимся +

Описание

Если вы интересуетесь машинным обучением (Machine Learning) и глубоким обучением (Deep Learning), то этот двухтомник для вас!
Разработка и обучение собственных нейронных сетей
Использование нейронных сетей для понимания данных и создания новых данных
Присвоение описательных категорий текстам, изображениям и другим типам данных
Предсказание последующих значений последовательности данных
Исследование структуры ваших данных
Обработка данных с максимальной эффективностью
Восприятие новых знаний и идей и применение их на практике
Получение удовольствия от обсуждения глубокого обучения с другими специалистами
Эта книга не похожа на большинство других учебников и руководств по глубокому обучению - в ней нет ни детального алгоритмического анализа, сопровождаемого обширной математикой, ни развернутых листингов программного кода. Автор выбрал золотую середину - благодаря дружелюбному подходу, сопровождаемому огромным количеством цветных иллюстраций, а также детальному и скрупулезному описанию, он глубоко освещает основополагающие идеи и фундаментальные основы глубокого обучения и нейронных сетей.
Издание предназначено для всех читателей, кто хочет использовать глубокое обучение в своей работе. Это программисты, инженеры, ученые, руководители, музыканты, врачи и все, кто хочет работать с большими объемами данных, извлекая из них полезную информацию или формируя новые данные.
Продолжение книги будет посвящено практическому воплощению алгоритмов глубокого обучения.

Смотри также Характеристики.

Яндекс.Маркет


Содержание

Т0М1. ОСНОВЫ
Предисловие. Добро пожаловать!
Глава 1. Введение в машинное обучение и глубокое
обучение
1.1. Зачем здесь эта глава
1.1.1. Извлечение значащей информации изданных
1.1.2. Экспертные системы
1.2. Изучение маркированных данных
1.2.1. Стратегия обучения
1.2.2. Стратегия компьютерного обучения
1.2.3. Обобщение
1.2.4. Более внимательный взгляд на обучение
1.3. Обучение с учителем
1.3.1. Классификация
1.3.2. Регрессия
1.4. Обучение без учителя
1.4.1. Кластеризация
1.4.2. Подавление шума
1.4.3. Понижение размерности
1.5. Генераторы
1.6. Обучение с подкреплением
1.7. Глубокое обучение
1.8. Что последует дальше
Справочные материалы
Заимствованные рисунки
Глава 2. Хаотичность и базовая статистика
2.1. Зачем здесь эта глава
2.2. Случайные переменные
2.2.1. Случайные числа на практике
2.3. Некоторые общеупотребительные
распределения
2.3.1. Равномерное распределение
2.3.2. Нормальное распределение
2.3.3. Распределение Бернулли
2.3.4. Мультиномиальное распределение
2.3.5. Математическое ожидание
2.4. Зависимость
2.4.1. Независимые, одинаково распределенные
переменные
2.5. Выбор и возврат
2.5.1. Выбор с возвращением
2.5.2. Выбор без возвращения
2.5.3. Осуществление выбора
2.6. Оценка ошибки обобщения. Бутстраппинг
2.7. Многомерные пространства
2.8. Ковариация и корреляция
2.8.1. Ковариация
2.8.2. Корреляция
2.9. Квартет Энскомба
Справочные материалы
Глава 3. Вероятность
3.1. Почему здесь эта глава
3.2. Метание дротика
3.3. Простая вероятность
3.4. Условная вероятность
3.5. Совместная вероятность
3.6. Маргинальная вероятность
3.7. Корректность измерений
3.7.1. Классификация выборок
3.7.2. Матрица неточностей
3.7.3. Интерпретация матрицы неточностей
3.7.4. Когда неправильная классификация
приемлема
3.7.5. Верность
3.7.6. Точность
3.7.7. Полнота
3.7.8. О точности и полноте
3.7.9. Другие критерии
3.7.10. Совместное использование точности и
полноты
3.7.11. Мера f1
3.8. Применение матрицы неточностей
Справочные материалы
Глава 4. Правило Байеса
4.1. Почему здесь эта глава
4.2. Частотная и байесовская вероятности
4.2.1. Частотный подход
4.2.2. Байесовский подход
4.2.3. Обсуждение
4.3. Подбрасывание монеты
4.4. Это несмещенная монета?
4.4.1. Правило Байеса
4.4.2. Замечания по поводу правила Байеса
4.5. Поиски жизни
4.6. Повторные применения правила Байеса
4.6.1. Цикл постериор-приор
4.6.2. Пример: какую монету мы имеем?
4.7. Множественные гипотезы
Справочные материалы
Глава 5. Кривые и поверхности
5.1. Почему здесь эта глава
5.2. Введение
5.3. Производная
5.4. Градиент
Справочные материалы
Глава 6. Теория информации
6.1. Почему здесь эта глава
6.1.1. Информация: одно слово, два значения
6.2. Удивление и контекст
6.2.1. Удивление
6.2.2. Контекст
6.3. Бит как единица информации
6.4. Измерение информации
6.5. Размер события
6.6. Адаптивные коды
6.7. Энтропия
6.8. Кросс-энтропия
6.8.1. Два адаптивных кода
6.8.2. Смешение кодов
6.9. Расходимость
Справочные материалы
Глава 7. Классификация
7.1. Почему здесь эта глава
7.2. Двумерная классификация
7.2.1.20-бинарная классификация
7.3. 20-многоклассовая классификация
7.4. Бинарная многоклассовая классификация
7.4.1. Один против остальных
7.4.2. Один против одного
7.5. Кластеризация
7.6. Проклятие размерности
7.6.1. Странности большой размерности
Справочные материалы
Глава 8. Обучение и тестирование
8.1. Почему здесь эта глава
8.2. Обучение
8.2.1. Тестирование качества обучения
8.3. Тестовые данные
8.4. Поверочные данные
8.5. Кросс-валидация
8.5.1. к-кратная валидация
8.6. Использование результатов тестирования
Справочные материалы
Заимствованные изображения
Глава 9. Избыточное обучение и недостаточное
обучение
9.1. Почему здесь эта глава
9.2. Избыточность и недостаточность
9.2.1. Избыточность
9.2.2. Недостаточность
9.3. Избыточные данные
9.4. Преждевременный останов
9.5. Регуляризация
9.6. Смещение и дисперсия
9.6.1. Аппроксимация базовых данных
9.6.2. Большое смещение, маленькая дисперсия
9.6.3. Маленькое смещение, большая дисперсия
9.6.4. Сравнение кривых
9.7. Аппроксимация по правилу Байеса
Справочные материалы
Глава 10. Нейроны
10.1. Почему здесь эта глава
10.2. Реальные нейроны
10.3. Искусственные нейроны
10.3.1. Персептрон
10.3.2. История персептрона
10.3.3. Современные искусственные нейроны
10.4. Заключение
Справочные материалы
Глава 11. Обучение и мышление
11.1. Почему здесь эта глава
11.2. Ступени обучения
11.2.1. Представление
11.2.2. Оценка
11.2.3. Оптимизация
11.3. Дедукция и индукция
11.4. Дедукция
11.4.1. Ошибки категориальных силлогизмов
11.5. Индукция
11.5.1. Термины индукции в машинном обучении
11.5.2. Ошибки индукции
11.6. Объединенные умозаключения
11.6.1. Шерлок Холмс - "мастер дедукции"
11.7. Оперантное обуславливание
Справочные материалы
Глава 12. Подготовка данных
12.1. Почему здесь эта глава
12.2. Преобразование данных
12.3. Типы данных
12.3.1. Кодирование с использованием
индивидуальных переменных
12.4. Базовая очистка данных
12.4.1. Очистка данных
12.4.2. Очистка данных на практике
12.5. Нормализация и стандартизация
12.5.1. Нормализация
12.5.2. Стандартизация
12.5.3. Запоминание преобразований
12.5.4. Типы преобразований
12.6. Выбор характеристик
12.7. Понижение размерности
12.7.1. Анализ главных компонентов (РСА)
12.7.2. Стандартизация и РСА для изображений
12.8. Преобразования
12.9. Фрагментарная обработка
12.9.1. Обработка по выборкам
П.9.2. Обработка по характеристикам
12.9.3. Обработка по элементам
12.10. Преобразование с кросс-валидацией
Справочные материалы
Заимствованные изображения
Глава 13. Классификаторы
13.1. Почему здесь эта глава
13.2. Типы классификаторов
13.3. Метод к-ближайших соседей (KNN)
13.4. Метод опорных векторов (SVM)
13.5. Деревья решений
13.5.1. Построение деревьев
13.5.2. Разделение узлов
13.5.3. Контроль избыточного обучения
13.6. Наивный Байес
13.7. Обсуждение
Справочные материалы
Глава 14. Ансамбли
14.1. Почему здесь эта глава
14.2. Ансамбли
14.3. Голосование
14.4. Бутстрап-агрегация
14.5. Случайные леса
14.6. Рандомизированные деревья
14.7. Бустинг
Справочные материалы
Глава 15. Библиотека Scikit-learn
15.1. Почему здесь эта глава
15.2. Введение
15.3. Конвенции Python
15.4. Оценщик
15.4.1. Создание объекта
15.4.2. Обучение с fit()
15.4.3. Предсказание с predictQ
15.4.4. Функции ded.si.on_function(), predict_proba()
15.5. Кластеризация
15.6. Преобразователи
15.6.1. Инверсные преобразования
15.7. Уточнение данных
15.8. Ансамбли
15.9. Автоматизация
15.9.1. Кросс-валидация
15.9.2. Поиск гиперпараметров
15.9.3. Поиск полным перебором по сетке
15.9.4. Поиск случайным перебором по сетке
15.9.5. Конвейер
15.9.6. Граница решения
15.9.7. Конвейерные преобразования
15.10. Наборы данных
15.11. Утилиты
15.12. Завершение
Справочные материалы
Глава 16. Нейронные сети прямого
распространения
16.1. Почему здесь эта глава
16.2. Графы нейронных сетей
16.3. Синхронные и асинхронные потоки
16.3.1. Графы в практике
16.4. Инициализация весов
16.4.1. Инициализация
Справочные материалы
Глава 17. Функции активации
17.1. Почему здесь эта глава
17.2. Что делает функция активации
17.2.1. Формы функций активации
17.3. Основные функции активации
17.3.1. Линейные функции
17.3.2. Лестничная функция
17.4. Ступенчатые функции
17.5. Кусочно-линейные функции
17.6. Гладкие функции
17.7. Галерея функций активации
17.8. Софтмакс
Справочные материалы
Глава 18. Обратное распространение
18.1. Почему здесь эта глава
18.1.1. О тонкости настройки
18.2. Очень медленный способ обучения
18.2.1. Медленный способ обучения
18.2.2. Более быстрый способ обучения
18.3. Пока без функций активации
18.4. Выходы нейронов и ошибка сети
18.4.1. Пропорциональность изменения ошибок
18.5. Маленькая нейронная сеть
18.6. Шаг 1: дельты для выходных нейронов
18.7. Шаг 2: использование дельт для изменения
весов
18.8. Шаг 3: дельты других нейронов
18.9. Обратное распространение в действии
18.10. Использование функций активации
18.11. Скорость обучения
18.11.1. Исследование скорости обучения
18.12. Обсуждение
18.12.1. Обратное распространение одной
диаграммой
18.12.2. Что обратное распространение не делает
18.12.3. Что обратное распространение делает
18.12.4. Поддержка нейрона
18.12.5. Мини-пакеты
18.12.6. Параллельное обновление
18 12.7. Чем привлекательно обратное
распространение
18 12.8. Обратное распространение не
гарантировано
18.12.9. Немного истории
18.12.10. Погружение в математику
Справочные материалы
Глава 19. Оптимизаторы
19.1. Почему здесь эта глава
19.2. Геометрия ошибки
19.2.1. Минимумы, максимумы, плато и седла
19.2.2. Двумерная кривая ошибки
19.3. Настройка скорости обучения
19.3.1. Обновления постоянного размера
19.3.2. Изменение скорости обучения в процессе
обучения
19.3.3. План затуханий
19.4. Стратегии обновления
19.4.1. Пакетный градиентный спуск
19.4.2. Стохастический градиентный спуск
19.4.3. Мини-пакетный градиентный спуск
19.5. Варианты градиентного спуска
19.5.1. Метод импульса
19.5.2. Импульс Нестерова
19.5.3. Adagrad
19.5.4. Adadelta и RMSprop
19.5.5. Adam
19.6. Выбор оптимизатора
Справочные материалы
Предметный указатель
ТОМ 2. ПРАКТИКА
Глава 20. Глубокое обучение
Глава 21. Нейронные сети сверток
Глава 22. Рекуррентные нейронные сети
Глава 23. Keras,часть1.
Глава 24. Keras, часть 2
Глава 25. Автокодировщики
Глава 26. Обучение с подкреплением
Глава 27. Порождающие состязательные сети
Глава 28. Применения для творчества
Глава 29. Наборы данных
Глава 30. Глоссарий

О книге

Автор(ы)
РазделИнформатика
ИздательДМК-Пресс
ISBN978-5-9706-0701-5
Год издания2019
Количество страниц584
Формат170x241мм
Вес1.06кг
ПереплетТвердый переплёт
Возрастные ограничения6
Кол-во страниц578
Жанрсовременная наука
Возрастное ограничение16+
ИздательствоДМК Пресс
Оформление обложкилакировка
Тип обложкитвердая
АвторГласснер Эндрю
Количество книг1
Размеры70x100/16
Язык изданияРусский
Обложкатвердый переплёт

Отзывы (7)

  • 1/5

    Первое впечатление - книга издана хорошо, твердая обложка, цветные иллюстрации. Прочел первые сто страниц и мое мнение изменилось, причина этого - неграмотный перевод. Сначала подумал - случайность, но когда перестал понимать смысл написанного - не выдержал, нашел файл с оригинальным английским текстом. Похоже, что текст просто прогнали через google-переводчик. Часто бывает по несколько ошибок на странице, игнорируется английская грамматика, иногда плохо с русским, но основная проблема - неправильный перевод математических терминов. Например, "реальное" вместо "вещественное число" (real), "выборка" вместо "образец" (sample) и т.д.

    0    0

  • 3/5

    Сама книга отличная, перевод ужасен, переводчик не ориентируется в терминах темы. Также есть прямые неточности в русской версии, которые дополнительно затрудняют понимание. Например true negative в тексте на иллюстрации названо ложнонегативной ошибкой.

    0    0

  • 1/5

    Узнал об этой книге здесь, спасибо литресу и издательству за наводку. Но читаю в оригинале, потому-что перевод мягко говоря разочаровал, согласен с @ta.dl – он не помогает, а скорее мешает и вводит в заблужение, хотя сам оригинал написан живым и понятным языком. Саму книгу очень рекомендую – автор честно заработал сильно больше 5-ти звездочек, а вот перевод – нет, и переводчик и издательство к сожалению схалтурили, им – кол.

    0    0

Добавить отзыв



1 ms.

Книги где автор: Гласснер Эндрю

Искать всё

 

Программирование - издательство "ДМК-Пресс"

Категория 761 р. - 1142 р.

Программирование - издательство "ДМК-Пресс" »

0 ms.

Программирование

Категория 761 р. - 1142 р.

ADS
закладки (0) сравнение (0)

 

preloader

10 ms