КаталогКниг.РФ

Книга: Машинное обучение (Флах Питер) ; ДМК-Пресс, 2015

Книга: Машинное обучение (Флах Питер) ; ДМК-Пресс, 2015

от 792 р. до 2666 р.


Сравнить цены

Цена от 792 р. до 2666 р. в 5 магазинах

МагазинЦенаНаличие
Лабиринт

5/5

2472 р. 4943 р.
ЛитРес

5/5

792 р. 990 р.
электронная книга | скачать фрагмент
Яндекс.Маркет

5/5

2554 р.
наличие уточняйте
18.04.2024
МАЙШОП

5/5

2284 р. 3625 р.
Мегамаркет

5/5

2666 р. 4442 р.
наличие уточняйте
13.04.2024
AliExpress

5/5

Читай-город

5/5

Как купить или где мы находимся +

Описание

Перед вами один из самых интересных учебников по машинному обучению - разделу искусственного интеллекта, изучающего методы построения моделей, способных обучаться, и алгоритмов для их построения. Автор воздал должное невероятному богатству предмета и не упустил из вида объединяющих принципов. Читатель с первых страниц погружается в машинное обучение в действии, но без не нужных на первых порах технических деталей. По мере изучения предмета тщательно подобранные примеры, сопровождаемые иллюстрациями, постепенно усложняются.
В книге описан широкий круг логических, геометрических и статистических моделей, затрагиваются и такие находящиеся на переднем крае науки темы, как матричная факторизация и анализ РХП. Особое внимание уделено важнейшей роли признаков. Устоявшаяся терминология дополняется введением в рассмотрение новых полезных концепций. В конце каждой главы приводятся ссылки на дополнительную литературу с авторскими комментариями.
Книга ясно написана и хорошо организована. Начав с основ, автор умело ведет читателя, знакомя его с полезными фактами и подробно описывая ряд методов машинного обучения. Приводится также псевдокод ключевых алгоритмов.
Благодаря всему этому книга задает новый стандарт изучения такой сложной дисциплины как машинное обучение.

Смотри также Характеристики.

Яндекс.Маркет


Содержание

Предисловие
Как читать эту книгу
Благодарности
Пролог: пример машинного обучения
1. Ингредиенты машинного обучения
1.1 Задачи: проблемы, решаемые методами
машинного обучения
В поисках структуры
Оценка качества решения задачи
1.2. Модели: результат машинного обучения
Геометрические модели
Вероятностные модели
Логические модели
Группировка и ранжирование
1.3 Признаки: рабочая лошадка машинного
обучения
Два способа использования признаков
Отбор и преобразование признаков
Взаимодействие между признаками
1.4 Итоги и перспективы
Что будет в книге дальше
2 Бинарная классификация и родственные задачи
2.1 Классификация
Оценка качества классификации
Наглядное представление качества
классификации
2.2 Оценивание и ранжирование
Оценка и визуализация качества ранжирования
Преобразование ранжировщика в классификатор
2.3. Оценивание вероятностей классов
Качество оценивания вероятностей классов
Преобразование ранжировщиков в оценки
вероятностей классов
2.4 Бинарная классификация и родственные
задачи: итоги
и дополнительная литература
3 За пределами бинарной классификации
3.1 Когда классов больше двух
Многоклассовая классификация
Многоклассовые оценки и вероятности
3.2 Регрессия
3.3 Обучение без учителя и дескриптивные
модели
Прогностическая и дескриптивная кластеризация
Другие дескриптивные модели
3.4 За пределами бинарной классификации: итоги и
литература
для дальнейшего чтения
4 Концептуальное обучение
4.1 Пространство гипотез
Наименьшее обобщение
Внутренняя дизъюнкция
4.2 Пути в пространстве гипотез
Наиболее общие непротиворечивые гипотезы
Замкнутые концепты
4.3. За пределами конъюнктивных концептов
Применение логики первого порядка
4.4 Обучаемость
4.5 Концептуальное обучение: итоги и литература
для дальнейшего чтения
5 Древовидные модели
5.1 Решающие деревья
5.2 Деревья ранжирования и оценивания
вероятностей
Чувствительность к асимметричному
распределению по классам
5.3 Обучение деревьев как уменьшение дисперсии
Деревья регрессии
Кластеризующие деревья
5.4 Древовидные модели: итоги и литература для
дальнейшего чтения
6. Модели на основе правил
6.1. Обучение упорядоченных списков правил
Списки правил для ранжирования и оценивания
вероятностей
6.2. Обучение неупорядоченных множеств правил
Применение множеств правил для ранжирования и
оценивания
вероятностей
Более пристальный взгляд на перекрытие правил
6.3. Обучение дескриптивных моделей на основе
правил
Обучение правил для выявления подгрупп
Добыча ассоциативных правил
6.4 Обучение правил первого порядка
6.5 Модели на основе правил: итоги и литература
для дальнейшего чтения
7. Линейные модели
7.1. Метод наименьших квадратов
Многомерная линейная регрессия
Регуляризованная регрессия
Применение регрессии по методу наименьших
квадратов к задаче
классификации
7.2 Перцептрон
7.3 Метод опорных векторов
Метод опорных векторов с мягким зазором
7.4 Получение вероятностей от линейных
классификаторов
7.5 За пределами линейности - ядерные методы
7.6 Линейные модели: итоги и литература для
дальнейшего чтения
8. Метрические модели
8.1 Так много дорог
8.2 Соседи и эталоны
8.3 Классификация по ближайшему соседу
8.4 Метрическая кластеризация
Алгоритм K средних
Кластеризация вокруг медоидов
Силуэты
8.5 Иерархическая кластеризация
8.6 От ядер к расстояниям
8.7 Метрические модели: итоги и литература для
дальнейшего чтения
9. Вероятностные модели
9.1 Нормальное распределение и его
геометрические интерпретации
9.2 Вероятностные модели для категориальных
данных
Использование наивной байесовской модели для
классификации
Обучение наивной байесовской модели
9.3 Дискриминантное обучение путем оптимизации
условного правдоподобия
9.4 Вероятностные модели со скрытыми
переменными
EM-алгоритм
Гауссовы смесовые модели
9.5 Модели на основе сжатия
9.6 Вероятностные модели: итоги и литература
для дальнейшего чтения
10. Признаки
10.1 Виды признаков
Вычисления с признаками
Категориальные, порядковые и количественные
признаки
Структурированные признаки
10.2. Преобразования признаков
Задание порога и дискретизация
Нормировка и калибровка
Неполные признаки
10.3. Конструирование и отбор признаков
Преобразование и разложение матриц
10.4. Признак: итоги и литература для
дальнейшего чтения
11Ансамбли моделей
11.1 Баггинг и случайные леса
11.2 Усиление
Обучение усиленных правил
11.3. Карта ансамблевого ландшафта
Смещение, дисперсия и зазоры
Другие ансамблевые методы
Метаобучение
11.4 Ансамбли моделей: итоги и литература для
дальнейшего чтения
12 . Эксперименты в машинном обучении
12.1 Что измерять
12.2 Как измерять
12.3 Как интерпретировать
Интерпретация результатов, полученных на
нескольких наборах
данных
12.4. Эксперименты в машинном обучении: итоги и
литература
для дальнейшего чтения
Эпилог: что дальше?
Что нужно запомнить
Библиография
Предметный указатель

О книге

Автор(ы)
ИздательДМК-Пресс
Год издания2015
Форматы электронной версииPDF
ISBN978-5-9706-0273-7
Тип обложкитвердая
АвторФлах Питер
ИздательствоДМК Пресс
Количество книг1
Возрастное ограничение0+
Количество страниц400
Формат24,5 х 17,2
Вес776
Размеры70x100/16
Обложкатвердый переплёт
Язык изданияrus
Кол-во страниц400

Отзывы (3)

  • 5/5

    машинное обучение – сочетание статистики и представления знаний, подробно рассматриваются решающие деревья и обучение на основе правил, авторские материалы из преподавания ML, основанные на применении математической статистики. От души рекомендую! =)

    0    0

  • 5/5

    Сначала купил 2 тома, глубокое обучение без математики. После перешёл к данной книге. В такой последовательности проблем для восприятия и применения на практике не возникло.

    0    0

  • 4/5

    Именно учебник. Материал изложен доступно и последовательно. В книге практически нет места белым пятнам.

    Если к содержанию претензий нет, то к типографическому качеству издания их выше крыше. Под симпатичной твердой обложкой с заманчивым примечанием "Цветное издание" скрывается полный швах. Если черные чернила еще более или менее, хотя скорее менее, то на цветных издатели явно экономили. Ощущение, что печать пустили в режиме "быстрая-черновая".

    0    0

Добавить отзыв



1 ms.

Книги с похожим названием

Искать все [109]

 

Информатика - издательство "ДМК-Пресс"

Категория 633 р. - 950 р.

Информатика - издательство "ДМК-Пресс" »

0 ms.

Информатика

Категория 633 р. - 950 р.

ADS
закладки (0) сравнение (0)

 

preloader

8 ms