КаталогКниг.РФ

Машинное обучение с помощью Python для всех. Руководство по созданию систем машинного обучения: от основ до мощных инструментов (Феннер Марк) ; БОМБОРА, 2024

Книга: Машинное обучение с помощью Python для всех. Руководство по созданию систем машинного обучения: от основ до мощных инструментов (Феннер Марк) ; БОМБОРА, 2024

от 2186 р. до 2388 р.


Сравнить цены

Цена от 2186 р. до 2388 р. в 6 магазинах

МагазинЦенаНаличие
Буквоед

5/5

2388 р.
Минимальная сумма заказа 100 рублей
Book24

5/5

2388 р. 2729 р.
Яндекс.Маркет

5/5

2186 р. 2674 р.
Мегамаркет

5/5

2388 р.
Лабиринт

5/5

2317 р. 3174 р.
наличие уточняйте
15.04.2024
МАЙШОП

5/5

2201 р. 3236 р.
наличие уточняйте
10.04.2024
AliExpress

5/5

Читай-город

5/5

Как купить или где мы находимся +

Описание

Машинное обучение затронуло практически все отрасли жизни. Для него используются многие языки программирования, но наиболее популярным является Python. Несмотря на то что в основе машинного обучения обычно лежат продвинутые математические концепции, обучать сложные модели, не имея глубоких математических знаний, вполне возможно. Эта книга представляет собой руководство, доступное для понимания любому человеку, что позволяет при любом уровне подготовки быстро улучшить знания и навыки в области машинного обучения, освоить некоторые сложные и интересные методы.

Смотри также Характеристики.

Яндекс.Маркет


Содержание

Предисловие
Вступление
Аудитория
Подход к изложению материала
Структура книги
Благодарности
Об авторе
Часть I. Первые шаги
Глава 1. Поговорим о процессе обучения
1.1. Добро пожаловать
1.2. Сфера применения, терминология,
прогнозирование и данные
1.3. Включение машины в процесс машинного
обучения
1.4. Примеры обучающихся систем
1.5. Оценка обучающихся систем
1.6. Процесс создания обучающихся систем
1.7. Допущения и реальность обучения
1.8. Подведение итогов
Глава 2. Основные технические сведения
2.1. Настройка среды программирования
2.2. Потребность в математическом языке
2.3. Программное обеспечение для машинного
обучения
2.4. Вероятность
2.5. Линейные комбинации, взвешенные суммы
и скалярные
произведения
2.6. Геометрический взгляд на вещи: точки в
пространстве
2.7. Нотация и прием "плюс один"
2.8. Добавление крутизны, избавление от
смирительной рубашки
и нелинейность
2.9. NumPy против "всей этой математики"
2.10. Проблемы с плавающей запятой
2.11. Подведение итогов
Глава 3. Предсказание категорий: знакомство с
классификацией
3.1. Задачи классификации
3.2. Простой набор данных для задач
3.3. Классификации
Тренировка и тестирование: избегайте
натаскивания
3.4. Оценка: подсчет результатов экзамена
3.5. Простой классификатор № 1: ближайшие
соседи, отношения
на расстоянии и допущения
3.6. Простой классификатор № 2: наивный
байесовский алгоритм,
вероятность и нарушенные обещания
3.7. Упрощенная оценка классификаторов
3.8. Подведение итогов
Глава 4. Предсказание числовых значений:
знакомство с регрессией
4.1. Простой набор данных для задач
регрессии
4.2. Регрессия методом k-ближайших соседей и
сводная статистика
4.3. Линейная регрессия и ошибки
4.4. Оптимизация: выбор лучшего ответа
4.5. Простая оценка и сравнение регрессоров
4.6. Подведение итогов
Часть II. Оценка
Глава 5. Оценка и сравнение обучающихся систем
5.1. Оценка и почему меньше значит больше
5.2. Терминология для описания этапов
обучения
5.3. Майор Том, что-то не так: переобучение и
недообучение
5.4. От ошибок к затратам
5.5. (Повторная) выборка: получение
большего за счет меньшего
5.6. Разложение ошибки на смещение и
дисперсию
5.7. Графический метод оценки и сравнения
5.8. Сравнение моделей с помощью
перекрестной проверки
5.9. Подведение итогов
Глава 6. Оценка классификаторов
6.1. Базовые классификаторы
6.2. Помимо точности: показатели
эффективности классификации
6.3. ROC-кривые
6.4. Еще один метод многоклассовой
классификации:
один против одного
6.5. Кривые прецизионность - полнота
6.6. Кумулятивный отклик и Lift-кривые
6.7. Более сложный способ оценки
классификаторов: дубль два
6.8. Подведение итогов
Глава 7. Оценка регрессоров
7.2. 7.1. Базовые регрессоры
Дополнительные метрики для оценки регрессоров
7.3. Графики остатков
7.4. Знакомство с понятием стандартизации
7.5. Более сложный способ оценки
регрессоров: дубль два
7.6. Подведение итогов
Часть III. Дополнительные методы и основные
сведения
Глава 8. Дополнительные методы классификации
8.1. Переосмысление процесса классификации
8.2. Деревья решений
8.3. Классификаторы на основе метода
опорных векторов
8.4. Логистическая регрессия
8.5. Дискриминантный анализ
8.6. Допущения, смещения и классификаторы
8.7. Сравнение классификаторов: дубль три
8.8. Подведение итогов
Глава 9. Дополнительные методы регрессии
9.1. Линейная регрессия на скамейке
штрафников: регуляризация
9.2. Регрессия методом опорных векторов
9.3. Кусочно-постоянная регрессия
9.4. Деревья регрессии
9.5. Сравнение регрессоров: дубль три
9.6. Подведение итогов
Глава 10. Ручное конструирование признаков:
манипулирование данными ради удовольствия и
прибыли
10.1. Конструирование признаков:
терминология и мотивация
10.2. Отбор признаков и сокращение объема
данных:
избавление от мусора
10.3. Масштабирование признаков
10.4. Дискретизация
10.5. Кодирование категориальных
переменных
10.6. Зависимости и взаимодействия
10.7. Манипуляции с целевыми переменными
10.8. Подведение итогов
Глава 11. Настройка гиперпараметров и конвейеры

11.1 Модели, параметры, гиперпараметры
11.2. Настройка гиперпараметров
11.3. Прыжок в рекурсивную кроличью нору:
11.4. вложенная перекрестная проверка
Конвейеры
11.5. Конвейеры и совместная настройка
гиперпараметров
11.6. Подведение итогов
Часть IV. Добавление сложности
Глава 12. Объединение моделей
12.1. Ансамбли
12.2. Голосующие ансамбли
12.3. Бэггинг и случайные леса
12.4. Бустинг
12.5. Сравнение ансамблевых методов на
основе деревьев решений
12.6. Подведение итогов
Глава 13. Модели, которые конструируют
признаки за нас
13.1. Отбор признаков
13.2. Построение признаков с помощью ядер
13.3. Анализ главных компонент: обучение без
учителя
13.4. Подведение итогов
Глава 14. Конструирование признаков для
предметных областей: предметно-
ориентированное обучение
14.1. Работа с текстом
14.2. Кластеризация
14.3. Работа с изображениями
14.4. Подведение итогов
Глава 15. Взаимосвязи, расширения и дальнейшие
направления
15.1. Оптимизация
15.2. Построение модели линейной регрессии
из примитивных компонентов
15.3. Построение модели логистической
регрессии
из примитивных компонентов
15.4. Построение SVM из примитивных
компонентов
15.5. Нейронные сети
15.6. Графовые вероятностные модели
15.7. Подведение итогов
Приложение А. Листинг модуля mlwpy.py
Предметный указатель

О книге

ISBN978-5-04-187899-3
Автор(ы)
Переплет70x100/16 шитая
ИздательБОМБОРА
Год издания2024
Сериямировой компьютерный бестселлер
Кол-во страниц672
Количество книг1
Возрастное ограничение12+
Тип обложкитвердая
ИздательствоБОМБОРА
Количество страниц672
Обложкатвердый переплёт

Отзывы (0)

    Добавить отзыв



    1 ms.

    Книги с похожим названием

    Искать все [2]

     

    Программирование - издательство "Бомбора"

    Категория 1748 р. - 2623 р.

    Программирование - издательство "Бомбора" »

    0 ms.

    Программирование

    Категория 1748 р. - 2623 р.

    ADS
    закладки (0) сравнение (0)

     

    preloader

    7 ms