Скачать Машинное обучение: выделение факторов на Python [Центр digital-профессий ITtensive] [Udemy]

  • Автор темы Автор темы admin
  • Дата начала Дата начала
  • Приглашаем разместиться на бесплатной основе в разделе Маркет -> услуг. Наш ТГ: @ble_lol
    Для просмотра КУРСОВ надо статус VIP, КУПИТЬ МОЖНО ТУТ: https://ble.lol/account/upgrades

    Запрещенно работать RU и СНГ! Блок навечно!

admin

Команда форума
Баба Яга
9 Ноя 2024
26,451
269
BCoin
184,247
DEP
41,637р
Машинное обучение: выделение факторов на Python
Выигрываем хакатон по выделению факторов: линейная регрессия, взаимная информация, PCA, ICA, NMF, MDS, t-SNE
Авторы: Центр digital-профессий ITtensive
Последнее обновление: 1/2021
русский
Чему вы научитесь
Процесс и модель машинного обучения
Линейная регрессия и L1/L2 регуляризация
Решающие деревья и ансамбли стекинга
Корреляция и взаимная информация
Метод главных компонент (PCA)
Сингулярное разложение (SVD)
Анализ независимых компонент (ICA)
Многомерное шкалирование (MDS)
t-SNE, UMAP, LargeVis
Материалы курса
10 разделов • 46 лекций • Общая продолжительность 6 ч 19 мин
Требования
Продвинутый Python
Основы математической статистики
Описание
Мы разберем задачу хакатона 2020 года по выделению факторов, в наибольшей степени влияющих на продолжительность жизни в России, с точки зрения фундаментальных и прикладных подходов к понижению размерности данных. В заключении построим ансамбль моделей для предсказания продолжительности жизни, базируясь на выделенных факторах.
Курс разбит на 4 части. В первой части мы последовательно пройдем все этапы работы с данными: от видов задач и их постановки до работы с моделями машинного обучения для минимизации предсказательной ошибки. Дополнительно рассмотрим фундаментальные основы построения моделей машинного обучения, базовые метрики и наиболее простые модели - линейную регрессии, решающие деревья и случайный лес. А также ансамбли машинного обучения.
Во второй части на практике разберем:
Очистку и предобработку данных - ETL
Линейную регрессию для экстраполяции данных
Линейную регрессию с регуляризацией для выделения факторов
Информационные критерии понижения размерности
В заключении создадим ансамбль стекинга из простых моделей понижения размерности.
Третья часть посвящена матричным методам:
Метод главных компонент (PCA)
Сингулярное разложение (SVD)
Анализ независимых компонент (ICA)
Положительно-определенные матрицы (NMF)
Уточним решение задачи обучения без учителя через матричные методы.
В четвертой части рассмотрим нелинейные подходы:
Многомерное шкалирование (MDS).
t-SNE
UMAP
LargeVis
Стабилизируем ансамбль понижения размерности и используем его для предсказания продолжительности жизни в России, основываясь на наиболее важных макроэкономических показателях.
Для кого этот курс:
Аналитики Python, изучающие машинное обучение
Программисты больших данных
Исследователи больших данных

Скрытое содержимое могут видеть только пользователи групп(ы): VIP