Машинное обучение Углубленный курс

Бесплатный 72-часовой углубленный курс по машинному обучению в рамках проекта «Искусственный интеллект: быстрый старт с нуля» совместно со Школой цифровой экономики Дальневосточного Федерального Университета (ДВФУ) во Владивостоке

1 октября 2020 - 1 марта 2021 ∙ Онлайн

Регистрация до 30 января 2021

Ты получишь знания в следующих сферах

~ Data-science;
~ Системная аналитика;
~ Разработка ПО;
~ Chief data officer;
~ Инновационные стартапы в профильных областях (например, в IT-компаниях и профильных data-driven компаниях);
~ А также в сфере аналитики и консалтинга в области управления, основанного на данных.

О курсе

72 академических часа теории и практики (онлайн).

~ Компьютерное зрение;
~ Обработка естественного языка;
~ Экспертные системы;
~ Предиктивная аналитика.

Основной язык программирования обучающей программы — Python.
Обучение проходит на платформе CATS и YouTube канале «Русская Школа Программирования».

Открытые лекции в рамках курса

Предсказание обращений

Покажем на примере, как бизнес-задачу превратить в математическую задачу и поделиться алгоритмом действий на примере кейса МегаФон!

Спикер: Тимур Джумакаев, эксперт по анализу данных компании МегаФон.
Смотерть

Задача предсказания распределения трафика при строительстве базовой станции

Поговорим про многоуровневые модели машинного обучения и о том, где строить базовые станции, а также про задачи расчета трафика для новой станции, пайплайн расчета и его дальнейшее применение.

Бонусом предлагаем воспроизвести практическое задание по геоданным.

Спикер: Тимур Джумакаев, эксперт по анализу данных компании МегаФон.
Смотреть

В программе курса ты узнаешь

Введение. Методы оптимизации. Градиентный спуск (gradient descent)
~ Основные термины машинного обучения. Задача классификации, регрессии.
~ Функция потерь. Оптимизация. Перебор по сетке.
~ Производная, частные производные, градиент. Методы оценки градиента.
~ Градиентный спуск, проблема выбора шага.
~ Стохастический градиентный спуск. Использование момента.
~ Метод отжига.
~ Adagrad, Adadelta, Adam.
~ RMSProp*.
Линейная регрессия (linear regression)
~ Постановка задачи линейной регрессии. Вероятностная интерпретация.
~ Метод наименьших квадратов. Алгебраическое и оптимизационное решения.
~ Ковариация, корреляция.
~ Критерий R2.
~ Анализ остатков. Гомоскедастичность. Квартет Анскомба.
~ Решение для неквадратных и плохо обусловненных матриц.
~ Регуляризация Ridge, LASSO, Elastic*.
~ Обобщённые линейные модели (generalized linear models)*.
~ Обобщённые аддитивные модели (generalized additive models)*.
Глобальная оптизация. Генетический алгоритм (genetic algorithm)
~ Многопараметрическая оптимизация.
~ Доминация и оптимальность по Парето.
~ Функция качества (fitness). Аппроксимация качества.
~ Общая идея генетического алгоритма.
~ Представление генома.
~ Методы селекции: пропорционально качеству, универсальная выборка (stochastic universal sampling), с наследием (reward-based), турнир. Стратегия элитизма.
~ Методы кроссовера. Двух и много-точечный, равномерный (по подмножествам), для перестановок.
~ Мутация. Влияние на скорость обучения.
~ Управление популяцией. Сегрегация, старение, распараллеливание.
~ Генетическое программирование*.
Метод ближайших соседей (k-NN)
~ Базовый алгоритм классификации методом 1-NN и k-NN. Преимущества и недостатки.
~ Кросс-валидация методом "без одного" (leave one out).
~ Определение границ, показатель пограничности.
~ Сжатие по данным. Понятия выброса, прототипа, усвоенной точки. Алгоритм Харта (Hart).
~ Регрессия методом k-NN.
~ Взвешенные соседи.
~ Связь с градиентным спуском. Стохастическая формулировка, softmax.
~ Метод соседних компонент (neighbour component analysis)*.
~ Связь с выпуклой оптимизацией. Метод большого запаса (Large margin NN)*.
~ Оптимизация классификатора, k-d деревья, Hierarchical Navigable Small World*.
~ Хеши чувствительные к локальности, хеши сохраняющие локальность*.
Наивный байесов классификатор (naive Bayes)
~ Условная вероятность. Байесово решающее правило. Обновление вероятностей.
~ Наивный классификатор, предположение о независимости признаков.
~ Оценка плотности распределения для числовых признаков.
~ Эффективные алгоритмы наивного классификатора.
~ Байесова оптимизация*.
~ Алгоритм EM*.
Деревья решений (decision trees)
~ Понятие дерева решений.
~ Понятие энтропии, определение информации по Шеннону.
~ Метрики: примеси Джини (Gini impurity), добавленная информация (information gain).
~ Алгоритмы ID3, CART.
~ Борьба с оверфиттингом: bagging, выборки признаков (random subspace method).
~ Ансамбли, случайный лес (Random Forest).
~ Деревья регрессии. Метрика вариации.
~ Непрерывные признаки. Использование главных компонент вместо признаков.
~ Сокращение дерева (pruning).
~ Другие алгоритмы вывода правил: 1-rule, RIPPER, bayesian rule lists*.
~ Комбинация с линейной регрессией (RuleFit)*.
Метрики и метрическая кластеризация (metrics)
~ Понятие и свойства метрики. Ослабление требования к неравенству треугольника.
~ Метрики L1, L2, Хемминга, Левенштейна, косинусное расстояние.
~ Потеря точности нормы в высоких размерностях.
~ Нормализация координат. Предварительная трансформация пространства признаков.
~ Метрика Махаланобиса.
~ Понятие центроида и представителя класса.
~ Центроидные алгоритмы: k-means, k-medoid.
Кластеризация (clustering)
~ Задача обучения без учителя, применения при эксплораторном анализе.
~ Неметрическая кластеризация: функция схожести, компоненты связности и остовные деревья, иерархическая кластеризация снизу вверх.
~ Алгоритмы основанные на плотности: DBSCAN, OPTICS.
~ Алгоритмы основанные на распределении: сумма гауссиан.
~ Нечёткая кластеризация, алгоритм c-means.
~ Метрики качества: leave-one-out, силуэт, индекс Дэвиса-Болдина (Davies-Bouldin), индекс Данна (Dunn).
Снижение размерности (dimensionality reduction)
~ Постановка задачи, причины и цели снижения размерности.
~ Выбор и извлечение признаков.
~ Подходы к выбору признаков: filtering, wrapping, embedding.
~ Расстояние между распределениями. Расстояние Кульбака-Лейблера. Взаимная информация.
~ Алгоритмы выбора признаков: на основе корреляции (CFS), взаимной информации, Relief.
~ Метод главных компонент (PCA).
~ Стохастическое вложение соседей с t-распределением (t-SNE).
~ Нелинейные обобщения метода главных компонент. Kernel PCA.*
~ Неотрицательное матричное разложение (NMF).*
~ Анализ независимых компонент (ICA).*
Работа с текстом (text)
~ Задачи обработки текста: извлечение (extraction), поиск, классификация (тематическая, эмоциональная), перевод.
~ Разбиение на слова, пунктуация, лексический и морфологический анализ.
~ Определение частей речи, имён, основ слов.
~ Частотный анализ, представление bag-of-words, TF-IDF и его варианты.
~ N-грамы, byte-pair encoding.
~ Векторные представления, семантическая интерпретация алгебраических операций.
~ Унитарный код (One-hot encoding).
~ Алгоритмы Word2Vec и FastText.
~ Алгоритм GloVe.
~ Вероятностный латентно-семантический анализ (pLSA)*.
~ Латентное размещение Дирихле (Latent Dirichlet allocation)*.
Композиция классификаторов. Бустинг (boosting)
~ Понятие бустинга. Бустинг для бинарной классификации, регрессии.
~ Градиентный бустинг.
~ AdaBoost. Алгоритм Виолы-Джонса.
~ Извлечение признаков. Признаки Хаара (Haar).
~ Бустинг деревьев решений. XGBoost.
~ LPBoost, BrownBoost, ComBoost, CatBoost*.
Работа с изображениями (image)
~ Дискретизация аналогового сигнала, теорема Котельникова.
~ Понятие спектра.
~ Преобразование Фурье. Дискретное косинусное преобразование (DCT).*
~ Сверточные фильтры, непрерывное и дискретное определение свёртки.
~ Сглаживающие фильтры. Фильтр Гаусса.
~ Дифференцирующие фильтры: Roberts cross, Sobel, Prewitt, Scharr.
~ Поиск границ. Алгоритм Кенни (Canny). Адаптивное сглаживание. Определение порога методом Отцу (Otsu).
~ Преобразование Хафа (Hough). Оптимизация с учётом направления градиента. Обобщения на многопараметрический и многомерный случай.
Интерпретация (interpretation)
~ Визуализация вклада признаков: partial dependency plot, individual conditional expectation, accumulated local effects.

Преподаватели курса

Александр Кленин
Руководитель магистерской программы «Искусственный интеллект и большие данные» Школы цифровой экономики Дальневосточного Федерального Университета во Владивостоке, старший преподаватель и методист проекта «ИИ старт с нуля»
Тимур Джумакаев
Эксперт по анализу данных. 
Технические инновации и инфраструктура компании МегаФон

Приглашенный спикер

    Зарегистрируйтесь на курс и получите доступ ко всем материалам и видео-трансляциям проекта «Искусственный интеллект: быстрый старт с нуля» БЕСПЛАТНО

    Всего в проекте

    12

    спикеров

    Профессионалы из индустрии и ВУЗов рассказывают об опыте своих компаний, успешных кейсах, образовательных и карьерных траекториях для новичков
    7

    программ

    Специальные программы для начинающих, кто совсем не владеет навыками кода, и для тех, кто уже может решить хотя бы тривиальные задачи
     20

    часов

    Лекции, семинары, задачи в тестирующей системе и дополнительные материалы —уже есть в личном кабинете участника, нужно только зарегистрироваться

    После регистрации можно посмотреть следующие лекции

    Посмотреть запись лекции Александра можно после регистрации
    Запись встречи и ответы на вопросы доступны зарегистрированным участникам
    Запись встречи с Алексеем можно посмотреть после регистрации
    Выступление Антона было 7 ноября и осталось в записи трансляций на YouTube
    Выступление Дмитрия и Нади доступно в записи на YouTube канале

      Условия участия

      Бесплатно

      Не нужно платить, чтобы задать вопросы экспертам и получать знания

      Онлайн

      Можно участвовать из любой точки мира, нужен только доступ в интернет

      Навсегда

      Все записи и материалы сохранены в личном кабинете участника

      Партнеры курса

      Благодаря их поддержке можно не только пройти углубленный курс, но и посмотреть бесплатные конференции, а также получить дополнительные материалы в рамках проекта «Искусственный интеллект: быстрый старт с нуля»
      Изображение
      Изображение
      Изображение
      Изображение
      Изображение

        Информационные партнеры

        Изображение
        Изображение
        Изображение