Машинное обучение Углублённый курс

Бесплатный 72-часовой углублённый курс по машинному обучению в рамках проекта «Искусственный интеллект: быстрый старт с нуля» совместно со Школой цифровой экономики Дальневосточного Федерального Университета (ДВФУ) во Владивостоке

1 модуль: 1 октября 2020 – 25 января 2021 Онлайн
2 модуль: ожидается в конце февраля 2021 ждите анонсов в Telegram-чате

Присоединиться можно в любой момент!

Ты получишь знания в следующих сферах

Data-science
Системная аналитика
Разработка ПО
Chief data officer
Инновационные стартапы в профильных областях (например, в IT-компаниях и профильных data-driven компаниях)
А также в сфере аналитики и консалтинга в области управления, основанного на данных

О курсе

О курсе

72 академических часа теории и практики (онлайн).

• Компьютерное зрение
• Обработка естественного языка
• Экспертные системы
• Предиктивная аналитика


Основной язык программирования обучающей программы — Python.
Обучение проходит на платформе CATS и YouTube канале «Русская Школа Программирования».


Открытые лекции в рамках курса

Предсказание обращений

Покажем на примере, как бизнес-задачу превратить в математическую задачу и поделиться алгоритмом действий на примере кейса МегаФон!

Спикер: Тимур Джумакаев
Смотреть

Задача предсказания распределения трафика при строительстве базовой станции

Поговорим про многоуровневые модели машинного обучения и о том, где строить базовые станции, а также про задачи расчета трафика для новой станции, пайплайн расчета и его дальнейшее применение.

Бонусом предлагаем воспроизвести практическое задание по геоданным.

Спикер: Тимур Джумакаев
Смотреть
Нет результатов, уточните запрос

В программе курса ты узнаешь

Введение. Методы оптимизации. Градиентный спуск (gradient descent)

~ Основные термины машинного обучения. Задача классификации, регрессии.
~ Функция потерь. Оптимизация. Перебор по сетке.
~ Производная, частные производные, градиент. Методы оценки градиента.
~ Градиентный спуск, проблема выбора шага.
~ Стохастический градиентный спуск. Использование момента.
~ Метод отжига.
~ Adagrad, Adadelta, Adam.
~ RMSProp*.

Линейная регрессия (linear regression)

~ Постановка задачи линейной регрессии. Вероятностная интерпретация.
~ Метод наименьших квадратов. Алгебраическое и оптимизационное решения.
~ Ковариация, корреляция.
~ Критерий R2.
~ Анализ остатков. Гомоскедастичность. Квартет Анскомба.
~ Решение для неквадратных и плохо обусловненных матриц.
~ Регуляризация Ridge, LASSO, Elastic*.
~ Обобщённые линейные модели (generalized linear models)*.
~ Обобщённые аддитивные модели (generalized additive models)*.

Глобальная оптизация. Генетический алгоритм (genetic algorithm)

~ Многопараметрическая оптимизация.
~ Доминация и оптимальность по Парето.
~ Функция качества (fitness). Аппроксимация качества.
~ Общая идея генетического алгоритма.
~ Представление генома.
~ Методы селекции: пропорционально качеству, универсальная выборка (stochastic universal sampling), с наследием (reward-based), турнир. Стратегия элитизма.
~ Методы кроссовера. Двух и много-точечный, равномерный (по подмножествам), для перестановок.
~ Мутация. Влияние на скорость обучения.
~ Управление популяцией. Сегрегация, старение, распараллеливание.
~ Генетическое программирование*.

Метод ближайших соседей (k-NN)

~ Базовый алгоритм классификации методом 1-NN и k-NN. Преимущества и недостатки.
~ Кросс-валидация методом "без одного" (leave one out).
~ Определение границ, показатель пограничности.
~ Сжатие по данным. Понятия выброса, прототипа, усвоенной точки. Алгоритм Харта (Hart).
~ Регрессия методом k-NN.
~ Взвешенные соседи.
~ Связь с градиентным спуском. Стохастическая формулировка, softmax.
~ Метод соседних компонент (neighbour component analysis)*.
~ Связь с выпуклой оптимизацией. Метод большого запаса (Large margin NN)*.
~ Оптимизация классификатора, k-d деревья, Hierarchical Navigable Small World*.
~ Хеши чувствительные к локальности, хеши сохраняющие локальность*.

Наивный байесов классификатор (naive Bayes)

~ Условная вероятность. Байесово решающее правило. Обновление вероятностей.
~ Наивный классификатор, предположение о независимости признаков.
~ Оценка плотности распределения для числовых признаков.
~ Эффективные алгоритмы наивного классификатора.
~ Байесова оптимизация*.
~ Алгоритм EM*.

Деревья решений (decision trees)

~ Понятие дерева решений.
~ Понятие энтропии, определение информации по Шеннону.
~ Метрики: примеси Джини (Gini impurity), добавленная информация (information gain).
~ Алгоритмы ID3, CART.
~ Борьба с оверфиттингом: bagging, выборки признаков (random subspace method).
~ Ансамбли, случайный лес (Random Forest).
~ Деревья регрессии. Метрика вариации.
~ Непрерывные признаки. Использование главных компонент вместо признаков.
~ Сокращение дерева (pruning).
~ Другие алгоритмы вывода правил: 1-rule, RIPPER, bayesian rule lists*.
~ Комбинация с линейной регрессией (RuleFit)*.

Метрики и метрическая кластеризация (metrics)

~ Понятие и свойства метрики. Ослабление требования к неравенству треугольника.
~ Метрики L1, L2, Хемминга, Левенштейна, косинусное расстояние.
~ Потеря точности нормы в высоких размерностях.
~ Нормализация координат. Предварительная трансформация пространства признаков.
~ Метрика Махаланобиса.
~ Понятие центроида и представителя класса.
~ Центроидные алгоритмы: k-means, k-medoid.

Кластеризация (clustering)

~ Задача обучения без учителя, применения при эксплораторном анализе.
~ Неметрическая кластеризация: функция схожести, компоненты связности и остовные деревья, иерархическая кластеризация снизу вверх.
~ Алгоритмы основанные на плотности: DBSCAN, OPTICS.
~ Алгоритмы основанные на распределении: сумма гауссиан.
~ Нечёткая кластеризация, алгоритм c-means.
~ Метрики качества: leave-one-out, силуэт, индекс Дэвиса-Болдина (Davies-Bouldin), индекс Данна (Dunn).

Снижение размерности (dimensionality reduction)

~ Постановка задачи, причины и цели снижения размерности.
~ Выбор и извлечение признаков.
~ Подходы к выбору признаков: filtering, wrapping, embedding.
~ Расстояние между распределениями. Расстояние Кульбака-Лейблера. Взаимная информация.
~ Алгоритмы выбора признаков: на основе корреляции (CFS), взаимной информации, Relief.
~ Метод главных компонент (PCA).
~ Стохастическое вложение соседей с t-распределением (t-SNE).
~ Нелинейные обобщения метода главных компонент. Kernel PCA.*
~ Неотрицательное матричное разложение (NMF).*
~ Анализ независимых компонент (ICA).*

Работа с текстом (text)

~ Задачи обработки текста: извлечение (extraction), поиск, классификация (тематическая, эмоциональная), перевод.
~ Разбиение на слова, пунктуация, лексический и морфологический анализ.
~ Определение частей речи, имён, основ слов.
~ Частотный анализ, представление bag-of-words, TF-IDF и его варианты.
~ N-грамы, byte-pair encoding.
~ Векторные представления, семантическая интерпретация алгебраических операций.
~ Унитарный код (One-hot encoding).
~ Алгоритмы Word2Vec и FastText.
~ Алгоритм GloVe.
~ Вероятностный латентно-семантический анализ (pLSA)*.
~ Латентное размещение Дирихле (Latent Dirichlet allocation)*.

Композиция классификаторов. Бустинг (boosting)

~ Понятие бустинга. Бустинг для бинарной классификации, регрессии.
~ Градиентный бустинг.
~ AdaBoost. Алгоритм Виолы-Джонса.
~ Извлечение признаков. Признаки Хаара (Haar).
~ Бустинг деревьев решений. XGBoost.
~ LPBoost, BrownBoost, ComBoost, CatBoost*.

Работа с изображениями (image)

~ Дискретизация аналогового сигнала, теорема Котельникова.
~ Понятие спектра.
~ Преобразование Фурье. Дискретное косинусное преобразование (DCT).*
~ Сверточные фильтры, непрерывное и дискретное определение свёртки.
~ Сглаживающие фильтры. Фильтр Гаусса.
~ Дифференцирующие фильтры: Roberts cross, Sobel, Prewitt, Scharr.
~ Поиск границ. Алгоритм Кенни (Canny). Адаптивное сглаживание. Определение порога методом Отцу (Otsu).
~ Преобразование Хафа (Hough). Оптимизация с учётом направления градиента. Обобщения на многопараметрический и многомерный случай.

Интерпретация (interpretation)

~ Визуализация вклада признаков: partial dependency plot, individual conditional expectation, accumulated local effects.

Преподаватели курса

Преподаватели курса

Александр Сергеевич Кленин

Руководитель магистерской программы «Искусственный интеллект и большие данные» Школы цифровой экономики Дальневосточного Федерального Университета во Владивостоке, старший преподаватель и методист проекта «ИИ старт с нуля»

Тимур Джумакаев

Эксперт по анализу данных.
Технические инновации и инфраструктура компании МегаФон

Приглашённый спикер

Интервью про искусственный интеллект

Изображение

Зарегистрируйся на курс и получи доступ ко всем материалам и видео-трансляциям проекта «Искусственный интеллект: быстрый старт с нуля» бесплатно

Всего в проекте

15

спикеров

Профессионалы из индустрии и ВУЗов рассказывают об опыте своих компаний, успешных кейсах, образовательных и карьерных траекториях для новичков
7

программ

Специальные программы для начинающих, кто совсем не владеет навыками кода, и для тех, кто уже может решить хотя бы тривиальные задачи
189

часов

Лекции, семинары, задачи в тестирующей системе и дополнительные материалы уже есть в личном кабинете участника, нужно только зарегистрироваться

После регистрации можно посмотреть следующие лекции

Посмотреть запись лекции Александра можно после регистрации
Запись встречи и ответы на вопросы доступны зарегистрированным участникам
Запись встречи с Алексеем можно посмотреть после регистрации
Выступление Антона было 7 ноября и осталось в записи трансляций на YouTube
Выступление Дмитрия и Нади доступно в записи на YouTube канале

    Условия участия

    Бесплатно

    Не нужно платить, чтобы задать вопросы экспертам и получать знания

    Онлайн

    Можно участвовать из любой точки мира, нужен только доступ в интернет

    Навсегда

    Все записи и материалы сохранены в личном кабинете участника

    Зарегистрируйся на курс и получи доступ ко всем материалам и видео-трансляциям проекта «Искусственный интеллект: быстрый старт с нуля» бесплатно

    Партнёры курса

    Благодаря их поддержке можно не только пройти углублённый курс, но и посмотреть бесплатные конференции, а также получить дополнительные материалы в рамках проекта «Искусственный интеллект: быстрый старт с нуля»
    Изображение
    Изображение
    Изображение
    Изображение
    Изображение

    Информационные партнёры

    Изображение
    Изображение
    Изображение
    Изображение