Что вы поймёте после этого курса

Этот курс создан не для того, чтобы научить вас вызывать model.fit(). Он объясняет, что именно происходит внутри этого вызова: как алгоритм изменяет параметры модели, почему именно так, и что может пойти не так.

По завершении вы будете понимать математику градиентного спуска, смысл функций потерь, природу проблемы bias-variance и методы её диагностики — и сможете применять эти знания к любому алгоритму ML.

Ключевые темы курса

Что такое обучение: функция потерь и её минимизация
Градиентный спуск: вывод, шаг обучения, сходимость
Линейная модель: от МНК до градиентной оптимизации
Bias-variance tradeoff: источники ошибки модели
Переобучение и регуляризация: L1, L2, Elastic Net
Перекрёстная проверка и оценка обобщающей способности
Метрики качества: MSE, MAE, accuracy, F1, AUC-ROC
Основы теории вероятностей для ML
Линейная алгебра для понимания алгоритмов

Программа курса

Модуль 1: Постановка задачи обучения 4 раздела
Что значит "учиться на данных"
Пространство признаков и целевая переменная
Типы задач: регрессия, классификация, кластеризация
Первое знакомство с датасетом Iris
Модуль 2: Функции потерь 4 раздела
Среднеквадратичная ошибка (MSE)
Логистическая функция потерь
Кросс-энтропия: смысл и вывод
Как выбрать функцию потерь для задачи
Модуль 3: Градиентный спуск 4 раздела
Производная и её геометрический смысл
Алгоритм batch gradient descent
Stochastic и mini-batch gradient descent
Проблема локальных минимумов и плато
Модуль 4: Линейная регрессия 4 раздела
МНК: аналитическое решение
Градиентная оптимизация линейной модели
Интерпретация коэффициентов
Диагностика остатков
Модуль 5: Bias-Variance Tradeoff 4 раздела
Декомпозиция ошибки обобщения
Диагностика: недообучение vs переобучение
Кривые обучения как инструмент диагностики
Практика на датасете Boston Housing
Модуль 6: Регуляризация 4 раздела
L2-регуляризация (Ridge): вывод и эффект
L1-регуляризация (Lasso): разреженность
Elastic Net: комбинация подходов
Выбор коэффициента регуляризации
Модуль 7: Проверка модели 4 раздела
Разбивка на train/validation/test
k-fold cross-validation
Stratified k-fold для несбалансированных классов
Утечка данных: как избежать и диагностировать
Модуль 8: Метрики качества 4 раздела
Регрессия: MSE, MAE, RMSE, R²
Классификация: accuracy, precision, recall, F1
ROC-кривая и AUC
Матрица ошибок и её интерпретация
Модуль 9: Математические основы 4 раздела
Линейная алгебра: векторы, матрицы, операции
Теорвер для ML: вероятность, распределения
Статистические концепции: гипотезы, p-value
Итоговый разбор: что дальше изучать
Начать первый урок Задать вопрос