Пять структурированных курсов — от базовых принципов ML до глубоких нейронных сетей
Фундаментальный курс для тех, кто только начинает. Объясняем, как машина «учится» на данных: от постановки задачи до оценки качества модели. Разбираем ключевые концепции: bias-variance tradeoff, loss function, gradient descent, cross-validation.
Полный разбор алгоритмов supervised learning: линейная и логистическая регрессия, деревья решений, случайный лес, SVM, метод k-ближайших соседей, ансамблевые методы. Для каждого — математика, код и разбор на реальных данных.
Кластеризация, снижение размерности, выявление аномалий. Алгоритмы k-means, DBSCAN, иерархическая кластеризация, PCA, t-SNE, автоэнкодеры. Разбираемся, как находить структуру в данных без разметки.
Архитектура нейрона, перцептрон, многослойные сети, функции активации, backpropagation, оптимизаторы. Свёрточные сети (CNN), рекуррентные сети (RNN, LSTM). Реализация на PyTorch.
Работа с пропущенными значениями, нормализация, стандартизация, кодирование категориальных признаков, отбор признаков, работа с выбросами. Pandas и NumPy на практических примерах с реальными датасетами.
| Курс | Уровень | Модулей | Разделов | Примеры кода | Датасеты |
|---|---|---|---|---|---|
| Основы ML | Начальный | 9 | 34 | ✓ | Iris, Boston, Titanic |
| Обучение с учителем | Нач. / Средний | 8 | 31 | ✓ | California Housing, UCI Heart |
| Обучение без учителя | Средний | 7 | 27 | ✓ | Mall Customers, Wine |
| Нейронные сети | Ср. / Продвинутый | 11 | 42 | ✓ | MNIST, CIFAR-10, IMDB |
| Предобработка данных | Начальный | 6 | 24 | ✓ | UCI, Kaggle Datasets |