Разборы алгоритмов, концепций и инструментов машинного обучения — точно, без упрощений
Разбираем, что на самом деле означает термин «machine learning», чем он отличается от AI и data science, и где проходит граница между статистикой и ML.
Читать
Что такое overfitting, почему он возникает и как методы L1/L2-регуляризации, дропаут и ранняя остановка помогают строить обобщающие модели.
Читать
Обзор ключевых Python-библиотек для ML: NumPy, Pandas, scikit-learn, PyTorch, TensorFlow — когда и что использовать.
ЧитатьКритерий Джини, энтропия, прирост информации — математика выбора лучшего признака для разбиения и ограничения глубины дерева.
ЧитатьКак работает K-Means, как выбрать оптимальное K с помощью метода локтя и силуэтного коэффициента, и когда алгоритм даёт плохие результаты.
ЧитатьПодробный разбор метрик для задач классификации, confusion matrix, кривые PR и ROC — когда и что выбрать в зависимости от задачи.
ЧитатьВекторы, матрицы, разложения (SVD, PCA) — только то, что непосредственно используется в алгоритмах ML, без лишней теории.
ЧитатьMin-Max, Z-score, RobustScaler — математика трансформаций признаков, влияние на скорость обучения и стабильность моделей.
ЧитатьСравниваем подходы к разработке ML-кода: интерактивные блокноты против модульных скриптов — преимущества, недостатки и рекомендации.
ЧитатьРаз в две недели — разбор одного алгоритма или концепции ML без спама и рекламы.