Занятия проходят по субботам, 12:10 - 15:00
Телеграм чат https://t.me/ftad2019
Инвайт для Anytask: pjw2559
В курсе предусмотрено несколько форм контроля знания:
- Самостоятельные работы на семинарах, проверяющие знание основных фактов с лекций
- Домашние работы (на Python и теоретические)
- Контрольная работа
- Письменный экзамен
Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:
Итог = Округление(0.15 * ПР + 0.4 * ДЗ + 0.15 * КР + 0.3 * Э)
ПР — средняя оценка за самостоятельные работы на семинарах
ДЗ — средняя оценка за практические домашние работы на Python
КР — оценка за контрольную работу
Э — оценка за экзамен
Округление арифметическое.
Накопленная, экзаменационная и итоговая оценки округляются арифметически.
Дедлайн по теоретическим заданиям — указывается в задании.
Дедлайн по практическим заданиям — указывается в задании.
За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жесткого дедлайна задания сдавать нельзя.
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок). Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.
| Дата | Занятие | Материалы |
|---|---|---|
| 07.09.2019 | Введение в машинное обучение. Основы языка python. |
Презентация по введению (по материалам Е. Соколова) Конспект по введению Ноутбук семинара |
| 14.09.2019 | Линейная регрессия. Градиентный спуск. Знакомство с sklearn. |
Конспект по линейной регрессии: #1, #2 Ноутбук семинара |
| 21.09.2019 | Регуляризация в линейной регрессии. Градиентный спуск. Векторное дифференцирование. |
Конспект по регуляризации Ноутбук семинара Конспект по векторному дифференцированию |
| 28.09.2019 | Линейная классификация. Метрики качества классификации. |
Конспект лекции Ноутбук семинара Конспект семинара |
| 05.10.2019 | Логистическая регрессия. SVM. Многоклассовая классификация |
Конспект лекции Конспект семинара ROC-AUC. предсказание вероятностей |
| 12.10.2019 | Метрики для многоклассовой классификации. Решающие деревья |
Конспект лекции по многоклассовой классификации Конспект лекции по деревьям Задачи по деревьям Ноутбук по деревьям |
| 19.10.2019 | Решающие деревья Bias–variance tradeoff. |
Ноутбук по деревьям конспект по Bias–variance |
| 02.11.2019 | Случайный лес. Разбор ДЗ. Решение задач по Bias–variance tradeoff. | конспект по Random Forest задачи |
| 16.11.2019 | Градиентный бустинг. | конспект ноутбук задачи |
| 23.11.2019 | XGBoost, CatBoost, LightGBM. Кластеризация. |
конспект по XGBoost конспект по кластеризации |
| 30.11.2019 | Подготовка к контрольной. | |
| 14.12.2019 | PCA. Рекомендательные системы. |
Домашнее задание 1: Numpy, Pandas, Matplotlib. Дедлайн: 15.09.19 23:59
Домашнее задание 2: Линейная регрессия. Дедлайн: 01.10.2019 23:59
Домашнее задание 3: Градиентный спуск. Дедлайн: 15.10.2019 07:59
Домашнее задание 4: Линейная классификация. Дедлайн: 11.11.2019 07:59
Домашнее задание 5: Решающее дерево. Дедлайн: 25.11.2019 01:59
Домашнее задание 6: Разложение ошибки на смещение и разброс. Дедлайн: 02.12.2019 07:59
Домашнее задание 7: Градиентный бустинг. Дедлайн: 16.12.2019 02:00
Домашнее задание 1: Векторное дифференцирование (опциональное). Дедлайн: 19.10.2019 23:59
Домашнее задание 2: Метрики (опциональное). Дедлайн: 24.11.2019 23:59
Домашнее задание 3: Деревья (опциональное). Дедлайн: 24.11.2019 23:59
Домашнее задание 4: Bias–variance tradeoff (опциональное). Дедлайн: 24.11.2019 23:59