байесовские методы машинного обучения
Байесовские методы машинного обучения (курс лекций) / 2021
Материал из MachineLearning.
Изучение дисциплины нацелено на освоение т.н. байесовского подхода к теории вероятностей как одного из последовательных способов математических рассуждений в условиях неопределенности. В байесовском подходе вероятность интерпретируется как мера незнания, а не как объективная случайность. Простые правила оперирования с вероятностью, такие как формула полной вероятности и формула Байеса, позволяют проводить рассуждения в условиях неопределенности. В этом смысле байесовский подход к теории вероятностей можно рассматривать как обобщение классической булевой логики. |
Целью курса также является освоение студентами основных способов применения байесовского подхода при решении задач машинного обучения. Байесовский подход позволяет эффективно учитывать различные предпочтения пользователя при построении решающих правил прогноза. Кроме того, он позволяет решать задачи выбора структурных параметров модели. В частности, здесь удается решать без комбинаторного перебора задачи селекции признаков, выбора числа кластеров в данных, размерности редуцированного пространства при уменьшении размерности, значений коэффициентов регуляризации и проч.
Предполагается, что в результате освоения курса студенты будут способны строить комплексные вероятностные модели, учитывающие структуру прикладной задачи машинного обучения, выводить необходимые формулы для решения задач обучения и вывода в рамках построенных вероятностных моделей, а также эффективно реализовывать данные модели на компьютере.
Семинаристы: Максим Кодрян, Тимофей Южаков + орг. вопросы курирует Екатерина Лобачева
Контакты: по всем вопросам, связанным с курсом, просьба писать на bayesml@gmail.com. В название письма обязательно добавлять [ВМК БММО21]. Письма без этого тега могут просто не дойти до преподавателей!
У курса есть чат в телеграме. Все объявления по курсу будут вывешиваться именно в чате! Всем студентам будет отправлена ссылка на него на почту. Преподаватели в чате бывают, но не всегда. По всем важным вопросам стоит писать на почту.
Содержание
Новости
Отчётность по курсу и критерии оценки
В курсе предусмотрено несколько форм контроля знаний: 2 практических домашних задания, 3 теоретических домашних задания, 4 домашних лабораторных работы и устный экзамен. Итоговая оценка по курсу в 10-бальной шкале рассчитывается по формуле:
Итоговая оценка = 0.3 * Экз + 0.3 * Практ + 0.4 * ( 3/7 * Теор + 4/7 * Лаб ))
Кроме набора необходимого балла по формуле, для получения положительной оценки по курсу также нужно выполнить следующие обязательные условия:
Про оценивание экзамена:
Домашние задания
Примерные даты выдачи домашних заданий (они могут быть изменены!):
Экзамен
При подготовке ответа на экзамене разрешается пользоваться любыми материалами. При непосредственном ответе ничем пользоваться нельзя. Просьба обратить внимание на теоретический минимум по курсу — незнание ответов на вопросы теор. минимума автоматически влечёт неудовлетворительную оценку за экзамен. На экзамене дается час на подготовку ответа на билет, после чего вы отвечаете экзаменатору на вопросы из теоретического минимума, рассказываете билет, отвечаете на дополнительные вопросы по курсу и решаете задачи.
Вопросы к экзамену будут выложены ближе к концу семестра.
Расписание занятий
Занятия проходят по пятницам в ауд. 526б, начало в 14-35 (лекция) и 16-20 (семинар).
Дата | № занятия | Занятие | Материалы |
---|---|---|---|
10 сентября 2021 | 1 | Лекция «Байесовский подход к теории вероятностей. Примеры байесовских рассуждений.» | Конспект Саммари Презентация |
Семинар «Байесовские рассуждения. Выдача практического задания №1» | Задачи Конспект | ||
17 сентября 2021 | 2 | Лекция «Сопряжённые распределения, аналитический байесовский вывод, экспоненциальный класс распределений» | Конспект |
Семинар «Сопряжённые распределения» | Задачи Конспект Ноутбук | ||
24 сентября 2021 | 3 | Лекция «Байесовский выбор модели» | Презентация Конспект |
Семинар «Подсчёт обоснованности моделей» | Задачи Конспект Ноутбук | ||
1 октября 2021 | 4 | Лекция «Метод релевантных векторов для задачи регрессии» | Презентация Конспект |
Семинар «Матричные вычисления» | Задачи с семинара Решения с семинара Методичка Задачи доп 1 Задачи доп 2, | ||
8 октября 2021 | 5 | Лекция «Метод релевантных векторов для задачи классификации» | Саммари Конспект, |
Семинар «Метод релевантных векторов» | Задачи КонспектПрезентация Доказательство тождества Вудбери Доказательство тождества об определителе | ||
15 октября 2021 | 6 | Лекция «EM-алгоритм. Байесовский метод главных компонент» | Саммари Конспект |
Семинар «ЕМ-алгоритм» | Задачи Конспект | ||
22 октября 2021 | 7 | Лекция «Вариационный вывод» | Саммари 1 Саммари 2 Конспект |
Семинар «Вариационный вывод» | Задачи КонспектНоутбук | ||
29 октября 2021 | 8 | Лекция «Методы Монте-Карло по схеме марковский цепей (MCMC)» | Саммари |
Семинар «МСМС» | Задачи Конспект Ноутбук | ||
12 ноября 2021 | 9 | Лекция «Гибридный метод Монте-Карло и его масштабируемые модиификации» | Hamiltonian dynamics Langevin Dynamics |
Лекция «Динамика Ланжевена для сэмплирования и оптимизации» | Презентация | ||
19 ноября 2021 | 10 | Лекция «Гауссовские процессы для регрессии и классификации» | материалы лекции изложены в разделе 6.4 Бишопа |
Семинар «Гауссовские процессы для регрессии и классификации» | Задачи Конспект Презентация | ||
26 ноября 2021 | 11 | Лекция «Непараметрические байесовские методы. Процессы Дирихле» | Саммари |
Семинар «Свойства распределения Дирихле» | Задачи Конспект | ||
3 декабря 2021 | 12 | Лекция «Латентное размещение Дирихле (LDA)» | Саммари |
Семинар «Модификации LDA» | Конспект Статья по HDP |
Замечание: рукописные конспекты лекций и семинаров это в первую очередь заметки лектора и семинаристов, а не материалы по курсу. В них могут содержать неточности!
Официальный конспект лекций в процессе (пока выложены первые 5 лекций, остальные находятся на вычитке).
Байесовские методы машинного обучения (курс лекций) / 2016
Материал из MachineLearning.
Курс посвящен т.н. байесовским методам решения различных задач машинного обучения (классификации, восстановления регрессии, уменьшения размерности, разделения смесей, тематического моделирования и др.), которые в настоящее время активно развиваются в мире. Большинство современных научных публикаций по машинному обучению используют вероятностное моделирование, опирающееся на байесовский подход к теории вероятностей. Последний позволяет эффективно учитывать различные предпочтения пользователя при построении решающих правил прогноза. Кроме того, он позволяет решать задачи выбора структурных параметров модели. В частности, здесь удается решать без комбинаторного перебора задачи селекции признаков, выбора числа кластеров в данных, размерности редуцированного пространства при уменьшении размерности, значений коэффициентов регуляризации и пр. В байесовском подходе вероятность интерпретируется как мера незнания, а не как объективная случайность. Простые правила оперирования с вероятностью, такие как формула полной вероятности и формула Байеса, позволяют проводить рассуждения в условиях неопределенности. В этом смысле байесовский подход к теории вероятностей можно рассматривать как обобщение классической булевой логики. |
Основной задачей курса является привитие студентам навыков самостоятельного построения сложных вероятностных моделей обработки данных, используя стандартные модели в качестве своеобразных «кирпичиков». Особое внимание уделяется приближенным байесовским методам, позволяющим обсчитывать сложные вероятностные модели.
Семинаристы: Е. Лобачева, Д. Подоприхин
Таблица с результатами находится здесь.
Вопросы и комментарии по курсу, а также сдаваемые задания нужно отправлять на почту bayesml@gmail.com. В название письма обязательно добавлять тег [БММО16].
Формат темы письма:
Просьба не смешивать темы, то есть не нужно присылать в одном письме практическое задание и домашнее.
Содержание
Экзамен
Экзамен по курсу состоится 14 января в ауд. 510, начало в 12-00. На экзамене при подготовке билета разрешается пользоваться любыми материалами. При непосредственном ответе ничем пользоваться нельзя. Просьба обратить внимание на теоретический минимум по курсу — незнание ответов на вопросы теор. минимума автоматически влечёт неудовлетворительную оценку за экзамен.
Расписание занятий
В 2016 году курс читается на факультете ВМиК МГУ по пятницам в ауд. 508, начало в 14-35 (лекция) и 16-20 (семинар).
Дата | № занятия | Занятие | Материалы |
---|---|---|---|
2 сентября 2016 | 1 | Лекция «Байесовский подход к теории вероятностей. Примеры байесовских рассуждений.» | Конспект (pdf) Презентация (pdf) |
Семинар «Байесовские рассуждения. Выдача практического задания №1» | Задачи (pdf) | ||
9 сентября 2016 | 2 | Лекция «Сопряжённые распределения, аналитический байесовский вывод, экспоненциальный класс распределений» | |
Семинар «Сопряжённые распределения» | Задачи (pdf) | ||
16 сентября 2016 | 3 | Лекция «Байесовский выбор модели» | Презентация (pdf) |
Семинар «Подсчёт обоснованности моделей» | Задачи (pdf) Формулы (pdf) | ||
23 сентября 2016 | 4 | Лекция «Метод релевантных векторов для задачи регрессии» | Презентация (pdf) |
Семинар «Матричные вычисления» | Задачи на семинаре с разбором(pdf) | ||
30 сентября 2016 | 5 | Лекция «Метод релевантных векторов для задачи классификации» | Конспект (pdf) |
Семинар «Метод релевантных векторов» | Задачи Презентация Доказательство тождества Вудбери Доказательство тождества об определителе | ||
7 октября 2016 | 6 | Лекция «EM-алгоритм. Байесовский метод главных компонент» | Конспект (pdf) |
Семинар «ЕМ-алгоритм» | Задачи Презентация | ||
14 октября 2016 | 7 | Лекция «Вариационный вывод» | Конспект лекции (pdf) Конспект (pdf) |
Семинар «Вариационный вывод» | Задачи (pdf) | ||
21 октября 2016 | 8 | Лекция «Методы Монте Карло по схеме марковский цепей (MCMC)» | Конспект (pdf) |
Семинар «Методы MCMC» | Конспект (pdf) | ||
28 октября 2016 | 9 | Лекция «Гауссовские процессы для регрессии и классификации» | |
Семинар «Гауссовские процессы для регрессии и классификации» | Презентация Задачи | ||
11 ноября 2016 | 10 | Лекция «Непараметрические байесовские методы. Процессы Дирихле» | Конспект (pdf) |
Семинар «Свойства распределения Дирихле. Выдача задания №3» | Конспект (pdf) | ||
18 ноября 2016 | 11 | Лекция «Латентное размещение Дирихле (LDA)» | Конспект (pdf) |
Семинар «Модификации LDA» | Статья по HDP | ||
25 ноября 2016 | 12 | Лекция и семинар «Стохастический вариационный вывод. Вариационный автокодировщик» | Статья 1, Статья 2 |
2 декабря 2016 | 13 | Занятие «Несопряженный вариационный вывод» | Статья |
9 декабря 2016 | 14 | Занятие «Масштабируемые модели гауссовских процессов» | Статья |
Теоретические задания
Срок сдачи: 16 сентября (пятница), 23:59.
Срок сдачи: 1 октября (суббота), 23:59.
Срок сдачи: 29 октября (суббота), 23:59.
Практические задания
Проверьте свой код перед сдачей с помощью данного тестера!
Срок сдачи: 17 сентября (суббота), 23:59.
Прототипы функций находятся здесь, а текущий набор данных – здесь.
Выложена полная и окончательная версия данных.
Срок сдачи: 23 октября (воскресенье), 23:59.
В версии задания на github не открывались ссылки в первой части задания, поэтому задание перезалито на machinelearning.
Байесовское машинное обучение
Что даёт Байесовский подход
Бейсовский подход — это наиболее академичный взгляд на машинное обучение. Это и хорошо и плохо.
Хорошо тем, что даёт чёткое математическое описание обучения и численные оценки достоверности гипотез. Тогда как обычные подходы, чаще всего, выдают только одну гипотезу, как достоверную. Например, в результате обучения получается вполне определённая нейронная сеть (набор весов). И у нас нет надёжной оценки того, на сколько эта сеть лучше какой-либо другой. Мы даже не можем сказать, действительно ли она — лучшая.
Плохо тем, что в реальной жизни не всегда можно реализовать безупречную математическую модель. Но с помощью математической модели всё равно можно получить определённую оценку качества обучения.
Обобщённый взгляд на машинное обучение
На самом деле, любые подходы к машинному обучению делают одно и тоже. У нас всегда есть две основных вещи:
Во-вервых, это набор гипотез. Это может быть набор функций, или набор весов для нейронов нейронной сети, или набор всевозможных решающих деревьев… Что угодно. Зависит от конкретного подхода.
Во-вторых, у нас есть набор обучающих данных.
Наша задача всегда сводится к одному: определить, какая же из наших моделей наиболее адекватна нашим обучающим данным.
Байесовский подход даёт точный численный критерий для решения этой задачи.
Классическая вероятность
С классической вероятностью мы часто имеем дело в физических и инженерных задачах. Тут всё просто, надо поставить много экспериментов и поделить количество «успехов» на количество экспериментов.
Это частотное понимание вероятности.
Скажем, если вы бросили монетку 100 раз и 49 раз выпал «орёл», то можно говорить, что вероятность выпадания «орла» близка к 49% (чем больше экспериментов, тем точнее мы оценим вероятность).
То есть тут у нас есть модель и мы хотим подсчитать вероятность какого-либо исхода. Это прямая задача.
Модель «монетка» очень проста: у неё две стороны и она не может встать на ребро.
Но в компьютерном обучении чаще встречаются совсем другие задачи: когда вы не знаете модель и по известному поведению надо построить модель. Вернее, строго говоря, определить, какая из моделей наиболее вероятна, так как точно ответить вы обычно не можете.
Но, давайте обо всём по-порядку.
Пример обратной задачи со скрытой переменной и вероятностный подход к моделям
Чтобы показать, как это работает, давайте просто рассмотрим конкретную задачу.
Пусть у нас есть корзина с яблоками. Яблоки бывают красные и зелёные. Мы берём из корзины N яблок и видим R красных яблок и G зелёных. Естественно, R+G=N.
Конечно, этот наш опыт может быть повторен несколько раз. Но давайте ограничимся одним. Это упростит наши рассуждения и совсем не ограничит общность изложения.
Теперь мы хотим узнать, каков процент зелёных яблок, а каков красных. В корзине.
Переведём это на язык машинного обучения: у нас есть
А в терминах Байесовского подхода, мы должны теперь рассчитать вероятности получения наших обучающих данных при условии реализации каждой гипотезы. Гипотеза, которая окажется наиболее вероятной и победит в битве гипотез.
Это ключевая идея всего подхода. Остальное — детали.
Теорема Байеса
Теорема Байеса очень проста. Она является очевидным тождеством, однако, это не умаляет её важность.
Теорема Байеса является следствием очевидного утверждения
Естественно p(b) должно быть больше 0, но это и понятно, если b является невероятным событием, то и p(a|b) тоже невероятно.
Применим теорему Байеса к машинному обучению
Давайте обозначим наши данные — D, а наши гипотезы — h. Тогда нам надо найти вероятность гипотезы для наших данных p(h|D), которая по теореме Байеса равна:
Нас интересует только соотношение вероятностей, поэтому мы можем выкинуть из этого выражения p(D) (D не зависит от h) и p(h) (будем считать, что все гипотезы равновероятны; строго говоря, это не всегда так, мы ещё вернёмся к этому вопросу, но во многих случаях это справедливо).
Получается, что нам надо найти такую гипотезу h, для которой максимально p(D|h).
Говоря математическим языком, мы должны для каждой гипотезы вычислить её апостериорную вероятность и выбрать гипотезу, для которой эта вероятность максимальна.
Этот подход называется maximum a posteriori probability (MAP). Если строго следовать ему, то вы получите лучшую гипотезу. И это математически доказано.
К сожалению, полное следование MAP возможно далеко не всегда. Например, данных слишком много. Или решение надо дать быстро. Поэтому, в реальной жизни используются различные модификации MAP, но мы не будем в это вдаваться.
Вернёмся к нашему примеру
Пока у нас нет ни конкретных данных, ни множества гипотез. Давайте же придумаем их.
Пусть мы вынули N=3 яблок: R=1 красных и G=2 зелёных.
Давайте выдвинем две гипотезы:
Теперь нам просто надо рассчитать, какова вероятность получения наших данных в каждой их этих гипотез.
Немного комбинаторики
Обозначим количество красных и зелёных яблок в корзине: R₀ и G₀. Сколькими способами можно взять R яблок из R₀?
Это, знакомый многим, биномиальный коэффициент. То есть, если у нас есть 3 яблока, то мы можем вынуть из них 2 яблока тремя способами: ●●○, ●○●, ○●●. С(3,2)=3!/(1!·2!)=(1·2·3)/((1)·(1·2))=3. Если вы не знакомы с этой формулой — ничего страшного. Она не относится к Байсовскому подходу, а нужна лишь для решения нашей конкретной задачм.
Искомая вероятность тогда равна
Осталось применить это к нашим гипотезам:
Видно, что побеждает первая гипотеза.
Расширяем набор гипотез: переобученность
Давайте не будем ограничиваться двумя гипотезами. Рассмотрим любые сочетания R₀ и G₀. (R и G оставим прежними).
У нас получится табличка:
Здесь видны даже две проблемы.
Меньшая: многие гипотезы имеют одинаковую вероятность (например (R₀=1, G₀=5) и (R₀=2 и G₀=5)). На больших данных этой проблемы обычно нет.
Но самая большая проблема: мы получили, что наилучшее решение — (R₀=1, G₀=2). Это решение столько же точно, сколь и бесполезно.
То есть машина нам сказала: раз вы вынули из корзины одно красное яблока и два зелёных, то, скорее всего, там и были одно красное и два зелёных.
Это действительно так. При этом раскладе у вас просто нет шанса вытащить из корзины что-то другое.
Машина права. Но нужен ли нам такой ответ? Очевидно, это не то, что мы ожидали.
Это и есть переобученность. Наш искусственный интеллект «зазубрил» обучающие данные. Скорее всего, он не в состоянии качественно решать задачи, но на все обучающие вопросы он безупречно выдаёт точный обучающий ответ.
Происходит это по двум основным причинам:
Первая, — у нас очень мало обучающих данных. Увеличение обучающего массива может дать положительный результат. Но этот ресурс не бесконечен. При достижении определённого размера, дальнейшее наращивание становится бессмысленным. Начинают играть роль шумы или просто неоднородность условий, при которых были собраны данные (ведь в реальной жизни ничто не вечно).
Вторая, — мы выбрали слишком широкий спектр гипотез. Мы решили, что возможно всё.
Мы можем сузить спектр гипотез. Фактически, это есть p(h), которую мы выкинули в начале. Чтобы сделать цифры наглядней, я не буду здесь использовать именно вероятность, но фактически, я сделаю именно этот учёт.
Допустим, мы откуда-то знаем, что в корзине можем быть только 6, 7 или 8 яблок. Вероятность других гипотез — 0. Тогда наша табличка принимает вид:
Видно, что при этом условии выигрывает гипотеза (R₀=2, G₀=4). Так же видно, что (R₀=2, G₀=5) лишь чуть менее правдоподобна.
Это уже неплохой результат!
Подводные камни MAP-обучения
Итак, казалось бы, у нас есть универсальный и математически точный инструмент выбора гипотезы, то есть, — машинного обучения. Необходимо минимальное человеческое вмешательство чтобы выбрать правдоподобный спектр гипотез, а дальше машина сделает оптимальный выбор.
На самом деле, всё не совсем так радужно.
Обозначу только самые фундаментальные проблемы.
Во-первых. Честное Байесовское обучение предполагает, что вы вычислите вероятности всех возможных гипотез для всех обучающих данных. То есть, если у вас 1000 гипотез и 1000 обучающих патернов, то вам придётся рассчитать 1000000 апостериорых вероятностей. В реальной жизни, обычно, числа больше на порядки. Выполнить полный рассчёт просто невозможно.
Тут есть разные подходы. В некоторых случая можно доказать, что полный перебор не нужен, и действовать более направленно. В большинстве же случаев применяют различные статистические методы. Или приближённые методы. Даже самые грубые упрощения (так называемый наивный байесовский классификатор или idiot Bayes model) позволяют создать очень неплохие спам фильтры и другие системы классификации.
Вторая важная проблема возникает при создании классификаторов на основе Байесовского обучения. Не вдаваясь в математику рассмотрим простой пример. Мы хотим решить: мужчина перед нами, или женщина. У нас есть 4 гипотезы. Их вероятности распределяются так:
Если мы выберем MAP-гипотезу, то это будет h₄. И она скажет нам, что перед нами мужчина. Однако, сумма остальных гипотез — 0.6, что больше, чем 0.4. То есть, следовало бы ответить, что перед нами женщина.
Проблема не в том, что Байесовсое обучение плохо. Просто в данном случае мы должны рассматривать не отдельные гипотезы, а все возможные сочетание гипотез. Тогда мы получим идеальный Байесовский классификатор. Основная его проблема даже не в том, как его получить, а уже в том, как его использовать. Ведь даже имея идеальный классификатор, чтобы им воспользоваться вам надо вычислить некую идеальную комбинацию всех гипотез! На помощь приходят различные статистические подходы. Такие как классификатор Гиббса.
Но обо всех этих вещах я, возможно, напишу отдельно.
Байесовские методы машинного обучения (курс лекций) / 2021
Материал из MachineLearning.
Изучение дисциплины нацелено на освоение т.н. байесовского подхода к теории вероятностей как одного из последовательных способов математических рассуждений в условиях неопределенности. В байесовском подходе вероятность интерпретируется как мера незнания, а не как объективная случайность. Простые правила оперирования с вероятностью, такие как формула полной вероятности и формула Байеса, позволяют проводить рассуждения в условиях неопределенности. В этом смысле байесовский подход к теории вероятностей можно рассматривать как обобщение классической булевой логики. |
Целью курса также является освоение студентами основных способов применения байесовского подхода при решении задач машинного обучения. Байесовский подход позволяет эффективно учитывать различные предпочтения пользователя при построении решающих правил прогноза. Кроме того, он позволяет решать задачи выбора структурных параметров модели. В частности, здесь удается решать без комбинаторного перебора задачи селекции признаков, выбора числа кластеров в данных, размерности редуцированного пространства при уменьшении размерности, значений коэффициентов регуляризации и проч.
Предполагается, что в результате освоения курса студенты будут способны строить комплексные вероятностные модели, учитывающие структуру прикладной задачи машинного обучения, выводить необходимые формулы для решения задач обучения и вывода в рамках построенных вероятностных моделей, а также эффективно реализовывать данные модели на компьютере.
Семинаристы: Максим Кодрян, Тимофей Южаков + орг. вопросы курирует Екатерина Лобачева
Контакты: по всем вопросам, связанным с курсом, просьба писать на bayesml@gmail.com. В название письма обязательно добавлять [ВМК БММО21]. Письма без этого тега могут просто не дойти до преподавателей!
У курса есть чат в телеграме. Все объявления по курсу будут вывешиваться именно в чате! Всем студентам будет отправлена ссылка на него на почту. Преподаватели в чате бывают, но не всегда. По всем важным вопросам стоит писать на почту.
Содержание
Новости
Отчётность по курсу и критерии оценки
В курсе предусмотрено несколько форм контроля знаний: 2 практических домашних задания, 3 теоретических домашних задания, 4 домашних лабораторных работы и устный экзамен. Итоговая оценка по курсу в 10-бальной шкале рассчитывается по формуле:
Итоговая оценка = 0.3 * Экз + 0.3 * Практ + 0.4 * ( 3/7 * Теор + 4/7 * Лаб ))
Кроме набора необходимого балла по формуле, для получения положительной оценки по курсу также нужно выполнить следующие обязательные условия:
Про оценивание экзамена:
Домашние задания
Примерные даты выдачи домашних заданий (они могут быть изменены!):
Экзамен
При подготовке ответа на экзамене разрешается пользоваться любыми материалами. При непосредственном ответе ничем пользоваться нельзя. Просьба обратить внимание на теоретический минимум по курсу — незнание ответов на вопросы теор. минимума автоматически влечёт неудовлетворительную оценку за экзамен. На экзамене дается час на подготовку ответа на билет, после чего вы отвечаете экзаменатору на вопросы из теоретического минимума, рассказываете билет, отвечаете на дополнительные вопросы по курсу и решаете задачи.
Вопросы к экзамену будут выложены ближе к концу семестра.
Расписание занятий
Занятия проходят по пятницам в ауд. 526б, начало в 14-35 (лекция) и 16-20 (семинар).
Дата | № занятия | Занятие | Материалы |
---|---|---|---|
10 сентября 2021 | 1 | Лекция «Байесовский подход к теории вероятностей. Примеры байесовских рассуждений.» | Конспект Саммари Презентация |
Семинар «Байесовские рассуждения. Выдача практического задания №1» | Задачи Конспект | ||
17 сентября 2021 | 2 | Лекция «Сопряжённые распределения, аналитический байесовский вывод, экспоненциальный класс распределений» | Конспект |
Семинар «Сопряжённые распределения» | Задачи Конспект Ноутбук | ||
24 сентября 2021 | 3 | Лекция «Байесовский выбор модели» | Презентация Конспект |
Семинар «Подсчёт обоснованности моделей» | Задачи Конспект Ноутбук | ||
1 октября 2021 | 4 | Лекция «Метод релевантных векторов для задачи регрессии» | Презентация Конспект |
Семинар «Матричные вычисления» | Задачи с семинара Решения с семинара Методичка Задачи доп 1 Задачи доп 2, | ||
8 октября 2021 | 5 | Лекция «Метод релевантных векторов для задачи классификации» | Саммари Конспект, |
Семинар «Метод релевантных векторов» | Задачи КонспектПрезентация Доказательство тождества Вудбери Доказательство тождества об определителе | ||
15 октября 2021 | 6 | Лекция «EM-алгоритм. Байесовский метод главных компонент» | Саммари Конспект |
Семинар «ЕМ-алгоритм» | Задачи Конспект | ||
22 октября 2021 | 7 | Лекция «Вариационный вывод» | Саммари 1 Саммари 2 Конспект |
Семинар «Вариационный вывод» | Задачи КонспектНоутбук | ||
29 октября 2021 | 8 | Лекция «Методы Монте-Карло по схеме марковский цепей (MCMC)» | Саммари |
Семинар «МСМС» | Задачи Конспект Ноутбук | ||
12 ноября 2021 | 9 | Лекция «Гибридный метод Монте-Карло и его масштабируемые модиификации» | Hamiltonian dynamics Langevin Dynamics |
Лекция «Динамика Ланжевена для сэмплирования и оптимизации» | Презентация | ||
19 ноября 2021 | 10 | Лекция «Гауссовские процессы для регрессии и классификации» | материалы лекции изложены в разделе 6.4 Бишопа |
Семинар «Гауссовские процессы для регрессии и классификации» | Задачи Конспект Презентация | ||
26 ноября 2021 | 11 | Лекция «Непараметрические байесовские методы. Процессы Дирихле» | Саммари |
Семинар «Свойства распределения Дирихле» | Задачи Конспект | ||
3 декабря 2021 | 12 | Лекция «Латентное размещение Дирихле (LDA)» | Саммари |
Семинар «Модификации LDA» | Конспект Статья по HDP |
Замечание: рукописные конспекты лекций и семинаров это в первую очередь заметки лектора и семинаристов, а не материалы по курсу. В них могут содержать неточности!
Официальный конспект лекций в процессе (пока выложены первые 5 лекций, остальные находятся на вычитке).