В стародавние времена, меня до глубины души оскорбило когда я – зеленющий студент-первак, заявившись учится на программиста в библиотеке получил целую стопку увесистых книжищ, общее содержание коих можно было описать как “всякая разная математика”. И не одной про компьютеры и программирование. Я всей душой заподозрил подлый подвох – ну на хрена будущему хакеру матан, дискра или диффуры, не будь они к ночи помянуты?! Я был наивен и сурово не прав. (флеймить по чему это так мне лень, но в качестве иллюстрации зачем это все я оставлю тут пару ссылок – Google AI Challenge и Список конкурсов по искусственному интеллекту)
В данном посте складируются видео-лекции стенфордского курса “введение в искусственный интеллект” проходившего в качестве эксперимента по удаленному обучению осенью 2011 года. Лекции разбиты по темам и могут быть найдены на ютубе. Я же, по мере необходимости, отмечал видео, где демонстрируется решение типовых задач (математических!), с которыми мне не удавалось выехать на чистой логике, а приходилось думать.
Определение зависимых/независимых триплетов в сетях Байеса – тут , а вот здесь – разбор задачи по этой теме – d-separation.
На основе правила выше – примеры решения задач.
Задачи на правило Байеса: вычисление вероятностей вида P(“today”|SPAM) и P(“today”|HAM) – тут и тут.
Еще один пример применения правила Байеса на практике (P(C,+), P(C|+) на основе P(+|C), P(-|C)) – рассмотрение вероятностей корректного диагнозирования болезни раком на основе тестов. Определение вероятности болезни раком на основе результатов двух тестов. Случаи для P(C|++), P(C|+-) – Рассматриваются условия когда один тест положительный а второй отрицательный, а также когда оба теста положительны. Случай P(+2|+1) – Разбор вопроса определения вероятности положительного результата второго теста при условии того что первый тест выдал положительный результат.
Определение числа параметров для описания сети Байеса. В общем словаре 12 слов. В анализируемом тексте 3 слова. Вероятность того что P(“Secret”|SPAM)=1/3. (Подробные условия здесь) Сколько всего параметров необходимо для описания такой сети – ответ.
Вывод формулы для получения коэффициентов функции потерь (или регрессии), используемой для корректировки стоимости выбора решений и значения вероятностей – тут. (для уравнений вида f(x) = U1*x+U0).
Наглядный пример использованная метода k-ближайших соседей для классификации частиц – тут
Практическое применение Марковского процесса принятия решений перемещение в лабиринте с ячейками бонусов и штрафов (цель не угодить в -100) – тут.
Пример вычисления вероятностей в цепи Маркова – какова вероятность дождя и солнца на надцатый день – тут.
Использование минимаксного критерия на примере дерева вариантов со фактором случайных исходов – подбрасывания монетки – тут.
Есть игра с двумя игроками: Мин и Макс. Для каждого есть две стратегии игры и распределение вероятности, что будет сыграна та или иная стратегия. Общая задача – определить вероятности выигрыша и того какая стратегия будет сыграна тем или иным игроком, при условии что нет доминантной стратегии – тут (Общее введение – тут и тут)
Пример вычисления весов для частиц частичных фильтров при условии что наши датчики предоставили нам некоторые результаты измерений – тут.
В закладках также нашел:
Все лекции с задачками, ответами и решениями – тут
Искусственный интеллект в изложении профессоров из Кембриджа – http://artint.info/index.html
Стенфордские же лекции по родственному курсу Машинное обучение – http://sandeep-aparajit.blogspot.com/2010/07/machine-learning-tutorial-lectures.html
1 comment
1 ping
That’s a wise answer to a tricky qusetoin
[…] Искусственный интеллект – типовые задачи – видео-уроки … […]