«

»

Jan 26

Искусственный интеллект – типовые задачи – видео-уроки

В стародавние времена, меня до глубины души оскорбило когда я – зеленющий студент-первак, заявившись учится на программиста в библиотеке получил целую стопку увесистых книжищ, общее содержание коих можно было описать как “всякая разная математика”. И не одной про компьютеры и программирование. Я всей душой заподозрил подлый подвох – ну на хрена будущему хакеру матан, дискра или диффуры, не будь они к ночи помянуты?! Я был наивен и сурово не прав. (флеймить по чему это так мне лень, но в качестве иллюстрации зачем это все я оставлю тут пару ссылок – Google AI Challenge и Список конкурсов по искусственному интеллекту)

В данном посте складируются видео-лекции стенфордского курса “введение в искусственный интеллект” проходившего в качестве эксперимента по удаленному обучению осенью 2011 года. Лекции разбиты по темам и могут быть найдены на ютубе. Я же, по мере необходимости, отмечал видео, где демонстрируется решение типовых задач (математических!), с которыми мне не удавалось выехать на чистой логике, а приходилось думать.

Определение зависимых/независимых триплетов в сетях Байеса – тут , а вот здесь – разбор задачи по этой теме – d-separation.

На основе правила выше – примеры решения задач.

Задачи на правило Байеса: вычисление вероятностей вида P(“today”|SPAM) и P(“today”|HAM) – тут и тут.

Еще один пример применения правила Байеса на практике (P(C,+), P(C|+) на основе P(+|C), P(-|C)) – рассмотрение вероятностей корректного диагнозирования болезни раком на основе тестов. Определение вероятности болезни раком на основе результатов двух тестов. Случаи для P(C|++), P(C|+-) – Рассматриваются условия когда один тест положительный а второй отрицательный, а также когда оба теста положительны. Случай P(+2|+1) – Разбор вопроса определения вероятности положительного результата второго теста при условии того что первый тест выдал положительный результат.

Определение числа параметров для описания сети Байеса. В общем словаре 12 слов. В анализируемом тексте 3 слова. Вероятность того что P(“Secret”|SPAM)=1/3. (Подробные условия здесь) Сколько всего параметров необходимо для описания такой сети – ответ.

Вывод формулы для получения коэффициентов функции потерь (или регрессии), используемой для корректировки стоимости выбора решений и значения вероятностей – тут. (для уравнений вида f(x) = U1*x+U0).

Наглядный пример использованная метода k-ближайших соседей для классификации частиц – тут

Практическое применение Марковского процесса принятия решений перемещение в лабиринте с ячейками бонусов и штрафов (цель не угодить в -100) – тут.

Пример вычисления вероятностей в цепи Маркова – какова вероятность дождя и солнца на надцатый день – тут.

Использование минимаксного критерия на примере дерева вариантов со фактором случайных исходов – подбрасывания монетки  – тут.

Есть игра с двумя игроками: Мин и Макс. Для каждого есть две стратегии игры и распределение вероятности, что будет сыграна та или иная стратегия. Общая задача – определить вероятности выигрыша и того какая стратегия будет сыграна тем или иным игроком, при условии что нет доминантной стратегии – тут (Общее введение – тут и тут)

Пример вычисления весов для частиц частичных фильтров при условии что наши датчики предоставили нам некоторые результаты измерений – тут.

В закладках также нашел:

Все лекции с задачками, ответами и решениями – тут

Искусственный интеллект в изложении профессоров из Кембриджа – http://artint.info/index.html

Стенфордские же лекции по родственному курсу Машинное обучениеhttp://sandeep-aparajit.blogspot.com/2010/07/machine-learning-tutorial-lectures.html

1 comment

1 ping

  1. Maike

    That’s a wise answer to a tricky qusetoin

Leave a Reply

Your email address will not be published. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>