Частично наблюдаемый марковский процесс принятия решений - Partially observable Markov decision process
А частично наблюдаемый марковский процесс принятия решений (ПОМДП) является обобщением Марковский процесс принятия решений (MDP). POMDP моделирует процесс принятия решения агентом, в котором предполагается, что динамика системы определяется MDP, но агент не может напрямую наблюдать за базовым состоянием. Вместо этого он должен поддерживать распределение вероятностей по набору возможных состояний на основе набора наблюдений и вероятностей наблюдений, а также лежащего в основе MDP.
Структура POMDP достаточно универсальна, чтобы моделировать множество реальных последовательных процессов принятия решений. Приложения включают проблемы навигации роботов, техническое обслуживание машин и планирование в условиях неопределенности в целом. Общая структура марковских процессов принятия решений с несовершенная информация был описан Карл Йохан Остром в 1965 г. [1] в случае дискретного пространства состояний, и это было дополнительно изучено в исследование операций сообщество, в котором была придумана аббревиатура POMDP. Позже он был адаптирован для задач в искусственный интеллект и автоматизированное планирование к Лесли П. Кельблинг и Майкл Л. Литтман.[2]
Точное решение POMDP дает оптимальное действие для каждого возможного убеждения по состояниям мира. Оптимальное действие максимизирует (или минимизирует) ожидаемое вознаграждение (или стоимость) агента на возможно бесконечном горизонте. Последовательность оптимальных действий известна как оптимальная политика агента для взаимодействия со своим окружением.
Определение
Формальное определение
POMDP с дискретным временем моделирует отношения между агентом и его средой. Формально POMDP представляет собой набор из семи элементов. , куда
- это набор состояний,
- это набор действий,
- - набор условных вероятностей перехода между состояниями,
- это функция вознаграждения.
- это набор наблюдений,
- - набор условных вероятностей наблюдения, а
- коэффициент дисконтирования.
В каждый период времени среда находится в каком-то состоянии . Агент совершает действие , что приводит к переходу среды в состояние с вероятностью . В то же время агент получает наблюдение что зависит от нового состояния окружающей среды, , и о только что предпринятых действиях , с вероятностью . Наконец, агент получает вознаграждение равно . Затем процесс повторяется. Цель состоит в том, чтобы агент выбирал действия на каждом временном шаге, которые максимизируют его ожидаемое будущее дисконтированное вознаграждение: , куда это награда, заработанная вовремя . Фактор дисконтирования определяет, насколько немедленные награды предпочтительнее более отдаленных. Когда агент заботится только о том, какое действие принесет наибольшую ожидаемую немедленную награду; когда агент заботится о максимальном увеличении ожидаемой суммы будущих вознаграждений.
Обсуждение
Поскольку агент не наблюдает напрямую за состоянием окружающей среды, агент должен принимать решения в условиях неопределенности истинного состояния окружающей среды. Однако, взаимодействуя с окружающей средой и получая наблюдения, агент может обновить свое мнение об истинном состоянии, обновив распределение вероятностей текущего состояния. Следствием этого свойства является то, что оптимальное поведение часто может включать в себя действия (сбор информации), которые предпринимаются исключительно потому, что они улучшают оценку агентом текущего состояния, тем самым позволяя ему принимать более обоснованные решения в будущем.
Поучительно сравнить приведенное выше определение с определением Марковский процесс принятия решений. MDP не включает набор наблюдений, потому что агент всегда точно знает текущее состояние среды. В качестве альтернативы, MDP можно переформулировать как POMDP, установив набор наблюдений равным набору состояний и определив условные вероятности наблюдения для детерминированного выбора наблюдения, которое соответствует истинному состоянию.
Обновление веры
После выполнения действия и наблюдая , агенту необходимо обновить свое мнение о состоянии, в котором может (или нет) находиться среда. Поскольку состояние является марковским (по предположению), поддержание веры в состояния требует исключительно знания предыдущего состояния веры, предпринятых действий, и текущее наблюдение. Операция обозначается . Ниже мы описываем, как рассчитывается это обновление убеждений.
После достижения , агент наблюдает с вероятностью . Позволять - распределение вероятностей в пространстве состояний . обозначает вероятность того, что окружающая среда находится в состоянии . Данный , затем после принятия мер и наблюдая ,
куда нормализующая константа с .
Вера МДП
Марковское состояние убеждений позволяет сформулировать POMDP как Марковский процесс принятия решений где каждая вера - это государство. Результирующий вера МДП таким образом, будет определен в непрерывном пространстве состояний (даже если «исходный» POMDP имеет конечное число состояний: существует бесконечное количество состояний доверия (в ), потому что существует бесконечное число распределений вероятностей по состояниям ( )).[2]
Формально вера MDP определяется как кортеж куда
- - это набор состояний убеждений по состояниям POMDP,
- это тот же конечный набор действий, что и для исходного POMDP,
- функция перехода в состояние доверия,
- - функция вознаграждения по состояниям убеждений,
- коэффициент дисконтирования равен в оригинальном ПОМДП.
Из этих, и должен быть получен из исходного POMDP. является
куда значение, полученное в предыдущем разделе, и
Функция вознаграждения вера MDP () - ожидаемое вознаграждение от функции вознаграждения POMDP по распределению состояний убеждений:
.
Убеждение MDP больше не является частично наблюдаемым, поскольку в любой момент времени агент знает свое убеждение и, в более широком смысле, состояние MDP убеждения.
Политика и функция ценностей
В отличие от «исходного» POMDP (где каждое действие доступно только из одного состояния), в соответствующей MDP верований все состояния убеждений разрешают все действия, поскольку вы (почти) всегда немного вероятность полагать, что вы находитесь в каком-либо (исходном) состоянии. В качестве таких, определяет действие для любой веры .
Здесь предполагается, что цель состоит в том, чтобы максимизировать ожидаемое общее дисконтированное вознаграждение на бесконечном горизонте. Когда определяет стоимость, целью становится минимизация ожидаемой стоимости.
Ожидаемая награда за политику исходя из веры определяется как
куда коэффициент дисконтирования. Оптимальная политика получается за счет оптимизации долгосрочного вознаграждения.
куда это исходное убеждение.
Оптимальная политика, обозначаемая , дает наивысшее ожидаемое значение вознаграждения для каждого состояния убеждений, компактно представленное функцией оптимального значения . Эта функция цены является решением Уравнение оптимальности Беллмана:
Для POMDP с конечным горизонтом функция оптимального значения является кусочно-линейной и выпуклой.[3] Его можно представить как конечный набор векторов. В формулировке с бесконечным горизонтом конечный набор векторов может приближать произвольно близко, форма которого остается выпуклой. Итерация значения применяет обновление динамического программирования для постепенного улучшения значения до сходимости к - функция оптимального значения, сохраняющая кусочную линейность и выпуклость.[4] Повышая ценность, мы неявно улучшаем политику. Другой метод динамического программирования, называемый итерацией политики, вместо этого явно представляет и улучшает политику.[5][6]
Планирование в POMDP
Планирование в POMDP - это неразрешимый в целом. Однако некоторые параметры были определены как разрешимые (см. Таблицу 2 в [7], воспроизводится ниже). Были рассмотрены разные цели. Цели Büchi определены Büchi автоматы. Достижимость - это пример состояния Бюхи (например, достижение хорошего состояния, в котором все роботы находятся дома). Объективы coBüchi соответствуют трассам, которые не удовлетворяют заданному условию Büchi (например, не достигают плохого состояния, в котором погиб какой-то робот). Цели паритета определены через паритетные игры; они позволяют ставить сложные задачи таким образом, чтобы достигать хорошего состояния каждые 10 временных шагов. Цель может быть достигнута:
- почти наверняка, то есть вероятность достижения цели равна 1;
- положительный, то есть вероятность достижения цели строго больше 0;
- количественный, то есть вероятность достижения цели больше заданного порога.
Мы также рассматриваем случай конечной памяти, в котором агент является конечным автоматом, и общий случай, в котором агент имеет бесконечную память.
Цели | Почти уверен (бесконечная память) | Почти наверняка (конечная память) | Положительный (инф. Мем.) | Положительный (конечный мем.) | Количественный (инф. Мем) | Количественная (конечная память) |
---|---|---|---|---|---|---|
Бючи | EXPTIME -полный | EXPTIME-завершено | неразрешимый | EXPTIME-завершено[7] | неразрешимый | неразрешимый |
CoBüchi | неразрешимый | EXPTIME-завершено[7] | EXPTIME-завершено | EXPTIME-завершено | неразрешимый | неразрешимый |
паритет | неразрешимый | EXPTIME-завершено[7] | неразрешимый | EXPTIME-завершено[7] | неразрешимый | неразрешимый |
Примерные решения POMDP
На практике POMDP часто вычислительно несговорчивый чтобы решить точно, поэтому компьютерные ученые разработали методы, приближающие решения для POMDP.[8]
Грид-алгоритмы[9] составляют одну приближенную технику решения. В этом подходе функция ценности вычисляется для набора точек в пространстве убеждений, а интерполяция используется для определения оптимального действия, которое необходимо предпринять для других обнаруженных состояний убеждений, которые не входят в набор точек сетки. В более поздних работах используются методы выборки, методы обобщения и использование структуры проблемы, а решение POMDP распространилось на большие области с миллионами состояний.[10][11] Например, адаптивные сетки и точечные методы выбирают случайные достижимые точки доверия, чтобы ограничить планирование соответствующими областями в пространстве убеждений.[12][13]Уменьшение размерности с помощью PCA также был исследован.[14]
Использует
POMDP можно использовать для моделирования многих видов реальных проблем. Известные применения включают использование POMDP в лечении пациентов с ишемической болезнью сердца,[15] вспомогательная техника для людей с деменцией,[10][11] сохранение находящихся под угрозой исчезновения и трудных для обнаружения суматранских тигров[16] и предотвращение столкновений самолетов.[17]
Рекомендации
- ^ Остром, К.Дж. (1965). «Оптимальное управление марковскими процессами при неполной информации о состоянии». Журнал математического анализа и приложений. 10: 174–205. Дои:10.1016 / 0022-247X (65) 90154-X.
- ^ а б Kaelbling, L.P., Littman, M.L., Cassandra, A.R. (1998). «Планирование и действия в частично наблюдаемых стохастических областях». Искусственный интеллект. 101 (1–2): 99–134. Дои:10.1016 / S0004-3702 (98) 00023-X.CS1 maint: несколько имен: список авторов (связь)
- ^ Сондик, Э.Дж. (1971). Оптимальное управление частично наблюдаемыми марковскими процессами (Кандидатская диссертация). Стэндфордский Университет.
- ^ Смоллвуд Р.Д., Сондик Э.Дж. (1973). «Оптимальное управление частично наблюдаемыми марковскими процессами принятия решений на конечном горизонте». Исследование операций. 21 (5): 1071–88. Дои:10.1287 / opre.21.5.1071.CS1 maint: несколько имен: список авторов (связь)
- ^ Сондик, Э.Дж. (1978). «Оптимальное управление частично наблюдаемыми марковскими процессами на бесконечном горизонте: дисконтированная стоимость». Исследование операций. 26 (2): 282–304. Дои:10.1287 / opre.26.2.282.
- ^ Хансен, Э. (1998). «Решение POMDP путем поиска в политическом пространстве». Материалы четырнадцатой Международной конференции по неопределенности в искусственном интеллекте (UAI-98). arXiv:1301.7380.
- ^ а б c d е Чаттерджи, Кришненду; Хмелик, Мартин; Траколь, Матье (2016-08-01). «Что разрешимо относительно частично наблюдаемых марковских процессов принятия решений с ω-регулярными целями». Журнал компьютерных и системных наук. 82 (5): 878–911. Дои:10.1016 / j.jcss.2016.02.009. ISSN 0022-0000.
- ^ Хаускрехт, М. (2000). «Аппроксимации функции цены для частично наблюдаемых марковских процессов принятия решений». Журнал исследований искусственного интеллекта. 13: 33–94. Дои:10.1613 / jair.678.
- ^ Лавджой, В. (1991). «Вычислительно допустимые границы для частично наблюдаемых марковских процессов принятия решений». Исследование операций. 39: 162–175. Дои:10.1287 / opre.39.1.162.
- ^ а б Джесси Хои; Аксель фон Бертольди; Паскаль Попар; Алекс Михайлидис (2007). «Помощь людям с деменцией во время мытья рук с использованием частично наблюдаемого марковского процесса принятия решений». Proc. Международная конференция по системам компьютерного зрения (ICVS). Дои:10.2390 / biecoll-icvs2007-89.
- ^ а б Джесси Хои; Паскаль Попар; Аксель фон Бертольди; Тэмми Крейг; Крейг Бутилье; Алекс Михайлидис. (2010). «Автоматическая помощь при мытье рук для людей с деменцией с использованием видео и частично наблюдаемого процесса принятия решений Маркова». Компьютерное зрение и понимание изображений (CVIU). 114 (5): 503–519. CiteSeerX 10.1.1.160.8351. Дои:10.1016 / j.cviu.2009.06.008.
- ^ Пино, Дж., Гордон, Г., Трун, С. (август 2003 г.). «Итерация значений на основе точек: постоянный алгоритм для POMDP» (PDF). Международная объединенная конференция по искусственному интеллекту (IJCAI). Акапулько, Мексика. С. 1025–32.CS1 maint: несколько имен: список авторов (связь)
- ^ Хаускрехт, М. (1997). «Инкрементальные методы вычисления границ в частично наблюдаемых марковских процессах принятия решений». Труды 14-й Национальной конференции по искусственному интеллекту (AAAI). Провиденс, Род-Айленд. С. 734–739. CiteSeerX 10.1.1.85.8303.
- ^ Рой, Николас; Гордон, Джеффри (2003). «Экспоненциальный семейный PCA для сжатия убеждений в POMDP» (PDF). Достижения в системах обработки нейронной информации.
- ^ Хаускрехт, М., Фрейзер, Х. (2000). «Планирование лечения ишемической болезни сердца с частично наблюдаемыми марковскими процессами принятия решений». Искусственный интеллект в медицине. 18 (3): 221–244. Дои:10.1016 / S0933-3657 (99) 00042-1. PMID 10675716.CS1 maint: несколько имен: список авторов (связь)
- ^ Чадес, И., Макдональд-Мэдден, Э., Маккарти, М.А., Винтл, Б., Линки, М., Поссингем, Х.П. (16 сентября 2008 г.). «Когда прекратить управление или разведку скрытых видов, находящихся под угрозой исчезновения». Proc. Natl. Акад. Sci. СОЕДИНЕННЫЕ ШТАТЫ АМЕРИКИ. 105 (37): 13936–40. Bibcode:2008PNAS..10513936C. Дои:10.1073 / pnas.0805265105. ЧВК 2544557. PMID 18779594.CS1 maint: несколько имен: список авторов (связь)
- ^ Кочендерфер, Майкель Дж. (2015). «Оптимизированное предотвращение столкновений в воздухе». Принятие решений в условиях неопределенности. MIT Press.
внешняя ссылка
- Страницы POMDP Тони Кассандры с учебным пособием, примерами проблем, смоделированных как POMDP, и программным обеспечением для их решения.
- pomdp: Решатель для частично наблюдаемых марковских процессов принятия решений (POMDP) пакет R, обеспечивающий интерфейс для решателя POMDP Тони Кассандры.
- zmdp, решатель POMDP Трея Смита
- ПРИЛОЖЕНИЕ, быстрый точечный решатель POMDP
- СПАДД, факторно структурированный (PO) решатель MDP, который использует алгебраические диаграммы решений (ADD).
- pyPOMDP, набор инструментов (PO) MDP (симулятор, решатель, обучающийся, читатель файлов) для Python от Оливер Столлманн и Бастиан Мигге
- Конечные контроллеры, использующие Branch-and-Bound Точный решатель POMDP для политик ограниченного размера
- POMDPs.jl, интерфейс для определения и решения MDP и POMDP в Юля с множеством решателей.