Совещательный агент - Deliberative agent

Совещательный агент (также известный как преднамеренный агент) является своего рода программный агент используется в основном в моделирование многоагентных систем. Согласно определению Вулдриджа, совещательный агент - это «тот, который обладает явно представленной символической моделью мира, и в котором решения (например, о том, какие действия выполнять) принимаются посредством символических рассуждений».[1]

В сравнении с реактивные агенты, которые способны достичь своей цели только рефлекторно реагируя на внешние раздражители, внутренние процессы размышляющего агента более сложны. Разница заключается в том, что совещательный агент поддерживает символическое представление мира, в котором он обитает.[2] Другими словами, он обладает внутренним образом внешней среды и поэтому способен планировать свои действия. Наиболее часто используемая архитектура для реализации такого поведения - это Программная модель убеждения-желания-намерения (BDI), где убеждения агента о мире (его образ мира), желания (цель) и намерения представлены внутри и применяются практические аргументы, чтобы решить, какое действие выбрать.[2]

Было проведено значительное исследование, направленное на интеграцию стратегий реактивного и делиберативного агента, в результате чего было разработано соединение под названием гибридный агент, который сочетает в себе обширные манипуляции с нетривиальными символическими структурами и рефлексивными реактивными реакциями на внешние события.[2]

Как работают совещательные агенты?

Как уже упоминалось, делиберативные агенты обладают а) внутренним образом внешнего мира и б) целью, которую необходимо достичь, и, таким образом, способны составить список действий (план) для достижения цели. В неблагоприятных условиях, когда план больше не применим, агент обычно может его пересчитать.

Процесс расчета (или пересчета) плана выглядит следующим образом:[3]

  • сенсорный ввод получают функция пересмотра убеждений и убеждения агента изменены
  • функция генерации опционов оценивает изменившиеся убеждения и намерения и создает варианты, доступные агенту. Желания агента конституируются.
  • функция фильтра затем рассматривает текущие убеждения, желания и намерения и производит новые намерения
  • функция выбора действия затем получает намерения функция фильтра и решает, какое действие выполнить

Делиберативный агент требует символического представления с композиционной семантикой (например, дерево данных) во всех основных функциях, поскольку его обсуждение не ограничивается фактами настоящего, но строит гипотезы о возможных будущих состояниях и потенциально также содержит информацию о прошлом (то есть память). Эти гипотетические состояния включают в себя цели, планы, частичные решения, гипотетические состояния убеждений агента и т. Д. Очевидно, что процесс обсуждения может стать значительно сложным и убивать оборудование.[4]

История концепции

С начала 1970 г. Сообщество планирования ИИ участвовал в разработке искусственных агент по планированию (предшественник совещательного агента), который мог бы выбрать правильный план, ведущий к указанной цели.[5] Эти первые попытки привели к построению простой системы планирования, называемой Полоски. Вскоре стало очевидно, что концепция STRIPS нуждается в дальнейшем улучшении, поскольку не способна эффективно решать задачи даже средней сложности.[5] Несмотря на значительные усилия по повышению эффективности (например, путем внедрения иерархический и нелинейное планирование), система оставалась несколько слабой при работе с любой системой с ограничениями по времени.[6]

В конце 1980-х годов были предприняты более успешные попытки разработать агенты планирования. Например, ИПЕМ (Интегрированная система планирования, исполнения и мониторинга) была встроена в сложный нелинейный планировщик. Далее, Wood's АВТОПРИВОД смоделировал поведение совещательных агентов в пробке и Коэна ФЕНИКС Система была создана для моделирования управления лесным пожаром.[6]

В 1976 году Саймон и Ньюэлл сформулировали Гипотеза системы физических символов,[7] который утверждает, что и человеческий, и искусственный интеллект имеют один и тот же принцип - представление символов и манипулирование.[2] Согласно гипотезе следует, что нет существенной разницы между человеком и машиной в интеллекте, но есть только количественная и структурная разница - машины намного менее сложны.[7] Такое провокационное предложение должно было стать предметом серьезной критики и вызвало широкую дискуссию, но сама проблема до сих пор остается нерешенной по существу.[6]

Дальнейшее развитие классической символический ИИ оказалось, что он вообще не зависит от окончательной проверки гипотезы системы физических символов. В 1988 году компании Bratman, Israel и Pollack представили Интеллектуальная архитектура машины с ограниченными ресурсами (IRMA), первая система, реализующая Программная модель убеждения-желания-намерения (BDI). IRMA иллюстрирует стандартную идею совещательный агент как это известно сегодня: программный агент, внедряющий символическое представление и реализующий BDI.[1]

Эффективность делиберативных агентов по сравнению с реактивными

Вышеупомянутые проблемы с символическим ИИ привели к серьезным сомнениям в жизнеспособности такой концепции, что привело к разработке реактивная архитектура, основанный на совершенно иных принципах. Разработчики новой архитектуры отказались от использования символического представления и манипуляции в качестве основы любого искусственного интеллекта. Реактивные агенты достигают своих целей просто за счет реакции на изменяющуюся среду, что подразумевает разумную вычислительную скромность.[8]

Несмотря на то, что совещательные агенты потребляют гораздо больше системных ресурсов, чем их реактивные коллеги, их результаты значительно лучше всего в нескольких особых ситуациях, тогда как обычно во многих случаях можно заменить один совещательный агент несколькими реактивными, не теряя при этом значительной доли адекватность результата моделирования.[8] Кажется, что классические совещательные агенты могут быть полезны, особенно когда требуется правильное действие, из-за их способности производить оптимальное, независимое от предметной области решение.[3] Делиберативный агент часто терпит неудачу в меняющейся среде, поскольку не может достаточно быстро перепланировать свои действия.[3]

Смотрите также

Примечания

  1. ^ а б Вулдридж М. «Агенты по концептуализации и разработке». В Материалы семинара UNICOM по агентскому программному обеспечению. 1-е изд. Лондон, 1995. Стр. 42.
  2. ^ а б c d Hayzelden, A. L .; Бигхэм Дж. Программные агенты для будущих систем связи. 1-е изд. Нью-Йорк: Springer, 1999. Стр. 101.
  3. ^ а б c Влахавас, I .; Вракас, Д. Интеллектуальные методы планирования. 1-е изд. Херши, Пенсильвания: Издательство Idea Group, c2005. Стр. 235.
  4. ^ Scheutz, M .; Брайан Логан, Б. "Аффективный и совещательный агентный контроль ". In Standish, R., K .; Bedau, M., A .; Abbass, H., A. (Eds.). ICAL 2003 Труды восьмой международной конференции по искусственной жизни. 1-е изд. Бостон, Массачусетс: MIT Press Cambridge, c2003. Стр 284 - 295.
  5. ^ а б Wooldridge, M .; Дженнингс Н. Р. "Агентские теории, архитектуры и языки: обзор ". Конспект лекций по информатике 890 (1995): 1 - 39. Стр. 13.
  6. ^ а б c Нильссон, Н. "Гипотеза системы физических символов: состояние и перспективы ". In Lungarella, M .; Iida, F .; Bongard, J. (Eds.). 50 лет искусственного интеллекта. 1-е изд. Нью-Йорк: Springer, 2007. Стр. 9 - 17.
  7. ^ а б Newell, A .; Саймон, Х.А. "Информатика как эмпирическое исследование: символы и поиск ". Сообщения Ассоциации вычислительной техники 19.3 (1976): 113 - 126.
  8. ^ а б Рыцарь, К. "Много ли реактивных агентов лучше, чем несколько размышляющих? ". В IJCAI'93: Материалы 13-й международной совместной конференции по искусственному интеллекту. Vol. 1. 1-е изд. Шамбери: Морган Кауфманн Паблишерс Инк., 1993. Стр. 432–437.

внешняя ссылка