AI @ 50 - Википедия - AI@50

AI @ 50, формально известный как "Дартмутская конференция по искусственному интеллекту: следующие пятьдесят лет"(13–15 июля 2006 г.) - конференция, организованная Джеймс Мур, посвященный 50-летию Дартмутская мастерская который фактически открыл история искусственного интеллекта. Присутствовали пять из первоначальных десяти участников: Марвин Мински, Рэй Соломонов, Оливер Селфридж, Тренчард Подробнее, и Джон Маккарти.[1]

При поддержке Дартмутский колледж, General Electric, а Фонд Фредерика Уиттемора, грант в размере 200 000 долларов США от Агентство перспективных оборонных исследовательских проектов (DARPA) потребовал отчета о слушаниях, который:

  • Проанализировать прогресс в решении исходных задач ИИ в течение первых 50 лет и оценить, были ли задачи «проще» или «сложнее», чем предполагалось изначально, и почему
  • Задокументируйте, что участники AI @ 50 считают основными проблемами исследований и разработок, стоящими перед этой областью в ближайшие 50 лет, и определите, какие прорывы потребуются для решения этих задач.
  • Свяжите эти проблемы и открытия с разработками и тенденциями в других областях, таких как теория управления, обработка сигналов, теория информации, статистика и теория оптимизации.[2]

Сводный отчет директора конференции, Джеймс Мур, был опубликован в Журнал AI.[3]

Программа конференции и ссылки на опубликованные статьи

AI: прошлое, настоящее, будущее

Будущая модель мышления

Будущее сетевых моделей

Будущее обучения и поиска

Будущее ИИ

Будущее видения

  • Эрик Гримсон, Интеллектуальный анализ медицинских изображений: компьютерная хирургия и мониторинг заболеваний
  • Такео Канаде, Видение искусственного интеллекта: прогресс и не прогресс
  • Терри Сейновски, Критика чистого видения

Будущее рассуждений

Будущее языка и познания

Будущее будущего

AI и игры

Будущее взаимодействие с интеллектуальными машинами

Избранные представленные статьи: будущие стратегии ИИ

Избранные представленные статьи: будущие возможности ИИ

Рекомендации

  1. ^ Нильссон, Нильс Дж. (2009). В поисках искусственного интеллекта. Издательство Кембриджского университета. ISBN  978-0-521-12293-1. стр. 80-81
  2. ^ Кнапп, Сьюзен (2006-07-06). «Дартмут получает грант от DARPA на поддержку конференции AI @ 50». Управление по связям с общественностью Дартмутского колледжа. Архивировано из оригинал на 2010-06-07. Получено 2010-06-11.
  3. ^ Мур, Джеймс (2006). "Конференция по искусственному интеллекту Дартмутского колледжа: следующие пятьдесят лет" (PDF). Журнал AI. 27 (4): 87–91. ISSN  0738-4602.
  4. ^ Кнапп, Сьюзен (24 июля 2006 г.). «Искусственный интеллект: прошлое, настоящее и будущее». Голос Дартмута. Получено 2010-06-11.
  5. ^ Рассел, Стюарт (2006-07-12). «Подход современного ИИ». Архивировано из оригинал (PPT) на 2012-03-24. Получено 2010-06-11.
  6. ^ Соломонов, Рэй Дж. (2006). «Машинное обучение - прошлое и будущее» (PDF). Получено 2008-07-25.
  7. ^ Лэнгли, Пэт (2006). «Интеллектуальное поведение людей и машин» (PDF). Получено 2008-07-25.
  8. ^ Курцвейл, Рэй (14 июля 2006 г.). «Почему мы можем быть уверены в возможности теста Тьюринга в течение четверти века». Архивировано из оригинал 10 августа 2006 г.. Получено 25 июля 2006.
  9. ^ Холл, Дж. Стоорс (2007). «Самосовершенствующийся ИИ: анализ». Умы и машины. 17 (3): 249–259. Дои:10.1007 / s11023-007-9065-3. Самосовершенствование было одним из аспектов ИИ, предложенных для изучения на Дартмутской конференции 1956 года. Тьюринг предложил «детскую машину», которую можно было бы обучить по-человечески для достижения интеллекта взрослого человека. В последнее время утверждение о том, что систему ИИ можно построить, чтобы бесконечно учиться и совершенствоваться, приобрело ярлык заблуждения самозагрузки. Попытки ИИ реализовать такую ​​систему на протяжении полувека терпели неудачу. Однако технологические оптимисты утверждали, что такая система возможна, создавая, если она будет реализована, цикл обратной связи, который приведет к быстрому экспоненциальному увеличению интеллекта. Мы исследуем аргументы обеих позиций и сделаем некоторые выводы. Самоархив В архиве 2010-02-15 в Wayback Machine
  10. ^ Bringsjord, Зельмер (Декабрь 2008 г.). «Манифест логика: пусть наконец ИИ, основанный на логике, станет полем самооценки». Журнал прикладной логики. 6 (4): 502–525. Дои:10.1016 / j.jal.2008.09.001. Эта статья является убедительным аргументом в пользу того, что ИИ, основанный на логике, должен стать автономной областью, полностью отделенной от парадигм, которые в настоящее время все еще включены в «зонтик» ИИ, - таких как коннекционизм и непрерывный системный подход. Документ включает в себя самостоятельное резюме основанного на логике ИИ, а также опровержения ряда возражений, которые неизбежно будут выдвинуты против выраженной здесь декларации независимости.Самоархив
  11. ^ Мюллер, Винсент К. (март 2007 г.). «Есть ли будущее у ИИ без репрезентации?». Умы и машины. 17 (1): 101–115. Дои:10.1007 / s11023-007-9067-1. В этой статье исследуются перспективы предложения Родни Брукса об искусственном интеллекте без представительства. Оказывается, что якобы характерные черты «нового ИИ» (воплощение, ситуативность, отсутствие рассуждений и отсутствие репрезентации) все присутствуют в традиционных системах: «Новый ИИ» подобен старому ИИ. Предложение Брукса сводится к архитектурному отказу от централизованного управления интеллектуальными агентами, что, однако, оказывается решающим. Некоторые из новейших когнитивных наук предполагают, что мы могли бы преуспеть, если бы избавились от образа интеллектуальных агентов как центральных процессоров репрезентации. Если этот сдвиг парадигмы будет достигнут, предложение Брукса о познании без репрезентации окажется многообещающим для полноценных интеллектуальных агентов, хотя и не для сознательных агентов. Самоархив В архиве 2009-11-17 на Wayback Machine
  12. ^ Ториссон, Кристинн Р. (март 2007 г.). «Интегрированные системы искусственного интеллекта». Умы и машины. 17 (1): 11–25. Дои:10.1007 / s11023-007-9055-5. Широкий спектр возможностей, проявляемых людьми и животными, достигается за счет большого набора разнородных, тесно интегрированных когнитивных механизмов. Чтобы приблизить искусственные системы к такому универсальному интеллекту, мы не можем избежать воспроизведения некоторого подмножества - вполне возможно, значительной части - этого большого набора. Прогресс в этом направлении требует более серьезного отношения к системной интеграции как к фундаментальной исследовательской проблеме. В этой статье я утверждаю, что интеллект необходимо изучать комплексно. Я представляю ключевые проблемы, которые необходимо решить в области интеграции, и предлагаю решения для ускорения прогресса в направлении более мощного интегрированного ИИ. системы, включая (а) инструменты для построения больших сложных архитектур, (б) методологию проектирования для построения искусственного интеллекта в реальном времени. системы и (c) методы для облегчения совместного использования кода на уровне сообщества.
  13. ^ Стейнхарт, Эрик (октябрь 2007 г.). «Выживание как цифровой призрак». Умы и машины. 17 (3): 261–271. Дои:10.1007 / s11023-007-9068-0. Вы можете выжить после смерти в разного рода артефактах. Вы можете выжить в дневниках, фотографиях, звукозаписях и фильмах. Но эти артефакты фиксируют только внешние черты вас самих. Мы уже близки к созданию программ, которые частично и приблизительно воспроизводят всю человеческую жизнь (сохраняя их воспоминания и дублируя их личности). Цифровой призрак - это программа с искусственным интеллектом, которая знает о вашей жизни все. Это анимированная автобиография. Он воспроизводит ваши шаблоны убеждений и желаний. Вы можете выжить после смерти в цифровом призраке. Мы обсуждаем серию цифровых призраков на ближайшие 50 лет. Со временем и развитием технологий они становятся все более совершенными копиями жизней своих первоначальных авторов.
  14. ^ Шмидт, Колин Т. А. (октябрь 2007 г.). «Дети, роботы и… родительская роль». Умы и машины. 17 (3): 273–286. Дои:10.1007 / s11023-007-9069-z. Смысл этой статьи состоит в том, что многие проницательные аналитики работ в области интеллектуальных вычислений и робототехники не видят существенного, касающегося разработки приложений, а именно выражения их конечной цели. С другой стороны, они не могут изложить это подходящим образом для менее информированной общественности. Автор не утверждает, что может это исправить. Вместо этого провидческое исследование предлагало парам учиться и работать с другими смежными областями как часть более широкого спектра, чтобы полностью имитировать людей в их воплощенном образе. Впервые ставятся под сомнение социальные роли, приписываемые производимым техническим объектам, и это делается с юмористической иллюстрацией.
  15. ^ Андерсон, Майкл; Сьюзан Ли Андерсон (март 2007 г.). «Состояние машинной этики: доклад с симпозиума AAAI». Умы и машины. 17 (1): 1–10. Дои:10.1007 / s11023-007-9053-7. Этот документ представляет собой резюме и оценку работы, представленной на осеннем симпозиуме AAAI 2005 по машинной этике, на котором собрались участники из областей компьютерных наук и философии, чтобы прояснить природу этой недавно появившейся области и обсудить различные подходы, которые можно было бы использовать. к реализации конечной цели создания этической машины.
  16. ^ Гуарини, Марчелло (март 2007 г.). «Вычисление, согласованность и этическое мышление». Умы и машины. 17 (1): 27–46. Дои:10.1007 / s11023-007-9056-4. Теории морального и, в более общем плане, практического мышления иногда основываются на понятии согласованности. Замечательно то, что Пол Тагард попытался дать вычислительно подробное описание вида согласованности, используемой в практических рассуждениях, утверждая, что это поможет преодолеть проблемы в фундаменталистских подходах к этике. Приведенные здесь аргументы опровергают предполагаемую роль последовательности в практических рассуждениях, одобренную Тагардом. Несмотря на то, что из вышеизложенного можно извлечь некоторые общие уроки, не предпринимается никаких попыток оспаривать все формы согласованности во всех контекстах. Не ставится под сомнение и полезность компьютерного моделирования. Дело в том, что согласованность не может быть столь полезной для понимания морального мышления, как думают когерентисты. Этот результат имеет очевидные последствия для будущего Машинной этики, недавно появившейся области искусственного интеллекта.

внешняя ссылка

Примечания и комментарии

Блогер конференции Мэг Хьюстон Мейкер освещала конференцию с места событий, включая записи о: