Дэвид А. Макаллестер - David A. McAllester
Дэвид А. Макаллестер | |
---|---|
Родившийся | Соединенные Штаты | 30 мая 1956 г.
Альма-матер | Массачусетский технологический институт |
Известен | Искусственный интеллект |
Награды | AAAI Премия Classic Paper (2010)[1] Международная конференция по логическому программированию Премия Test of Time (2014)[2] |
Научная карьера | |
Поля | Информатика, Искусственный интеллект, Машинное обучение |
Учреждения | Технологический институт Toyota в Чикаго |
Докторант | Джеральд Сассман |
Дэвид А. Макаллестер (родился 30 мая 1956 г.) - американский ученый-компьютерщик, профессор и бывший главный научный сотрудник Технологического института Toyota в Чикаго. Он получил степени бакалавра, магистра наук. и к.т.н. градусов от Массачусетский Институт Технологий в 1978, 1979 и 1987 годах соответственно. Его докторскую степень возглавлял Джеральд Сассман. Он работал на факультете Корнельского университета в 1987-1988 учебном году и на факультете Массачусетского технологического института с 1988 по 1995 год. Он был членом технического персонала в AT&T Labs-Research с 1995 по 2002 год. Он был членом Американская ассоциация искусственного интеллекта с 1997 года.[3] Он написал более 100 реферируемых публикаций.
Области исследований Макаллестера включают теорию машинного обучения, теорию языков программирования, автоматизированное мышление, планирование ИИ, компьютерные игры (компьютерные шахматы) и вычислительную лингвистику. Статья 1991 года о планировании ИИ[4] оказалась одной из самых влиятельных газет десятилетия в этой области.[5] Статья 1993 года об алгоритмах компьютерных игр[6] повлиял на дизайн алгоритмов, используемых в Темно-синий шахматная система, которая победила Гарри Каспаров.[7] Статья 1998 года по теории машинного обучения[8] представил PAC-байесовские теоремы, сочетающие байесовские и небайесовские методы. Его планы на будущее сосредоточены на интеграции семантики в статистические подходы к компьютерной лингвистике.
Мнения об искусственном интеллекте
Макаллестер выразил обеспокоенность по поводу потенциальные опасности из искусственный интеллект, написав в статье в Pittsburgh Tribune-Review что полностью автоматизированные интеллектуальные машины неизбежно смогут разрабатывать и создавать более умные и лучшие версии самих себя, событие, известное как необычность. Сингулярность позволила бы машинам стать бесконечно разумными и представила бы «невероятно опасный сценарий». Макаллестер оценивает 10-процентную вероятность возникновения Сингулярности в течение 25 лет и 90-процентную вероятность ее возникновения в течение 75 лет.[9] Он появился на AAAI Президентская группа по долгосрочным фьючерсам на ИИ в 2009 г .:,[10] и считает, что к опасностям сверхразумного ИИ стоит отнестись серьезно:
Мне неудобно говорить, что мы на девяносто девять процентов уверены, что мы в безопасности на пятьдесят лет ... Мне это кажется высокомерием.[11]
Позже он был описан как обсуждающий сингулярность на панели с точки зрения двух основных вех в искусственном интеллекте:
1) Оперативная чувствительность: мы можем легко общаться с компьютерами. 2) Цепная реакция ИИ: компьютер, который загружается с помощью ремня безопасности. Повторение.[12]
Макаллестер также писал о дружественный искусственный интеллект в своем блоге. Он говорит, что до того, как машины станут способны программировать себя (что может привести к сингулярности), должен наступить период, когда они будут умеренно умными, в течение которого должна быть возможность проверить, давая им цель или миссию, которые должны сделать их безопасными для людей. :
Я лично считаю, что вполне вероятно, что в течение десятилетия агенты смогут вести увлекательный разговор о повседневных событиях, которые являются темой нетехнических разговоров за ужином. Я думаю, это произойдет задолго до того, как машины смогут программировать себя, что приведет к взрыву интеллекта. На ранних стадиях создания общего искусственного интеллекта (AGI) будет безопасно. Тем не менее, ранние стадии AGI станут отличным испытательным полигоном для миссии слуг или других подходов к дружественному ИИ ... Если наступит эра безопасного (не слишком интеллектуального) AGI, то у нас будет время подумать дальше. более опасные эпохи.[13]
Рекомендации
- ^ «Премия AAAI Classic Paper». AAAI. 2016. Получено 19 августа 2016.
- ^ «Статья Паскаля выдерживает испытание временем». Австралийский национальный университет. 23 апреля 2014 г.. Получено 19 августа 2016.
- ^ "Биография Дэвида Макаллестера". Технологический институт Toyota в Чикаго. Получено 19 августа 2016.
- ^ Макаллестер, Дэвид; Розенблитт, Дэвид (декабрь 1991 г.). «Систематическое нелинейное планирование» (PDF). Труды AAAI-91. AAAI: 634–639. Получено 19 августа 2016.
- ^ "Цитаты из Академии Google". Google ученый. 2016. Получено 19 августа 2016.
- ^ Макаллестер, Дэвид; Юрет, Дениз (20 октября 1993 г.). "Альфа-бета-поиск заговора". Проект. CiteSeerX 10.1.1.44.6969. Цитировать журнал требует
| журнал =
(помощь) - ^ Кэмпбелл, Мюррей S .; Джозеф Хоан, младший, А .; Сюй, Фэн-сюн (1999). «Методы управления поиском в Deep Blue» (PDF). Технический отчет AAAI SS-99-07. AAAI: 19–23. Архивировано из оригинал (PDF) 14 сентября 2016 г.. Получено 16 августа 2016.
Насколько нам известно, идея разделения вычисления глубины белого и черного была впервые предложена Дэвидом Макаллестером. В более поздней статье (Макаллестер и Юрет, 1993) алгоритм ABC был выведен из теории заговора (Макаллестер, 1988).
- ^ Макаллестер, Дэвид (1998). Некоторые PAC-байесовские теоремы. Труды одиннадцатой ежегодной конференции по вычислительной теории обучения. Кольт '98. Ассоциация вычислительной техники. С. 230–234. CiteSeerX 10.1.1.21.1745. Дои:10.1145/279943.279989. ISBN 978-1581130577. Получено 19 августа 2016.
- ^ Кронин, Майк (2 ноября 2009 г.). «Доклад футуристов рассматривает опасности умных роботов». Pittsburgh Tribune-Review. Получено 20 августа 2016.
- ^ "Асиломарское совещание по долгосрочным перспективам искусственного интеллекта". Microsoft Research. 2009. Получено 20 августа 2016.
- ^ Хатчадурян, Раффи (23 ноября 2015 г.). «Изобретение судного дня: принесет ли нам искусственный интеллект утопию или разрушение?». Житель Нью-Йорка. Получено 23 августа 2016.
- ^ Фортноу, Лэнс (31 июля 2009 г.). "Сингулярность". Вычислительная сложность. Получено 20 августа 2016.
- ^ Макаллестер, Дэвид (10 августа 2014 г.). «Дружественный ИИ и миссия слуги». Мысли о машинах. WordPress. Получено 20 августа 2016.
внешняя ссылка
- Академическая страница Дэвида Макаллестера в TTIC.
- Мысли о машинах, Личный блог Дэвида Макаллестера.
- Дэвид Аллен Макаллестер на Проект "Математическая генеалогия".