Искусственное сознание - Artificial consciousness

Искусственное сознание[1] (AC), также известный как машинное сознание (MC) или синтетическое сознание (Gamez 2008; Реджия 2013 ), это поле, связанное с искусственный интеллект и когнитивная робототехника. Цель теория искусственного сознания состоит в том, чтобы «определить то, что нужно было бы синтезировать, если бы сознание было обнаружено в искусственном артефакте» (Александр 1995 ).

Неврология предполагает, что сознание создается взаимодействием различных частей мозг, называется нейронные корреляты сознания или NCC, хотя с этой точкой зрения есть проблемы. Сторонники AC считают, что можно построить системы (например., компьютер системы), которые могут эмулировать это взаимодействие NCC.[2]

Концепции искусственного сознания также рассматриваются в философии искусственный интеллект через вопросы о разуме, сознании и психических состояниях.[3]

Философские взгляды

Поскольку есть много предположений типы сознания существует множество потенциальных реализаций искусственного сознания. В философской литературе, возможно, наиболее распространена таксономия сознания на «доступный» и «феноменальный» варианты. Осознание доступа касается тех аспектов опыт которые можно постичь, в то время как феноменальное сознание касается тех аспектов опыта, которые, казалось бы, не могут быть постигнуты, вместо этого качественно характеризуясь с точки зрения «сырых ощущений», «каково это» или квалиа (Блок 1997 ).

Дискуссия о правдоподобности

Теоретики типовой идентичности и другие скептики придерживаются точки зрения, что сознание может быть реализовано только в определенных физических системах, потому что сознание имеет свойства, которые обязательно зависят от физического строения (Блок 1978; Бикл 2003 ).[4][5]

В своей статье «Искусственное сознание: утопия или реальная возможность» Джорджио Бутаццо говорит, что распространенное возражение против искусственного сознания состоит в том, что «Работая в полностью автоматизированном режиме, они [компьютеры] не могут проявлять творческие способности, эмоции или свободная воля. Компьютер, как и стиральная машина, является рабом, управляемым своими компонентами ".[6]

Для других теоретиков (например, функционалисты ), которые определяют ментальные состояния в терминах причинных ролей, любая система, которая может создавать экземпляры одного и того же паттерна каузальных ролей, независимо от физического строения, будет создавать экземпляры тех же психических состояний, включая сознание (Патнэм 1967 ).

Аргумент Computational Foundation

Один из наиболее явных аргументов в пользу правдоподобия AC исходит из Дэвид Чалмерс. Его предложение, найденное в его статье Чалмерс 2011, грубо говоря, правильных вычислений достаточно для обладания сознательным разумом. В общих чертах он защищает свое утверждение следующим образом: компьютеры выполняют вычисления. Вычисления могут фиксировать абстрактную причинную организацию других систем.

Наиболее спорная часть предложения Чалмерса состоит в том, что ментальные свойства «организационно инвариантны». Психические свойства бывают двух видов: психологические и феноменологические. Психологические свойства, такие как убеждение и восприятие, - это те свойства, которые «характеризуются их причинной ролью». Он рекламирует работу Армстронг 1968 и Льюис 1972 в заявлении, что «системы с одинаковой причинной топологией ... будут разделять свои психологические свойства».

Феноменологические свойства не поддаются определению prima facie в терминах их причинных ролей. Следовательно, установление того, что феноменологические свойства поддаются индивидуализации посредством причинной роли, требует аргумента. Для этой цели Чалмерс предоставляет свой аргумент «Танцующие квалиа».[7]

Чалмерс начинает с предположения, что агенты с одинаковыми причинными организациями могут иметь разный опыт. Затем он просит нас представить превращение одного агента в другого путем замены частей (например, нейронные части, замененные кремнием) при сохранении его причинной организации. Ex hypothesi, опыт трансформируемого агента изменился бы (по мере замены частей), но не было бы никаких изменений в каузальной топологии и, следовательно, не было бы средств, с помощью которых агент мог бы «заметить» сдвиг в опыте.

Критики AC возражают, что Чалмерс задается вопросом, предполагая, что все ментальные свойства и внешние связи в достаточной степени охвачены абстрактной причинной организацией.

Этика

Если бы возникло подозрение, что конкретная машина находится в сознании, ее права были бы этический вопрос, который необходимо будет оценить (например, какие права он будет иметь по закону). Например, сознательный компьютер, который принадлежал и использовался в качестве инструмента или центрального компьютера для создания более крупной машины, представляет собой особую двусмысленность. Должен законы быть сделано для такого случая? Сознание также потребует юридического определения в данном конкретном случае. Поскольку искусственное сознание по-прежнему в значительной степени является теоретическим предметом, такая этика не обсуждалась и не разрабатывалась в значительной степени, хотя она часто была темой в художественной литературе (см. Ниже).

Правила на 2003 год Премия Лебнера Конкурс прямо касался вопроса прав роботов:

61. Если в любом конкретном году общедоступная заявка с открытым исходным кодом, поданная Университетом Суррея или Кембриджским центром, получает Серебряную или Золотую медаль, то медаль и денежная премия будут присуждены органу, ответственному за развитие этой записи. Если такой орган не может быть идентифицирован или если есть разногласия между двумя или более заявителями, Медаль и денежное вознаграждение будут переданы в доверительное управление. до тех пор, пока Заявка не сможет на законных основаниях владеть, либо в Соединенных Штатах Америки, либо в месте проведения конкурса, денежным призом и золотой медалью самостоятельно..[8]

Предложения по исследованиям и внедрению

Аспекты сознания

Существуют различные аспекты сознания, которые обычно считаются необходимыми для искусственного сознания машины. Различные функции, в которых играет роль сознание, были предложены Бернард Баарс (Баарс 1988 ) и другие. Функции сознания, предложенные Бернардом Баарсом, - это определение и установка контекста, адаптация и обучение, редактирование, отметка и отладка, набор и контроль, определение приоритетов и контроль доступа, принятие решений или исполнительная функция, функция формирования аналогии, метакогнитивное и самовоспроизведение Функция мониторинга, а также функция автопрограммирования и самообслуживания. Игорь Александр предложил 12 принципов искусственного сознания (Александр 1995 ), а именно: мозг - это конечный автомат, внутреннее разделение нейронов, сознательные и бессознательные состояния, перцептивное обучение и память, прогнозирование, самосознание, представление смысла, обучаемые высказывания, изучаемый язык, воля, инстинкт и эмоции. Цель AC - определить, можно ли и как эти и другие аспекты сознания синтезировать в созданном артефакте, таком как цифровой компьютер. Этот список не является исчерпывающим; есть много других, не охваченных.

Осведомленность

Осведомленность может быть одним обязательным аспектом, но есть много проблем с точным определением осведомленность. Результаты экспериментов нейросканирование на обезьянах предполагают, что нейроны активирует процесс, а не только состояние или объект. Осведомленность включает создание и тестирование альтернативных моделей каждого процесса на основе информации, полученной через органы чувств или воображаемой, а также полезной для прогнозирования. Такое моделирование требует большой гибкости. Создание такой модели включает моделирование физического мира, моделирование собственных внутренних состояний и процессов, а также моделирование других сознательных сущностей.

Есть как минимум три типа осознания:[9] осведомленность агентства, осведомленность о цели и сенсомоторная осведомленность, которые также могут быть осознанными или нет. Например, в сознании агентства вы можете осознавать, что вчера совершили определенное действие, но сейчас не осознаете его. Осознавая цель, вы можете осознавать, что должны искать потерянный объект, но сейчас не осознаёте этого. В сенсомоторном осознавании вы можете осознавать, что ваша рука опирается на объект, но теперь не осознаёте этого.

Поскольку объекты осознания часто бывают сознательными, различие между осознанием и сознанием часто размывается или они используются как синонимы.[10]

объем памяти

Сознательные события взаимодействуют с объем памяти системы в обучении, репетиции и поиске.[11]Модель IDA[12] разъясняет роль сознания в обновлении перцептивной памяти,[13] преходящий эпизодическая память, и процедурная память. Преходящие эпизодические и декларативные воспоминания имеют распределенные представления в IDA, есть свидетельства того, что это также относится к нервной системе.[14] В IDA эти две памяти реализованы вычислительно с использованием модифицированной версии Канерва С Редкая распределенная память архитектура.[15]

Учусь

Обучение также считается необходимым для AC. По словам Бернарда Баарса, сознательный опыт необходим для представления и адаптации к новым и значимым событиям (Баарс 1988 ). К Аксель Клиреманс и Луис Хименес, обучение определяется как «набор филогенетически [sic ] продвинутые процессы адаптации, которые в решающей степени зависят от развитой чувствительности к субъективному опыту, чтобы позволить агентам гибко контролировать свои действия в сложных, непредсказуемых средах »(Клиреманс 2001 ).

Ожидание

Способность предсказывать (или предвидеть ) предсказуемые события считаются важными для AC Игорь Александр.[16] Эмерджентист принцип множественности шашек предложено Дэниел Деннетт в Сознание объяснено может быть полезен для прогнозирования: он включает в себя оценку и выбор наиболее подходящего «черновика», подходящего для текущей среды. Предвидение включает в себя предсказание последствий собственных предлагаемых действий и предсказание последствий возможных действий других субъектов.

Отношения между состояниями реального мира отражаются в структуре состояний сознательного организма, позволяя ему предсказывать события.[16] Машина с искусственным сознанием должна уметь правильно предвидеть события, чтобы быть готовой реагировать на них, когда они происходят, или предпринимать упреждающие действия для предотвращения ожидаемых событий. Подразумевается, что машине требуются гибкие компоненты, работающие в реальном времени, которые строят пространственные, динамические, статистические, функциональные и причинно-следственные модели реального мира и предсказанных миров, что позволяет продемонстрировать, что она обладает искусственным сознанием в настоящем. и будущее и не только в прошлом. Для этого сознательная машина должна делать последовательные прогнозы и планы действий в чрезвычайных ситуациях не только в мирах с фиксированными правилами, такими как шахматная доска, но и в новых средах, которые могут измениться, чтобы выполняться только тогда, когда это необходимо для имитации и управления реальным. Мир.

Субъективный опыт

Субъективные переживания или квалиа широко считаются то трудная проблема сознания. Действительно, считается, что это вызов физикализм, не говоря уже о вычислитель. С другой стороны, есть проблемы в других областях науки, которые ограничивают то, что мы можем наблюдать, например, принцип неопределенности в физике, что не сделало невозможными исследования в этих областях науки.

Роль когнитивных архитектур

Термин «когнитивная архитектура» может относиться к теории о структуре человеческого разума или любой его части или функции, включая сознание. В другом контексте когнитивная архитектура реализует теорию на компьютерах. Примером является QuBIC: квантовая и био-вдохновленная когнитивная архитектура для машинного сознания. Одна из основных целей когнитивной архитектуры - обобщить различные результаты когнитивной психологии в комплексной компьютерной модели. Однако результаты должны быть в формализованной форме, чтобы они могли быть основой компьютерной программы. Кроме того, роль когнитивной архитектуры принадлежит искусственному интеллекту. четко структурировать, построить и реализовать свой мыслительный процесс.

Символические или гибридные предложения

Интеллектуальный агент распределения Франклина

Стэн Франклин (1995, 2003) определяет автономный агент как обладающий функциональное сознание когда он способен выполнять несколько функций сознания, как это определено Бернард Баарс ' Теория глобального рабочего пространства (Баарс1988, 1997 ). Его дочерний мозг IDA (Intelligent Distribution Agent) представляет собой программную реализацию GWT, которая по определению делает его функционально осознанным. Задача IDA - согласовать новые задания для моряков в ВМС США после того, как они закончат службу, сопоставив навыки и предпочтения каждого человека с потребностями ВМФ. IDA взаимодействует с базами данных ВМФ и общается с моряками через диалоги электронной почты на естественном языке, соблюдая при этом большой набор политик ВМФ. Вычислительная модель IDA была разработана в 1996–2001 гг. В исследовательской группе «Сознательное» программного обеспечения Стэна Франклина. Мемфисский университет. Он "состоит примерно из четверти миллиона строк Ява код, и почти полностью потребляет ресурсы высокопроизводительной рабочей станции 2001 г. "Он в значительной степени полагается на кодлеты, которые являются «относительно независимыми мини-агентами специального назначения, обычно реализуемыми в виде небольшого фрагмента кода, выполняемого как отдельный поток». В нисходящей архитектуре IDA явным образом моделируются когнитивные функции высокого уровня (см. Франклин 1995 и Франклин 2003 подробнее). Хотя IDA по определению является функционально сознательной, Франклин «не приписывает феноменальное сознание своему собственному «сознательному» программному агенту IDA, несмотря на ее поведение, похожее на человеческое. И это несмотря на то, что несколько операторов ВМС США неоднократно кивали головами и говорили: «Да, я так делаю», наблюдая за внутренними и внешними действиями IDA, когда она выполняет свою задачу ». LIDA (Обучающийся интеллектуальный агент распределения).

Когнитивная архитектура Рона Сана CLARION

Кларион постулирует двухуровневое представление, объясняющее различие между сознательными и бессознательными психическими процессами.

CLARION успешно учитывает множество психологических данных. С помощью CLARION был смоделирован ряд хорошо известных задач по обучению навыкам, охватывающих широкий спектр от простых реактивных навыков до сложных когнитивных навыков. Задачи включают в себя задачи последовательного времени реакции (SRT), задачи искусственного изучения грамматики (AGL), задачи управления процессом (ПК), задачу категориального вывода (CI), задачу алфавитной арифметики (AA) и Ханойскую башню (TOH). задача (Вс 2002 ). Среди них SRT, AGL и PC являются типичными неявными обучающими задачами, очень важными для проблемы сознания, поскольку они операционализировали понятие сознания в контексте психологических экспериментов.

OpenCog Бена Гертцеля

Бен Гертцель преследует воплощенный AGI через открытый исходный код OpenCog проект. Текущий код включает в себя воплощенных виртуальных питомцев, способных учить простые команды на английском языке, а также интеграцию с реальной робототехникой, выполняемую в Гонконгский политехнический университет.

Предложения коннекционистов

Когнитивная архитектура Хайконена

Пентти Хайконен (2003) считает классические вычисления, основанные на правилах, неадекватными для достижения AC: «Мозг определенно не компьютер. Мышление - это не выполнение запрограммированных строк команд. Мозг также не является числовым калькулятором. Мы не мыслим числами». Вместо того, чтобы пытаться достичь разум и сознание путем выявления и реализации лежащих в их основе вычислительных правил, Хайконен предлагает «особую когнитивная архитектура воспроизвести процессы восприятие, внутренние образы, внутренняя речь, боль, удовольствие, эмоции и познавательный функции за ними. Эта восходящая архитектура будет производить функции более высокого уровня за счет мощности элементарных процессоров, искусственные нейроны, без алгоритмы или программы Хайконен считает, что при реализации с достаточной сложностью эта архитектура разовьет сознание, которое он считает «стилем и способом работы, характеризующимся распределенным представлением сигналов, процессом восприятия, кросс-модальным отчетом и доступностью для ретроспекции». Хайконен не единственный, кто придерживается этого взгляда на процесс сознания или взгляда на то, что AC спонтанно возникнет в автономные агенты которые имеют подходящую нейро-вдохновленную архитектуру сложности; их разделяют многие, например Фримен (1999) и Коттерилл (2003). Несложная реализация архитектуры, предложенной Хайконен (2003) как сообщается, не был способен к AC, но проявлял эмоции, как и ожидалось. Видеть Доан (2009) для всестороннего введения в когнитивную архитектуру Хайконена. Обновленный отчет об архитектуре Хайконена вместе с кратким изложением его философских взглядов приводится в Хайконен (2012), Хайконен (2019).

Когнитивная архитектура Шанахана

Мюррей Шанахан описывает когнитивную архитектуру, которая объединяет идею Баарса о глобальном рабочем пространстве с механизмом внутреннего моделирования («воображение») (Шанахан 2006 ). Для обсуждения архитектуры Шанахана см. (Gamez 2008 ) и (Реджия 2013 ) и Глава 20 из (Хайконен 2012 ).

Исследование самосознания Такено

Самосознание роботов исследует Дзюнъити Такено[17] в Университет Мэйдзи в Японии. Такено утверждает, что он разработал робота, способного отличать свое изображение в зеркале от любого другого, имеющего идентичное ему изображение.[18][19] и эта претензия уже была рассмотрена (Такено, Инаба и Сузуки, 2005 г. ). Такено утверждает, что сначала он разработал вычислительный модуль под названием MoNAD, который имеет функцию самосознания, а затем сконструировал систему искусственного сознания, формулируя отношения между эмоциями, чувствами и разумом, соединив модули в иерархию (Игараси, Такено 2007). Такено завершил эксперимент по познанию в зеркальном отражении с помощью робота, оснащенного системой MoNAD. Такено предложил теорию самотела, утверждающую, что «люди чувствуют, что их собственное зеркальное отображение ближе к себе, чем их реальная часть». Самым важным моментом в развитии искусственного сознания или прояснения человеческого сознания является развитие функции самосознания, и он утверждает, что продемонстрировал физические и математические доказательства этого в своей диссертации.[20] Он также продемонстрировал, что роботы могут изучать эпизоды в памяти, когда эмоции были стимулированы, и использовать этот опыт для выполнения прогнозных действий, чтобы предотвратить повторение неприятных эмоций (Torigoe, Takeno 2009).

Невозможный разум Александра

Игорь Александр, заслуженный профессор инженерии нейронных систем Имперский колледж, тщательно исследовал искусственные нейронные сети и утверждает в своей книге Невозможные умы: мои нейроны, мое сознание что принципы создания сознательной машины уже существуют, но что потребуется сорок лет, чтобы обучить такую ​​машину, чтобы понять язык.[21] Верно ли это, еще предстоит продемонстрировать, и основной принцип, изложенный в Невозможные умы- что мозг - это нейронная машина состояний - вызывает сомнения.[22]

Парадигма творческой машины Талера

Стивен Талер предложил возможную связь между сознанием и творчеством в своем патенте 1994 года под названием «Устройство для автономного генерирования полезной информации» (DAGUI).[23][24][25] или так называемая «машина творчества», в которой вычислительные критики управляют внедрением синаптического шума и деградацией в нейронные сети, чтобы вызвать ложные воспоминания или болтовня которые можно квалифицировать как потенциальные идеи или стратегии.[26] Он использует эту нейронную архитектуру и методологию для учета субъективного ощущения сознания, утверждая, что подобные нейронные сборки, управляемые шумом, в мозгу придают сомнительное значение для общей активности коры.[27][28][29] Теория Талера и полученные в результате патенты на машинное сознание были вдохновлены экспериментами, в которых он внутренне разрушил обученные нейронные сети, чтобы запустить последовательность нейронных паттернов активации, которые он сравнил с потоком сознания.[28][30][31][32][33]

Схема внимания Майкла Грациано

В 2011, Майкл Грациано и Сабина Кастлер опубликовали статью под названием «Человеческое сознание и его связь с социальной нейробиологией: новая гипотеза», предлагая теорию сознания в качестве схемы внимания.[34] Грациано опубликовал развернутое обсуждение этой теории в своей книге «Сознание и социальный мозг».[2] Эта теория сознания схемы внимания, как он ее назвал, предполагает, что мозг отслеживает внимание к различным сенсорным входам посредством схемы внимания, аналогичной схеме хорошо изученного тела, которая отслеживает пространственное положение тела человека.[2] Это относится к искусственному сознанию, предлагая особый механизм обработки информации, который производит то, что мы якобы переживаем и называем сознанием, и которое должно быть в состоянии скопировать с помощью машины, использующей современные технологии. Когда мозг обнаруживает, что человек X осведомлен о вещи Y, он фактически моделирует состояние, в котором человек X применяет усиление внимания к Y. В теории схемы внимания тот же процесс можно применить к самому себе. Мозг отслеживает внимание к различным сенсорным входам, а собственное осознание является схематической моделью внимания. Грациано предлагает определенные места в мозге для этого процесса и предполагает, что такое осознание является вычисляемой функцией, созданной экспертной системой в мозгу.

«Самомоделирование»

Чтобы быть «самосознательными», роботы могут использовать внутренние модели для имитировать собственные действия.[35][36]

Тестирование

Самый известный метод тестирования машины интеллект это Тест Тьюринга. Но когда этот тест интерпретируется только как наблюдательный, он противоречит принципам философии науки. теория зависимости наблюдений. Также предлагалось серьезно отнестись к рекомендации Алана Тьюринга имитировать не сознание взрослого человека, а сознание ребенка.[37]

Другие тесты, такие как ConsScale, проверить наличие функций, вдохновленных биологическими системами, или измерить когнитивное развитие искусственных систем.

Qualia, или феноменологическое сознание, по своей сути является феноменом от первого лица. Хотя различные системы могут демонстрировать различные признаки поведения, связанные с функциональным сознанием, невозможно представить себе способ, которым тесты от третьего лица могут иметь доступ к феноменологическим особенностям от первого лица. Из-за этого и из-за отсутствия эмпирического определения сознания[38] проверка наличия сознания в AC может быть невозможна.

В 2014 году Виктор Аргонов предложил критерий Тьюринга для машинного сознания, основанный на способности машины производить философские суждения.[39] Он утверждает, что детерминированная машина должна считаться сознательной, если она способна выносить суждения обо всех проблемных свойствах сознания (таких как квалиа или связывание), не имея врожденных (предварительно загруженных) философских знаний по этим вопросам, никаких философских дискуссий во время обучения в его памяти отсутствуют информационные модели других существ (такие модели могут явно или неявно содержать знания о сознании этих существ). Однако этот тест можно использовать только для обнаружения, но не для опровержения существования сознания. Положительный результат доказывает, что машина сознательна, а отрицательный результат ничего не доказывает. Например, отсутствие философских суждений может быть вызвано отсутствием интеллекта машины, а не отсутствием сознания.

В художественной литературе

Персонажи с искусственным сознанием (или, по крайней мере, с личностями, которые подразумевают, что у них есть сознание) из художественных произведений:

Смотрите также

Рекомендации

Цитаты

  1. ^ Талер, С. Л. (1998). «Возникающий интеллект и его критический взгляд на нас». Журнал клинических исследований. 17 (1): 21–29. Дои:10.1023 / А: 1022990118714. S2CID  49573301.
  2. ^ а б c Грациано, Майкл (2013). Сознание и социальный мозг. Издательство Оксфордского университета. ISBN  978-0199928644.
  3. ^ Искусственный интеллект: современный подход включает философский основы ИИ, включая вопросы сознания http://aima.cs.berkeley.edu/contents.html, Рассел, Стюарт Дж., Норвиг, Питер, 2003 г., Верхняя Седл-Ривер, Нью-Джерси: Прентис-Холл, ISBN  0-13-790395-2
  4. ^ Шлагель, Р. Х. (1999). «Почему не искусственное сознание или мысль?». Умы и машины. 9 (1): 3–28. Дои:10.1023 / а: 1008374714117. S2CID  28845966.
  5. ^ Серл, Дж. Р. (1980). «Умы, мозги и программы» (PDF). Поведенческие науки и науки о мозге. 3 (3): 417–457. Дои:10.1017 / s0140525x00005756.
  6. ^ Искусственное сознание: утопия или реальная возможность? Буттаццо, Джорджио, июль 2001 г., компьютер, ISSN 0018-9162
  7. ^ Чалмерс, Дэвид (1995). «Отсутствующая Квалиа, исчезающая квалиа, танцующая квалиа». Получено 12 апреля 2016.
  8. ^ Официальные правила конкурса Лебнера - Версия 2.0 Конкурс был организован Дэвид Хэмилл правила были разработаны членами группы Robitron Yahoo.
  9. ^ Жоэль Пруст в Нейронные корреляты сознания, Томас Метцингер, 2000, MIT, страницы 307-324.
  10. ^ Кристоф Кох, В поисках сознания, 2004, стр. 2, сноска 2
  11. ^ Тулвинг, Э. 1985. Память и сознание. Канадская психология 26: 1-12
  12. ^ Франклин, Стэн и др. «Роль сознания в памяти». Мозги, умы и СМИ 1.1 (2005): 38.
  13. ^ Франклин, Стэн. «Перцепционная память и обучение: распознавание, категоризация и соотнесение». Proc. Развивающая робототехника Весенний симпозиум AAAI. 2005 г.
  14. ^ Шастри, Л. 2002. Эпизодическая память и кортико-гиппокампальные взаимодействия. Тенденции в когнитивных науках
  15. ^ Канерва, Пентти. Редкая распределенная память. MIT Press, 1988.
  16. ^ а б Александр 1995
  17. ^ «Робот». Архивировано из оригинал на 2007-07-03. Получено 2007-07-03.
  18. ^ Такено - Архив № ...
  19. ^ Первый в мире самосознающий робот и успех познания зеркального отображения, Такено
  20. ^ Роботу удается на 100% распознавать зеркальное изображение, Такено, 2008
  21. ^ Александр I (1996) Невозможные умы: мои нейроны, мое сознание, Imperial College Press ISBN  1-86094-036-6
  22. ^ Уилсон, Р.Дж. (1998). "обзор Невозможные умы". Журнал исследований сознания. 5 (1): 115–6.
  23. ^ Талер, С.Л. "Устройство для автономной генерации полезной информации "
  24. ^ Marupaka, N .; Lyer, L .; Минай, А. (2012). «Связность и мышление: влияние структуры семантической сети в нейродинамической модели мышления» (PDF). Нейронные сети. 32: 147–158. Дои:10.1016 / j.neunet.2012.02.004. PMID  22397950. Архивировано из оригинал (PDF) на 2016-12-19. Получено 2015-05-22.
  25. ^ Роке, Р. и Баррейра, А. (2011). "O Paradigma da" Máquina de Criatividade "e a Geração de Novidades em um Espaço Conceitual", 3º Seminário Interno de Cognição Artificial - SICA 2011 - FEEC - UNICAMP.
  26. ^ Минати, Джанфранко; Витиелло, Джузеппе (2006). «Машины для создания ошибок». Systemics of Emergence: исследования и разработки. стр.67 –78. Дои:10.1007/0-387-28898-8_4. ISBN  978-0-387-28899-4.
  27. ^ Талер, С. Л. (2013) Парадигма творческой машины, Энциклопедия творчества, изобретений, инноваций и предпринимательства, (ред.) Э. Караяннис, Springer Science + Business Media
  28. ^ а б Талер, С. Л. (2011). «Машина творчества: противостоять аргументам сознания», Информационный бюллетень АПА по философии и компьютерам.
  29. ^ Талер, С. Л. (2014). «Синаптическое возмущение и сознание». Int. J. Mach. Сознательный. 6 (2): 75–107. Дои:10.1142 / S1793843014400137.
  30. ^ Талер, С. Л. (1995). ""Виртуальные входные явления «в смерти простого ассоциатора паттернов». Нейронные сети. 8 (1): 55–65. Дои:10.1016 / 0893-6080 (94) 00065-т.
  31. ^ Талер, С. Л. (1995). Смерть мертвого существа, Журнал клинических исследований, 13 (3), Весна 1995 г.
  32. ^ Талер, С. Л. (1996). Является ли нейрональный хаос источником потока сознания? В материалах Всемирного конгресса по нейронным сетям (WCNN’96), Лоуренс Эрлбаум, Мава, Нью-Джерси.
  33. ^ Майер, Х.А. (2004). Модульный нейроконтроллер для творческих мобильных автономных роботов, обучающихся по разнице во времени, Системы, человек и кибернетика, Международная конференция IEEE 2004 г. (том: 6)
  34. ^ Грациано, Майкл (1 января 2011 г.). «Человеческое сознание и его связь с социальной нейробиологией: новая гипотеза». Когнитивная неврология. 2 (2): 98–113. Дои:10.1080/17588928.2011.565121. ЧВК  3223025. PMID  22121395.
  35. ^ Бонгард, Джош, Виктор Зыков и Ход Липсон. "Устойчивые машины за счет непрерывного самомоделирования. "Наука 314.5802 (2006): 1118-1121.
  36. ^ Уинфилд, Алан FT. "Роботы с внутренними моделями: путь к самосознательным и, следовательно, более безопасным роботам." (2014): 237-252.
  37. ^ Картирование ландшафта общего искусственного интеллекта человеческого уровня
  38. ^ "Сознание". В Honderich T. Оксфордский компаньон философии. Издательство Оксфордского университета. ISBN  978-0-19-926479-7
  39. ^ Виктор Аргонов (2014). "Экспериментальные методы решения проблемы разума и тела: подход феноменального суждения". Журнал разума и поведения. 35: 51–70.CS1 maint: использует параметр авторов (ссылка на сайт)
  40. ^ «Футурама», Википедия, 2020-04-23, получено 2020-04-27
  41. ^ «Бендер (Футурама)», Википедия, 2020-04-27, получено 2020-04-27
  42. ^ «Бендер (Футурама)», Википедия, 2020-04-27, получено 2020-04-27

Библиография

дальнейшее чтение

внешняя ссылка