Грамматический человек - Grammatical Man
Автор | Джереми Кэмпбелл |
---|---|
Предмет | Теория информации, Теория систем, Кибернетика, Лингвистика |
Издатель | Саймон и Шустер |
Дата публикации | 1982 |
Страницы | 319 |
ISBN | 0671440616 |
Грамматический человек: информация, энтропия, язык и жизнь это книга 1982 года, написанная Вечерний стандарт вашингтонский корреспондент Джереми Кэмпбелл.[1] Книга затрагивает темы вероятность, Теория информации, кибернетика, генетика и лингвистика. Книга описывает и рассматривает существование, от Большого взрыва до ДНК, человеческого общения и искусственного интеллекта, с точки зрения информационных процессов. Текст состоит из предисловия, двадцати одной главы и послесловия. Он разделен на четыре части: Создание теории информации; Природа как информационный процесс; Язык кодирования, жизнь кодирования; Как мозг объединяет все воедино.
Часть 1: Утверждение теории информации
- Первая глава книги, Второй закон и желтая опасность, вводит понятие энтропия и дает краткое изложение истории Теория информации, и кибернетика, исследуя Вторая Мировая Война такие цифры, как Клод Шеннон и Норберт Винер.
- Шум тепла дает очерк истории термодинамика, сфокусироваться на Рудольф Клаузиус с 2-й закон и его отношение к порядку и информации.
- В Одержимый демон Кэмпбелл исследует понятие энтропии и представляет энтропию как недостающую информацию.
- Глава четвертая, Гнездо тонкостей и ловушек, берет свое название от критики одной из самых ранних теорем теории вероятностей, Закон больших чисел (Бернулли, 1713 ). В главе излагаются история вероятности, касаясь персонажей, таких как Джероламо Кардано, Антуан Гомбо, Бернулли, Рихард фон Мизес, и Джон Мейнард Кейнс. Кэмпбелл исследует информацию и энтропию как распределение вероятностей возможных сообщений и говорит, что субъективное против объективного интерпретации вероятности в значительной степени устарели из-за понимания взаимосвязи между вероятностью и информацией.
- Не слишком скучно, не слишком увлекательно решает проблему отделения порядка от беспорядка в общении, подчеркивая роль, которая избыточность играет в теории информации.
- В последней главе части 1 Борьба со случайностью, Кэмпбелл обращается к концепциям, опубликованным Шеннон в 1948 году - что сообщение может быть отправлено из одного места в другое, даже в шумных условиях, и в нем не должно быть ошибок, насколько это желает отправитель, при условии, что оно закодировано в надлежащей форме.
Часть 2: Природа как информационный процесс
- Кэмпбелл использует Стрелки во всех направлениях обсуждает потенциальную обратную связь между энтропией и новизной, используя такие концепции, как Супермен Лапласа. Цитаты Кэмпбелла Дэвид Лэйзер:
Для «разума» Лапласа, как и для бога Платона, Галилея и Эйнштейна, прошлое и будущее сосуществуют на равных условиях, как два луча, на которые произвольно выбранная точка делит прямую линию. Однако, если теории, которые я представил, верны, даже конечный компьютер - сама Вселенная - никогда не содержит достаточно информации, чтобы полностью определить ее собственные будущие состояния. Настоящий момент всегда содержит элемент подлинной новизны, а будущее никогда не бывает полностью предсказуемым. Поскольку биологические процессы также генерируют информацию и поскольку сознание позволяет нам непосредственно испытывать эти процессы, интуитивное восприятие мира как разворачивающегося во времени отражает одно из самых глубоких свойств Вселенной.
- Глава 8, Химическое слово и химический акт, рассматривает процессы ДНК как информационные процессы. Кэмпбелл проводит различие между сообщениями ДНК первого порядка и сообщениями ДНК второго порядка, или структурными (например, «как испечь торт» или «как читать рецепт»). Это различие он относит к лингвистическим принципам Универсальная грамматика Ноама Хомского.
- В Преодолевая барьер сложности, Кэмпбелл обсуждает концепцию появление и отмечает, что теория информации, термодинамика, лингвистика и теория эволюции широко использовать такие термины и фразы, как «сложность», «новизна» и «ограничения возможностей». Кэмпбелл пишет:
Кэмпбелл также обсуждает Джон фон Нейман в связи теории информации, эволюции и лингвистики с машинами. Глава завершается рассмотрением возникающих систем и их отношения к Гёделевская неполнота.Чтобы понять сложные системы, такие как большой компьютер или живой организм, мы не можем использовать обычную формальную логику, которая имеет дело с событиями, которые обязательно произойдут или определенно не произойдут. Необходима вероятностная логика, которая делает утверждения о том, насколько вероятно или маловероятно произойдут различные события.
- Что-то довольно тонкое
Часть 3: Язык кодирования, жизнь кодирования
- Алгоритмы и эволюция
- Частично зеленый до того дня, когда мы умрем
- Нет нужды в древних космонавтах
- Ясные и шумные сообщения языка
- Зеркало разума
Часть 4: Как мозг объединяет все воедино
- Мозг в образе кота на раскаленной жестяной крыше и другие заблуждения
- Стратегии видения
- Низ и верх памяти
- Информация о сновидениях
- Лево и право знания
- Общество второй теоремы
Послесловие: Аристотель и ДНК
Этот раздел пуст. Вы можете помочь добавляя к этому. (Апрель 2012 г.) |
Смотрите также
- Теория информации
- Клод Шеннон
- Энтропия
- Резервирование
- Норберт Винер
- Кибернетика
- Теория систем
- Ноам Хомский
- Универсальная грамматика
использованная литература
- ^ «ГРАММАТИЧЕСКИЙ ЧЕЛОВЕК: информация, энтропия, язык и жизнь». Киркус Отзывы. Получено 2014-12-02.