Хартли (единица) - Hartley (unit)
Единицы из Информация |
В Хартли (символ Харт), также называемый запретить, или dit (Короче для dEcimal DigЭто),[1][2][3] это логарифмическая единица какие меры Информация или же энтропия, по базе 10 логарифмы и степени 10. Один хартли - это информационное содержание события, если вероятность происходящего события1⁄10.[4] Следовательно, он равен информации, содержащейся в одном десятичная цифра (или dit), предполагая априори равновероятность каждого возможного значения. Он назван в честь Ральф Хартли.
Если логарифмы по основанию 2 и вместо этого используются степени 2, тогда единицей информации является кусочек, или же Шеннон, которое является информационным содержанием события, если вероятность происходящего события1⁄2. Натуральные логарифмы и полномочия е определить нац.
Один бан соответствует ln (10) нац = журнал2(10) кусочек или же Ш, или примерно 2.303 нац, или 3,322 бит.[а] А децибан составляет одну десятую бана (или около 0,332 бита); имя образовано из запретить посредством Префикс SI деци-.
Хотя нет связанного Единица СИ, информационная энтропия является частью Международная система количеств, определенный международным стандартом IEC 80000-13 из Международная электротехническая комиссия.
История
Период, термин Хартли назван в честь Ральф Хартли, который в 1928 году предложил измерять информацию, используя логарифмическую основу, равную количеству различимых состояний в ее представлении, которое было бы основанием 10 для десятичной цифры.[5][6]
В запретить и децибан были изобретены Алан Тьюринг с Ирвинг Джон "Джек" Гуд в 1940 году, чтобы измерить количество информации, которую могли бы вывести дешифровщики на Bletchley Park с использованием Банбуризм процедуры, чтобы определить каждый день неизвестной обстановки немецкого военно-морского Enigma шифровальная машина. Название навеяно огромными листами открыток, напечатанными в городе Банбери примерно в 30 милях отсюда, которые использовались в процессе.[7]
Гуд утверждал, что последовательное суммирование децибаны создать меру веса свидетельств в пользу гипотезы, по сути Байесовский вывод.[7] Дональд А. Гиллис, однако, утверждал запретить фактически то же самое, что Карла Поппера мера серьезности теста.[8]
Использование как единица вероятности
Децибан - особенно полезная единица измерения логарифмические шансы, особенно как мера информации в Байесовские факторы, отношения шансов (отношение шансов, поэтому логарифм - это разница логарифмов шансов), или веса доказательств. 10 децибанов соответствует коэффициенту 10: 1; 20 децибанов на коэффициент 100: 1 и т. Д. Согласно Гуду, изменение веса свидетельства в 1 децибан (т. Е. Изменение вероятности с равных примерно до 5: 4) примерно настолько тонко, насколько можно разумно ожидать от людей. для количественной оценки степени их веры в гипотезу.[9]
Коэффициенты, соответствующие целым децибанам, часто могут быть хорошо аппроксимированы простыми целочисленными отношениями; они собраны ниже. Значение до двух знаков после запятой, простое приближение (с точностью до 5%), с более точным приближением (с точностью до 1%), если простое значение неточно:
децибаны | точный ценить | ок. ценить | ок. соотношение | точный соотношение | вероятность |
---|---|---|---|---|---|
0 | 100/10 | 1 | 1:1 | 50% | |
1 | 101/10 | 1.26 | 5:4 | 56% | |
2 | 102/10 | 1.58 | 3:2 | 8:5 | 61% |
3 | 103/10 | 2.00 | 2:1 | 67% | |
4 | 104/10 | 2.51 | 5:2 | 71.5% | |
5 | 105/10 | 3.16 | 3:1 | 19:6, 16:5 | 76% |
6 | 106/10 | 3.98 | 4:1 | 80% | |
7 | 107/10 | 5.01 | 5:1 | 83% | |
8 | 108/10 | 6.31 | 6:1 | 19:3, 25:4 | 86% |
9 | 109/10 | 7.94 | 8:1 | 89% | |
10 | 1010/10 | 10 | 10:1 | 91% |
Смотрите также
Примечания
- ^ Это значение, примерно10⁄3, но немного меньше, можно понять просто потому, что : 3 десятичных знака немного меньше информация, чем 10 двоичных цифр, поэтому 1 десятичная цифра немного меньше чем10⁄3 двоичные цифры.
Рекомендации
- ^ Клар, Райнер (1970-02-01). «1.8.1 Begriffe aus der Informationstheorie» [1.8.1 Термины, используемые в теории информации]. Digitale Rechenautomaten - Eine Einführung [Цифровые компьютеры - Введение]. Sammlung Göschen (на немецком языке). 1241 / 1241a (1-е изд.). Берлин, Германия: Walter de Gruyter & Co. / G. J. Göschen'sche Verlagsbuchhandlung . п. 35. ISBN 3-11-083160-0. ISBN 978-3-11-083160-3. Archiv-Nr. 7990709. В архиве из оригинала 18.04.2020. Получено 2020-04-13. (205 страниц) (NB. Переиздание первого издания 2019 г. доступно по ссылке ISBN 3-11002793-3, 978-3-11002793-8. Переработанный и расширенный 4-е издание тоже существует.)
- ^ Клар, Райнер (1989) [1988-10-01]. «1.9.1 Begriffe aus der Informationstheorie» [1.9.1 Термины, используемые в теории информации]. Digitale Rechenautomaten - Eine Einführung in die Struktur von Computerhardware [Цифровые компьютеры - Введение в структуру компьютерного оборудования]. Sammlung Göschen (на немецком языке). 2050 (4-е переработанное изд.). Берлин, Германия: Walter de Gruyter & Co. п. 57. ISBN 3-11011700-2. ISBN 978-3-11011700-4. (320 страниц)
- ^ Луков, Герман (1979). От Dits к Bits: личная история электронного компьютера. Портленд, Орегон, США: Robotics Press. ISBN 0-89661-002-0. LCCN 79-90567.
- ^ «МЭК 80000-13: 2008». Международная организация по стандартизации (ISO). Получено 2013-07-21.
- ^ Хартли, Ральф Винтон Лион (Июль 1928 г.). «Передача информации» (PDF). Технический журнал Bell System. VII (3): 535–563. Получено 2008-03-27.
- ^ Реза, Фазлолла М. (1994). Введение в теорию информации. Нью-Йорк: Dover Publications. ISBN 0-486-68210-2.
- ^ а б Хорошо, Ирвинг Джон (1979). «Исследования по истории вероятности и статистики. XXXVII Статистические работы А. М. Тьюринга во Второй мировой войне». Биометрика. 66 (2): 393–396. Дои:10.1093 / biomet / 66.2.393. МИСТЕР 0548210.
- ^ Гиллис, Дональд А. (1990). "Функция веса свидетельства Тьюринга-Гуда и мера Поппера строгости теста". Британский журнал философии науки. 41 (1): 143–146. Дои:10.1093 / bjps / 41.1.143. JSTOR 688010. МИСТЕР 0055678.
- ^ Хорошо, Ирвинг Джон (1985). «Вес доказательств: краткий обзор» (PDF). Байесовская статистика. 2: 253. Получено 2012-12-13.