Точность (информатика) - Precision (computer science)

В Информатика, то точность числовой величины - это мера детализации, в которой величина выражается. Обычно это измеряется в битах, но иногда и в десятичных цифрах. Это связано с точность в математике, который описывает количество цифр, которые используются для выражения значения.

Некоторые из стандартных форматов точности:

Из них формат восьмеричной точности используется редко. Форматы одинарной и двойной точности наиболее широко используются и поддерживаются почти на всех платформах. Использование формата половинной точности увеличивается, особенно в области машинное обучение поскольку многие алгоритмы машинного обучения по своей природе устойчивы к ошибкам.[1]

Ошибка округления

Точность часто является источником ошибки округления в вычисление. Количество битов, используемых для хранения числа, часто вызывает некоторую потерю точности. Примером может служить сохранение «sin (0.1)» в стандарте IEEE с плавающей запятой одинарной точности. Затем ошибка часто увеличивается, поскольку последующие вычисления производятся с использованием данных (хотя ее также можно уменьшить).

Смотрите также

Рекомендации

  1. ^ Миттал, Спарш (май 2016 г.). «Обзор методов приближенных вычислений». ACM Comput. Surv. ACM. 48 (4): 62:1–62:33. Дои:10.1145/2893356.