Точность (информатика) (Mkcukvm, (nuskjbgmntg))

Перейти к навигации Перейти к поиску

Точность (англ. Precision) в информатике — мера детализации, обычно измеряется в битах, но иногда в десятичных цифрах. Это связано со значимыми цифрами[англ.] в математике, что являет собой количество цифр, которые используются для значения числового выражения.

Некоторые из стандартных форматов точности:

Из них формат с восьмеричной точностью пока используется редко. Форматы одинарной и двойной точности наиболее широко используются и поддерживаются практически на всех платформах. Использование формата половинной точности расширяется, особенно в области машинного обучения, поскольку многие алгоритмы машинного обучения устойчивы к ошибкам.[1]

Примечания

[править | править код]
  1. Mittal, Sparsh. A Survey of Techniques for Approximate Computing (англ.) // ACM Comput. Surv.[англ.] : journal. — ACM, 2016. — May (vol. 48, no. 4). — P. 62:1—62:33. — doi:10.1145/2893356. Архивировано 17 марта 2020 года.