确定Python中特定数字的精度和范围
我在Python里有一个变量,里面存的是一个浮点数,比如说 num = 24654.123
。我想知道这个数字的精度和规模值(就像在Oracle数据库里那样)。比如说,123.45678应该给我(8,5),12.76应该给我(4,2)之类的结果。
我最开始想用字符串的方式来表示这个数字(通过 str
或者 repr
),但是对于大数字来说,这种方法不太管用(我现在明白了,这是因为浮点数表示的限制导致的)。
>>> num = 1234567890.0987654321
>>> str(num) = 1234567890.1
>>> repr(num) = 1234567890.0987654
补充:
下面提到的观点很不错。我需要澄清一下。这个数字已经是浮点数了,并且是通过cx_Oracle推送到数据库的。我想在Python里尽量处理那些对于数据库类型来说太大的浮点数,除了执行INSERT操作并处理Oracle的错误(因为我想一次处理一个字段,而不是一条记录)。我想 map(len, repr(num).split('.'))
是我能得到的最接近浮点数的精度和规模的方法?
12 个回答
5
看起来在Python 2中,str
比repr
更好用:
>>> r=10.2345678
>>> r
10.234567800000001
>>> repr(r)
'10.234567800000001'
>>> str(r)
'10.2345678'
7
使用浮点变量是无法做到的。例如,输入
>>> 10.2345
会得到:
10.234500000000001
所以,要从中得到6.4,你需要找到一种方法来区分用户输入的 10.2345
和 10.234500000000001
,但使用浮点数是做不到的。这是因为浮点数的存储方式所致。建议使用 decimal
。
import decimal
a = decimal.Decimal('10.234539048538495')
>>> str(a)
'10.234539048538495'
>>> (len(str(a))-1, len(str(a).split('.')[1]))
(17,15)
23
要计算小数点左边的数字个数其实很简单:
int(log10(x))+1
但是要计算小数点右边的数字个数就有点复杂了,因为浮点数本身存在不准确的问题。我需要再花几分钟来弄明白这个。
补充:根据这个原则,下面是完整的代码。
import math
def precision_and_scale(x):
max_digits = 14
int_part = int(abs(x))
magnitude = 1 if int_part == 0 else int(math.log10(int_part)) + 1
if magnitude >= max_digits:
return (magnitude, 0)
frac_part = abs(x) - int_part
multiplier = 10 ** (max_digits - magnitude)
frac_digits = multiplier + int(multiplier * frac_part + 0.5)
while frac_digits % 10 == 0:
frac_digits /= 10
scale = int(math.log10(frac_digits))
return (magnitude + scale, scale)