浮点数的存储方式
A. 浮点数的存储结构是怎样的
浮点数存储时有符号位,阶数位和尾数三部分组成。
解:最大的正数= (1-2 ^ (7))x 2 ^ (2 ^ (3) - 1) = (1-2 ^ (7)) x 2 ^(7) = 127,规则最小的正数=2×2^(-1)(或2^(3))x^2=2-1=2^(8)(9)=1/512。
最明显的绝对值是-1*2^(2^3-1)也就是-1*2^7,也就是-128。
(1)浮点数的存储方式扩展阅读:
浮点数A由两个数字m和e表示:A=m*b^e。在任何这样的系统中,我们选择基数b(计数系统的基础)和精度p(要存储的比特数)。
M(即尾数)的形状陆雹为±d.dd…DDD的p位(每个位早尘帆是0和b-1之间的整数,包括0和b-1)。如果m的第一个数字是一个非零整数,那么m就被归一化了兄纤。
一些描述使用单个符号位(s表示+或-)表示加号或减号,因此m必须是正数。E是a的指数。
结构:
表示计算机中的一个浮点数,其结构如下:
尾数部分(定点小数)指令码部分(定点整数)
B. 单片机里浮点数是怎么存放的
可以这么说:任何存储器,无论是pc机,单片机,甚至内存卡的基本存储模块都是一样
的结构(当然是对于ram而言),都是一个存储单元对应地址线的一种组合相应存储一个字节,物理结构是里面的八个触发器,每个触发器对应一个字节。至于浮点数和整型数理论上没什么区别了把,就在多一个字节存放小数点吧。
C. c++浮点数存储方式
月初还在上班的时候,就天天盼望着过年放长假,然而终于熬到了过年,却发现自己的12天的长假将在碌碌无为中度过,朋友们又一个接一个的远去,心里真是拔凉拔凉的啊!最近版上的人气有点低落,连违规率(不敢说犯罪率哈,怕被人砍)都下降了不少,我想在春节这档子这是免不了的,论坛上应该有不上工作的朋友可能都回家团聚了。那像我这种无家可归的人除了眼馋别人的幸福,那就只有向仍然全力支持着我们C++/面向对象这个大家庭的兄弟姐妹们拜个年,祝来年薪水猛涨,职位高升,身体健康,家庭幸福!
最近一段时间看到版上关于C++里浮点变量精度的讨论比较多,那么我就给对这个问题有疑惑的人详细的讲解一下intel的处理器上是如何处理浮点数的。为了能更方便的讲解,我在这里只以float型为例,从存储结构和算法上来讲,double和float是一样的,不一样的地方仅仅是float是32位的,double是64位的,所以double能存储更高的精度。还要说的一点是文章和程序一样,兼容性是有一定范围的,所以你想要完全读懂本文,你最好对二进制、十进制、十六进制的转换有比较深入的了解,了解数据在内存中的存储结构,并且会使用VC.net编译简单的控制台程序。OK,下面我们开始。
大家都知道任何数据在内存中都是以二进制(1或着0)顺序存储的,每一个1或着0被称为1位,而在x86CPU上一个字节是8位。比如一个16位(2字节)的short int型变量的值是1156,那么它的二进制表达就是:00000100 10000100。由于Intel CPU的架构是Little Endian(请参数机算机原理相关知识),所以它是按字节倒序存储的,那么就因该是这样:10000100 00000100,这就是定点数1156在内存中的结构。
那么浮点数是如何存储的呢?目前已知的所有的C/C++编译器都是按照IEEE(国际电子电器工程师协会)制定的IEEE 浮点数表示法来进行运算的。这种结构是一种科学表示法,用符号(正或负)、指数和尾数来表示,底数被确定为2,也就是说是把一个浮点数表示为尾数乘以2的指数次方再加上符号。下面来看一下具体的float的规格:
float
共计32位,折合4字节
由最高到最低位分别是第31、30、29、……、0位
31位是符号位,1表示该数为负,0反之。
30-23位,一共8位是指数位。
22-0位,一共23位是尾数位。
每8位分为一组,分成4组,分别是A组、B组、C组、D组。
每一组是一个字节,在内存中逆序存储,即:DCBA
我们先不考虑逆序存储的问题,因为那样会把读者彻底搞晕,所以我先按照顺序的来讲,最后再把他们翻过来就行了。
现在让我们按照IEEE浮点数表示法,一步步的将float型浮点数12345.0f转换为十六进制代码。在处理这种不带小数的浮点数时,直接将整数部转化为二进制表示:1 11100010 01000000也可以这样表示:11110001001000000.0然后将小数点向左移,一直移到离最高位只有1位,就是最高位的1:1.11100010010000000一共移动了16位,在布耳运算中小数点每向左移一位就等于在以2为底的科学计算法表示中指数+1,所以原数就等于这样:1.11100010010000000 * ( 2 ^ 16 )好了,现在我们要的尾数和指数都出来了。显而易见,最高位永远是1,因为你不可能把买了16个鸡蛋说成是买了0016个鸡蛋吧?(呵呵,可别拿你买的臭鸡蛋甩我~),所以这个1我们还有必要保留他吗?(众:没有!)好的,我们删掉他。这样尾数的二进制就变成了:11100010010000000最后在尾数的后面补0,一直到补够23位:11100010010000000000000(MD,这些个0差点没把我数的背过气去~)
再回来看指数,一共8位,可以表示范围是0 - 255的无符号整数,也可以表示-128 - 127的有符号整数。但因为指数是可以为负的,所以为了统一把十进制的整数化为二进制时,都先加上127,在这里,我们的16加上127后就变成了143,二进制表示为:10001111
12345.0f这个数是正的,所以符号位是0,那么我们按照前面讲的格式把它拼起来:
0 10001111 11100010010000000000000
01000111 11110001 00100000 00000000
再转化为16进制为:47 F1 20 00,最后把它翻过来,就成了:00 20 F1 47。
现在你自己把54321.0f转为二进制表示,自己动手练一下!
有了上面的基础后,下面我再举一个带小数的例子来看一下为什么会出现精度问题。
按照IEEE浮点数表示法,将float型浮点数123.456f转换为十六进制代码。对于这种带小数的就需要把整数部和小数部分开处理。整数部直接化二进制:100100011。小数部的处理比较麻烦一些,也不太好讲,可能反着讲效果好一点,比如有一个十进制纯小数0.57826,那么5是十分位,位阶是1/10;7是百分位,位阶是1/100;8是千分位,位阶是1/1000……,这些位阶分母的关系是10^1、10^2、10^3……,现假设每一位的序列是{S1、S2、S3、……、Sn},在这里就是5、7、8、2、6,而这个纯小数就可以这样表示:n = S1 * ( 1 / ( 10 ^ 1 ) ) + S2 * ( 1 / ( 10 ^ 2 ) ) + S3 * ( 1 / ( 10 ^ 3 ) ) + …… + Sn * ( 1 / ( 10 ^ n ) )。把这个公式推广到b进制纯小数中就是这样:
n = S1 * ( 1 / ( b ^ 1 ) ) + S2 * ( 1 / ( b ^ 2 ) ) + S3 * ( 1 / ( b ^ 3 ) ) + …… + Sn * ( 1 / ( b ^ n ) )
天哪,可恶的数学,我怎么快成了数学老师了!没办法,为了广大编程爱好者的切身利益,喝口水继续!现在一个二进制纯小数比如0.100101011就应该比较好理解了,这个数的位阶序列就因该是1/(2^1)、1/(2^2)、1/(2^3)、1/(2^4),即0.5、0.25、0.125、0.0625……。乘以S序列中的1或着0算出每一项再相加就可以得出原数了。现在你的基础知识因该足够了,再回过头来看0.45这个十进制纯小数,化为该如何表示呢?现在你动手算一下,最好不要先看到答案,这样对你理解有好处。
我想你已经迫不及待的想要看答案了,因为你发现这跟本算不出来!来看一下步骤:1 / 2 ^1位(为了方便,下面仅用2的指数来表示位),0.456小于位阶值0.5故为0;2位,0.456大于位阶值0.25,该位为1,并将0.45减去0.25得0.206进下一位;3位,0.206大于位阶值0.125,该位为1,并将0.206减去0.125得0.081进下一位;4位,0.081大于0.0625,为1,并将0.081减去0.0625得0.0185进下一位;5位0.0185小于0.03125,为0……问题出来了,即使超过尾数的最大长度23位也除不尽!这就是着名的浮点数精度问题了。不过我在这里不是要给大家讲《数值计算》,用各种方法来提高计算精度,因为那太庞杂了,恐怕我讲上一年也理不清个头绪啊。我在这里就仅把浮点数表示法讲清楚便达到目的了。
OK,我们继续。嗯,刚说哪了?哦对对,那个数还没转完呢,反正最后一直求也求不尽,加上前面的整数部算够24位就行了:1111011.01110100101111001。某BC问:“不是23位吗?”我:“倒,不是说过了要把第一个1去掉吗?当然要加一位喽!”现在开始向左移小数点,大家和我一起移,众:“1、2、3……”好了,一共移了6位,6加上127得131(怎么跟教小学生似的?呵呵~),二进制表示为:10000101,符号位为……再……不说了,越说越啰嗦,大家自己看吧:
0 10000101 11101101110100101111001
42 F6 E9 79
79 E9 F6 42
下面再来讲如何将纯小数转化为十六进制。对于纯小数,比如0.0456,我们需要把他规格化,变为1.xxxx * (2 ^ n )的型式,要求得纯小数X对应的n可用下面的公式:
n = int( 1 + log (2)X );
0.0456我们可以表示为1.4592乘以以2为底的-5次方的幂,即1.4592 * ( 2 ^ -5 )。转化为这样形式后,再按照上面第二个例子里的流程处理:
1. 01110101100011100010001
去掉第一个1
01110101100011100010001
-5 + 127 = 122
0 01111010 01110101100011100010001
最后:
11 C7 3A 3D
另外不得不提到的一点是0.0f对应的十六进制是00 00 00 00,记住就可以了。
最后贴一个可以分析并输出浮点数结构的函数源代码,有兴趣的自己看看吧:
// 输入4个字节的浮点数内存数据
void DecodeFloat( BYTE pByte[4] )
{
printf( "原始(十进制):%d %d %d %d\n" , (int)pByte[0],
(int)pByte[1], (int)pByte[2], (int)pByte[3] );
printf( "翻转(十进制):%d %d %d %d\n" , (int)pByte[3],
(int)pByte[2], (int)pByte[1], (int)pByte[0] );
bitset<32> bitAll( *(ULONG*)pByte );
string strBinary = bitAll.to_string<char, char_traits<char>, allocator<char> >();
strBinary.insert( 9, " " );
strBinary.insert( 1, " " );
cout << "二进制:" << strBinary.c_str() << endl;
cout << "符号:" << ( bitAll[31] ? "-" : "+" ) << endl;
bitset<32> bitTemp;
bitTemp = bitAll;
bitTemp <<= 1;
LONG ulExponent = 0;
for ( int i = 0; i < 8; i++ )
{
ulExponent |= ( bitTemp[ 31 - i ] << ( 7 - i ) );
}
ulExponent -= 127;
cout << "指数(十进制):" << ulExponent << endl;
bitTemp = bitAll;
bitTemp <<= 9;
float fMantissa = 1.0f;
for ( int i = 0; i < 23; i++ )
{
bool b = bitTemp[ 31 - i ];
fMantissa += ( (float)bitTemp[ 31 - i ] / (float)( 2 << i ) );
}
cout << "尾数(十进制):" << fMantissa << endl;
float fPow;
if ( ulExponent >= 0 )
{
fPow = (float)( 2 << ( ulExponent - 1 ) );
}
else
{
fPow = 1.0f / (float)( 2 << ( -1 - ulExponent ) );
}
cout << "运算结果:" << fMantissa * fPow << endl;
}
累死了,我才发现这篇文章虽然短,然而确是最难写的。上帝,我也不是机算机,然而为什么我满眼都只有1和0?看来我也快成了黑客帝国里的那个看通迅员了……希望大家能不辜负我的一翻辛苦,帮忙up吧!
D. C语言浮点数的储存方式为何浮点数储存不准确那个图片是什么意思
C语言中,无论是单精度还是双精度在存储中都分为三个部分:
1. 符号位(Sign) : 0代表正,1代表为负
2. 指数位(Exponent)(注:也叫阶码):用于存储科学计数法中的指数数据,并且采用移位存储(注:移码编码表示)
3. 尾数部分(Mantissa):尾数部分
关于不精确是由于十进制小数部分化二进制,常常化不尽。如同无限循环小数,最后有截断误差。
图片中的是float型的变量的存储上的格式。
E. 浮点数在计算机里面的存储
这个问题比较难..其实在实际运算过程中或写程序中我们要求的浮点数都有一定的精度,大多数情况下存成文件等形式我们一般会让他*10^n次方来存储去掉小数位.下面说正题.
何数据在内存中都是以二进制(0或1)顺序存储的,每一个1或0被称为1位,而在x86CPU上一个字节是8位。比如一个16位(2 字节)的short int型变量的值是1000,那么它的二进制表达就是:00000011 11101000。由于Intel CPU的架构原因,它是按字节倒序存储的,那么就因该是这样:11101000 00000011,这就是定点数1000在内存中的结构。
目前C/C++编译器标准都遵照IEEE制定的浮点数表示法来进行float,double运算。这种结构是一种科学计数法,用符号、指数和尾数来表示,底数定为2——即把一个浮点数表示为尾数乘以2的指数次方再添上符号。下面是具体的规格:
````````符号位 阶码 尾数 长度
float 1 8 23 32
double 1 11 52 64
临时数 1 15 64 80
由于通常C编译器默认浮点数是double型的,下面以double为例:
共计64位,折合8字节。由最高到最低位分别是第63、62、61、……、0位:
最高位63位是符号位,1表示该数为负,0正;
62-52位,一共11位是指数位;
51-0位,一共52位是尾数位。
按照IEEE浮点数表示法,下面将把double型浮点数38414.4转换为十六进制代码。
把整数部和小数部分开处理:整数部直接化十六进制:960E。小数的处理:
0.4=0.5*0+0.25*1+0.125*1+0.0625*0+……
实际上这永远算不完!这就是着名的浮点数精度问题。所以直到加上前面的整数部分算够53位就行了(隐藏位技术:最高位的1 不写入内存)。
如果你够耐心,手工算到53位那么因该是:38414.4(10)=1001011000001110.(2)
科学记数法为:1.001……乘以2的15次方。指数为15!
于是来看阶码,一共11位,可以表示范围是-1024 ~ 1023。因为指数可以为负,为了便于计算,规定都先加上1023,在这里, 15+1023=1038。二进制表示为:100 00001110
符号位:正—— 0 ! 合在一起(尾数二进制最高位的1不要):
01000000 11100010 11000001 11001101 01010101 01010101 01010101 01010101
按字节倒序存储的十六进制数就是:
55 55 55 55 CD C1 E2 40
F. 浮点类型是如何存储的
计算机中最小的存储单位是bit只能保存0和1,整数在内存中如何存储我们都知道,将要存储的数字转成2进制即可
用windows自带的计数器可以方便的查看整数对应的2进制值
如:
byte类型(单字节)
那浮点类型是如何用这么少的字节(如float 4字节)表示这么大(float 最大 3.4028235E38)的数字呢?
浮点数,是属于有理数中某特定子集的数的数字表示,在计算机中用以近似表示任意某个实数。具体的说,这个实数由一个整数或定点数(即尾数)凳凳乘以某个基数(计算机中通常是2)的整数次幂得到,这种表示方法类似于基数为10的科学计数法。
科学计数法是一种记数的方法。把一个数表示成a与10的n次幂相乘的形式(1≤|a|<10,a不为分数形式,n为整数),这种记数法叫做科学计数法。当我们要标记或运算某个较大或较小且位数较多时,用科学计数法免去浪费枣核旅很多空间和时间。
这也是一种目前最常用的浮点数标准!为许多CPU与浮点运算器所采用。
简单的说就是将一个浮点数字拆成3个部分(符号部分、指数部分、小数部分) 存储在连续的bit中,类似科学计数法。
用 {S,E,M}来表示一个数 V 的,即 V =(-1)S × M × 2E ,如下:
其中:
其中d.dd...d 为有效数字,β为基数,e 为指数
有效数字中 数字的个数 称为 精度 ,我们可以用 p 来表示氏兄,即可称为 p 位有效数字精度。
每个数字 d 介于 0 和基数 β 之间,包括 0。
对十进制的浮点数,即基数 β 等于 10 的浮点数而言,上面的表达式非常容易理解。
如 12.34,我们可以根据上面的表达式表达为:
1×10 1 + 2×10 0 + 3×10 -1 + 4×10 -2
其规范的浮点数表达为: 1.234×10 1 。
但对二进制来说,上面的表达式同样可以简单地表达。
唯一不同之处在于:二进制的 β 等于 2,而每个数字 d 只能在 0 和 1 之间取值。
如二进制数 1001.101 ,我们可以根据上面的表达式表达为:
1×2 3 + 0×2 2 + 0×2 1 + 1×2 0 + 1×2 -1 + 0×2 -2 + 1×2 -3
其规范浮点数表达为: 1.001101×2 3 。
二进制数 1001.101 转成十进制如下:
由上面的等式,我们可以得出:
向左移动二进制小数点一位相当于这个数除以 2,而向右移动二进制小数点一位相当于这个数乘以 2。
如 101.11 = 5又3/4 (5.75),向左移动一位,得到 10.111 = 2又7/8 (2.875)。
除此之外,我们还可以得到这样一个基本规律:
一个十进制小数要能用浮点数精确地表示,最后一位必须是 5(当然这是必要条件,并非充分条件)。
如下面的示例所示:
基本换算方法:
将10进制的数拆分成整数和小数两个部分
整数部分除以2,取余数;小数部分乘以2,取整数位。
示例:
将十进制 1.1 转成 二进制
整数部分:1
1
小数部分:0.1
二进制形式表示为:
1.000110011001100110011...
再加上整数1,约等于:
1.099609375
计算的位数越多越精确
注意:
二进制小数不像整数一样,只要位数足够,它就可以表示所有整数。
在有限长度的编码中,二进制小数一般无法精确的表示任意小数,比如十进制小数0.2,我们并不能将其准确的表示为一个二进制数,只能增加二进制长度提高表示的精度。
根据 IEEE 754 浮点“双精度格式”位布局。
如果参数是正无穷大,则结果为 0x7ff0000000000000L。
如果参数是负无穷大,则结果为 0xfff0000000000000L。
如果参数是 NaN,则结果为 0x7ff8000000000000L。
根据 IEEE 754 浮点“单一格式”位布局。
如果参数为正无穷大,则结果为 0x7f800000。
如果参数为负无穷大,则结果为 0xff800000。
如果参数为 NaN,则结果为 0x7fc00000。
这里以 double类型说明
将一个浮点数与上面的掩码进行与运算,即可得到对应的 符号位、指数位、尾数位 的值。
1.000110011001100110011...
所以存为:
0 01111111111 000110011001100110011...
根据 IEEE 754 规范
在二进制,第一个有效数字必定是“1”,因此这个“1”并不会存储。
单精和双精浮点数的有效数字分别是有存储的23和52个位,加上最左边没有存储的第1个位,即是24和53个位。
通过计算其能表示的最大值,换十进制来看其精度:
浮点运算很少是精确的,只要是超过精度能表示的范围就会产生误差。而往往产生误差不是因为数的大小,而是因为数的精度。
我自己理解为分两种情况(这个不一定是对)
通过上面的转换示例,我们知道小数的二进制表示一般都不是精确的,在有限的精度下只能尽量的表示近似值
值本身就不是精确的,再进行计算就很可能产生误差
输出:
0.1
原始值: 0 01111111011
指数:1019 -1023 = -4
二进制形式:
0.0001
0.2
原始值:0 01111111100
指数:1020 -1023 = -3
二进制形式:
0.00
0.3
原始值:0 01111111101
指数:1021 = -2
二进制形式:
0.00
二进制加法运算
这里用float验证,float最大的精度是8位数
对于不能精确的表示的数,采取一种系统的方法:找到“最接近”的匹配值,它可以用期望的浮点形式表现出来,这就是舍入。
对于舍入,可以有很多种规则,可以向上舍入,向下舍入,向偶数舍入。如果我们只采用前两种中的一种,就会造成平均数过大或者过小,实际上这时候就是引入了统计偏差。如果是采用偶数舍入,则有一半的机会是向上舍入,一半的机会是向下舍入,这样子可以避免统计偏差。而 IEEE 754 就是采用向最近偶数舍入(round to nearest even)的规则。
(这段是网上抄的)
这里以java语言示例,用大端的方式示例(网络序)
java中是以大端模式存储的,java对我们屏蔽了内部字节顺序的问题以实现跨平台!
实际在不同的cpu架构下,存储方式不同,我们常用的X86是以小端的模式存储的。
网络传输一般采用大端序,也被称之为网络字节序,或网络序。IP协议中定义大端序为网络字节序。
输出:
G. 浮点型数据在内存中实际的存放形式(储存形式)
浮点型数据在内存中存储不是按补码形式,是按阶码的方式存储,所以虽然int和float都是占用了4个字节,如果开始存的是int型数据,比如是个25,那么用浮点的方式输出就不是25.0,也许就变的面目全非。
你可以用共用体的方式验证一下。在公用体中定义一个整形成员变量和一个浮点型成员变量,给整形赋值25,输出浮点成员变量,你就知道了。