浮點存儲
❶ 誰能解釋浮點數在內存是怎樣存儲的嗎比如-3.14159如何存儲
以32位浮點數為例:
-3.14159轉化為二進制為-11.xxxx,後面的xxxx我就算了,你自己算,不管怎樣,小數點後面始終精確到第23位
也即-1.1xxxx*2^1,
現在開始計算:符號位是1,階碼是1+127,尾數是1xxxx
至於小數點前面那個1,不存儲,該浮點數參與計算的時候默認加上即可
看明白規律了嗎?
將其二進制形式按符號位、階碼、尾數的形式順序存入內存中的一個4位元組空間里
❷ 關於浮點數在C語言中的存儲問題
寫c==2.468f就可以。
浮點數常量默認是double型。你直接寫2.468會強轉型。
❸ C++ 浮點數存儲
月初還在上班的時候,就天天盼望著過年放長假,然而終於熬到了過年,卻發現自己的12天的長假將在碌碌無為中度過,朋友們又一個接一個的遠去,心裡真是拔涼拔涼的啊!最近版上的人氣有點低落,連違規率(不敢說犯罪率哈,怕被人砍)都下降了不少,我想在春節這檔子這是免不了的,論壇上應該有不上工作的朋友可能都回家團聚了。那像我這種無家可歸的人除了眼饞別人的幸福,那就只有向仍然全力支持著我們C++/面向對象這個大家庭的兄弟姐妹們拜個年,祝來年薪水猛漲,職位高升,身體健康,家庭幸福!
最近一段時間看到版上關於C++里浮點變數精度的討論比較多,那麼我就給對這個問題有疑惑的人詳細的講解一下intel的處理器上是如何處理浮點數的。為了能更方便的講解,我在這里只以float型為例,從存儲結構和演算法上來講,double和float是一樣的,不一樣的地方僅僅是float是32位的,double是64位的,所以double能存儲更高的精度。還要說的一點是文章和程序一樣,兼容性是有一定范圍的,所以你想要完全讀懂本文,你最好對二進制、十進制、十六進制的轉換有比較深入的了解,了解數據在內存中的存儲結構,並且會使用VC.net編譯簡單的控制台程序。OK,下面我們開始。
大家都知道任何數據在內存中都是以二進制(1或著0)順序存儲的,每一個1或著0被稱為1位,而在x86CPU上一個位元組是8位。比如一個16位(2位元組)的short int型變數的值是1156,那麼它的二進製表達就是:00000100 10000100。由於Intel CPU的架構是Little Endian(請參數機算機原理相關知識),所以它是按位元組倒序存儲的,那麼就因該是這樣:10000100 00000100,這就是定點數1156在內存中的結構。
那麼浮點數是如何存儲的呢?目前已知的所有的C/C++編譯器都是按照IEEE(國際電子電器工程師協會)制定的IEEE 浮點數表示法來進行運算的。這種結構是一種科學表示法,用符號(正或負)、指數和尾數來表示,底數被確定為2,也就是說是把一個浮點數表示為尾數乘以2的指數次方再加上符號。下面來看一下具體的float的規格:
float
共計32位,摺合4位元組
由最高到最低位分別是第31、30、29、……、0位
31位是符號位,1表示該數為負,0反之。
30-23位,一共8位是指數位。
22-0位,一共23位是尾數位。
每8位分為一組,分成4組,分別是A組、B組、C組、D組。
每一組是一個位元組,在內存中逆序存儲,即:DCBA
我們先不考慮逆序存儲的問題,因為那樣會把讀者徹底搞暈,所以我先按照順序的來講,最後再把他們翻過來就行了。
現在讓我們按照IEEE浮點數表示法,一步步的將float型浮點數12345.0f轉換為十六進制代碼。在處理這種不帶小數的浮點數時,直接將整數部轉化為二進製表示:1 11100010 01000000也可以這樣表示:11110001001000000.0然後將小數點向左移,一直移到離最高位只有1位,就是最高位的1:1.11100010010000000一共移動了16位,在布耳運算中小數點每向左移一位就等於在以2為底的科學計演算法表示中指數+1,所以原數就等於這樣:1.11100010010000000 * ( 2 ^ 16 )好了,現在我們要的尾數和指數都出來了。顯而易見,最高位永遠是1,因為你不可能把買了16個雞蛋說成是買了0016個雞蛋吧?(呵呵,可別拿你買的臭雞蛋甩我~),所以這個1我們還有必要保留他嗎?(眾:沒有!)好的,我們刪掉他。這樣尾數的二進制就變成了:11100010010000000最後在尾數的後面補0,一直到補夠23位:11100010010000000000000(MD,這些個0差點沒把我數的背過氣去~)
再回來看指數,一共8位,可以表示範圍是0 - 255的無符號整數,也可以表示-128 - 127的有符號整數。但因為指數是可以為負的,所以為了統一把十進制的整數化為二進制時,都先加上127,在這里,我們的16加上127後就變成了143,二進製表示為:10001111
12345.0f這個數是正的,所以符號位是0,那麼我們按照前面講的格式把它拼起來:
0 10001111 11100010010000000000000
01000111 11110001 00100000 00000000
再轉化為16進制為:47 F1 20 00,最後把它翻過來,就成了:00 20 F1 47。
現在你自己把54321.0f轉為二進製表示,自己動手練一下!
有了上面的基礎後,下面我再舉一個帶小數的例子來看一下為什麼會出現精度問題。
按照IEEE浮點數表示法,將float型浮點數123.456f轉換為十六進制代碼。對於這種帶小數的就需要把整數部和小數部分開處理。整數部直接化二進制:100100011。小數部的處理比較麻煩一些,也不太好講,可能反著講效果好一點,比如有一個十進制純小數0.57826,那麼5是十分位,位階是1/10;7是百分位,位階是1/100;8是千分位,位階是1/1000……,這些位階分母的關系是10^1、10^2、10^3……,現假設每一位的序列是{S1、S2、S3、……、Sn},在這里就是5、7、8、2、6,而這個純小數就可以這樣表示:n = S1 * ( 1 / ( 10 ^ 1 ) ) + S2 * ( 1 / ( 10 ^ 2 ) ) + S3 * ( 1 / ( 10 ^ 3 ) ) + …… + Sn * ( 1 / ( 10 ^ n ) )。把這個公式推廣到b進制純小數中就是這樣:
n = S1 * ( 1 / ( b ^ 1 ) ) + S2 * ( 1 / ( b ^ 2 ) ) + S3 * ( 1 / ( b ^ 3 ) ) + …… + Sn * ( 1 / ( b ^ n ) )
天哪,可惡的數學,我怎麼快成了數學老師了!沒辦法,為了廣大編程愛好者的切身利益,喝口水繼續!現在一個二進制純小數比如0.100101011就應該比較好理解了,這個數的位階序列就因該是1/(2^1)、1/(2^2)、1/(2^3)、1/(2^4),即0.5、0.25、0.125、0.0625……。乘以S序列中的1或著0算出每一項再相加就可以得出原數了。現在你的基礎知識因該足夠了,再回過頭來看0.45這個十進制純小數,化為該如何表示呢?現在你動手算一下,最好不要先看到答案,這樣對你理解有好處。
我想你已經迫不及待的想要看答案了,因為你發現這跟本算不出來!來看一下步驟:1 / 2 ^1位(為了方便,下面僅用2的指數來表示位),0.456小於位階值0.5故為0;2位,0.456大於位階值0.25,該位為1,並將0.45減去0.25得0.206進下一位;3位,0.206大於位階值0.125,該位為1,並將0.206減去0.125得0.081進下一位;4位,0.081大於0.0625,為1,並將0.081減去0.0625得0.0185進下一位;5位0.0185小於0.03125,為0……問題出來了,即使超過尾數的最大長度23位也除不盡!這就是著名的浮點數精度問題了。不過我在這里不是要給大家講《數值計算》,用各種方法來提高計算精度,因為那太龐雜了,恐怕我講上一年也理不清個頭緒啊。我在這里就僅把浮點數表示法講清楚便達到目的了。
OK,我們繼續。嗯,剛說哪了?哦對對,那個數還沒轉完呢,反正最後一直求也求不盡,加上前面的整數部算夠24位就行了:1111011.01110100101111001。某BC問:「不是23位嗎?」我:「倒,不是說過了要把第一個1去掉嗎?當然要加一位嘍!」現在開始向左移小數點,大家和我一起移,眾:「1、2、3……」好了,一共移了6位,6加上127得131(怎麼跟教小學生似的?呵呵~),二進製表示為:10000101,符號位為……再……不說了,越說越啰嗦,大家自己看吧:
0 10000101 11101101110100101111001
42 F6 E9 79
79 E9 F6 42
下面再來講如何將純小數轉化為十六進制。對於純小數,比如0.0456,我們需要把他規格化,變為1.xxxx * (2 ^ n )的型式,要求得純小數X對應的n可用下面的公式:
n = int( 1 + log (2)X );
0.0456我們可以表示為1.4592乘以以2為底的-5次方的冪,即1.4592 * ( 2 ^ -5 )。轉化為這樣形式後,再按照上面第二個例子里的流程處理:
1. 01110101100011100010001
去掉第一個1
01110101100011100010001
-5 + 127 = 122
0 01111010 01110101100011100010001
最後:
11 C7 3A 3D
另外不得不提到的一點是0.0f對應的十六進制是00 00 00 00,記住就可以了。
最後貼一個可以分析並輸出浮點數結構的函數源代碼,有興趣的自己看看吧:
// 輸入4個位元組的浮點數內存數據
void DecodeFloat( BYTE pByte[4] )
{
printf( "原始(十進制):%d %d %d %d\n" , (int)pByte[0],
(int)pByte[1], (int)pByte[2], (int)pByte[3] );
printf( "翻轉(十進制):%d %d %d %d\n" , (int)pByte[3],
(int)pByte[2], (int)pByte[1], (int)pByte[0] );
bitset<32> bitAll( *(ULONG*)pByte );
string strBinary = bitAll.to_string<char, char_traits<char>, allocator<char> >();
strBinary.insert( 9, " " );
strBinary.insert( 1, " " );
cout << "二進制:" << strBinary.c_str() << endl;
cout << "符號:" << ( bitAll[31] ? "-" : "+" ) << endl;
bitset<32> bitTemp;
bitTemp = bitAll;
bitTemp <<= 1;
LONG ulExponent = 0;
for ( int i = 0; i < 8; i++ )
{
ulExponent |= ( bitTemp[ 31 - i ] << ( 7 - i ) );
}
ulExponent -= 127;
cout << "指數(十進制):" << ulExponent << endl;
bitTemp = bitAll;
bitTemp <<= 9;
float fMantissa = 1.0f;
for ( int i = 0; i < 23; i++ )
{
bool b = bitTemp[ 31 - i ];
fMantissa += ( (float)bitTemp[ 31 - i ] / (float)( 2 << i ) );
}
cout << "尾數(十進制):" << fMantissa << endl;
float fPow;
if ( ulExponent >= 0 )
{
fPow = (float)( 2 << ( ulExponent - 1 ) );
}
else
{
fPow = 1.0f / (float)( 2 << ( -1 - ulExponent ) );
}
cout << "運算結果:" << fMantissa * fPow << endl;
}
累死了,我才發現這篇文章雖然短,然而確是最難寫的。上帝,我也不是機算機,然而為什麼我滿眼都只有1和0?看來我也快成了黑客帝國里的那個看通迅員了……希望大家能不辜負我的一翻辛苦,幫忙up吧!
❹ 浮點數在計算機裡面的存儲
這個問題比較難..其實在實際運算過程中或寫程序中我們要求的浮點數都有一定的精度,大多數情況下存成文件等形式我們一般會讓他*10^n次方來存儲去掉小數位.下面說正題.
何數據在內存中都是以二進制(0或1)順序存儲的,每一個1或0被稱為1位,而在x86CPU上一個位元組是8位。比如一個16位(2 位元組)的short int型變數的值是1000,那麼它的二進製表達就是:00000011 11101000。由於Intel CPU的架構原因,它是按位元組倒序存儲的,那麼就因該是這樣:11101000 00000011,這就是定點數1000在內存中的結構。
目前C/C++編譯器標准都遵照IEEE制定的浮點數表示法來進行float,double運算。這種結構是一種科學計數法,用符號、指數和尾數來表示,底數定為2——即把一個浮點數表示為尾數乘以2的指數次方再添上符號。下面是具體的規格:
````````符號位 階碼 尾數 長度
float 1 8 23 32
double 1 11 52 64
臨時數 1 15 64 80
由於通常C編譯器默認浮點數是double型的,下面以double為例:
共計64位,摺合8位元組。由最高到最低位分別是第63、62、61、……、0位:
最高位63位是符號位,1表示該數為負,0正;
62-52位,一共11位是指數位;
51-0位,一共52位是尾數位。
按照IEEE浮點數表示法,下面將把double型浮點數38414.4轉換為十六進制代碼。
把整數部和小數部分開處理:整數部直接化十六進制:960E。小數的處理:
0.4=0.5*0+0.25*1+0.125*1+0.0625*0+……
實際上這永遠算不完!這就是著名的浮點數精度問題。所以直到加上前面的整數部分算夠53位就行了(隱藏位技術:最高位的1 不寫入內存)。
如果你夠耐心,手工算到53位那麼因該是:38414.4(10)=1001011000001110.(2)
科學記數法為:1.001……乘以2的15次方。指數為15!
於是來看階碼,一共11位,可以表示範圍是-1024 ~ 1023。因為指數可以為負,為了便於計算,規定都先加上1023,在這里, 15+1023=1038。二進製表示為:100 00001110
符號位:正—— 0 ! 合在一起(尾數二進制最高位的1不要):
01000000 11100010 11000001 11001101 01010101 01010101 01010101 01010101
按位元組倒序存儲的十六進制數就是:
55 55 55 55 CD C1 E2 40
❺ 計算機是如何存儲浮點數的(工作原理,實現方式)
計算機用二進制來表示數字,浮點數也是如此:
首先了解如何用二進製表示小數(也就是如何把十進制小數轉化為二進製表示):
舉一個簡單例子,十進制小數 10.625
1)首先轉換整數部分:10 = 1010b
2)小數部分0.625 = 0.101b
(用「乘2取整法」:0.625*2=1.25,得第一位為1,0.25*2=0.5,得第二位為0,0.5*2=1, 得第三位為1,餘下小數部分為零,就可以結束了)
3)於是得到 10.625=1010.101b
換個表示方式更加深入理解:
1*(10^1)+0*(10^0)+6*(10^-1)+2*(10^-2)+5*(10^-3) =
1*(2^3) + 0*(2^2) + 1*(2^1) + 0*(2^0) + 1*(2^-1) + 0*(2^-2) + 1*(2^-3)
4) 類似十進制可以用指數形式表示:
10.625=10625*(10^-3)
所得的二進制小數也可以這樣指數形式表述:
1010.101b=1010101 * (2^-3)
也就是用有效數字a和指數e來表述: a * (2^e)
用一個32bit的空間(bit0~bit31)來存儲這么一個浮點數,如此分配存儲空間:
bit0 ~ bit22 共23bit,用來表示有效數字部分,也就是a,本例中a=1010101
bit23 - bit30 共8個bit,用來表是指數,也就是e,范圍從-128到127,實際數據中的指數是原始指數加上127得到的,如果超過了127,則從-128開始計,所以這里e=-3表示為124
bit31 為符號位,1表示負數,這里應該為0
把上述結果填入32bit的存儲器,就是計算機表示小數10.625的形式。
注意這個例子的特殊性:它的小數部分正好可以用有限長度的2進制小數表示,因此,而且整個有效數字部分a的總長度小於23,因此它精確的表示了10.625,但是有的情況下,有效數字部分的長度可能超過23,甚至是無限多的,那時候就只好把後面的位數截掉了,那樣表示的結果就只是一個近似值而非精確值;顯然,存儲長度越長,精度就越高,比如雙精度浮點數長度為64位,1位符號位,11位指數位,52位有效數字。
❻ 請問浮點型數據在計算機是怎麼存儲的
摘要 對於浮點類型的數據採用單精度類型(float)和雙精度類型(double)來存儲,float數據佔用32bit,double數據佔用64bit。
❼ C語言浮點型是怎樣存儲的
C語言中的float類型佔用4個位元組長,這4個位元組分為如下3部分:
1位符號位 8位階碼 23位尾數部分
這23位尾數才真正存儲了二進制的有效位,將這23位二進制轉換為十進制也就6到7位有效數字。
❽ 浮點數在計算機中的存儲方式
應該是: 在一個為32bit的存儲空間中存儲浮點數,bit0~bit22存儲有效數字部分;bit23~bit30存儲指數部分;bit31存儲符號位。 在一個為64bit的存儲空間中存儲浮點數,bit0~bit51存儲有效數字部分;bit52~bit62存儲指數部分;bit63存儲符號位。 還一種 在一個為80bit的存儲空間中存儲浮點數,bit0~bit62存儲有效數字部分;bit63~bit78存儲指數部分;bit79存儲符號位。 只有這三種了,其他都不支持的 未來可能還有128位浮點數
❾ 浮點型數據在內存中實際的存放形式(儲存形式)
浮點型數據在內存中存儲不是按補碼形式,是按階碼的方式存儲,所以雖然int和float都是佔用了4個位元組,如果開始存的是int型數據,比如是個25,那麼用浮點的方式輸出就不是25.0,也許就變的面目全非。
你可以用共用體的方式驗證一下。在公用體中定義一個整形成員變數和一個浮點型成員變數,給整形賦值25,輸出浮點成員變數,你就知道了。