當前位置:首頁 » 操作系統 » linuxsock

linuxsock

發布時間: 2024-06-29 12:01:55

linux中socket是如何調用驅動程序

分為發送和接受:
發送:
首先,socketAPI會創建並把數據至一個叫sk_buff的結構體,然後依次把sk_buff交給運輸層,網路層,數據鏈路層協議進行處理,然後在填寫完sk_buff後再把他交付給驅動程序由網路設備發送出去。
接受和發送是反過程,驅動層程序一般由中斷處理收到數據包後會創建sk_buff結構體,讓後把數據和一些控制信息填進去,再把sk_buff向數據鏈路層協議交付,然後就是網路層,運輸層最後交給socketAPI介面了

㈡ 涓鏂囨悶鎳侺inux鐨凷ocket緙栫▼鍘熺悊(鍚瀹炰緥瑙f瀽)

鎺屾彙Linux Socket緙栫▼錛氫粠鍘熺悊鍒板疄鎴樼ず渚

鍦ㄥ崟鏈虹郴緇熶腑錛岃繘紼嬮棿閫氫俊騫墮潪闅鵑橈紝鎿嶄綔緋葷粺鎻愪緵浜嗙¢亾銆佸懡鍚嶇¢亾鍜屼俊鍙風瓑澶氱嶆墜孌點傜劧鑰岋紝褰撴秹鍙婄綉緇滈氫俊錛屾垜浠闇瑕佽В鍐寵繘紼嬫爣璇嗗拰鍗忚璇嗗埆鐨勯棶棰樸侺inux鐨勪笘鐣岄噷錛孴CP/IP鍗忚鏃忎腑鐨勫楁帴瀛楋紙Socket錛夋壆婕斾簡鏍稿績瑙掕壊錛"涓鍒囩殕Socket"錛屽畠綆鍖栦簡涓庣綉緇滅殑浜や簰銆

TCP/IP錛屽伐涓氭爣鍑嗗崗璁闆嗭紝涓嶄粎鏀鎸丅erkeley濂楁帴瀛楋紝榪樻湁鍏跺揩閫熺殑UDP鍗忚錛屼綔涓篢CP/IP鍗忚鏃忕殑閲嶈佹垚鍛樸係ocket璁捐$簿宸э紝浣滀負鎶借薄灞傦紝瀹冩彁渚涚粺涓鐨勬帴鍙o紝濡俿ocket濂楁帴瀛楋紙濡傚悓鏂囦歡鎿嶄綔錛夊拰濂楁帴瀛楁弿榪扮︼紙涓涓鏁存暟鏍囪瘑絎︼級錛屼嬌寰楀紑鍙戣呭彲浠ヨ交鏉懼勭悊緗戠粶閫氫俊銆

鏍囧噯閿欒杈撳嚭涓嶴ocket緔у瘑鐩歌繛錛0銆1銆2鍒嗗埆瀵瑰簲stdin銆乻tdout鍜宻tderr錛岃宻ocket API宸у欏湴灝嗚繖浜涙暣鍚堣繘UNIX緋葷粺錛屽壋寤哄楁帴瀛楀悗錛岃繑鍥炵殑鎻忚堪絎︽垚涓烘搷浣滅綉緇滅殑鏍稿績宸ュ叿銆

鎻忚堪絎︽槸鎿嶄綔緋葷粺涓鴻繘紼嬬$悊鐨勬枃浠剁粨鏋勭儲寮曪紝鏃犺烘槸鏂囦歡榪樻槸濂楁帴瀛桰/O錛岄氳繃鎻忚堪絎﹁繘琛屾搷浣滐紝鏄懼緱鐩磋備笖楂樻晥銆傚壋寤簊ocket鏃訛紝鍙闇璋冪敤socket()鍑芥暟錛岄殢鍚庣殑閫氫俊鎿嶄綔鍒欎緷璧栦簬濉鍏呯殑濂楁帴瀛楀睘鎬с

鏈嶅姟鍣ㄧ鐨勯氫俊嫻佺▼鏈夊簭涓旈昏緫娓呮櫚錛氬垵濮嬪寲Socket錛岄氳繃bind()鎸囧畾鐩戝惉鍦板潃鍜岀鍙o紝鎺ョ潃listen()絳夊緟榪炴帴錛宎ccept()鎺ユ敹騫跺勭悊瀹㈡埛絝鐨勮繛鎺ヨ鋒眰錛屼氦浜掔粨鏉熷悗錛岄氳繃close()鍏抽棴榪炴帴銆傜悊瑙h繖浜涙ラよ嚦鍏抽噸瑕併

鍦ㄥ壋寤篠ocket鏃訛紝鎴戜滑閫氳繃socket()鍑芥暟鐢熸垚濂楁帴瀛楁弿榪扮︼紝鍚屾椂鍙浠ラ夋嫨涓嶅悓鐨勫崗璁鏃忥紙AF_INET, AF_INET6, AF_LOCAL絳夛級鍜屽楁帴瀛楃被鍨嬶紙濡係OCK_STREAM鍜孲OCK_DGRAM錛夛紝榪欎簺緇勫悎紜淇濅簡閫氫俊鐨勫噯紜鎬у拰鍏煎規с俠ind()鍑芥暟鍒欑粦瀹歴ocket鍒頒竴涓鐗瑰畾鐨勫湴鍧錛屾湇鍔″櫒閫氬父鍦╨isten鍓嶇粦瀹氱啛鐭ュ湴鍧銆

鐞嗚В澶х鍜屽皬絝妯″紡瀵逛簬姝g『澶勭悊緗戠粶瀛楄妭搴忚嚦鍏抽噸瑕併傚湪榪涜屽楁帴瀛楁搷浣滄椂錛屽姟蹇呯『淇濇暟鎹鎸夌綉緇滃瓧鑺傚簭鍙戦侊紝浠ラ伩鍏嶆綔鍦ㄧ殑娣蜂貢銆備笁嬈℃彙鎵嬶紙瀹㈡埛絝瘲YN銆佹湇鍔″櫒SYN+ACK銆佸㈡埛絝疉CK錛夊湪榪炴帴寤虹珛涓璧風潃鍏抽敭浣滅敤錛岃宭isten()鍜宑onnect()鍒欐槸榪欎簺榪囩▼鐨勮皟鐢ㄨ呫

鏈嶅姟鍣ㄩ氳繃accept()鎺ユ敹榪炴帴璇鋒眰錛屽尯鍒嗙洃鍚濂楁帴瀛椾笌榪炴帴濂楁帴瀛楋紝榪欏逛簬鐞嗚В鏈嶅姟鍣ㄥ拰瀹㈡埛絝鐨勮掕壊鑷沖叧閲嶈併傚湪瀹為檯鎿嶄綔涓錛屽備嬌鐢╮ecvmsg/sendmsg榪涜岀綉緇淚/O錛岃誨啓鎿嶄綔闇瑕佺壒鍒澶勭悊寮傚父鎯呭喌錛屽備腑鏂鎴栬繛鎺ユ柇寮銆

鏈鍚庯紝TCP榪炴帴鐨勫緩絝嬪拰鍏抽棴閬靛驚涓ユ牸鐨勫洓嬈℃尌鎵嬪崗璁錛氫笁嬈℃彙鎵嬪緩絝嬭繛鎺ワ紝鍥涙℃尌鎵嬬『淇濇暟鎹浼犺緭瀹屾垚銆傚湪鏈嶅姟鍣ㄧ錛屼竴涓紺轟緥紼嬪簭鍙鑳藉寘鎷鐩戝惉鐗瑰畾絝鍙c佹帴鍙楄繛鎺ヨ鋒眰騫朵氦浜掓暟鎹錛屽悓鏃跺勭悊鍙鑳界殑TIME_WAIT鐘舵侊紝紜淇濇暟鎹浼犺緭鐨勫畬鏁存у拰鍙闈犳с

鏃犺烘槸瀹㈡埛絝榪樻槸鏈嶅姟鍣錛孲ocket緙栫▼鐨勫疄璺甸兘闇瑕佹帉鎻¤繖浜涙牳蹇冩傚康銆傞氳繃瀹為檯鎿嶄綔鍜屾堜緥鍒嗘瀽錛屼竴姝ユユ彮寮Socket緙栫▼鐨勭炵橀潰綰憋紝浣犲皢鑳藉熻嚜濡傚湴鍦↙inux涓栫晫涓榪涜岄珮鏁堢殑榪涚▼闂撮氫俊銆

㈢ linux socket和sock結構體的區別

//**************************************************************************
/* 1、每一個打開的文件、socket等等都用一個file數據結構代表,這樣文件和socket就通過inode->u(union)中的各個成員來區別:
struct inode {
.....................
union {
struct ext2_inode_info ext2_i;
struct ext3_inode_info ext3_i;
struct socket socket_i;
.....................
} u; };
2、每個socket數據結構都有一個sock數據結構成員,sock是對socket的擴充,兩者一一對應,socket->sk指向對應的sock,sock->socket
指向對應的socket;
3、socket和sock是同一事物的兩個側面,為什麼不把兩個數據結構合並成一個呢?這是因為socket是inode結構中的一部分,即把inode結
構內部的一個union用作socket結構。由於插口操作的特殊性,這個數據結構中需要有大量的結構成分,如果把這些成分全部放到socket
結構中,則inode結構中的這個union就會變得很大,從而inode結構也會變得很大,而對於其他文件系統這個union是不需要這么大的,
所以會造成巨大浪費,系統中使用inode結構的數量要遠遠超過使用socket的數量,故解決的辦法就是把插口分成兩部分,把與文件系
統關系密切的放在socket結構中,把與通信關系密切的放在另一個單獨結構sock中;
*/

struct socket
{
socket_state state; // 該state用來表明該socket的當前狀態
typedef enum {
SS_FREE = 0, /* not allocated */
SS_UNCONNECTED, /* unconnected to any socket */
SS_CONNECTING, /* in process of connecting */
SS_CONNECTED, /* connected to socket */
SS_DISCONNECTING /* in process of disconnecting */
} socket_state;
unsigned long flags; //該成員可能的值如下,該標志用來設置socket是否正在忙碌
#define SOCK_ASYNC_NOSPACE 0
#define SOCK_ASYNC_WAITDATA 1
#define SOCK_NOSPACE 2
struct proto_ops *ops; //依據協議邦定到該socket上的特定的協議族的操作函數指針,例如IPv4 TCP就是inet_stream_ops
struct inode *inode; //表明該socket所屬的inode
struct fasync_struct *fasync_list; //非同步喚醒隊列
struct file *file; //file回指指針
struct sock *sk; //sock指針
wait_queue_head_t wait; //sock的等待隊列,在TCP需要等待時就sleep在這個隊列上
short type; //表示該socket在特定協議族下的類型例如SOCK_STREAM,
unsigned char passcred; //在TCP分析中無須考慮
};

㈣ Linux 進程間套接字通信(Socket)基礎知識

姓名:羅學元    學號:21181214375    學院:廣州研究院

【嵌牛導讀】Linux進程間套接字通信基礎

【嵌牛鼻子】Linux 進程間套接字及通信介紹

【嵌牛提問】Linux進程間套接字包含哪些內容,如何實現通信

一、套接字(Socket)通信原理

套接字通信允許互聯的位於不同計算機上的進程之間實現通信功能。

二、套接字的屬性

套接字的特性由3個屬性確定,它們分別是:域、類型和協議。

1. 套接字的域

它指定套接字通信中使用的網路介質,最常見的套接字域是AF_INET,它指的是Internet網路。當客戶使用套接字進行跨網路的連接時,它就需要用到伺服器計算機的IP地址和埠來指定一台聯網機器上的某個特定服務,所以在使用socket作為通信的終點,伺服器應用程序必須在開始通信之前綁定一個埠,伺服器在指定的埠等待客戶的連接。

另一個域AF_UNIX表示UNIX文件系統,就是文件輸入/輸出,它的地址就是文件名。

2. 套接字類型

網際網路提供了兩種通信機制:流(stream)和數據報(datagram),因而套接字的類型也就分為流套接字和數據報套接字。我們主要看流套接字。

流套接字由類型SOCK_STREAM指定,它們是在AF_INET域中通過TCP/IP連接實現,同時也是AF_UNIX中常用的套接字類型。

流套接字提供的是一個有序、可靠、雙向位元組流的連接,因此發送的數據可以確保不會丟失、重復或亂序到達,而且它還有一定的出錯後重新發送的機制。

與流套接字相對的是由類型SOCK_DGRAM指定的數據報套接字,它不需要建立連接和維持一個連接,它們在AF_INET中通常是通過UDP/IP實現的。它對可以發送的數據的長度有限制,數據報作為一個單獨的網路消息被傳輸,它可能丟失、復制或錯亂到達,UDP不是一個可靠的協議,但是它的速度比較高,因為它並不需要總是要建立和維持一個連接。

3.套接字協議

只要底層的傳輸機制允許不止一個協議來提供要求的套接字類型,我們就可以為套接字選擇一個特定的協議。通常只需要使用默認值。

三、套接字地址

每個套接字都有其自己的地址格式,對於AF_UNIX域套接字來說,它的地址由結構sockaddr_un來描述,該結構定義在頭文件

struct sockaddr_un{

sa_family_t sun_family;  //AF_UNIX,它是一個短整型

char sum_path[];  //路徑名

};

對於AF_INET域套接字來說,它的地址結構由sockaddr_in來描述,它至少包括以下幾個成員:

struct sockaddr_in{

short int sin_family;  //AN_INET

unsigned short int sin_port;  //埠號

struct in_addr sin_addr;    //IP地址

}

而in_addr被定義為:

struct in_addr{

unsigned long int s_addr;

}

四、基於流套接字的客戶/伺服器的工作流程

使用socket進行進程通信的進程採用的客戶/伺服器系統是如何工作的呢?

1.伺服器端

首先,伺服器應用程序用系統調用socket來創建一個套接字,它是系統分配給該伺服器進程的類似文件描述符的資源,它不能與其他的進程共享。

接下來,伺服器進程會給套接字起個名字,我們使用系統調用bind來給套接字命名。然後伺服器進程就開始等待客戶連接到這個套接字。

然後,系統調用listen來創建一個隊列,並將其用於存放來自客戶的進入連接。

最後,伺服器通過系統調用accept來接受客戶的連接。它會創建一個與原有的命名套接不同的新套接字,這個套接字只用於與這個特定客戶端進行通信,而命名套接字(即原先的套接字)則被保留下來繼續處理來自其他客戶的連接。

2.客戶端

基於socket的客戶端比伺服器端簡單。同樣,客戶應用程序首先調用socket來創建一個未命名的套接字,然後講伺服器的命名套接字作為一個地址來調用connect與伺服器建立連接。

一旦連接建立,我們就可以像使用底層的文件描述符那樣用套接字來實現雙向數據的通信。

㈤ 請問linux怎麼增大socket連接上限

1、修改用戶進程可打開文件數限制
在Linux平台上,無論編寫客戶端程序還是服務端程序,在進行高並發TCP連接處理時,
最高的並發數量都要受到系統對用戶單一進程同時可打開文件數量的限制(這是因為系統
為每個TCP連接都要創建一個socket句柄,每個socket句柄同時也是一個文件句柄)。
可使用ulimit命令查看系統允許當前用戶進程打開的文件數限制:
[speng@as4 ~]$ ulimit -n
1024
這表示當前用戶的每個進程最多允許同時打開1024個文件,這1024個文件中還得除去
每個進程必然打開的標准輸入,標准輸出,標准錯誤,伺服器監聽 socket,
進程間通訊的unix域socket等文件,那麼剩下的可用於客戶端socket連接的文件數就
只有大概1024-10=1014個左右。也就是說預設情況下,基於Linux的通訊程序最多允許
同時1014個TCP並發連接。
對於想支持更高數量的TCP並發連接的通訊處理程序,就必須修改Linux對當前用戶的
進程同時打開的文件數量的軟限制(soft limit)和硬限制(hardlimit)。其中軟限制
是指Linux在當前系統能夠承受的范圍內進一步限制用戶同時打開的文件數;硬限制
則是根據系統硬體資源狀況(主要是系統內存)計算出來的系統最多可同時打開的文件數量。
通常軟限制小於或等於硬限制。

修改上述限制的最簡單的辦法就是使用ulimit命令:
[speng@as4 ~]$ ulimit -n
上述命令中,在中指定要設置的單一進程允許打開的最大文件數。如果系統回顯
類似於「Operation notpermitted」之類的話,說明上述限制修改失敗,實際上是
因為在中指定的數值超過了Linux系統對該用戶打開文件數的軟限制或硬限制。
因此,就需要修改Linux系統對用戶的關於打開文件數的軟限制和硬限制。

第一步,修改/etc/security/limits.conf文件,在文件中添加如下行:
speng soft nofile 10240
speng hard nofile 10240
其中speng指定了要修改哪個用戶的打開文件數限制,可用』*'號表示修改所有用戶的限制;
soft或hard指定要修改軟限制還是硬限制;10240則指定了想要修改的新的限制值,
即最大打開文件數(請注意軟限制值要小於或等於硬限制)。修改完後保存文件。

第二步,修改/etc/pam.d/login文件,在文件中添加如下行:
session required /lib/security/pam_limits.so
這是告訴Linux在用戶完成系統登錄後,應該調用pam_limits.so模塊來設置系統對
該用戶可使用的各種資源數量的最大限制(包括用戶可打開的最大文件數限制),
而pam_limits.so模塊就會從/etc/security/limits.conf文件中讀取配置來設置這些限制值。
修改完後保存此文件。

第三步,查看Linux系統級的最大打開文件數限制,使用如下命令:
[speng@as4 ~]$ cat /proc/sys/fs/file-max
12158
這表明這台Linux系統最多允許同時打開(即包含所有用戶打開文件數總和)12158個文件,
是Linux系統級硬限制,所有用戶級的打開文件數限制都不應超過這個數值。通常這個系統級
硬限制是Linux系統在啟動時根據系統硬體資源狀況計算出來的最佳的最大同時打開文件數限制,
如果沒有特殊需要,不應該修改此限制,除非想為用戶級打開文件數限制設置超過此限制的值。

修改此硬限制的方法是修改/etc/rc.local腳本,在腳本中添加如下行:
echo 22158 > /proc/sys/fs/file-max
這是讓Linux在啟動完成後強行將系統級打開文件數硬限制設置為22158。修改完後保存此文件。

完成上述步驟後重啟系統,一般情況下就可以將Linux系統對指定用戶的單一進程允許同時
打開的最大文件數限制設為指定的數值。如果重啟後用 ulimit-n命令查看用戶可打開文件數限制
仍然低於上述步驟中設置的最大值,這可能是因為在用戶登錄腳本/etc/profile中使用ulimit -n命令
已經將用戶可同時打開的文件數做了限制。由於通過ulimit-n修改系統對用戶可同時打開文件的
最大數限制時,新修改的值只能小於或等於上次 ulimit-n設置的值,因此想用此命令增大這個
限制值是不可能的。
所以,如果有上述問題存在,就只能去打開/etc/profile腳本文件,
在文件中查找是否使用了ulimit-n限制了用戶可同時打開的最大文件數量,如果找到,
則刪除這行命令,或者將其設置的值改為合適的值,然後保存文件,用戶退出並重新登錄系統即可。
通過上述步驟,就為支持高並發TCP連接處理的通訊處理程序解除關於打開文件數量方面的系統限制。
2、修改網路內核對TCP連接的有關限制
在Linux上編寫支持高並發TCP連接的客戶端通訊處理程序時,有時會發現盡管已經解除了系統
對用戶同時打開文件數的限制,但仍會出現並發TCP連接數增加到一定數量時,再也無法成功
建立新的TCP連接的現象。出現這種現在的原因有多種。

第一種原因可能是因為Linux網路內核對本地埠號范圍有限制。此時,進一步分析為什麼無法
建立TCP連接,會發現問題出在connect()調用返回失敗,查看系統錯誤提示消息是「Can』t assign requestedaddress」。同時,如果在此時用tcpmp工具監視網路,會發現根本沒有TCP連接時客戶端
發SYN包的網路流量。這些情況說明問題在於本地Linux系統內核中有限制。
其實,問題的根本原因
在於Linux內核的TCP/IP協議實現模塊對系統中所有的客戶端TCP連接對應的本地埠號的范圍
進行了限制(例如,內核限制本地埠號的范圍為1024~32768之間)。當系統中某一時刻同時
存在太多的TCP客戶端連接時,由於每個TCP客戶端連接都要佔用一個唯一的本地埠號
(此埠號在系統的本地埠號范圍限制中),如果現有的TCP客戶端連接已將所有的本地埠號占滿,
則此時就無法為新的TCP客戶端連接分配一個本地埠號了,因此系統會在這種情況下在connect()
調用中返回失敗,並將錯誤提示消息設為「Can』t assignrequested address」。
有關這些控制
邏輯可以查看Linux內核源代碼,以linux2.6內核為例,可以查看tcp_ipv4.c文件中如下函數:
static int tcp_v4_hash_connect(struct sock *sk)
請注意上述函數中對變數sysctl_local_port_range的訪問控制。變數sysctl_local_port_range
的初始化則是在tcp.c文件中的如下函數中設置:
void __init tcp_init(void)
內核編譯時默認設置的本地埠號范圍可能太小,因此需要修改此本地埠范圍限制。
第一步,修改/etc/sysctl.conf文件,在文件中添加如下行:
net.ipv4.ip_local_port_range = 1024 65000
這表明將系統對本地埠范圍限制設置為1024~65000之間。請注意,本地埠范圍的最小值
必須大於或等於1024;而埠范圍的最大值則應小於或等於65535。修改完後保存此文件。
第二步,執行sysctl命令:
[speng@as4 ~]$ sysctl -p
如果系統沒有錯誤提示,就表明新的本地埠范圍設置成功。如果按上述埠范圍進行設置,
則理論上單獨一個進程最多可以同時建立60000多個TCP客戶端連接。

第二種無法建立TCP連接的原因可能是因為Linux網路內核的IP_TABLE防火牆對最大跟蹤的TCP
連接數有限制。此時程序會表現為在 connect()調用中阻塞,如同死機,如果用tcpmp工具監視網路,
也會發現根本沒有TCP連接時客戶端發SYN包的網路流量。由於 IP_TABLE防火牆在內核中會對
每個TCP連接的狀態進行跟蹤,跟蹤信息將會放在位於內核內存中的conntrackdatabase中,
這個資料庫的大小有限,當系統中存在過多的TCP連接時,資料庫容量不足,IP_TABLE無法為
新的TCP連接建立跟蹤信息,於是表現為在connect()調用中阻塞。此時就必須修改內核對最大跟蹤
的TCP連接數的限制,方法同修改內核對本地埠號范圍的限制是類似的:

第一步,修改/etc/sysctl.conf文件,在文件中添加如下行:
net.ipv4.ip_conntrack_max = 10240
這表明將系統對最大跟蹤的TCP連接數限制設置為10240。請注意,此限制值要盡量小,
以節省對內核內存的佔用。

第二步,執行sysctl命令:
[speng@as4 ~]$ sysctl -p
如果系統沒有錯誤提示,就表明系統對新的最大跟蹤的TCP連接數限制修改成功。
如果按上述參數進行設置,則理論上單獨一個進程最多可以同時建立10000多個TCP客戶端連接。

3、使用支持高並發網路I/O的編程技術
在Linux上編寫高並發TCP連接應用程序時,必須使用合適的網路I/O技術和I/O事件分派機制。
可用的I/O技術有同步I/O,非阻塞式同步I/O(也稱反應式I/O),以及非同步I/O。在高TCP並發的情形下,
如果使用同步I/O,這會嚴重阻塞程序的運轉,除非為每個TCP連接的I/O創建一個線程。

但是,過多的線程又會因系統對線程的調度造成巨大開銷。因此,在高TCP並發的情形下使用
同步 I/O是不可取的,這時可以考慮使用非阻塞式同步I/O或非同步I/O。非阻塞式同步I/O的技術包括使用select(),poll(),epoll等機制。非同步I/O的技術就是使用AIO。

從I/O事件分派機制來看,使用select()是不合適的,因為它所支持的並發連接數有限(通常在1024個以內)。
如果考慮性能,poll()也是不合適的,盡管它可以支持的較高的TCP並發數,但是由於其採用
「輪詢」機制,當並發數較高時,其運行效率相當低,並可能存在I/O事件分派不均,導致部分TCP
連接上的I/O出現「飢餓」現象。而如果使用epoll或AIO,則沒有上述問題(早期Linux內核的AIO技術
實現是通過在內核中為每個 I/O請求創建一個線程來實現的,這種實現機制在高並發TCP連接的情形下
使用其實也有嚴重的性能問題。但在最新的Linux內核中,AIO的實現已經得到改進)。

綜上所述,在開發支持高並發TCP連接的Linux應用程序時,應盡量使用epoll或AIO技術來實現並發的
TCP連接上的I/O控制,這將為提升程序對高並發TCP連接的支持提供有效的I/O保證。

內核參數sysctl.conf的優化

/etc/sysctl.conf 是用來控制linux網路的配置文件,對於依賴網路的程序(如web伺服器和cache伺服器)
非常重要,RHEL默認提供的最好調整。

推薦配置(把原/etc/sysctl.conf內容清掉,把下面內容復制進去):
net.ipv4.ip_local_port_range = 1024 65536
net.core.rmem_max=16777216
net.core.wmem_max=16777216
net.ipv4.tcp_rmem=4096 87380 16777216
net.ipv4.tcp_wmem=4096 65536 16777216
net.ipv4.tcp_fin_timeout = 10
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_timestamps = 0
net.ipv4.tcp_window_scaling = 0
net.ipv4.tcp_sack = 0
net.core.netdev_max_backlog = 30000
net.ipv4.tcp_no_metrics_save=1
net.core.somaxconn = 262144
net.ipv4.tcp_syncookies = 0
net.ipv4.tcp_max_orphans = 262144
net.ipv4.tcp_max_syn_backlog = 262144
net.ipv4.tcp_synack_retries = 2
net.ipv4.tcp_syn_retries = 2

這個配置參考於cache伺服器varnish的推薦配置和SunOne 伺服器系統優化的推薦配置。

varnish調優推薦配置的地址為:http://varnish.projects.linpro.no/wiki/Performance

不過varnish推薦的配置是有問題的,實際運行表明「net.ipv4.tcp_fin_timeout = 3」的配置
會導致頁面經常打不開;並且當網友使用的是IE6瀏覽器時,訪問網站一段時間後,所有網頁都會
打不開,重啟瀏覽器後正常。可能是國外的網速快吧,我們國情決定需要
調整「net.ipv4.tcp_fin_timeout = 10」,在10s的情況下,一切正常(實際運行結論)。

修改完畢後,執行:
/sbin/sysctl -p /etc/sysctl.conf
/sbin/sysctl -w net.ipv4.route.flush=1

命令生效。為了保險起見,也可以reboot系統。

調整文件數:
linux系統優化完網路必須調高系統允許打開的文件數才能支持大的並發,默認1024是遠遠不夠的。

執行命令:
Shell代碼
echo ulimit -HSn 65536 >> /etc/rc.local
echo ulimit -HSn 65536 >>/root/.bash_profile
ulimit -HSn 65536

熱點內容
ftp工具可以上傳嗎 發布:2024-11-26 08:55:04 瀏覽:569
壓縮量密封 發布:2024-11-26 08:52:10 瀏覽:581
java把一個list 發布:2024-11-26 08:38:38 瀏覽:585
混沌珠演算法 發布:2024-11-26 08:29:17 瀏覽:163
阿里雲解析不到伺服器 發布:2024-11-26 07:57:59 瀏覽:493
python矩陣的行數 發布:2024-11-26 07:56:25 瀏覽:355
街頭籃球手游腳本 發布:2024-11-26 07:51:18 瀏覽:752
閃迪加密器 發布:2024-11-26 07:44:08 瀏覽:553
我的世界伺服器顯示村民名字 發布:2024-11-26 07:37:16 瀏覽:479
php注冊與登錄 發布:2024-11-26 07:31:21 瀏覽:796