高性能并发TCP网络服务-IOCP框架修正VC2008版本
From: http://blog.csdn.net/lsfa1234/article/details/6223635
?
高性能并發TCP網絡服務IOCP框架修正VC2008版本
從Source Code里可發現,此工程整合的epoll,iocp及kqueue三種模型,應該是非常有用的一個東東(如果ACE能夠把它的那些封裝出來的每個東東都獨立出來就太好了),但由于時間關系未經測試。等測試OK,再來Update具體狀況。
點擊瀏覽該文件
高并發TCP網絡服務框架用Windows的IOCP、Linux的epoll、FreeBSD的kqueue寫了一個支持高并發、多CPU、跨平臺的TCP網絡服務框架。測試下載netfrm.v2.rar,解壓縮得到netfrm.v2目錄,里面有netfrm.v2.vcproj和src目錄。測試代碼在src/main.cpp。
#include
#include "./lance/ldebug.h"
#include "./lance/tcpsrv.hpp"
#include "./lance/systm.h"
class MyClient : public lance::net::Client {
public: void OnConnect() { printf("OnConnect: fd=x, ip=%d, port=%d//n", fd, ip, port); recv(data, 255); }
public: void OnDisconnect() { printf("OnDisconnect: fd=x, ip=%d, port=%d//n", fd, ip, port); }
public: void OnRecv(int len) { data[len] = 0x00; printf("OnRecv: fd=x, data=%s//n", fd, data); if (data[0] == 'a') { printf("user exit command//n"); close(); } recv(data, 255); }
public: char data[256]; };
int main(char * args[]) {
lance::net::TCPSrv srv;
srv.ip = 0;
srv.port = 1234;
srv.ptr = NULL;
srv.backlogs = 10;
srv.threads = 1;
srv.scheds = 0;
srv.start();
while(true) { lance::systm::sleep(2000); }
return 0;
}
測試代碼綁定本機所有IP地址,在1234端口開啟網絡服務,接收客戶端發送的字符串,并將這些字符串打印到控制臺上。
Windows平臺
在Windows XP SP2下用vs2003編譯測試通過。
用vs2003打開netfrm.v2.vcproj,然后編譯、運行,會彈出控制臺窗口。在Windows開始菜單->運行->cmd,啟動Windows命令窗口,輸入telnet 127.0.0.1 1234,回車連接到測試網絡服務,如果一切正常,網絡服務控制臺窗口將顯示連接信息,可以在Windows命令窗口隨便輸入信息,這時網絡服務控制臺窗口將打印輸入的信息。如下圖所示:圖1 輸入字符a表示斷開網絡連接。
Linux平臺
Linux在Red Hat Enterprise Linux 4下測試通過,其他Linux平臺需要Linux 2.6及以上支持epoll的內核。
首先轉到src目錄: $ cd src
編譯: $ make –f Makefile.linux clean all
這時會在當前目錄生成tcpsrv.0.1.bin的可執行文件,
執行: $ ./ tcpsrv.0.1.bin 再打開一個命令行窗口,
測試: $ telnet 127.0.0.1 1234
輸入字符串并回車,剛才執行tcpsrv.0.1.bin的窗口將打印連接和字符串信息。輸入a開頭的字符串將斷開連接。
FreeBSD平臺
FreeBSD在FreeBSD 6.2下測試通過,其他BSD平臺需要支持kqueue的內核。
首先轉到src目錄: $ cd src
編譯: $ make –f Makefile.freebsd clean all 這時會在當前目錄生成tcpsrv.0.1.bin的可執行文件,
執行: $ ./ tcpsrv.0.1.bin 再打開一個命令行窗口,
測試: $ telnet 127.0.0.1 1234 輸入字符串并回車,剛才執行tcpsrv.0.1.bin的窗口將打印連接和字符串信息。
輸入a開頭的字符串將斷開連接。
使用目錄結構:
src |---lance |---tcpsrv.hpp
主要接口文件
|---iocptcpsrv.hpp Windows IOCP網絡服務實現文件
|---eptcpsrv.hpp Linux epoll網絡服務實現文件
|---kqtcpsrv.hpp FreeBSD kqueue網絡服務實現文件
在某種平臺下使用時,src/lance/tcpsrv.hpp必須,其他文件根據平臺而定。
首先,創建一個Client類,這個類必須繼承lance::net::Client,重載事件通知方法。
// Client對象類,當連接建立時自動創建,當連接斷開時自動銷毀
class MyClient : public lance::net::Client {
// 連接建立時被調動
public: void OnConnect() { printf("OnConnect: fd=x, ip=%d, port=%d//n", fd, ip, port);
// 通知調度系統接收數據
// 數據這時并沒有真正接收,當客戶端有數據發送來時
// 調度器自動接收數據,然后通過OnRecv通知數據接收完成
recv(data, 255);
}
// 連接斷開時被調用
public: void OnDisconnect() {
printf("OnDisconnect: fd=x, ip=%d, port=%d//n", fd, ip, port); }
// 當有數據被接收時調用,接收的實際數據長度為len
public: void OnRecv(int len) { data[len] = 0x00; printf("OnRecv: fd=x, data=%s//n", fd, data);
// 斷開連接命令
if (data[0] == 'a') { printf("user exit command//n");
// 通知調度系統斷開連接,當調度系統處理完成后才真正斷開連接
close();
}
// 通知調度系統接收數據
// 數據這時并沒有真正接收,當客戶端有數據發送來時
// 調度器自動接收數據,然后通過OnRecv通知數據接收完成
recv(data, 255);
}
// 數據緩沖區
public: char data[256];
};
然后創建一個lance::net::TCPSrv的實例,這個實例負責調度網絡服務。
具體代碼參考src/main.cpp,lance::net::Client的OnConnect、OnRecv、OnDisconnect都由工作線程池處理,所以里面可以進行IO操作而不會影響系統響應。
int main(char * args[]) {
lance::net::TCPSrv srv;
// 設置監聽套接字綁定的IP
// 0為綁定所有本機可用IP地址
srv.ip = 0;
// 監聽端口
srv.port = 1234;
// 綁定的對象或資源指針
// MyClient里面可以通過srv->ptr獲取這個指針
srv.ptr = NULL;
// 監聽套接字連接隊列長度
srv.backlogs = 10;
// 處理線程池線程數
srv.threads = 1;
// 調度器線程數,通常是本機CPU數的2倍
// 0表示自動選擇
srv.scheds = 0;
// 啟動網絡服務
srv.start();
// 循環,保證進程不退出
while(true) {
lance::systm::sleep(2000);
}
return 0;
}
Windows平臺的預編譯宏是LANCE_WIN32。
Linux平臺的預編譯宏是LANCE_LINUX。
FreeBSD平臺的預編譯宏是LANCE_FREEBSD。
Windows平臺編譯需要使用WIN32_LEAN_AND_MEAN和_WIN32_WINNT=0x0500預編譯宏來避免Winsock2和Windows頭文件的沖突,否則會產生大量類型重定義錯誤。
?#define EPOLL_MAX_NFDS 10000
// max sockets queried by epoll.
#define EPOLL_MAX_EVENTS 100
// max events queried by epoll.
#define EPOLL_MAX_QUEUE 1024
// max events in cache queue.
Linux平臺有額外三個預編譯宏,參考src/lance/eptcpsrv.hpp:
FreeBSD平臺有額外三個預編譯宏,參考src/lance/kqtcpsrv.hpp:
#define KQUEUE_MAX_NFDS 10000
// max sockets queried by kqueue.
#define KQUEUE_MAX_EVENTS 100
// max events queried by kqueue.
#define KQUEUE_MAX_QUEUE 1024
// max events in cache queue.
Windows IOCP設計首先用戶接口部分,由兩個類lance::net:TCPSrv,lance::net::Client。
lance::net::TCPSrv管理監聽套接字、事件調度和事件處理。
lance::net::Client管理連接套接字。
lance::net::TCPSrv由lance::net::Listener、lance::net::Scheduler、lance::net::Processor組成。他們之間的關系如下:
圖2
Listener管理監聽套接字,有單獨的線程執行,當有連接到來時,創建一個Client的對象實例,然后通過IOCP系統調用通知調度器有連接到來,參考src/lance/iocptcpsrv.hpp
template
void Scheduler::push(T * clt) {
::PostQueuedCompletionStatus(iocp, 0, (ULONG_PTR)clt, NULL);
}
Scheduler實際并不做很多事情,只是封裝IOCP句柄,Windows的IOCP功能很豐富,包括管理事件隊列和多CPU支持,所以Scheduler只是一個IOCP的映射。
Processor管理線程池,這些線程池是工作線程,他們[FS:PAGE]輪詢Scheduler的IOCP,從中取出系統事件,IOCP里面有三種事件,一種是客戶端連接事件,一種是客戶端數據事件,最后一種是連接斷開事件,當有事件到來時,會得到Client對象的指針clt,Client的event包含了事件類型,參考src/lance/iocptcpsrv.hpp:
template
DWORD WINAPI Processor::run(LPVOID param) {
Processor& procor = *(Processor *)param;
Scheduler& scheder = *procor.scheder;
HANDLE iocp = scheder.iocp;
DWORD ready;
ULONG_PTR key;
WSAOVERLAPPED * overlap;
while (true) {
::GetQueuedCompletionStatus(iocp, &ready, &key, (LPOVERLAPPED *)&overlap, INFINITE);
T * clt = (T *)key;
switch(clt->event) {
case T::EV_RECV: {
if (0 >= ready) {
clt->event = T::EV_DISCONNECT;
::PostQueuedCompletionStatus(iocp, 0, (ULONG_PTR)clt, NULL);
} else {
clt->OnRecv(ready);
}
}
break;
case T::EV_CONNECT: {
if (NULL == ::CreateIoCompletionPort((HANDLE)clt->fd, iocp, (ULONG_PTR)clt, 0)) {
::closesocket(clt->fd);
delete clt;
} else {
clt->OnConnect();
}
}
break;
case T::EV_DISCONNECT: {
clt->OnDisconnect();
::closesocket(clt->fd);
delete clt;
}
break;
case T::EV_SEND:
break;
}
}
return 0;
}
?所以Client::OnConnect、Client::OnRecv、Client::OnDisconnect都在工作線程中進行,這些處理過程中都可以有IO等耗時操作,一個連接的阻塞不會影響其他連接的響應速度。
Client的其他方法Client::recv、Client::send和Client::close。
Client::recv是一個異步接收數據的方法,這個方面只是告訴IOCP想要接收客戶端的數據,然后立即返回,由IOCP去負責接收數據,有數據收到時,Processor的工作線程會收到Client::EV_RECV的消息,Processor會調用Client::OnRecv進行通知。
Client::send是發送消息的函數,這個函數是阻塞調用,等待消息發送成功后才返回。
Client::close是主動斷開客戶端連接的方法,這個方法不會直接調用closesocket(fd),而是調用shutdown(fd),shutdown(fd)會向Scheduler觸發一個Client::EV_DISCONNECT的事件,然后Processor調用Client::OnDisconnect通知連接斷開,執行完Client::OnDisconnect后,由Processor調用closesocket(fd)真正斷開連接,這樣設計一方面滿足任何情況下OnDisconnect都被調用,另一方面因為操作系統會重用已經關閉的套接字fd,所以只有當OnDisconnect執行完畢后才真正調用closesocket讓操作系統回收fd,可以避免使用無效的套接字或者挪用其他連接的套接字。
Linux epoll和FreeBSD kqueue設計
Linux epoll和FreeBSD kqueue的機制幾乎一樣,只有函數名字和個數不一樣,所以一起分析,并且簡寫為Linux。因為Linux不像Windows一樣會管理事件隊列和多CPU支持,所以Linux需要額外實現事件隊列和多CPU支持。
Linux下用戶接口跟Windows一樣,有lance::net::TCPSrv和lance::net::Client,因為跨平臺,所以他們提供的接口功能和意義也一樣,參考Windows一節。
lance::net::TCPSrv管理連接套接字、事件隊列、多CPU支持、事件調度和事件處理。
lance::net::TCPSrv由Listener、Scheduler、Processor、Queue組成。他們之間關系圖如下:圖3
Listener管理監聽套接字,有連接到來時創建一個Client的實例clt,初始化Client::event為Client::EV_CONNECT,然后將clt放入調度器,調度器為clt選擇一個合適的epoll/kqueue進行綁定,然后將clt放入事件隊列Queue等待被Processor執行。
Scheduler管理epoll/kqueue,為了支持多CPU,一個Scheduler可能管理多個epoll/kqueue,通過lance::net::TCPSrv::scheds進行設置,當lance::net::TCPSrv::scheds大于1時,Scheduler將創建scheds個線程,每個線程管理一個epoll/kqueue。當Listener提交一個新的clt時,Scheduler順序選擇一個epoll/kqueue進行綁定,這是最簡單的均等選擇算法,epoll/kqueue會檢查綁定的clt的數據接收和連接斷開事件,如果有事件,會把產生這個事件的clt放入事件隊列Queue等待被Processor執行,并且設置clt的套接字為休眠狀態,因為epoll/kqueue為狀態觸發,如果事件在被Processor處理前不休眠,會再次被觸發,這樣Queue將被迅速填滿。多CPU時,依靠多個epoll/kqueue能有效利用這些CPU。參考eptcpsrv.hpp:
template
void Scheduler::push(T * clt) {
clt->epfd = epers[epoff].epfd;
epoff = (epoff+1 == scheds)?0:(epoff+1);
queue.in();
while (queue.full()) {
queue.fullWait();
}
if (queue.empty()) {
queue.emptyNotify();
}
queue.push(clt);
queue.out();
}
Queue是有限緩沖隊列,有隊列最大長度EPOLL_MAX_QUEUE/KQUEUE_MAX_QUEUE,有限緩沖隊列結構如下: 圖4
Queue采用monitor模式,使用pthread_mutex_t lock保護臨界區,使用pthread_cond_t emptySignal做隊列由空到不空的通知,也就是喚醒消費者可以處理隊列,使用pthread_cond_t fullSignal做隊列由滿到不滿的通知,也就是喚醒生產者可以填充隊列,這里Scheduler是生產者,Processor是消費者。
有時epoll/kqueue會一次產生多個事件,如果先前隊列為空,那么需要通知Processor可以處理事件,因為emptySignal.notify只能一次喚醒一個線程,為了更加高效的處理事件,應該使用emptySignal.broadcast喚醒所有工作線程。如果epoll/kqueue一次只產生了一個事件,并且先前隊列為空,那么只需要使用emptySignal.notify喚醒一個工作線程而不應該使用emptySignal.broadcast喚醒工作線程,因為只有一個事件,所以只有一個線程會處理事件,而其他線程會空轉一次消耗資源。如果epoll/kqueue產生了事件,但是隊列不為空,那么不需要喚醒工作線程的操作,因為隊列不為空的時候,沒有任何工作線程處于等待狀態。代碼參考eptcpsrv.hpp/Queue。
Processor跟Windows基本一樣,Processor從Queue取出事件,然后根據clt->event事件類型調用響應的事件通知函數。 Client::recv也是一個請求接收數據的過程,并不實際接收數據,當有數據到來時,Processor的工作線程負責接收數據,然后調用Client::OnRecv通知響應的連接對象。
Cleint::send是一個同步阻塞函數,等待數據真正發送完成后再返回。 Client::close跟Windows類似,只是調用shutdown來觸發斷開消息,然后處理流程跟Windows一致。
總結
以上是生活随笔為你收集整理的高性能并发TCP网络服务-IOCP框架修正VC2008版本的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Cobbler部署之FAQ处理
- 下一篇: Mcmod模组下载脚本