Linux测试lacp,linux – 链路聚合(LACP / 802.3ad)最大吞吐量
我在
Linux下看到一些關于綁定接口的令人困惑的行為,我想把這種情況拋到那里,希望有人可以為我清理它.
我有兩臺服務器:服務器1(S1)有4x 1Gbit以太網連接;服務器2(S2)具有2x 1Gbit以太網連接.兩臺服務器都在運行Ubuntu 12.04,雖然內核是3.11.0-15(來自lts-saucy linux-generic軟件包).
兩臺服務器都將所有各自的網絡接口捆綁到一個bond0接口中,具有以下配置(在/ etc / network / interfaces中):
bond-mode 802.3ad
bond-miimon 100
bond-lacp-rate fast
bond-slaves eth0 eth1 [eth2 eth3]
在服務器之間有幾個HP交換機(我認為)正確配置了相關端口上的LACP.
現在,鏈接正在運行 – 網絡流量快樂地流入和流出兩臺機器.并且正在使用所有相應的接口,因此它不像聚合完全失敗.但是,我需要在這兩個服務器之間盡可能多的帶寬,而且我沒有達到我期望的~2Gbit / s.
在我的測試中,我可以觀察到每個服務器似乎將每個TCP連接(例如iperf,scp,nfs等)分配給單個從屬接口.基本上一切似乎都限制在最大1千兆位.
通過設置bond-xmit-hash-policy layer3 4,我可以使用iperf -c S1 -P2在兩個從接口上發送,但在服務器端,接收仍然只發生在一個從接口上,因此總吞吐量受到限制在1Gbit / s時,即客戶端在兩個從接口上顯示~40-50MB / s,服務器在一個從接口上顯示~100MB / s.如果不設置bond-xmit-hash-policy,則發送也僅限于一個從接口.
我的印象是LACP應該允許這種連接捆綁,例如,允許單個scp傳輸來利用兩個主機之間的所有可用接口.
我對LACP的理解是錯誤的嗎?或者我錯過了某些配置選項?任何建議或調查線索將不勝感激!
總結
以上是生活随笔為你收集整理的Linux测试lacp,linux – 链路聚合(LACP / 802.3ad)最大吞吐量的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: easyui textbox onb
- 下一篇: Win10 WLS 安装docker指南