想做一個 10G 的 LAB 環境出來已經很久了。
只是礙於10G RJ45的卡太貴了,然後光纖的種類又太複雜
如果直接在淘寶購買,很怕會買錯(什麼LC/FC LC/LC 多模單模 單芯雙芯 SFP/SFP+ 又是什麼光模塊的一大堆規格)
所以一直沒有付諸行動。
硬體的工作很久沒碰了,剛好在蝦皮看到有個賣家在賣 mellanox 的X2網卡,以在台灣的價格來說,算很便宜的 (550)
聊了一下,跟他請教了關於線材、光纖模塊的問題,回答也都很快很到位
就直接下訂了兩張網卡、兩個光纖模塊、一條LC/LC 光纖線
就是到貨有點久,等了兩個禮拜左右,一直到昨天東西才寄到
今天就花了點時間測試一下
先上個圖!
簡單說,就是有兩台機器,分別安裝 proxmox (一台是新裝的,另一台是本來就在線上的LAB用機器)以及光纖網卡
Mellanox 這張 X2 的卡, proxmox 5.1 / 5.2 可以直接抓到,所以不必另外安裝驅動程式
硬體安裝很順利,不過軟體的設定就碰到點麻煩了,所以才想說作個筆記..
必須作 vmbridge 才能指定這個網卡給VM用
安裝好網卡,開機,透過proxmox的WEB界面設定好網卡的資料後,原本以為可以直接使用了
但是proxmox 會提示需要重新開機才能變更設定
可是重新開機後,我兩台怎麼都ping不到對方
在這之前,我已經用兩台 ubuntu 18.04 client 測試過了,只要設定好IP就可以直接通
所以在這邊碰到這個問題,我滿訝異的
可是看網卡的燈號,明明就有亮起來,應該是正常的呀
原來,在proxmox 中,新增了網卡,並不是直接就可以拿來用
要先設定好 bridge ,然後才能起新的VM、指定新設定的 vmbridge 給這個新起的機器使用
Disk Cache type 要改
設定了新的 vmbridge 之後,就可以在新VM的設定畫面中,指定網卡走這個界面出去
可是這樣做出來的VM ,一直無法開機
錯誤訊息如下
kvm: -drive file=/zp/images/100/vm-100-disk-1.qcow2,if=none,id=drive-virtio0,format=qcow2,cache=none,aio=native,detect-zeroes=on: file system may not support O_DIRECT
kvm: -drive file=/zp/images/100/vm-100-disk-1.qcow2,if=none,id=drive-virtio0,format=qcow2,cache=none,aio=native,detect-zeroes=on: Could not open '/zp/images/100/vm-100-disk-1.qcow2': Invalid argument
TASK ERROR: start failed: command '/usr/bin/kvm -id 100 -name 123123 -chardev 'socket,id=qmp,path=/var/run/qemu-server/100.qmp,server,nowait' -mon 'chardev=qmp,mode=control' -pidfile /var/run/qemu-server/100.pid -daemonize -smbios 'type=1,uuid=da27a9ea-fd55-4542-b2a7-8d5b09bf7611' -smp '2,sockets=1,cores=2,maxcpus=2' -nodefaults -boot 'menu=on,strict=on,reboot-timeout=1000,splash=/usr/share/qemu-server/bootsplash.jpg' -vga std -vnc unix:/var/run/qemu-server/100.vnc,x509,password -cpu kvm64,+lahf_lm,+sep,+kvm_pv_unhalt,+kvm_pv_eoi,enforce -m 2048 -device 'pci-bridge,id=pci.2,chassis_nr=2,bus=pci.0,addr=0x1f' -device 'pci-bridge,id=pci.1,chassis_nr=1,bus=pci.0,addr=0x1e' -device 'piix3-usb-uhci,id=uhci,bus=pci.0,addr=0x1.0x2' -device 'usb-tablet,id=tablet,bus=uhci.0,port=1' -device 'virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x3' -iscsi 'initiator-name=iqn.1993-08.org.debian:01:b972d1ad783' -drive 'file=/zp/template/iso/ubuntu-18.04.1-live-server-amd64.iso,if=none,id=drive-ide2,media=cdrom,aio=threads' -device 'ide-cd,bus=ide.1,unit=0,drive=drive-ide2,id=ide2,bootindex=200' -drive 'file=/zp/images/100/vm-100-disk-1.qcow2,if=none,id=drive-virtio0,format=qcow2,cache=none,aio=native,detect-zeroes=on' -device 'virtio-blk-pci,drive=drive-virtio0,id=virtio0,bus=pci.0,addr=0xa,bootindex=100' -netdev 'type=tap,id=net0,ifname=tap100i0,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=A2:EA:45:EE:17:25,netdev=net0,bus=pci.0,addr=0x12,id=net0,bootindex=300'' failed: exit code 1
當然先去拜google,果然就看到了提示,需要把 磁碟的 Cache 從預設的 Default(No Cache) 改成 write through
為什麼?我也不知道..不知道是不是因為我把磁碟種類選成用 Virtio Block 的關係
總之呢,改完之後就可以了 …
必須手動設定路由
Update
這邊可能是我有誤解,應該不需要先在pve 本機設定 10G網卡的 IP
直接進web console 去設定 vmbr1 就好了
設定好新的VM,開機、設定IP、重開機之後,會發現還是ping 不到另一台機器..(翻桌!)
只好又去拜google ,就看到了底下這篇
https://forum.proxmox.com/threads/how-to-add-second-nic.40905/
大概點出了方向,必須要手動增加路由(感覺有點蠢)
像我的光纖網卡走的是 192.168.50.0/24 ,就要去把原有的192.168.50.0/24的路由給砍掉,然後再新增(是不是很蠢?)
root@ssd:/etc/network# ip route del 192.168.50.0/24
root@ssd:/etc/network# ip route add 192.168.50.0/24 dev vmbr1
root@ssd:/etc/network# ip route
default via 192.168.11.253 dev vmbr0 onlink
192.168.11.0/24 dev vmbr0 proto kernel scope link src 192.168.11.215
192.168.50.0/24 dev vmbr1 scope link
root@ssd:/etc/network#
OK ping 一下對面看能不能過
root@ssd:/etc/network# ping 192.168.50.10
PING 192.168.50.10 (192.168.50.10) 56(84) bytes of data.
64 bytes from 192.168.50.10: icmp_seq=1 ttl=64 time=0.083 ms
64 bytes from 192.168.50.10: icmp_seq=2 ttl=64 time=0.067 ms
64 bytes from 192.168.50.10: icmp_seq=3 ttl=64 time=0.080 ms
64 bytes from 192.168.50.10: icmp_seq=4 ttl=64 time=0.126 ms
^C
--- 192.168.50.10 ping statistics ---
GOOD !很好!通了一邊,另外一邊就照辦,兩邊都通了,就可以開始來測試速度了
p.s 這個路由不知道需不需要每次都手動增加,或者是有哪個config可以在開機時載入
沒記錯的話,應該是在 /etc/network/if-up.d/ 新增一個 route 檔案
不過這部份我不是很確定就是了
所以自己寫了一個 script 來用..
iperf 測試速度
在linux 上,我習慣用 iperf 來測試兩台主機的連接速度
兩邊都用 apt install iperf 裝好套件
然後找一台作為 server ,執行
iperf -s
然後到另一台,去執行
2018-11-30 15:36:58 [minion@ubuntu ~]$ iperf -d -t 600 -P 10 -c 192.168.50.200
WARNING: option -d is not valid for server mode
------------------------------------------------------------
Client connecting to 192.168.50.200, TCP port 5001
TCP window size: 85.0 KByte (default)
------------------------------------------------------------
[ 3] local 192.168.50.199 port 40980 connected with 192.168.50.200 port 5001
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-600.0 sec 641 GBytes 9.18 Gbits/sec
哈哈哈,有目有!測試速度來到了 9.18 Gbits 啊! 就是一個爽啊!
記得那個 server IP 是你 VM 裡面設定的 IP,不是 proxmox 上面的
同場加映走 1Gb 網路的測試結果
2018-11-30 16:39:37 [minion@ubuntu ~]$ iperf -d -t 600 -P 10 -c 192.168.11.171
WARNING: option -d is not valid for server mode
------------------------------------------------------------
Client connecting to 192.168.11.171, TCP port 5001
TCP window size: 85.0 KByte (default)
------------------------------------------------------------
[ 3] local 192.168.11.55 port 38582 connected with 192.168.11.171 port 5001
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-600.0 sec 65.8 GBytes 941 Mbits/sec
192.168.11.171 跟 192.168.50.200 是同一台機器,只是一個是10G網卡,一個是onboard的 1Gb 網卡
速度果然是提高了十倍呀,果然就是一個爽啊!!
實際開VM來測試看看
上面的測試,是兩台PVE HOST之間的連線測試
接下來,要實際測試在PVE中,建立新的VM,一台安裝FreeNAS 作為storage,另一台則是一般的client
步驟簡單來說,就是在ssd 這台PVE 建立一個新的VM,然後安裝FREENAS,並且提供NFS/iscsi 給另一台PVE Host作為storage來源
新增storage選NFS,填入必要資訊後,在這台主機上,建立一個新的VM,磁碟選擇剛剛連接的NFS
要特別注意,freenas的NFS Share的參數要改#####
在 mapuser/mapgroup這邊要改成 root/wheel 不然會有無法寫入的問題
安裝完之後,實際跑一下 dd 看看速度多少
Last login: Mon Dec 3 03:10:54 2018
2018-12-03 03:15:03 [administrator@ubuntu ~]$ dd if=/dev/zero of=testfile bs=10240 count=1000000
1000000+0 records in
1000000+0 records out
10240000000 bytes (10 GB, 9.5 GiB) copied, 9.63458 s, 1.1 GB/s
2018-12-03 03:17:28 [administrator@ubuntu ~]$ dd if=/dev/zero of=testfile bs=20480 count=1000000
1000000+0 records in
1000000+0 records out
20480000000 bytes (20 GB, 19 GiB) copied, 16.0786 s, 1.3 GB/s
2018-12-03 03:17:50 [administrator@ubuntu ~]$ dd if=/dev/zero of=testfile bs=4096 count=1000000
1000000+0 records in
1000000+0 records out
4096000000 bytes (4.1 GB, 3.8 GiB) copied, 4.80629 s, 852 MB/s
2018-12-03 03:25:23 [administrator@ubuntu ~]$
可以看到不但大檔案速度都很快,就連小檔案(4096)居然也有852MB
我底層也不過就是四顆 SATA3 sandisk 240G SSD 而已啊
如果都換成PCI-E SSD ,嘿嘿…(流口水
不過呢,這個也只是自己建的LAB玩玩看而已
真的要放到 production 環境去,我也還沒啥把握 (畢竟都是中古、二手、退役的產品拼湊起來的)
而且沒有10G Switch ,所以只能點對點連接
說不定等到對岸的 10G Switch 開始大降價 (我覺得 8 port SFP+ / NTD $2000 左右我應該就會出手了)
再來把10G 的環境弄完整一點!