Glusterfs 測試報告
20110824 
寫
| 
Node8 | 
Node9 | 
Node10 | 
Node11 | 
Node12 | |
| 
1 | 
101MB/s | ||||
| 
2 | 
106MB/s | 
93.1MB/s | |||
| 
3 | 
110MB/s | 
109MB/s | 
95.5MB/s | ||
| 
4 | 
110MB/s | 
44.3MB/s | 
94.6MB/s | 
51.8MB/s | |
| 
5 | 
109MB/s | 
27.6MB/s | 
92MB/s | 
32.7MB/s | 
31.5MB/s | 
讀
| 
Node8 | 
Node9 | 
Node10 | 
Node11 | 
Node12 | |
| 
1 | 
91.1MB/s | ||||
| 
2 | 
86.6MB/s | 
76.3MB/s | |||
| 
3 | 
89.4MB/s | 
80.6MB/s | 
91.0MB/s | ||
| 
4 | 
91.9MB/s | 
35.2MB/s | 
85.7MB/s | 
36.4MB/s | |
| 
5 | 
86.6MB/s | 
16.97 MB/s | 
83.0 MB/s | 
17.31 MB/s | 
16.89 MB/s | 
Node10使用10GB網卡同時執行5個DD進行寫入(均速)                       
300-359xxxxxx.xx
| 
11時33分18秒 | 
IFACE | 
rxpck/s | 
txpck/s | 
rxbyt/s | 
txbyt/s | 
rxcmp/s | 
txcmp/s | 
rxmcst/s | 
| 
11時33分19秒 | 
eth3 | 
59792.08 | 
218304.95 | 
4574786.14 | 
330453394.06 | 
0.00 | 
0.00 | 
0.00 | 
102MB/s ,
40.5MB/s,40.2MB/s,34.2MB/s,34.2MB/s (集中在2,3,5Node)
Node10使用10GB網卡同時執行5個DD進行讀取(均速)          195-211xxxxxx.xx
| 
11時52分28秒 | 
IFACE | 
rxpck/s | 
txpck/s | 
rxbyt/s | 
txbyt/s | 
rxcmp/s | 
txcmp/s | 
rxmcst/s | 
| 
11時52分29秒 | 
eth3 | 
18088.24 | 
8689.22 | 
197502741.18 | 
827739.22 | 
0.00 | 
0.00 | 
0.00 | 
89.3MB/s,27.4MB/s,27.3MB/s,20.5MB/s,20.4MB/s
目錄:於clinet端建立目錄時,每個
device端都會有該目錄的資訊。
檔案建立:為隨機性的放入不同的裝置內。若Client端記憶體滿了,也會影響傳輸速度。
檔案複製:cp 一個目錄,裡面有100個檔案,每個100MB,觀察每個裝置的流量。結果:經查看為依序複製,一次一個檔案。
Distributed-Replicate 模式:啟動複製模式後,將同時間進行寫入,因此寫入端的頻寬大小將決定完成的時間。
傳輸特性:Best Effect。
情境模擬1
寫入40個4GB檔案,隨機分佈在個不同的裝置上,並採用replicate模式。
回答:當資料讀取時進行斷線,約60秒後系統會自動搜尋其他裝置,完成讀取。
情境模擬2
Replicate模式時進行資料寫入,將其中一個Node拔線,來觀察。
回答:約60秒後系統會對未斷線的系統進行寫入,檔案大小與長度無誤。
情境模擬3
當斷線的設備又重新加入後,觀察。
回答:檔案大小不相同,為斷線前的資料量。因此在大量寫入的環境下,重新回歸的裝置要先清除內部資料再重新加入。另外重開前要先確保整體資料沒有在寫入(須確保資料的一致性),於裝置設備上下
volume rebalance test-vol start 即進行同步。進行監看volume
rebalance test-vol status。
建立Volume
volume create test-vol transport tcp
node1:/gfs node2:/gfs node3:/gfs node4:/gfs (預設即為
distribution模式)
volume create test-vol replica 2 transfer
tcp node1:/gfs node2:/gfs node3:/gfs node4:/gfs node5:/gfs node6:/gfs (啟用replicate模式)
查看各node狀態
peer status
Node8要取代Node7,因此將node7上的資料搬移到Node8上面
volume replace-brick test-vol
node7:/gfsmount node8:/gfsmount start|pause|abort|status|commit
啟動效能監看
volume profile test-vol start
volume profile test-vol info
volume profile test-vol stop
查看各node檔案分佈情形
volume top test-vol read
加入主機
peer probe
減少主機
peer detach
 
 
 發表文章
發表文章
 
 

0 Comments:
張貼留言