Cephfs & Ceph RBD 在k8s中的適用場景討論及數據庫性能壓測

來源:本站原創 Kubernetes 超過190 views圍觀 0條評論

 

測試發現cephfs的小文件讀寫性能一般,且寫入延遲偏高,性能不甚滿意,但是滿足于日常應用環境的讀寫是沒有問題的,但是在面對數據庫的應用場景,是否能滿足性能要求呢?本篇主要結合kubernetes,針對數據庫應用場景,對cephfs 和 ceph rbd這兩種ceph存儲接口來進行性能對比測試.

 

適用場景討論
Cephfs:
優點:
1.讀取延遲低,I/O帶寬表現良好,尤其是block size較大一些的文件
2.靈活度高,支持k8s的所有接入模式
缺點:
1.寫入延遲相對較高且延遲時間不穩定
適用場景:
適用于要求靈活度高(支持k8s多節點掛載特性),對I/O延遲不甚敏感的文件讀寫操作,以及非海量的小文件存儲支持.例如作為常用的應用/中間件掛載存儲后端.

Ceph RBD:
優點:
1.I/O帶寬表現良好
2.讀寫延遲都很低
3.支持鏡像快照,鏡像轉儲
缺點:
1.不支持多節點掛載
適用場景:
對I/O帶寬和延遲要求都較高,且無多個節點同時讀寫數據需求的應用,例如數據庫.

測試方法可參考上方鏈接中的文章,這里直接貼結果:

結果分析:

ssd raid性能毫無疑問是最好的
ceph rbd 數據庫qps/tps可達ssd raid的60%-70%,
cephfs因為寫入延遲不穩定的原因,壓測過程中極小比例的操作響應時間非常漫長,導致qps/tps值整體表現不佳
hdd測試得到的qps/tps值中規中矩,操作最低響應時間較其他三者要高,但最高響應時間值也不會很高.然而機械硬盤介質決定了隨著它的負載增高尋址時間會隨之加長,性能將會呈線性下降.
———————
作者:ywq935
來源:CSDN
原文:https://blog.csdn.net/ywq935/article/details/82895732
版權聲明:本文為博主原創文章,轉載請附上博文鏈接!

文章出自:CCIE那點事 http://www.qdxgqk.live/ 版權所有。本站文章除注明出處外,皆為作者原創文章,可自由引用,但請注明來源。 禁止全文轉載。
本文鏈接:http://www.qdxgqk.live/?p=4114轉載請注明轉自CCIE那點事
如果喜歡:點此訂閱本站
  • 相關文章
  • 為您推薦
  • 各種觀點
?
暫時還木有人評論,坐等沙發!
發表評論

您必須 [ 登錄 ] 才能發表留言!

?
?
萌宠夺宝游戏