云原生多模數據庫 Lindorm依賴于LindormDFS云原生存儲系統,實現了數據存儲與計算分離。存儲容量獨立計費,支持不停機在線擴容。Lindorm實例的存儲容量在同實例內的多個引擎之間共享。
存儲類型說明
云原生多模數據庫Lindorm支持的存儲類型及其適用場景如下:
存儲類型 | 訪問延遲 | 適用場景 | 支持的引擎類型 | 擴展能力 |
標準型云存儲 | 3ms ~ 5ms | Feed流數據、聊天、實時報表、在線計算等實時訪問數據。 | 寬表引擎、時序引擎、搜索引擎、文件引擎、流引擎 | 支持選購容量型存儲。 |
性能型云存儲 | 0.2ms ~ 0.5ms | 廣告競價投放、用戶畫像、人群圈選、實時搜索、風控大腦等低延遲訪問數據。 | 寬表引擎、時序引擎、搜索引擎、文件引擎、流引擎 | 支持選購容量型存儲。 |
容量型云存儲 | 15ms ~ 3s | 監控日志、歷史訂單、音視頻歸檔、數據湖存儲、離線計算等低頻訪問數據。 說明 容量型云存儲使用高密度磁盤存儲陣列,提供極低成本存儲能力,和高吞吐讀寫能力,但隨機讀能力較弱,適用于寫多讀少場景或大數據計算場景。詳細介紹,請參見容量型云存儲讀取性能說明。 | 寬表引擎、文件引擎、流引擎 | 不涉及。 |
本地SSD盤 | 0.1ms ~ 0.3ms | 網絡游戲、電商、視頻直播、媒體等在線業務,滿足I/O密集型應用對塊存儲的低時延和高I/O性能需求。 | 寬表引擎、時序引擎、搜索引擎、文件引擎 說明 購買實例時,如果存儲類型選擇本地SSD盤,僅支持選擇本盤節點規格和數據引擎的節點數量。 |
|
本地HDD盤 | 10ms ~ 300ms | 互聯網行業、金融行業等有大數據計算與存儲分析需求的行業,進行海量數據存儲和離線計算的業務場景。 | 寬表引擎、時序引擎、搜索引擎、文件引擎 說明 購買實例時,如果存儲類型選擇本地HDD盤,僅支持選擇本盤節點規格和數據引擎的節點數量。 |
|
訪問延遲僅表示存儲訪問延遲,不代表端到端訪問延遲。
本地SSD盤和本地HDD盤默認以三副本的方式進行數據冗余,為確保在有一個節點異常的情況下仍能以三副本方式進行數據冗余,Lindorm限制本地盤實例的總節點數最少為3個。
云存儲與本地盤在用量計量上有差異,具體如下:
性能型云存儲、標準型云存儲、容量型云存儲采用邏輯容量的口徑進行用量計量。假設數據庫文件的邏輯大小為100 GiB,則實際消耗云存儲的存儲空間的大小為100 GiB。由LindormDFS確保數據的可靠性以及可用性,無需關心副本數。
本地SSD磁盤、本地HDD磁盤和額外掛載云盤均采用物理容量的口徑進行用量計量。進行容量規劃時需考慮副本數。假設數據庫文件邏輯大小為100 GiB,以三副本的形式存儲在本地HDD盤的Lindorm實例,則實際消耗本地HDD盤存儲空間的大小為300 GiB。數據的可靠性與可用性由LindormDFS多副本機制確保。通常情況下,本地盤默認以三副本、云盤默認以兩個副本的方式進行數據冗余。
擴展能力說明
擴展能力 | 說明 |
支持選購容量型存儲 | 支持選購容量型存儲用于存儲冷數據。 |
掛載云盤與本地SSD盤并池 | 本地SSD盤單計算節點的存儲容量較小,通常無法滿足存儲容量需求較大的業務場景。因此當存儲容量需求較大時,需購買和使用更多的計算節點時,可能會產生計算資源的浪費。Lindorm支持在存儲類型為本地SSD盤的實例上掛載云盤,并將云盤與本地SSD盤并池使用。 |
掛載云盤加速 | 支持在存儲類型為本地HDD盤的實例上額外掛載云盤。云盤的平均延遲和IOPS均優于本地HDD盤。可將掛載云盤作為熱存儲使用,也可將掛載云盤與本地HDD盤進行副本異構。 |
副本異構 | Lindorm支持將高性能存儲與低成本存儲搭配,實現文件副本的異構存儲,通過減少高性能存儲進一步降低成本。讀請求將優先訪問高性能存儲副本,當承載高性能副本的節點故障或臨時下線時,訪問低成本存儲副本實現數據的高可靠與高可用。適合性能要求較高,但可容忍請求毛刺的場景。 Lindorm支持以下形式(高性能存儲+低成本存儲)的副本異構:
說明 如果您需要開通副本異構功能,請聯系Lindorm技術支持(釘釘號:s0s3eg3)。 |
EC糾刪碼(1.5副本) | 存儲類型為本地SSD盤和本地HDD盤的實例均支持開啟EC糾刪碼(1.5副本)功能。開啟EC糾刪碼(1.5副本)功能后,數據副本冗余倍率將從3下降至1.5。Lindorm默認使用RS-4-2算法對數據進行冗余。 以RS-4-2算法為例,開啟EC糾刪碼(1.5副本)功能后數據副本會被打散分布至6個節點上,同時為確保實例的可用性,額外增加1個節點進行冗余,此時實例要求存儲節點的最少數量為7。 說明 如果您需要開通EC糾刪碼(1.5副本)功能,請聯系Lindorm技術支持(釘釘號:s0s3eg3)。 |