https://money.udn.com/money/story/5640/2540378
OSSLab 常需要在最短時間分析(逆向)出各種中大型儲存架構
大概看了一下 這種分散型儲存(DFS)架構怎做的.
http://wiki.ambedded.com.tw/index.php…
每個Node : Armada 385 CPU ,SATA 3.0 *2 , 2GB DDR3, 8GB Flash (放DFS ceph 套件OS ). 最特別就是2.5 Gbps Lan *2
所4個 Node 用一個 Switch 串起來通訊
4個Node用 2.5 Gbps * 8 再轉二個SFP+ 10Gbps 對外
所以整台機器會對外 4 10Gbps SFP+
BCM 有考慮進去 有另外一個底板硬體監控8個node
Console over Ethernet, remote reset, power on control, watchdog timer
ARM node 做個低cost 跟高密度整合硬體架構先.再搭配一些自己開發的管理架構.
DFS 型 SDS 在硬體面最重要就是單node hdd 到 Lan 速度要夠 (帶寬夠 延遲時間低) 如果連這都做不好請不要搞DFS.
他這架構用上了單node 用上 2.5Gbps Lan是最明智的.
管理軟件方便 可降低學習困難 讓一般人使用
當然整個硬體成本低 也是很重要的.
DFS分散式檔案系統好處在於這些方面
1.容易Scale UP 擴充容量
2.掛了硬碟也沒事. 也比RAID好管理跟替換
3.理論上 node越多 速度越快...
不過現實世界上 DFS架構 需要資料救援狀況.
有空來分享這真實案例
#CEPH
#OpenStack
#救援100TB物理實驗資料
Search