安全資訊

超融合服務(wù)器和超融合一體機有什么區別

01 超融合平臺中的數據是否需要獨立的放在外置存儲上?

@超融合產(chǎn)品經(jīng)理:

完全沒(méi)必要,因為超融合的核心之一就是分布式存儲,對于專(zhuān)業(yè)廠(chǎng)商提供的超融合產(chǎn)品,分布式塊存儲都有類(lèi)似副本的技術(shù),保證硬盤(pán)和節點(diǎn)在冗余度之內的損壞數據都不會(huì )丟失 。

如果是用在生產(chǎn)環(huán)境里,基于數據可靠性的考慮,需要獨立的備份系統用于保護數據,防止因為誤刪除外部因素導致的數據損壞和丟失,這不是針對超融合系統,因為無(wú)論多么高端的存儲,備份都是不可替代的。

如果是更高級別的數據可用性,比如同城雙活,需要購買(mǎi)對應的軟件模塊或者配備第三方的方案?,F在vSAN都是自帶雙活功能的。

超融合服務(wù)器和超融合一體機有什么區別


02 超融合服務(wù)器是什么?和超融合一體機什么區別?

@超融合產(chǎn)品經(jīng)理:

首先,超融合是近幾年興起的一種新的 IT 基礎架構,這種架構具備以下特點(diǎn):

符合軟件定義數據中心理念,一定是通過(guò)軟件結合標準的 x86 服務(wù)器來(lái)構建分布式存儲,而不使用基于定制硬件的傳統集中式存儲;

這個(gè)概念強調的是分布式存儲軟件和虛擬化軟件的融合部署,并不是單純的指軟、硬件融合。

基于這種架構,廠(chǎng)商給用戶(hù)提供的產(chǎn)品形態(tài)一般有兩種:

1.超融合軟件。用戶(hù)可以基于超融合軟件和自己選定的 x86 服務(wù)器硬件構建超融合基礎架構;

2.超融合一體機。廠(chǎng)商根據客戶(hù)的需求,和自身的產(chǎn)品策略,為用戶(hù)提供的開(kāi)箱即用,一體機化的交付方式,一體機包含了軟件和 廠(chǎng)商選定并適配的 x86 服務(wù)器。

那么超融合服務(wù)器是什么?目前市場(chǎng)上還會(huì )有“超融合服務(wù)器”這樣的概念,這并不是一個(gè)標準的概念,其中包含兩種可能:

1.就是指超融合一體機;

2.指支持超融合軟件的服務(wù)器,而這類(lèi)服務(wù)器,一般就是標準的 x86 服務(wù)器。


03 超融合三副本模式,能避免任意3塊硬盤(pán)故障嗎?節點(diǎn)故障時(shí)引起的數據復制對集群性能造成的影響,會(huì )不會(huì )影響生產(chǎn)系統性能?

@超融合產(chǎn)品經(jīng)理:

題主的問(wèn)題主要來(lái)自對超融合平臺的數據可靠性方面的質(zhì)疑,我們可以圍繞這兩個(gè)問(wèn)題進(jìn)行一下探討。

a. 三副本是否能允許任意 3 塊硬盤(pán)故障?

三副本是允許單一集群內部任意 2 塊硬盤(pán)同時(shí)故障而不導致數據丟失的數據可靠性保護手段,也就是說(shuō)無(wú)法允許任意 3 塊硬盤(pán)同時(shí)故障。

這里有兩個(gè)關(guān)鍵詞,第一個(gè)是 “任意”,由于三副本是將數據寫(xiě)三份,強制分布在 3 臺服務(wù)器上的不同硬盤(pán)之中,任意丟失 2 個(gè)副本,依然可以通過(guò)剩下的 1 個(gè)副本進(jìn)行數據恢復,不會(huì )引發(fā)數據丟失,那就意味著(zhù)如果故障硬盤(pán)都在同一個(gè)服務(wù)器上的話(huà),即使多于 2 塊硬盤(pán)也不會(huì )導致數據丟失,因為肯定可以在其他節點(diǎn)中有其他可用副本。第二個(gè)關(guān)鍵字是 “同時(shí)”,如果這個(gè)故障是先后發(fā)生也是不在限制范圍,例如有 1 塊硬盤(pán)故障,經(jīng)過(guò)自動(dòng)地數據恢復完成后,再次故障 2 塊硬盤(pán),這樣也不會(huì )導致數據丟失的情況。

目前主流的超融合產(chǎn)品都是支持 2 副本 和 3 副本的,基本上沒(méi)有更高級別的冗余,因為這樣容量開(kāi)銷(xiāo)比較大,實(shí)際可用空間就太少了。

b. 當數據恢復的時(shí)候是否會(huì )影響現有生產(chǎn)環(huán)境性能?

首先觸發(fā)數據恢復或者數據重構,動(dòng)作本質(zhì)上是發(fā)生存儲讀寫(xiě) IO 的,它必然是占用一部分存儲性能的。但是現在做得比較好的超融合產(chǎn)品,會(huì )自動(dòng)控制單節點(diǎn)數據恢復的速度,利用多個(gè)節點(diǎn)進(jìn)行并發(fā)恢復,這樣既能在較短的時(shí)間窗口恢復數據可靠性級別,又能盡可能保障生產(chǎn)環(huán)境性能。另外超融合使用的副本技術(shù)與傳統 raid 數據冗余保護有所不同,raid 組出現硬盤(pán)故障,是需要全盤(pán)數據重構的,無(wú)論這塊盤(pán)是否寫(xiě)滿(mǎn)數據甚至是基本是空的都要全盤(pán)數據恢復;而副本技術(shù)只會(huì )恢復寫(xiě)入的數據,某些情況下可以大幅減少數據恢復量,縮短數據恢復窗口,減少對生產(chǎn)環(huán)境的影響。


04 Ansible是否適合做自動(dòng)化采集工作?如何與CMDB進(jìn)行結合?

@企業(yè)級開(kāi)源解決方案中心軟件架構設計師:

某些客戶(hù)數據中心已經(jīng)實(shí)現了系統數據采集的應用場(chǎng)景,比如CPU,內存,磁盤(pán)容量,IO等參數的抓取。直接編寫(xiě)playbook即可,無(wú)需和CMDB對接。如果需要對接,可從CMDB從查詢(xún)設備信息,然后去相應設備上抓取指定參數。實(shí)現需要詳細討論


05 Ansible系統損壞,對被管理系統有什么影響?

@企業(yè)級開(kāi)源解決方案中心軟件架構設計師:

損壞后如果playbook也對丟了影響比較大,如果數據沒(méi)丟,可以重建然后重新建互信即可快速恢復。

生產(chǎn)環(huán)境下ansible以及tower的建設需要有高可用架構,對于tower的高可用架構,前端需要F5或者haproxy這些負載均衡器,后端的狀態(tài)同步需要有postgresql 的replication多副本保證。

對于playbook的保護,最好有備份機制,或者放到代碼庫或者共享存儲中。


06 上線(xiàn)新的對象存儲平臺,應該從哪些方面對新產(chǎn)品進(jìn)行細致的測試?

@資深解決方案專(zhuān)家

上新的存儲系統都需要對存儲平臺進(jìn)行穩定性,兼容性,性能,異常進(jìn)行全方面測試。需要應用部門(mén),技術(shù)部門(mén)一起協(xié)同測試。

比如:

兼容性——

需要與前端對象應用部門(mén)聯(lián)合測試,通過(guò)API,腳本充分測試和對象存儲的對接驗證,并配合性能,穩定性持續測試。

性能——

對于對象存儲來(lái)說(shuō),數據類(lèi)型分為大對象,小對象。衡量對象存儲性能是否滿(mǎn)足業(yè)務(wù)需求,可以通過(guò)cosbench模擬4k 1M在大并發(fā)下存儲性能表現,當然也要和業(yè)務(wù)進(jìn)行對接測試,用業(yè)務(wù)系統真實(shí)跑一輪性能測試,在性能測試過(guò)程中也要進(jìn)行穩定性測試,進(jìn)行拔盤(pán),斷節點(diǎn)查看在異常的狀態(tài)下存儲性能表現。

穩定性——

長(cháng)期跑IO測試集群性能。


07 Ceph一個(gè)OSD應該分配多少內存?

【問(wèn)題描述】一個(gè)OSD應該分配多少內存?最近在測試Ceph集群,發(fā)現OSD占用的內存隨著(zhù)寫(xiě)入的數據越來(lái)越多,占用的內存也越來(lái)越多,最終都把系統內存完了。

root     31383 28.2  8.3 2593676 920976 ?      Ssl  Mar01 332:07 /usr/local/hstor/ceph_dir/bin/ceph-osd -i 42 --pid-file /var/run/ceph/osd.42.pid -c /usr/local/hstor/ceph_dir/etc/ceph/ceph.conf --cluster ceph

root     32534 21.2  8.4 2591672 936432 ?      Ssl  Mar01 249:22 /usr/local/hstor/ceph_dir/bin/ceph-osd -i 44 --pid-file /var/run/ceph/osd.44.pid -c /usr/local/hstor/ceph_dir/etc/ceph/ceph.conf --clust

@資深解決方案專(zhuān)家:

現在分配了多少內存出現問(wèn)題了呢?Ceph 集群出現異常比如數據重平衡會(huì )大量使用內存, OSD 內存消耗通常與系統中每個(gè)守護進(jìn)程的 PG 數有關(guān)。內存問(wèn)題需要多注意,內存不夠會(huì )導致 OSD 重啟,集群異常。ceph.com 也給出了推薦的 OSD 內存配置,可以參考一下建議3-5GB吧。

OSDs (ceph-osd)

By default, OSDs that use the BlueStore backend require 3-5 GB of RAM. You can adjust the amount of memory the OSD consumes with the osd_memory_target configuration option when BlueStore is in use. When using the legacy FileStore backend, the operating system page cache is used for caching data, so no tuning is normally needed, and the OSD memory consumption is generally related to the number of PGs per daemon in the system.

服務(wù)熱線(xiàn)

138-6598-3726

產(chǎn)品和特性

價(jià)格和優(yōu)惠

安徽靈狐網(wǎng)絡(luò )公眾號

微信公眾號

午夜成人无码免费看网站_97国语自产拍在线_无码一区精油按摩视频_国产色婷婷五月精品综合在线