先來(lái)看看網(wǎng)絡(luò )與存儲的融合,傳統的數據中心中存在三張網(wǎng),數據中心的前端訪(fǎng)問(wèn)接口通常采用以太網(wǎng)進(jìn)行互聯(lián)而成,構成了一張高速運轉的數據網(wǎng)絡(luò )。數據中心后端的存儲更多的是采用NAS、FCSAN,服務(wù)器的并行計算則大多采用Infiniband和以太網(wǎng),多張網(wǎng)絡(luò )的并存提高了建設和運行管理的成本,為了適應云計算成本的需要,網(wǎng)絡(luò )的三網(wǎng)融合就成為了必然趨勢。在數據中心網(wǎng)絡(luò )融合方面相關(guān)的技術(shù)標準,廠(chǎng)商也業(yè)界也基本達成了共識,比如確定的40G/100G技術(shù)標準,FCoE以太網(wǎng)光纖通道協(xié)議和DCB數據中心橋接(DataCenterBridging),雖然這些重要的網(wǎng)絡(luò )融合標準和協(xié)議已經(jīng)被廣泛的使用在現有的產(chǎn)品中,但產(chǎn)品的成熟和大規模商用,市場(chǎng)還要等待一段時(shí)間。
在數據中心內部橫向流量的承載方面。數據中心網(wǎng)絡(luò )中原本分為三層:核心層,匯聚層和接入層,萬(wàn)兆及以上的以太網(wǎng)交換機有較高的無(wú)阻塞吞吐量,允許用戶(hù)把服務(wù)器機架和柜頂式交換機直接連接到核心網(wǎng)絡(luò ),從而不再需要匯聚層。再者在云計算數據中心中,出于虛擬機熱遷移的需求,如果匯聚層仍然采用二層網(wǎng)絡(luò )組網(wǎng),二層網(wǎng)絡(luò )的規模將大大增加,原有的STP生成樹(shù)協(xié)議將造成網(wǎng)絡(luò )鏈路的大量浪費,這就是為什么傳統的三層網(wǎng)絡(luò )一直運行良好,但在今天面臨服務(wù)器整合、虛擬機時(shí)則顯得有些過(guò)時(shí)的原因。根據這樣的需求,主流的網(wǎng)絡(luò )設備廠(chǎng)商都提出了針對大規模二層組網(wǎng)的方案。兩大標準組織IETF和IEEE分別提出了TRILL和SPB標準技術(shù),主流的網(wǎng)絡(luò )廠(chǎng)商,也根據自身技術(shù)的發(fā)展路線(xiàn)加入了不同的陣營(yíng),以推動(dòng)相關(guān)標準的制定和商業(yè)化進(jìn)程。而它們的總體思路相近,即通過(guò)對IS-IS協(xié)議的拓展,在二層轉發(fā)中進(jìn)入路由技術(shù),實(shí)現對網(wǎng)絡(luò )鏈路的有效利用,以簡(jiǎn)化網(wǎng)絡(luò ),支持虛擬機的移動(dòng)性,降低運營(yíng)成本。目前大二層網(wǎng)絡(luò )技術(shù)標準的博弈逐漸明朗,業(yè)界已經(jīng)對通過(guò)TRILL標準實(shí)現大二層組網(wǎng)逐漸達成了共識。
最后,我們一起看看虛擬機流量的接入與控制的問(wèn)題。由于虛擬機的引入,虛擬機間流量的交換深入到了網(wǎng)卡內部進(jìn)行,使得原來(lái)服務(wù)器與網(wǎng)絡(luò )設備之間清晰的網(wǎng)絡(luò )界限被打破,于是在數據中心的服務(wù)器的網(wǎng)絡(luò )接入層出現了新的虛擬網(wǎng)絡(luò )橋接層,通過(guò)軟件的VSwitch實(shí)現。雖然實(shí)現簡(jiǎn)單,但其占用CPU資源導致了一系列的問(wèn)題;此外也可以借助SR-IOV特性的網(wǎng)絡(luò )來(lái)實(shí)現硬件的虛擬網(wǎng)絡(luò )橋接,CPU開(kāi)銷(xiāo)得到了改善,但虛擬機的流量管理等問(wèn)題仍然存在。于是爭論又來(lái)了,針對虛擬網(wǎng)絡(luò )交換出現出現了眾多的技術(shù)體系,有的目前仍然在不斷的進(jìn)化過(guò)程中,但有的已經(jīng)被叫停,它們包括802.1Qbg,802.1Qbh,802.1BR和思科VN-Tag.目前802.1Qbg標準已經(jīng)獲得了主流廠(chǎng)商的支持,并可提供基于草案標準的解決方案,802.1Qbh目前已被叫停,802.1BR處于起步階段,思科VN-Tag是其私有的技術(shù)標準。