云數據中心方案范文
時間:2023-03-16 03:11:56
導語:如何才能寫好一篇云數據中心方案,這就需要搜集整理更多的資料和文獻,歡迎閱讀由公務員之家整理的十篇范文,供你借鑒。
篇1
關鍵詞:802.1Qbg;VEB(虛擬以太網交換機Virtual Ethernet Bridging);VEPA(虛擬以太網端口匯聚器Virtual Ethernet Port Aggregator);Multi-Channel(多通道)
中圖分類號:TP308 文獻標識碼:A 文章編號:1674-7712 (2013) 04-0046-02
隨著服務器虛擬化和網絡虛擬化的日益蓬勃發展,云計算在發展過程中出現了一臺物理機上部署虛擬機過多vSwitch占用服務器大量物理資源的問題,虛擬機與外部網絡對接、關聯和感知不明確不可控的問題。如何解決以上問題,Cisco公司提出了802.1Qbh、802.1BR和VN-Tag技術方案,而HP(H3C)/IBM提出了802.1Qbg的技術解決方案。
一、802.1Qbg技術
數據中心的變革歷經了服務器虛擬化、云計算等過程,而相應的交換設備也隨之悄然演化著,標準的制定和推出為這一變化指出改革方向,802.1Qbg順應改革浪潮及時跟進,對數據中心部署云時遇到的難題給出了解決方案。HP(H3C)/IBM對一臺物理機上部署虛擬機過多vSwitch占用服務器大量物理資源的問題,虛擬機與外部網絡對接、關聯和感知不明確不可控的問題,提出盡量將網絡功能移植回物理網絡,推出了802.1Qbg標準。
802.1Qbg在交換功能上,除了兼容vSwitch原有的VEB模式(Virtual Ethernet Bridging)模式外,還增加了VEPA(Virtual Ethernet Port Aggregator)和Multi-Channel工作模式共3種。VEB模式是大家部署虛擬服務器時常見的模式,802.1Qbg兼容這種模式。此種模式下,同一臺物理機上同一VLAN的虛擬服務器之間通信是直接經過該服務器內部的vSwitch轉發,沒有經過外部網絡設備。雖然由于vSwitch這一網元數量的增加,可以拓展虛擬化網絡規模,但也因為內部虛擬服務器數據交換不可控,QOS和網絡安全控制是個難題。
VEPA模式主要是針對之前已部署虛擬化的企業推出的一種解決方案。HP(H3C)/IBM基于IEEE標準,提出在沒有增加新的二層標簽基礎上,只對VMM軟件和交換機軟件簡單升級就可實現VEPA轉發功能。此種方案對已部署虛擬化服務器的用戶影響較小,二次投入也不多。VEPA方案既可以采用純軟件方式,也可是采用硬件方式實現。經HP實驗室測試,該方案報文轉發性能比傳統vSwitch提升12%或更高。VEPA要求VM服務器交換數據流必須經過外部Bridge,然后再原路返回VM響應服務器,路徑的一進一出就為原來意義上的vSwitch減輕了負擔,同時可以對相應端口進行Qos、ACL策略配置,IDS/IPS和防火墻等也可以對此端口進行安全管理,不但可控還節約了投資。
Multi-Channel工作模式是802.1Qbg的第三種模式,它是VEPA的一種增強模式。此種模式去除了服務器內部網絡功能,而以S-Channel方式將虛擬服務器與外部網絡連接起來,通過VDP(VSI Discovery Protocol)和CDCP(S-Channel Discovery and Configuration Protocol)協議報文交換,最終將將虛擬端口(vPort)終結在物理交換機端口上。多通道模式允許VEB、VEPA、Director IO同時存在,也允許各種組合方式存在。它將網絡端口劃分為并行獨立的邏輯通道并在邏輯上隔離,通道可按用戶要求隨意安排成VEB、VEPA或Director IO的一種。多通道技術實現了VEB和VEPA共存一機的要求。值得一提的是,該方式需網卡和交換機支持S-TAG和QinQ功能,所以對新部署虛擬化技術的且要求比較多的用戶比較適合。
二、802.1Qbg在云數據中心的應用測試
H3C公司作為HP的子公司,在802.1Qbg技術解決方案上做了大量的工作。筆者有幸作為一名測試用戶申請試用了H3C的虛擬化數據中心平臺。該公司為體驗用戶搭建了云數據中心的測試平臺,VMM軟件是基于KVM(IBM虛擬化)核心源代碼開發的H3C虛擬化系統,管理軟件是iMC CRM管理平臺,網絡平臺是基于40G和100G的 H3C 12500路由交換為核心,服務器是美國HP制造的多臺H3C服務器,并啟用了各種后臺存儲設備。在該試用平臺上,廠家利用多種基于802.1Qbg解決方案的技術,給用戶提供多種體驗環境。測試中,VMM遷移順暢,業務實時工作不中斷;虛擬機部署方便容易;各種網絡管理策略可在管理平臺上統一制定模板;實時對端口監測,發現異常及時報警。經觀察,多通道技術對虛擬化應用支持力度最為強勁不但兼容了原有VEB,還可利用VEPA技術,在交換機上對虛擬服務器網絡端口做各種策略,Qos、ACL保障極為便利,端口流鏡像、報文統計、安全策略下發管理上極為方便。
數據中心虛擬化目前最大的問題是虛擬機遷移不可控的問題,而HP(H3C)/IBM在VMM遷移(vMotion)這個問題上,找到了一條比較明確的解決方案:即利用iMC CRM管理虛擬機狀態,同時對可遷移的資源統一部署,利用802.1Qbg技術制定相應網絡遷移策略和路徑,做到可控的遷移,明確了VMM遷移的范圍和可利用資源。
目前H3C iMC系統能夠維護多達數萬個虛擬機接入,基于層級化的網絡管理模式,未來iMC將可管理虛擬機數量擴展到數十萬甚至數百萬,做到跨三層大范圍的自動化配置與遷移,而這一切的實現都離不開802.1Qbg技術對數據中心虛擬化的貢獻。
本人在測試中,感覺802.1Qbg對KVM、VMware支持力度很大,而對Microsoft的HyperV 3支持力度偏弱。如果廠家能及時跟進,加大與HyperV可擴展交換機技術的融合,開發相應的擴展程序包或硬件,將會是個不錯的選擇。畢竟微軟的用戶是眾多的,而Cisco、NEC和Inmon也都為此開發了相關擴展包組件或硬件。
三、結束語
802.1Qbg解決方案將服務器虛擬交換機功能大部分或完全移植回物理網絡,提升了服務器性能,明晰了網絡與服務器的界限,增強了虛擬服務器與網絡數據交換的可控性和安全性,降低了對安全設備重復投資的要求。802.1Qbg該技術和Cisco的VN-TAG如果互相借鑒的話,將會更有利于數據中心虛擬化的發展,EVB標準將會更加融合和發展。
參考文獻:
[1]李存軍.數據中心云接入技術比較[J].計算機光盤軟件與應用,2012,23.
[2]H3C EVB技術體系介紹[J].IP領航,2012,6.
[3]H3C EVB數據中心應用模型[J].IP領航,2012,6.
[4]錢景輝.數據中心在云計算需求下的技術分析[J].現代計算機,2012,07.
[5]姜建偉.企業數據中心網絡虛擬化環境中邊界感知安全技術和應用[J].計算機應用與軟件.
[6]吳晨,朱志祥,胡清俊.一種云數據中心虛擬交換的解決方案[J].西安郵電學院學報,2011,9,16,5.
[7]梁凱鵬.基于VEPA的云計算數據中心的設計與實現[J].廣東通信技術,2011,09.
[8]Shehzad Merchant VEPA:虛擬交換解決之道[J].網絡世界,2011,1,17第028版.
[9]李晨,許輝陽.云計算數據中心組網技術研究[J].電信網技術,2012,6,6.
篇2
關鍵詞:銀行數據中心;運維方案;經濟性
中圖分類號:TP308
許多銀行將安全性、可用性、易維護、可擴展性作為數據中心建設重點,不注重其經濟性。數據中心的建設是一筆龐大的開支,銀行做任何投資時都要考慮到其回報率,在投資回報率的壓力下,數據中心的規模一般不會很大。而金融業的快速發展又使得銀行的業務迅速增加,當業務量暴增時,數據中心就必須擴建才能滿足工作需要。實際上,不斷擴建的過程中提高了數據中心的建設成本,而且擴建的效果不太好,擴建又會造成資源的浪費,同時還使數據中心的運維風險增加,不利于銀行的健康發展。這種數據中心建設策略不利于銀行提高工作效率和降低成本,無法為客戶提供全方位的多元化服務,銀行的服務水平降低,進而不利于銀行的發展。
在銀行數據中心建設中,必須注重其經濟性,注重數據中心的擴展性,確保在數據中心上的每一筆投入都能獲得最高的回報率,減少資源浪費,并且使數據中心最大限度提高銀行工作效率。那么,其經濟性又可以從哪幾個方面體現呢?
1 數據中心的選址
數據中心選址是數據中心規劃中最為基礎的內容,科學合理的選址可以大大節約資源,降低投資成本。商業銀行的數據中心一般是采用“兩地三中心”的規劃方案,也就是生產中心、同城災備中心、異地災備中心在兩個城市中。
1.1 生產中心和同城災備中心選址
生產中心與同城災備中心處于同一個城市里時,二者之間的距離必須在20km以上。為了保證同城災備中心于生產中心之間的順暢交流,二者之間應建立起交通通道,使得物質、人員可以快速實現轉移。而同城災備中心要對各種災難性事件進行高效率的處理,因此,在選址時就要考慮到周圍的供電狀況、市政基礎設施服務狀況、通信環境、自然環境等。當然,選址的地價也是需要重點考慮的一個問題。
生產中心與同城災備中心的選址應注意以下幾點:
第一,二者之間的距離大于20km。
第二,周圍需要有良好的供電環境,保證其基本電力需求。
第三,兩者均需要接入城市骨干通信環網,但是需要是在不同的通信節點上接入通信網。
第四,生產中心與同城災備中心之間有良好的交通環境,能夠迅速完成人、物的轉移。
第五,地價較低廉,有良好的排水條件。尤其是在多暴雨的城市中,選址時盡量選擇地勢較高的地段,確保排水的順暢。
1.2 異地災備中心選址
異地災備中心的主要功能就是:發生重大災難性事件時,確保業務應用系統的正常運行,盡量降低同城災備中心在進行災難恢復時的風險。一般而言,異地災備中心與生產中心位于不同城市,選址時主要考慮的因素是:社會經濟人文環境、自然地理環境、人才環境、基礎設施環境、成本因素、周邊環境因素和政策環境因素。其中,自然地理環境是需要著重考慮的要素,而且這幾大要素又往往是相互制約的。當選擇在一線城市時,其成本會很高,但是人才環境、基礎設施環境會很好;如果選擇在三四線城市中,其成本大大降低,但是人才瓶頸就很難解決了。
之所以要特別注重自然地理環境是因為,如果異地災備中心的自然環境較惡劣,容易發生自然災害的話,那么它本身就存在了很大的災害風險,當發生災難性事件時,很難確保業務應用系統的正常運行。
從經濟學的角度來說,異地災備中心選址需要注意以下幾點:
第一,與生產中心位于不同城市,距離在300km以上。
第二,城市可以提供滿足需要的人力資源,政策環境優。
第三,自然地理環境好,自然災害少。
第四,城市的通信網發達。
第五,有豐富的電能資源,電價低廉。
2 數據中心基礎設施規劃
從現實環境來看,銀行數據中心改建、擴建已不鮮見,那么為了節約資源,為客戶提供更高滿意度的業務服務,銀行在建設數據中心時應盡量擴大規模,從銀行未來很長一段時間的發展角度思考問題。數據中心的規模除了要滿足當前的業務需要,還要滿足未來的業務需求,至少留出三分之一的空間給未來的新興業務。
據悉,功耗帶來的成本壓力已成為銀行數據中心的一大挑戰。因此,建設數據中心時要考慮到電價,還要考慮到服務器的耗能,盡量選擇節能的服務器。
在數據中心機房的功率密度越來越高的情況下,要注重制冷系統的規劃,空調位置靠近機柜、按照冷熱通道分離的方式進行制冷系統的規劃,尤其要重視熱點區域的制冷系統的規劃。
在通信布線規劃上,在垂直和水平方向上均擁有兩路以上相互分離的入戶光纜通道,經過不同的方向進入數據中心通信機房。由于數據中心對防火性能要求較高,因此布線時盡量減少銅攬的使用,優先選擇光纖的方式進行線路的布設。為了有效提高防火性能,可以在線路布設完成后,在線纜上涂刷一層阻燃劑。
3 綠色數據中心理念
隨著不可再生能源的迅速消耗和自然環境的破壞,可持續發展理念提出,人們也越來越重視自然環境的保護。銀行數據中心建設中,為了降低成本,遵循綠色數據中心理念勢在必行。在數據中心建設中,盡量使用可再生環保的資源,提高資源利用率。
綠色數據中心最顯著的特點就是能耗的大大降低,在數據中心的使用中,機房的計算機設備、電氣設備、照明系統等都屬于節能型設備,能夠最大限度的利用資源,并減少污染物的排放。
在節能問題上,首先在設備的選型上注意其能耗,盡量選擇能耗低的設備。比如說,運用UPS來減少電源系統的損耗;用刀片服務器替代傳統的機架式設備;采用節能型照明設備。再比如說,在熱點區域使用太陽能空調,達到節能的效果。其次,盡量減少設備,也就是說,提高每個設備的利用率,盡量做到一機多用,這樣不僅可以達到節能的目的,還可以節約空間,另外也能適當減少制冷設備的利用。再次,盡量利用自然資源。在制冷系統上,并不是所有的制冷都需要運用制冷設備來完成,可以根據自然環境的變化,充分利用室外的冷空氣,利用新風節能系統將室外的冷空氣引入室內,并將室內的熱空氣排出,或者說將室內的熱空氣排放到人行通道中,這樣又可以減少人行通道中的制暖設備,這樣就能大大節約能源,還能減少對環境的污染。
除了前面提到的幾點節能措施外,為了實現綠色數據中心,應對數據中心進行全面規劃分析,任何一小點都不能放過,盡量減少能耗,充分利用自然資源,節約資源。
4 結束語
銀行數據中心的建設是一項非常復雜的工作,技術含量高,涉及學科多。在當今銀行業務迅速增加、銀行規模不斷擴大的形勢下,銀行要注重數據中心建設和運維的經濟分析,從數據中心的選址到機房、通信系統等基礎設施的建設,再到各個設備的選型和布置,對每個部分進行經濟分析,力求建設出最優的數據中心,提高銀行工作效率,提高服務水平,促進銀行的可持續發展。
參考文獻:
[1]胡濱.數據中心建設和運維方案的經濟性分析[J].中國金融電腦,2010(01).
[2]李小慶.基于銀行發展戰略的數據中心管理[J].中國金融電腦,2010(02).
[3]趙磊.銀行數據中心核心網絡的構建研究[J].科技傳播,2013(4).
篇3
太極股份于2010年成功上市,并將數據中心業務確立為新的發展階段的核心單元,太極數據中心事業部遵循數據中心建設與業務發展及IT戰略相融合的系統方法論,在深刻理解用戶業務和發展模式的基礎上,創造了以業務應用系統及基礎設施工程相融合的新型服務模式。
多年來,太極股份作為國有控股的上市企業以及國內優秀的IT服務供應商,依托全面整合的資源,憑借不斷創新的理念,依靠雄厚的綜合實力和精湛的專家隊伍,一直引領著數據中心建設的發展方向,并且獲得了廣大客戶的高度認可。
綜合實力
太極股份數據中心事業部具有以下業務能力:
第一,咨詢與設計能力。憑借豐富的行業知識和工程實踐經驗,以及一流的咨詢團隊,太極數據中心事業部為數據中心客戶提供基于行業的IT規劃及高端業務咨詢設計服務,包括數據中心場地建設及IT基礎平臺的搭建等。
第二,基于方法論的項目實施能力。
經過長期工程實踐的積累,太極數據中心事業部逐步建立了成熟的項目實施和管理方法論體系,覆蓋數據中心的咨詢、設計、實施、運維、測評、節能環保等不同類型項目?;诜椒ㄕ擉w系,太極股份數據中心事業部形成了業內領先的工程實施能力,尤其是大型的復雜工程項目實施能力。
第三,創新能力。堅持自主創新、創新與應用相結合,太極數據中心事業部致力于提升自身在行業內的競爭力。目前,太極數據中心事業部擁有突出的關鍵技術和標準研究能力,擁有一流的解決方案和產品創新能力。
為數據中心客戶提供以云架構為基礎的云服務,創新數據中心技術和產品,推動解決方案和服務產業化。
業務范圍
太極股份數據中心事業部的業務包括咨詢設計、安裝調試、系統集成、項目管理、運行維護和運營外包等一體化端到端服務組成。
太極數據中心充分考慮客戶的業務、技術和運行現狀,為客戶提供數據中心建設的整體框架模型,根據客戶要求在各個方面進行深入調研及規劃,協助客戶分析、整理出IT架構對基礎設施建設的功能布局、平面布局的要求,并對后續設計、實施和運維提出系統性的指導建議。
篇4
目前,廈門科華恒盛股份有限公司(以下簡稱“科華恒盛”)是國內智慧電能領導者,始終定位高端,在25年高端電源創新研發應用基礎上,致力于打造國內數據中心物理基礎架構平臺解決方案領先品牌。
近日,科華恒盛成功牽手華東地區的信息技術服務外包基地——中國國際信息技術(福建)產業園,為該項目提供科華恒盛Kelong品牌KR33系列IGBT整流高端大功率UPS產品,并以其為核心制定云動力綠色數據中心配電解決方案。同時,科華恒盛中標了23臺400KVA、兩臺300KVA和一臺120KVA UPS及相關配電、電池系統,累計金額近千萬元。
中國國際信息技術(福建)產業園一期數據中心項目使用了科華恒盛KELONG品牌KR33系列的高端大功率UPS產品26臺,以及供高可靠高效率的IGBT整流機型。該整流機型輸入諧波電流低于3%,輸入功率因素大于0.99,輸出功率因素達到0.9,整機效率高達94%以上,市電輸入與UPS輸出電氣隔離。此外,相關配電系統完全根據用戶現場優化設計與擺放,電池系統安裝單體電池在線監控系統,實時監測每節電池的狀態。
據悉,科華恒盛近日又成功承建了四川雅安城市云計算IDC數據中心項目,項目金額千萬元級。該項目為構筑雅安智慧城市,提供了包括發電機、配電系統、UPS系統、機柜系統、空調制冷系統、動力環境監控系統和冷通道技術組成的整體解決方案,是繼山東泰安云計算中心成功交付使用后科華恒盛承建的又一個政府城市云計算中心整體解決方案的高端項目。
雅安是國家試點的智慧城市之一,經歷4.20地震災害后,雅安智慧城市建設更顯積極意義。此次雅安城市云計算中心IDC項目,是建設雅安智慧城市的關鍵技術支撐,也是把雅安打造成為中國西部“云谷”的重要保障。該項目將為雅安各政府單位統一提供信息化服務。
在雅安城市云計算IDC數據中心項目中,科華恒盛組建專業團隊,通過研究項目方的真實需求,完成對實際地形的勘察,深入分析,在數據中心規劃、設計和整合方案等方面 ,秉承高標準和綠色環保的理念。
在該項目方案的執行過程中,科華恒盛集中貫徹“綠色”和整體思維,從供配電、制冷、智能管理三角度進行詳細規劃設計和實施,為項目方打造科華恒盛極具特色的云動力綠色數據中心解決方案,也為雅安智慧城市成功試點提供有力的基礎架構支撐,并為雅安城市災后重建更智慧、更美好的城市做出自己的貢獻。
2013年,科華恒盛已陸續完成華北油田IDC、中國移動國際信息港IDC、上海移動IDC、上海電信IDC、廣東電信IDC、泰安云計算IDC、國富瑞(福建)災備IDC、洛陽景安IDC等多個大中型IDC數據中心的項目,為科華恒盛云動力綠色數據中心解決方案的市場拓展奠定了堅實的基礎。
篇5
“互聯網+”時代,隨著利率市場化進程的加快,民營資本開放,互聯網金融倒逼傳統銀行加快轉型步伐,傳統銀行更加積極擁抱互聯網思維。光大銀行“大集中2.0”于2013年開始規劃和實施――總行統一規劃并建設私有云,經過兩年的時間,已建設完成同城雙活數據中心IasS基礎設施云,優化了光大銀行總分行信息科技工作模式,產生了良好的經濟和社會效益。截至2015年,光大銀行率先完成分行開發測試云和生產云落地部署,實現分行IT規?!笆萆怼?,使分行科技人員能夠有更多的精力參與業務營銷。未來,中國光大銀行要完成“全行池化”,通過建立涵蓋總分行的異構資源池,提高IT資產的利用率和自動化運維能力,有效控制數據中心規模擴大時的運維成本。
為了進一步完善光大銀行私有云逐步落地,在全國12家股份制銀行中,光大銀行率先整合完成多個數據中心,使得資源共享,實現多中心集約化運營,構建光大銀行私有云數據中心。分布在多個同城中心之間業務集群需要二層芯跳和虛擬機遷移等應用場景,需要同城多數據中心之間的網絡二層互聯互通,光大銀行通過廣泛調研和對多個主流廠商網絡二層互聯方案嚴格比拼測試,最終選擇華為EVN(Ethernet Virtual Network)二層互聯解決方案。華為EVN方案是基于IP的數據中心二層互聯創新解決方案,它代表了當前業界二層互聯技術的最新發展方向,EVN方案不僅具有高可靠和易用性,而且還具有開放標準特性,華為EVN方案使用標準EVPN協議來MAC地址,二層隧道采用VXLAN的封裝方式,多個數據中心間的承載網絡只需要滿足IP可達即可。
光大銀行基于不同業務的重要性,規劃和實現了近百種不同應用系統的多活部署。其中,Web前置和APP中間件實現同城數據中心多活部署,同城多中心之間的數據庫也可以做到雙活部署。
篇6
關鍵詞:數字化校園;云數據中心;虛擬化
中圖分類號: TP399 文獻標識碼: A 文章編號: 1673-1069(2016)32-174-2
0 引言
隨著信息技術在高校的教學、科研和辦公等方面的廣泛應用,各高校業務應用系統的數量和存儲的數據量也不嘣齔ぃ數據中心的規模越來越大,這就對數據中心的安全性、可靠性、靈活性提出了越來越高的要求,傳統數據中心的建設管理方式已經無法滿足當前數字化校園發展的要求。
河南工業大學數據中心承載了學校在教學、科研和辦公等各方面的業務應用系統,目前面臨著系統建設周期長,建設成本高,設備利用率低,業務部署流程環節多,上線周期長等問題,為解決這些問題,河南工業大學新數據中心的建設采用了云數據中心建設方案。
1 云數據中心建設目標
河南工業大學云數據中心的建設目標是搭建一套安全、可靠、穩定、靈活、高效的數據中心,以滿足校園業務應用系統部署與運行的需求,為數字化校園提供安全可靠的支撐平臺。
2 云數據中心建設方案
河南工業大學云數據中心建設方案計劃充分利用學校現有的資源,通過虛擬化平臺和分布式數據中心管理平臺,形成邏輯統一的資源池,并通過分布式云數據中心統一管理平臺對學校各部門提供統一的基礎資源服務。今后,各部門在業務系統的開發過程中,可以不用再考慮基礎資源的設計,只需專注于業務的設計。
2.1 虛擬數據中心(VDC)服務
本建設方案計劃根據各業務部門的需求將學校物理數據中心靈活劃分成虛擬數據中心VDC(Virtual Data Center)。每個VDC可以獨立提供完全和物理數據中心一樣的服務以及資源,每個VDC都有自己的管理員、服務目錄等等,VDC管理員可以直接管理、審批VDC內用戶的服務申請。VDC之間的資源和網絡相對隔離,同時可以通過VDC跨物理數據中心,實現多個物理數據中心資源的統一發放和調度。系統管理員可以將學校整個數據中心的計算、存儲、網絡資源劃分到各個VDC,分配給各個部門。VDC管理員可以在VDC里進行定義模板、定義VPC等操作。通過VDC管理,讓學校各部門擁有自己獨享的數據中心。
2.2 虛擬私有云(VPC)服務
為滿足不同部門的業務應用系統安全隔離的需求,校園云數據中心為各部門提供虛擬私有云VPC(Virtual Private Cloud)服務。校園云數據中心為每個要進行應用部署的部門分配一個獨立的VPC。VPC能夠為各部門提供安全、隔離的網絡環境,實現各部門間業務應用系統的隔離以及外部網絡訪問的安全控制。
2.3 虛擬主機服務
校園云數據中心為各部門提供虛擬主機租用服務,各部門管理員可以在公共平臺上對租用的虛擬主機進行全生命周期的管理。
2.4 虛擬存儲資源服務
校園云數據中心提供的存儲資源服務主要有云硬盤和對象存儲服務。
①云硬盤服務。用戶可申請云硬盤或對已有云硬盤存儲空間進行擴容,通過存儲空間擴容或新的云硬盤申請,可以使單臺虛擬主機空間容量無縫擴展。云硬盤可以掛載到任意一臺虛擬主機上,兩者隸屬于不同的生命周期,當虛擬主機被刪除時,云硬盤數據仍然保留,并可以掛載到其他的虛擬主機上。②對象存儲服務。通過對象存儲服務,校園云數據中心可以為各部門提供海量的存儲資源池服務。各部門在解決自身存儲空間需求的同時,還可以根據對象存儲服務中的接口規范,改造自己的應用系統與存儲資源進行對接,實現應用系統對資源池的使用。
2.5 虛擬化平臺規劃
云計算資源池,使用云計算技術將服務器物理資源抽象成邏輯資源,讓一臺服務器變成若干臺相互隔離的虛擬服務器,不再受限于物理上的界限,而是讓CPU、內存、磁盤等硬件變成可以動態管理的“資源池”,從而提高資源的利用率,簡化系統管理。
①虛擬化安全隔離。校園云數據中心運行了多個部門的業務應用系統,通過虛擬化隔離、VLAN網絡劃分、安全組隔離等手段保障各部門應用間的相互隔離,互不影響。②虛擬化熱遷移。校園云數據中心提供基于共享存儲的虛擬化熱遷移,在遷移的過程中不影響用戶對虛擬機的使用,從而滿足數據中心虛擬化業務的連續性要求。③虛擬機高可用性。校園云數據中心提供故障自動遷移機制,大大提升了虛擬機的可用性,出現故障后能夠重新在資源池中自動啟動虛擬機。④虛擬機規格動態調整。校園云數據中心可以根據應用系統的性能需求,靈活調整虛擬機的配置規格,包括調整VCPU數量,內存、虛擬卷的容量和網卡數量等。⑤虛擬化平臺管理。虛擬化平臺管理系統包括集成資源管理和服務自動化兩個部分,它將整個云數據中心中對用戶可見的資源提取出來納入統一的資源池管理,為用戶提供一體化的資源管理體驗,還為用戶提供方便的獲取資源的途徑,用戶可以通過服務目錄自動的獲取資源并在資源上部署相關的應用。
2.6 計算資源規劃
①服務器架構。目前學校各應用系統以B/S架構為主,因此業務系統服務器架構也以三層架構為主,即由Web服務器、應用服務器、數據庫服務器組成,同時配置輔助管理類服務器。Web服務器和應用服務器一樣,采用“虛擬機+負載均衡集群”的方式提高系統的運行效率和可靠度。數據庫服務器根據應用情況通過數據庫本身提供的集群軟件實現數據庫的高可用性。管理類服務器主要用于虛擬化管理平臺、安全管理平臺、身份認證系統、網管、運維等系統的部署。②虛擬化適應性分析。對于校園業務應用系統服務器的需求,首先要判斷該業務服務器是否能夠采用虛擬化方案,不能虛擬化的則要采用滿足實際需求的服務器進行配置,其他的則建議統一采用虛擬化方式部署。③虛擬機規格選型。根據服務器功能分類和業務應用的性能需求,經過評估后,可以選擇不同規格類型的虛擬機。
2.7 存儲資源規劃
服務器存儲網絡主要包括IP SAN存儲網和FC SAN存儲網。服務器存儲網絡與業務網絡是物理隔離的,服務器的業務網卡和存儲網卡是分別上聯到業務網絡和存儲網絡的對應交換機上。目前,學校的業務應用系統數據分散存放在服務器本地硬盤和不同型號的磁盤陣列中,無論在性能、容量、可靠性、維護管理簡單性等方面都無法滿足要求。集中式SAN存儲方式,不僅可以解決數據無法共享、本地擴容出現瓶頸等問題,還可以使校園業務應用系統的性能得到大幅提升,業務數據的安全性得到更有效的保障。
2.8 容災備份規劃
①備份規劃。根據整體設計規劃,針對我校目前整個數據中心的多套核心業務系統,在本地和異地分別部署一套備份一體機,構建數據安全保護災備系統。本地備份一體機進行本地數據中心的虛擬化平臺虛擬機操作系統、應用、數據庫的整體保護,將數據進行統一集中災備,同時將本地備份數據異步復制至異地校區,形成互為災備的全方位保護方案,保證數據的有效性和可恢復性。②容災規劃。本建設方案以河南工業大學本部校區數據中心為物理站點,構建基于數據保護的本地備份的同時,O計將本校區老機房或異地校區設為容災物理站點,構建雙活云數據中心,為學校各類應用業務提供高可用性基礎保障,為構建虛擬數據中心提供資源和服務,保障數據的一致性和完整性。
2.9 安全保障規劃
本建設方案按照等保三級標準要求進行分區分域設計,提供網絡安全、主機安全、應用安全、數據安全、虛擬化安全等多種安全措施。
2.10 統一運營運維規劃
云數據中心運營運維平臺提供一站式解決方案,把物理分散的數據中心資源整合為邏輯統一的資源池,把計算、存儲、網絡等基礎架構資源作為云服務向用戶提供,實現了用戶自助服務,數據中心物理資源和虛擬資源統一調度。
3 結語
河南工業大學云數據中心建成以后,將實現校園應用系統的云化部署,實現計算存儲資源的虛擬化、資源共享、靈活分配,實現業務服務器的整合、調配和集中化管理,為河南工業大學數字化校園的快速發展提供安全可靠的支撐平臺。
參 考 文 獻
篇7
可見,讓傳統的數據中心接納云網絡概念并不容易。但是在年初,銳捷剛剛推出云產品的時候,就宣布其產品已實現商用,還成功為阿里巴巴等典型的云計算企業構建了云化的數據中心。以如此之快的速度讓云產品落地市場,銳捷到底用了什么方法?帶著這個疑問,記者來到了銳捷2011年的渠道大會,以期尋找到答案。
完整的云圖
“銳捷們”,是記者對銳捷渠道商的一貫稱呼。在銳捷今年的渠道大會上,記者發現銳捷們對云的興趣開始越來越濃。可見,去年還對云概念懵懵懂懂的渠道商,如今也漸漸嗅出了云計算技術發展可能給他們帶來的機遇。
網絡市場并不是從今年才開始熱衷于云計算的,目前很多廠商都推出了相應的產品或是了相應的網絡架構。各種新技術、新產品一股腦兒涌入市場,不免令人一頭霧水。但奇怪的是,到場的銳捷們幾乎在一天半的時間里,就完全理解了銳捷的云網絡。
銳捷對云的描述沒有從某個產品或技術開始,而是展示了一幅云網絡的“全景圖”。這是一套完整的解決方案,包含了數據中心安全運維管理系統、數據中心安全智能系列、數據中心核心交換系列、數據中心接入交換系列四大類別的面向云計算需求的全線數據中心產品。銳捷的云更像是一種一站式的服務,通過銳捷的產品或方案,用戶數據中心向云轉換過程中所遇到的問題,都能在銳捷找到相應的解決方法。用銳捷副總裁劉弘瑜的話來說,銳捷要做的是一個適合未來商業模型的“無阻塞”的云計算網絡,只有全系列的產品才能使客戶對云計算策略的部署在數據中心落地時真實可靠。
今年年初,記者在采訪云快線的時候了解到,在云計算數據中心運營的過程中,網絡帶來的復雜性問題越來越嚴重。他們認為云中的網絡將不再僅是數據中心里的基礎設施,它的作用應該更像是神經系統。網絡應該在提供強大的數據通信能力的同時,也能實現智能擴張及智能管理,以及處理安全問題的能力。從這一點來看,用戶對云網絡產品的需求將和對傳統網絡產品的需求大不相同,單一的產品或是只能解決局部問題的方案將逐漸失去價值??梢姡徽臼降姆桨笇N近未來數據中心用戶的實際需求。從另一個角度來看,全面的產品線也更便于渠道完成部署,大幅縮短銳捷云產品進入市場的周期。
應“變”能力
在劉弘瑜看來,云計算的本質就是“按需可擴展”,它要求數據中心的服務器能做到靈活地一變多和多變一,這樣的能力目前主要依靠虛擬化技術來實現,但要達到相應的效果,網絡產品應“變”的能力才是關鍵。比如當虛擬化需要由一變多時,網絡如何即時反應?虛擬化由多變一,設備性能是否能滿足成倍增長的要求?各種虛擬化環境,安全如何保障?業務如何管理?
從網絡層面解決這些問題,交換機的應“變”能力至關重要。在銳捷的多款云網產品中,都可以看到這類應“變”技術。如RG-S12000 Cloud Computing系列采用了VSU虛擬化技術,可將多臺高端設備虛擬化為一臺邏輯設備,能有效實現虛擬機遷移過程中網絡不中斷。而其支持802.1Qbg的特性,也能夠解決傳統虛擬機交互性能低下的問題。對VRF虛擬化的支持,更便于滿足數據中心網絡一變多的需求,以及多業務安全隔離的需要。
TRILL協議目前被業界認為是有效簡化網絡設計,提高網絡可擴展性和彈性的基礎,也是構建大型虛擬化云計算網絡的根基。在銳捷的RG-S12000云計算交換機產品系列中,記者也看到了其對TRILL協議透明交換技術的全面支持。同時,伴隨著數據中心融合網絡的趨勢,銳捷的RG-S12000系列還為服務器提供了FCoE(Fibre Channel over Ethernet)接入和以太網接入服務,解決了數據中心在網絡過渡過程中整合異構的LAN和SAN網絡的需要。
銳捷一直遵循著一個很有名的戰略思想,那就是利基戰略:利基一詞來源于法語nichi,它所表達的是一種在攀爬的過程中抓住縫隙努力向上的精神。在銳捷,它不僅是做事業的思路,也是做產品的思路:通過無限貼近客戶需求,尋求差異化的方案,以求得生存發展的空間。對于云,銳捷所強調的網絡應“變”能力獨樹一幟,但這正是當前數據中心向云計算環境進化的根本需求,或許這也是讓銳捷的云能夠快速走入商用的原因之一。
把合作伙伴引入云生態鏈
“云計算時代的來臨被稱為第三次IT浪潮。它將帶來工作方式和商業模式的根本性改變,可以說,云計算已越來越成為經濟發展與科技發展過程中的一種必然選擇,盡管它才剛剛開始。這將是一個以萬億元計的市場?!痹趧⒑腓ぱ壑?,云是一個巨大的市場,它對銳捷和銳捷的合作伙伴而言都是巨大的機會。但在這樣的機會面前,合作將變得比任何時候更加重要。因為大量新的尖端技術的落地與云計算相關整體解決方案的形成、部署、維護,都需要生態鏈中各環節的密切配合才能將機會變為現實。
除了提品和相應的解決方案外,銳捷還提供了一個被其稱為基于“開放共享的云服務”理念的IT運維管理解決方案。據劉弘瑜介紹,IT運維管理是一個快速增長的市場,這幾年的平均市場容量增長達30%,已經是一個50億元規模的市場。在云安全管理領域,銳捷從2007年開始研究、2009年正式推出產品和服務,至今已成為這個領域的主要方案提供商,而銳捷拓展這個市場采用的就是基于“開放共享的云服務”的理念。
篇8
關鍵詞:數據中心;管理;現狀;發展;趨勢
0 引言
隨著網絡建設的不斷發展,對于企業來說,數據中心越來越重要,企業對于數據中心的依賴性越來越強,企業業務相關數據越來越龐大,從各個行業來說,能源、交通、金融等行業得到了充分的應用,云計算的應用對于數據中心的要求也越來越高,通過分析可以得出,大多數數據中心的問題都是由于工作人員的失誤造成的,設備的問題也是一個發展的障礙。
1 數據中心管理的現狀
數據中心的工作人員包括很多部門和工種,其中包括技術人員、管理人員、維護運行的人員等,其中工作人員作為管理和技術的主體對于數據中心的正常運行十分重要,直接促進了數據中心的穩定運行,數據中心作為技術性較高的工作需要工作人員具有更高的素質和專業技能,其中包括了責任心和對設備的了解,只有工作人員素質得到了保障才能夠避免影響到數據運行的運行效率和運行安全。
1.1 設備 從設備上來說,數據中心的大量數據存儲就需要大容量設備的硬件支持,如何進行設備的有效管理需要從物理上分布式部署,邏輯上進行管理的統一。
1.2 業務 數據中心的業務應用使同一個平臺的設備融合,從業務的角度進行管理能夠有效的優化數據中心的管理,另外還可以從性能和流量的角度進行業務的監控和優化,從而實現數據中心的有序進行。
1.3 服務 對于運維方面的服務來說,如何促進管理的規范化和審計化都是需要服務運營中心的轉變,總的來說,數據中心的管理方式需要對基本的基礎設施和業務流量進行清晰的分析和研究,對各項資源進行科學詳細的整合,其中包括設備、流量、業務、服務、應用等,從而建立一個虛擬的資源環境,為管理打下基礎。
2 數據中心管理的發展
隨著數據中心的不斷發展,除了基礎的資源整合之外,資源的虛擬化和自動化也在不斷的發展,其中主要包括了對虛擬資源的管理和對資源自動化的管理,這兩種管理形式都是在資源整合之后才能有效實施的。
2.1 云管理 由于云管理的發展時間較短,目前仍處于初級階段,所謂的云管理其實也是數據中心的管理形式,是對資源一個虛擬化、自動化、整合的過程,新的數據管理平臺不斷的產生新的變革,目前已經采用了面向服務架構(SOA)的設計思想,對管理資源、業務以及運維進行了科學的融合,形成了對客戶需求能夠滿足的解決方案,提高了工作效率,為數據中心的各種關鍵業務系統提供支撐。
①方案對于數據中心的管理是尤為重要的,首先是基礎設施的整合管理方案,其中要做到大容量、可視化等要求,在硬件方面的基本要求大概是要進行傳統的功能改進,做到從拓撲、告警、性能、面板、配置等的匹配性,從而在硬件方案上能夠實現基礎設施的整合管理工作。②數據中心的設備機房、機架等也需要進行有效的管理,其中一種新型化并且效果具有優勢的管理方式即為可視化拓撲的管理方式,這種管理方式能夠實現管理員對資源的多維化管理,工作效率更高,管理質量更好。③數據中心管理需要提供虛擬化、自動化的管理方案。虛擬資源的監控、部署與遷移等需求,將推動數據中心管理平臺進行新的變革。但是目前來說發展還不夠完善,有很大的發展空間。
2.2 虛擬資源管理 對于虛擬資源,需要考慮在拓撲、設備等信息中增加相關的技術支持,使管理員能夠在拓撲圖上同時管理物理資源和虛擬化資源,加強對各種資源的配置管理能力,滿足快速部署、業務遷移、新系統測試等不同場景的需求。
①數據中心管理需要提供面向業務的應用管理和流量分析方案。對業務系統的管理應該遵循高可靠的原則,避免影響業務系統的正常運行。②在可視化方面,網絡管理與業務管理進行有效的對接能夠實現IP與IT的融合管理,但是這種形式和業務有可能會造成流量瓶頸,影響業務運行。
因此可以對諸如流量分析軟件進行改進,提供流量分析技術的分析功能,并通過各種可視化的流量視圖,從而找出瓶頸,規劃接口帶寬,滿足用戶對內部業務進行持續監控和改進的流量分析需求。另外,數據中心管理還需要提供可控、可審計、可度量的運維管理方案。
2.3 運維管理與成本管理 引入運維管理,參考ITIL管理模型,結合企業內部的人員、技術、流程和其他條件,通過用戶服務平臺、資產庫、知識庫等工具,對常見的故障處理流程、配置變更流程等進行梳理和固化,加強服務響應能力,及時總結相關經驗。
2.4 人員素質的提高 對于人員素質的提高和保障來說,需要通過考核等方式,根據企業具體情況進行設定,從而提高工作人員的工作積極性和責任感,做到有獎有罰,設立嚴格的規范要求,對數據中心工作人員工作效果進行考核,對于數據中心的日常檢查需要詳細記錄,每個接觸數據中心的工作人員都要進行記錄,對于進入數據中心設備區的人員要有機房環境熟悉的工作人員陪同,避免造成意外事故,影響數據中心數據;另外,由于數據中心較為關鍵,所以對于數據中心設備區的進出工作人員要詳細記錄,并且設定權限,必須得到有權限的批準才可進入,對于進入設備區所能攜帶的設備和物品也要嚴格檢查,避免由于人本身的因素造成數據的丟失或者事故故障。
由于數據中心管理工作量大,這就需要數據中心人員必須有足夠的休息時間,避免疲勞工作造成差錯。
除此之外還要進行數據的(云)備份,從而從根本上避免出現問題之后的不可彌補,(云)備份數據可以在出現問題之后進行轉入,即便在備份中需要成本,但是會大大減輕事故的影響,總的來說還是十分必要的。
3 結語
綜上所述,數據中心的管理需要從資源的整合開始,完成底層資源的各項整合之后,通過虛擬化和自動化的不斷發展,實現數據中心的進步和完善,從而促進信息化管理的快速發展。
參考文獻:
[1]周燈臺.基于ITIL的云計算數據中心管理及運維研究[D].南開大學,2011.
[2]曹福凱,高晶,沈宏,等.基于ITIL理念的數據中心管理標準化設計[J].煤炭技術,2012,31(6):191-193.
篇9
在2012第五屆中國數據中心大會的虛擬化與云數據中心建設分論壇上,來自業內知名企業的代表和各行業CIO,就大數據時代的云計算技術和應用發展,以及數據中心變革等話題,展開了深入探討和交流。
云計算推動數據中心變革
據IDC統計,過去10年,全球各地數據中心的建設和發展速度很快,數據中心設備安裝量增長迅速:服務器的安裝數量增加了6倍,存儲設備增長了69倍。云計算的火熱正在推動數據中心建設的熱潮。
中國萬網副總裁、解決方案事業部總經理范春瑩表示,從互聯網應用客戶的角度看,存在著單點故障時有發生、升級擴展困難、起步門檻高、不能按照資源使用付費、用戶訪問量波峰波谷時段難以協調資源等問題。對互聯網運營商而言,服務器管理難,能耗大、不低碳不綠色,上架時間冗長、單點故障造成服務中斷,客戶服務很難精細化造成服務交付延期等問題制約著互聯網運營商的服務質量,而云數據中心能夠輕松化解這些問題。
“除了用戶消費層面的應用需求,技術層面也在不斷變革,驅動整個數據中心市場的發展,包括新的統一通信技術、無線技術、安全技術,以及網絡應用技術等。”美國西蒙大中國區技術經理陳宇通認為,“數據中心技術發展迅速,IT布線領域的技術也隨之不斷變革,例如萬兆網技術也開始向桌面演化,而這些技術以往都是主干網的核心技術。”
當前,30%的服務器工作負載已經虛擬化了?;萜諄喬叭毡镜貐^首席存儲顧問 Paul Haverfield 稱,虛擬化的工作量在今后三年還將進一步提高,達到89%左右。去年,惠普收購了專注于云存儲業務,在該領域有十年經驗的的3PAR公司,并且推出了3PAR10000等產品。Paul Haverfield 認為,3PAR產品的核心優勢包括三點:一是支持多個用戶、多種模式進行租賃,跟傳統的物理機相比,工作流量提升至少一倍,用戶成本和能耗進一步降低;二是自適應或自調節功能,可以讓相關IT管理人員節省約90%的配置時間;三是支持大型企業根據需求進行投資,升級存儲能力,例如用戶可以在開始時只購買50%的存儲能力,然后慢慢升級。
綠色高效是重點
據統計,在美國,數據中心的每臺服務器能夠節省10%的功耗和支出,就等于100萬個美國家庭一年的消耗量。隨著能源成本越來越高,如何節能也是大家非常關心的一個問題。我國數據中心也面臨節能的嚴峻形勢:近10年來,服務器功耗增加了15倍,機架的供電密度也提高了10倍;過去,一個機架功耗為2kW~3 kW,現在卻往往高達20kW~30 kW。這都使得機房耗電和內部發熱量急劇增加,為解決高密度數據中心供電和散熱問題帶來了嚴峻的挑戰。
在陳宇通看來,企業在部署云數據中心時,需要考慮的因素很多,例如材料的使用壽命、功率的消耗和熱的管理。企業在選擇材料時如果只考慮節約成本,可能三年就需要再更換,累計投入就會很高。而在空調效率、設備散熱、機房環境溫度設定等方面,如何才能提高冷風效率,該如何選擇數據中心材料等,用戶需要以高效、綠色、節能為原則。
美國于2005年推出了關于數據中心的設計和實施的942標準,今年6月即將推出其改進版本942-A標準,推薦了更新的傳輸媒介,更加強調高效和低能耗。這一標準將推動數據中心建設的技術向前邁進一步。
針對數據中心的綠色管理,天地超云公司推出了綠色數據中心管理系統,天地超云產品經理梁曜中表示,該系統“與數據節點進行直接的通信交流,對功耗、溫度、濕度等各項硬件服務指標進行直接監控。另外,它能夠自動調節,生成自動報表,對數據進行自動的存儲,并且正在嘗試對歷史數據進行智能分析,做出相應判斷”。
篇10
江蘇飛搏軟件技術有限公司(以下簡稱江蘇飛搏)是國內知名的IT運維管理軟件提供商,近幾年在就云計算環境下的運維模式進行探索研究的過程中,開發出了基于數據中心建設和云計算應用模式的InsightView IT運維管理平臺軟件。InsightView是江蘇飛搏打造的集運維流程管理、資源監控、資源管理、服務交付為一體的全方位運維平臺,為企業建設安全、高效、智能、綠色的數據中心保駕護航。
困擾運維實施者的幾個難題
在人們享受大數據、云平臺這些新技術架構帶來的便利的同時,應用變革也給運維工作帶來了更多的負擔。
數據中心的規模變得越來越龐大,資源也越來越多樣化、專業化。數據中心對運維的要求不再僅是資源的可用性維護,還要求提供資源安全、數量、性能、容量、軟件環境、資源服務能力等一系列優化方案。尤其是在云計算技術架構下,當IT基礎設施面向用戶虛擬化時,如何從基礎資源類型、數量、性能等多方面滿足用戶需求的變化?如何面對未來用戶業務的擴展變化?怎樣實現靈活支撐、快速響應?這些問題還未被解決。
當軟件通過互聯網向用戶提供SaaS層次的服務時,運營商不僅要向用戶提供硬件資源,還要提供軟件應用。在這種復雜的IT應用架構下,一旦給用戶交付的應用出問題,運維人員需要從邏輯應用層面到物理基礎架構層進行所有資源的故障排查、問題分析,對用戶的軟件資源需求,運維人員也必須能夠基于平臺服務進行快速構建,并對軟件資源的性能、安全、容量等要求提出全面的解決方案。因此,我們必須尋找新的運維模式以適應新的軟件服務方式。
數據中心運維大多由技術人員、設備供貨商和第三方運維人員等多方參與,人員對設備和數據的操作很難做到準確定位、追溯;面對誤操作、違規操作、惡意操作或災難,數據中心包括各類軟硬件資源的備份恢復難以實現。如何規劃好運維工作、約束運維操作的合規性,也是保障數據中心正常運行的關鍵。
智慧運維管理理念
為適應當前數據中心建設和云平臺應用對運維的要求,必須探索一種新的運維模式,希望這個模式使規劃者、建設者、運維者、管理者等相關各方明晰自己的行為規范,減少執行的隨意性,同時為大數據、云平臺應用提供全方面的IT服務。為此,江蘇飛搏提出了“智慧運維”解決方案,基于運維資源數據中心,打造企業IT運維云平臺,實現用戶與運維人員、組織機構、資源之間的互動。
江蘇飛搏認為“智慧運維”必須是能夠靈活適應各類IT資源管理的運維方案,基于該方案的運維軟件產品必須支持對企業各類虛擬資源和其它新型資源的管控,并滿足企業資源變更發展要求。只有這樣,才能適應當前大數據、云平臺等技術不斷滲透的信息化大環境。
為滿足當前數據中心建設體量大、類型多、速度快、價值高的要求,“智慧運維”必須能達到對這種應用模式下事件的快速響應要求。即使在數據中心海量數據服務任務下,也能對其運維工作進行自動分配分解、對服務中的事件智能疏導、對常規運維工作可以批量標準化實施;只有這樣,才能保障數據中心在提供服務時繁而不重、雜而不亂、井然有序。
“智慧運維”解決方案的優勢不僅體現在對各類資源的事后修復上,其優勢更是體現在對整個基礎架構的事先預防上:通過工具可以實現對全局資源信息的采集和資源運行情況的監控,并且在資源服務中斷前進行風險預警,并觸發相應運維流程通知運維人員采取措施防止資源故障發生。
不論是運維工作中因誤操作提出的回滾要求,還是面對災難產生的資源信息庫重建需求,“智慧運維”解決方案都可以對所有關鍵操作進行追溯并快速構建歷史任意時間節點的CMDB數據庫,保障各類IT資源服務的連續性。
InsightView提供IT云服務
InsightView IT運維管理平臺是江蘇飛搏基于數據中心建設和云計算應用模式提出的智慧運維解決方案。該方案提出“一中心,兩平臺”的建設思路,通過SaaS服務的模式向企業提供人員、資源和流程高度整合的一體化運維服務。