国产一级一区二区_segui88久久综合9999_97久久夜色精品国产_欧美色网一区二区

掃一掃
關注微信公眾號

2024看得見的未來:數據中心行業十大發展趨勢
2024-01-29   網絡安全和運維

  2023年,我們見證了人工智能(AI)的爆發,它正在改變人們的工作、生活、以及與技術交互的方式。以ChatGPT為代表的生成式AI也因其顯著的進步和廣泛的應用,在去年引起了極大的關注。隨著人工智能的不斷發展和成熟,將有可能徹底改變從醫療保健、金融、生產制造到交通、娛樂等眾多行業。市場對人工智能的巨大需求推動了新的芯片和服務器技術的發展,這些變化將對數據中心的建設、電力需求、水資源消耗、供配電和制冷技術與架構帶來顛覆性的挑戰。如何應對這些挑戰,將在新的一年成為行業備受關注的議題。

  作為數據中心、行業關鍵應用領域基礎設施建設和數字化服務的全球領導者,自2018年起,施耐德電氣已經連續第7年在年初發布《看得見的未來—數據中心行業的新趨勢與新突破》系列洞察,開創了行業趨勢前瞻解讀先河,并持續引領未來變革方向,為數據中心行業注入強勁發展動力。立足深刻的行業洞察和實踐,施耐德電氣致力于揭示新一年數據中心行業會發生哪些變化,這些變化和趨勢對數據中心運營商的價值和意義,以及對這些行業變化的看法和價值主張。以下是施耐德電氣全球數據中心科研中心對2024年發展趨勢的預測。

  趨勢一:智算中心將引領數據中心建設


  過去十年,云計算一直是推動數據中心建設與發展的主要驅動力,目的是為社會提供數字化轉型所需的通用算力。但是,AI的爆發帶來了巨大的算力需求,為了滿足AI大模型的訓練和應用推理,我們需要建設大量的智算中心。施耐德電氣根據全球數據中心的用電量,GPU芯片和AI服務器未來的出貨量等數據,估算出全球智算中心目前的電力需求為4.5 GW,占數據中心總57 GW的8%,并預測到2028年它將以26%-36%的年復合增長率增長,最終達到14.0 GW至18.7 GW,占總93 GW的15%-20%。這一增長速度是傳統數據中心年復合增長率(4%-10%)的2到3倍。算力的分布也會由現在的集中部署(集中vs.邊緣為95%:5%)向邊緣遷移(50%:50%),這意味著智算中心將引領數據中心建設的潮流。根據工信部的規劃,我們國家智能算力的占比將在2025年達到35%,年均復合增長率在30%以上。施耐德電氣認為相較于傳統數據中心,智算中心的建設需要在確保高能效和高可用的前提下,實現可持續發展和更具前瞻性,也就是最小化對環境的影響,尤其需要提高適應性來滿足未來IT技術(高功耗的芯片和服務器)的需求。

  趨勢二:AI將推動機柜功率密度驟升


  機柜功率密度對數據中心的設計與造價具有較大的影響,包括供配電、制冷以及IT機房的布局等,一直都是數據中心比較關注的設計參數之一。Uptime過去幾年的調研結果顯示,服務器機柜的功率密度正在穩步但緩慢地攀升。機柜的平均功率密度通常低于6千瓦,大多數運營商沒有超過20千瓦的機柜。造成這一趨勢的原因包括摩爾定律使芯片的熱設計功耗維持在相對較低的水平(150瓦),同時高密服務器通常被分散部署在不同的機柜以降低對基礎設施的要求。但AI的爆發將改變這一趨勢,施耐德電氣研究發現,用于訓練的AI機柜功率密度可以高達30-100千瓦(取決于芯片的類型和服務器的配置)。而造成這一高密的原因是多方面的,包括快速提升的CPU/GPU熱設計功耗,CPU為200-400瓦,GPU為400-700瓦,未來還會進一步升高;AI服務器的功耗通常在10千瓦左右,由于GPU是并行工作的,AI服務器需要以集群的方式緊湊部署,以降低芯片和存儲之間的網絡時延。機柜功率密度的陡增將給數據中心物理基礎設施的設計帶來巨大挑戰。

  趨勢三:數據中心正在從風冷向液冷過渡


  風冷一直都是數據中心IT機房冷卻的主流方式,如果設計得當,可支持十幾個千瓦甚至更高的機柜功率密度。但隨著對AI訓練性能的不斷追求,開發人員不斷提高芯片的熱設計功耗,對這些芯片進行風冷變得不切實際。雖然一些服務器供應商通過重新設計芯片的散熱器、增加服務器風量以及進出風溫差,以不斷突破風冷技術的極限,配置40-50千瓦風冷型的AI機柜,但這會使風扇的功耗呈指數級增加。例如,AI服務器風扇可以消耗高達25%的服務器功率,但傳統服務器的典型值只有8%。施耐德電氣認為芯片的冷卻才是液冷的主要驅動力,20千瓦機柜功率密度是風冷和液冷相對合理的分界線。當AI機柜功率密度超過這一數值時,應重點考慮采用液冷服務器。相較于風冷,液冷還帶來了諸多好處,包括處理器可靠性和性能提升、能源效率提升、用水量減少以及噪音水平降低等等。目前,對于高密的AI服務器,供應商通常提供風冷和液冷兩種方案,但對于下一代GPU,液冷將是唯一選擇。

  趨勢四:配電的安全可靠在智算中心更加重要


  對于傳統數據中心,不同工作負載同時達到峰值的概率極低。比如,典型的大型數據中心峰均比通常在1.5-2.0或更高。但在智算中心,由于AI訓練負載缺乏變化(峰均比接近1.0),工作負載可以在峰值功率下,運行數小時、數天甚至數周。其結果是增加了上游大型斷路器脫扣的可能性,以及宕機的風險。同時,由于機柜功率密度的升高,需要采用更高額定電流值的斷路器、列頭柜、小母線等。而在電阻變小的同時,可以通過的故障電流也就更大,這意味著IT機房出現拉弧的風險也會升高,保證該區域工作人員的安全是必須解決的難題。施耐德電氣建議在設計階段采用模擬軟件對電力系統進行弧閃風險評估,分析可產生的故障電流,并且對可靠性進行分析,以便為特定場地設計最佳解決方案。這項研究必須從中壓開關柜分析至機柜層面,同時建議如果新建數據中心IT機房的AI訓練工作負載超過60-70%,需要根據下游各饋線斷路器的總和來確定主斷路器的大小,設計時不再考慮同時系數。

  趨勢五:標準化將成為液冷推進的關鍵


  冷板式液冷和浸沒式液冷是數據中心液冷的兩種主流方式。究竟選擇哪種液冷方式以及如何實現快速部署一直都是行業熱議的話題。隨著越來越多AI服務器采用冷板式液冷,冷板式液冷也更容易與傳統的風冷系統兼容,受到很多數據中心運營商的青睞。但是服務器廠家液冷的設計方式多種多樣,快速接頭、盲插和Manifold的兼容性存在諸多問題,IT與基礎設施的責任邊界也模糊不清,這大大限制了液冷在數據中心的接受度和推廣。相較于冷板式液冷,采用碳氟化合物流體的浸沒式液冷不僅價格相對較高,而且很多碳氟化合物屬于對環境有害的人工合成類化學物質,面臨越來越多的行業監管與政策壓力。因此,浸沒式液冷除了采用油類冷卻液,可用的碳氟化合物流體將越來越少。施耐德電氣建議IT廠家提供更為標準化的設計方案,包括流體的溫度、壓力、流量、設備的接口等,并且提供更加明確的責任邊界。施耐德電氣將在第一季度發布液冷白皮書,來幫助數據中心更好地部署液冷技術。

  趨勢六:數據中心將更加關注WUE


  水資源短缺正在成為許多地區的嚴重問題,了解和減少數據中心的水資源消耗變得越來越重要。此前,數據中心水資源消耗未被重視的一個重要原因是用水成本相對用電通常是微不足道的,甚至很多數據中心通過消耗更多的水來提高能效。但是,數據中心的用水已經引起了很多當地政府的關注,尤其在水資源匱乏的地區,政府正在出臺各項政策來限制和優化數據中心的用水。這其中包括將WUE作為數據中心的設計指標,采用水電雙控政策。因此,減少用水量將成為許多數據中心運營商未來關注的重點領域。施耐德電氣通過對數據中心行業用水量的研究,認為數據中心的WUE值在0.3-0.45 L/kWh之間是一個相對優秀的數值。施耐德電氣建議根據數據中心所在地域水資源情況、氣候情況和數據中心類型,尋找用電與用水之間的平衡。行業可以采用絕熱蒸發、間接蒸發冷卻、液冷等各種技術創新,從而減少直接用水量。數據中心運營商應將WUE作為可持續發展目標的一部分,報告用水量/節水量,同時關注用電所帶來的間接用水量。

  趨勢七:提升配電能力將成為智算中心新的訴求


  在智算中心,隨著機柜功率密度的提升以及AI機柜的集群化部署,IT機房的配電面臨額定容量偏小的挑戰。比如,過去一個300 kW的配電模塊可以支持幾十臺甚至是上百臺機柜。而如今,同樣配電模塊的電量甚至無法支持一個最低配置的NVIDIA DGX SuperPOD AI集群(單排358 kW的10個機柜,每機柜36 kW)。配電模塊規格太小,使用多個配電模塊不僅浪費IT空間,也變得不切實際。與單個大容量配電模塊相比,多個配電模塊還會增加成本。回歸配電的本質,提高配電容量的主要手段就是增大電流。施耐德電氣建議在設計時應選擇規格足夠高的配電模塊,實現彈性部署,從而適應未來的配電需求,以至少支持一整排集群為準。比如,在額定電壓下,800 A的配電模塊是目前適用于所有三種配電類型(PDU,RPP和母線)的標準容量尺寸,可提供576千瓦(降容后為461千瓦)。對于末端配電可以使用小母線,從而避免了定制大于63 A額定電流的機柜PDU。在空間允許的情況下,可以使用多個標準化的機柜PDU作為過渡。

  趨勢八:AI將賦能數據中心的節能改造


  數據中心通過提供AI算力推動人類社會向著自動化、數字化和電氣化等更加可持續的方向演進,賦能交通、制造和發電領域減少對環境的影響。反過來,AI也可以賦能數據中心能源的優化,來減少其自身對環境的影響。比如,AI和機器學習技術可以用于數據中心冷源系統和空調末端的控制,通過對歷史數據的分析,實時監測數據中心氣流分布,并基于數據中心IT負載的變化,實時匹配合適的冷量輸出。通過自動調節末端精密空調及風機的運轉方式,從而實現動態地按需制冷,以減少熱點并且降低機房的能源消耗與運維成本。施耐德電氣認為AI技術在機房空調群控系統中的應用,可以實現機房內部環境參數的智能監測和控制,并通過自動調節與優化來提高能效和系統的可靠性,從而達到節能減排的目的。隨著AI技術的持續普及,以及國家對數據中心節能降耗的持續要求,無論是新建還是改造項目,AI技術在數據中心空調群控系統中均將得到更多的關注與應用。

  趨勢九:配電系統的占地面積將引關注


  在數據中心設計中,追求IT機房面積占比的最大化,即盡可能減少輔助設備間的占地面積,一直都是數據中心設計的主要訴求之一。對于傳統的數據中心,IT機房的面積與配電室的面積之比通常為1.5:1左右。隨著AI驅動IT機柜的高密化,越來越多的IT機房采用液冷方式,液冷IT機房的面積與配電室的面積之比將發生逆轉,在0.6:1左右。這時,配電室的占地面積將引起數據中心設計人員的更多關注,優化配電室的占地面積也必將成為行業的一個發展方向。施耐德電氣認為在更小的占地面積內,提高配電和電源設備的供電容量是有效的途徑之一。比如,減小UPS系統的占地面積,包括采用更高功率電源模塊的模塊化UPS,實現兆瓦級單柜功率;同時采用鋰電池取代鉛酸蓄電池,可以將電池間的占地面積減少40-60%。集中部署供配電設備(比如:電力撬塊)也可以減少配電間的占地面積;采用體積緊湊的模塊化配電柜和池化柴油發電機等應急電源也是有效的手段。

  趨勢十:儲能系統在數據中心的價值日益凸顯


  UPS系統在實現數據中心電能質量治理和不間斷供電方面一直發揮著重要的作用。隨著數據中心運營商面臨著提高可持續性和財務績效,同時保持或增強供配電系統的可靠性和彈性的壓力,新的能源存儲和發電技術提供了新的可能性,但也對傳統數據中心運營模式和電氣架構提出了挑戰。電池和燃料電池等分布式能源技術能夠有效產生或存儲清潔能源。儲能系統除提供傳統UPS系統功能外,還可以通過在用電高峰時釋放存儲的能量來管理電力需求高峰,實現扛峰增載;通過削峰填谷,降低數據中心用電成本,來實現能源成本優化;同時參與電網的需求響應,實現創收。施耐德電氣認為數據中心實現可持續發展,需要降低能源成本,充分利用擱淺的資產,減少對柴油發電機的依賴,并保持獨立于電網的業務彈性,這些需求為儲能系統在數據中心的采用創造了更多有效的應用場景與價值。隨著鋰電池儲能系統價格的不斷下降和電氣架構的創新,數據中心可以通過微網系統提供對能源供應的更大控制權和自主權;在沒有微網的情況下,也可以通過部署儲能系統來獲得競爭優勢。

  進入2024年,數據中心行業的重點將從傳統數據中心建設轉向智算中心建設,通過不斷的技術創新來實現智算中心的可持續發展與適應下一代IT技術是關鍵所在。

  以上對新興趨勢的預測來自施耐德電氣全球數據中心科研中心,該部門設立于上個世紀九十年代。科研中心始終以“探索數據中心行業的技術和發展趨勢,倡導最佳實踐”為團隊使命,通過發表通俗易懂的白皮書和權衡工具助力數據中心用戶提高可用性和優化能效,賦能數據中心的可持續發展,最大化數據中心的商業價值。截至2023年,施耐德電氣科研中心團隊已經發表白皮書230余篇,每年有超過40萬的下載量;權衡工具30個,每年有超過2萬用戶在線使用。所有白皮書和權衡工具都免費提供給整個行業學習和使用,在推動數據中心行業的發展的同時充分印證了施耐德電氣在數據中心行業思想領袖的地位。

熱詞搜索:數據中心 發展趨勢

上一篇:算力進化 數字開物——第十八屆中國IDC產業年度大典盛大召開
下一篇:最后一頁

分享到: 收藏
国产一级一区二区_segui88久久综合9999_97久久夜色精品国产_欧美色网一区二区
国产精品系列在线播放| 国产在线播精品第三| 午夜久久影院| 久久久久久夜| 一区二区三区视频在线| 亚洲色在线视频| 欧美影院在线| 久久精品在线观看| 欧美精品一区二| 国产精品久久午夜夜伦鲁鲁| 国产精品扒开腿做爽爽爽视频| 欧美日韩天堂| 狠狠色丁香婷综合久久| 亚洲欧洲一区二区天堂久久| 日韩图片一区| 另类av一区二区| 国产午夜精品一区二区三区视频| 一区二区三区在线高清| 欧美亚洲专区| 国产精品久久精品日日| 亚洲午夜电影在线观看| 欧美美女日韩| 亚洲国产小视频| 麻豆乱码国产一区二区三区| 国产精品超碰97尤物18| 亚洲精品色婷婷福利天堂| 国产麻豆精品在线观看| 国产美女在线精品免费观看| 亚洲国产毛片完整版| 久久精品一区二区国产| 国产一区亚洲| 久久中文精品| 国内精品99| 久久久久网站| 国产视频久久久久久久| 欧美与黑人午夜性猛交久久久| 国产精品理论片在线观看| 一区二区三区成人精品| 国产精品乱看| 久久久久9999亚洲精品| 亚洲国产精品成人一区二区| 欧美成人午夜激情视频| 一区二区三区高清不卡| 国产欧美短视频| 免费成人毛片| 亚洲丰满少妇videoshd| 久久久久久欧美| 亚洲每日在线| 国产一区二区三区免费观看| 欧美福利一区二区三区| 亚洲欧美日韩一区二区三区在线观看| 欧美图区在线视频| 在线视频日韩精品| 国产欧美日韩麻豆91| 免费观看日韩| 亚洲欧美日韩一区在线观看| 伊人精品成人久久综合软件| 欧美片第1页综合| 久久精品99久久香蕉国产色戒| 亚洲人成在线免费观看| 国产日韩一区二区三区| 国产精品99免视看9| 欧美不卡福利| 久久夜色精品国产亚洲aⅴ| 亚洲一区二区三区777| 亚洲国产日韩欧美在线动漫| 国产精品乱人伦一区二区| 欧美高清在线| 麻豆成人在线播放| 久久精品综合| 久久精品一区中文字幕| 久久精品国产视频| 夜色激情一区二区| 欧美一区二区在线视频| 亚洲欧美日韩精品一区二区| 亚洲视频狠狠| 亚洲欧美日韩精品一区二区| 欧美一级夜夜爽| 欧美在线亚洲综合一区| 午夜视频一区二区| 欧美中文字幕不卡| 美女久久一区| 欧美色精品天天在线观看视频| 欧美激情国产日韩| 国产精品久久久久天堂| 国产午夜精品美女毛片视频| 国产日韩欧美二区| 国内外成人在线| 亚洲区国产区| 午夜久久久久久| 欧美国产在线视频| 国产视频久久| 亚洲片在线观看| 久久av在线看| 国产精品久久久久久久7电影| 国产亚洲欧美日韩日本| 亚洲东热激情| 久久成人18免费观看| 欧美精品激情在线观看| 国产偷久久久精品专区| 日韩视频中午一区| 美女视频黄 久久| 国产综合精品| 亚洲欧美一级二级三级| 欧美久久精品午夜青青大伊人| 狠狠狠色丁香婷婷综合久久五月| 亚洲欧美日韩国产中文| 欧美午夜精品理论片a级大开眼界| 国产欧美亚洲一区| 欧美在线视频免费| 国产亚洲激情在线| 欧美在线资源| 韩国欧美国产1区| 久久亚洲国产精品一区二区 | 国产精品任我爽爆在线播放| 亚洲高清在线观看| 久久在线免费观看| 国产日韩欧美亚洲| 性色一区二区三区| 国产亚洲日本欧美韩国| 久久都是精品| 亚洲在线免费视频| 欧美激情一区二区三区成人| 亚洲国产精品成人综合| 欧美激情一区二区三区不卡| 亚洲经典三级| 国产精品亚洲一区| 欧美1区视频| 亚洲午夜一区二区三区| 国产亚洲一区二区三区在线观看| 久久久精品网| 亚洲国产婷婷综合在线精品| 欧美欧美天天天天操| 欧美一级淫片aaaaaaa视频| 永久免费精品影视网站| 国产精品二区影院| 欧美在线91| 国产一区二区主播在线| 久久综合国产精品| 在线性视频日韩欧美| 国产精品嫩草影院av蜜臀| 久久免费偷拍视频| 亚洲欧美日韩另类| 一本大道av伊人久久综合| 尤妮丝一区二区裸体视频| 欧美区视频在线观看| 老牛影视一区二区三区| 性欧美长视频| 亚洲色诱最新| 一区二区三区日韩在线观看| 在线观看一区二区视频| 国内精品伊人久久久久av一坑| 国产精品亚洲第一区在线暖暖韩国| 欧美日韩一区二区在线观看| 美女黄色成人网| 免费亚洲一区二区| 久久婷婷综合激情| 久久久久久久综合色一本| 亚洲女性裸体视频| 性视频1819p久久| 新67194成人永久网站| 亚洲欧美乱综合| 亚洲视频精品| 欧美亚洲网站| 亚洲春色另类小说| 99国产精品视频免费观看| 99re6这里只有精品| 99re亚洲国产精品| 亚洲午夜电影| 欧美一区二区在线播放| 欧美在线亚洲| 久久综合给合久久狠狠狠97色69| 欧美一区在线直播| 欧美a级片网| 欧美网站在线观看| 国产精品久久久久av| 国产精品va在线播放| 日韩亚洲欧美成人一区| 国产欧美日韩免费| 国产精品美女久久| 伊人婷婷欧美激情| 99热精品在线| 久久久999精品| 欧美激情视频在线播放 | 亚洲视频在线一区观看| 一区二区冒白浆视频| 亚洲精品小视频| 久久动漫亚洲| 欧美系列一区| 夜夜嗨av一区二区三区| 午夜精品久久久久久久99樱桃 | 国产精品成人免费视频| 国一区二区在线观看| 亚洲桃色在线一区| 欧美激情久久久| 狠狠爱综合网| 久久一区免费| 国内免费精品永久在线视频| 国产精品第一页第二页第三页| 狠狠色狠狠色综合|