在美國俄勒岡州一個叫做普賴恩維爾的小鎮上,坐落著Facebook三個龐大的數據中心,你上傳到Facebook的度假照片,很有可能就儲存在這裡,而這家公司還計劃再建兩個數據中心。在這些比航母還大的廠房裡,成千上萬的電路板一排排陳列在架子上,一直延伸到沒有窗戶的大廳盡頭,距離長到工作人員得騎著滑板車穿過。

Facebook位於瑞典呂勒奧的數據中心。來源:Jonathan Nackstrand/AFP/Getty

這些龐大的建築是新行業之王——信息提供商——的寶庫。按市值計算,當前全球五大公司分別是蘋果、亞馬遜、Alphabet、微軟和Facebook,取代了殼牌和埃克森美孚等巨頭。儘管信息工廠不會噴出滾滾黑煙,也不會有嘎吱作響的齒輪,但不代表它們就不會對環境造成影響。隨著互聯網和手機流量需求暴增,信息產業的能源消耗也將迎來爆炸式增長。

來源:Andrae, A. & Edler

目前,數據中心每年消耗約200 TWh電力,超過伊朗等一些國家全國的電力消耗,不過該電量僅是全球交通用電的一半,也相當於全球電力需求總量的1%(參見「能源規模」)。數據中心佔全球碳排放的0.3%左右,而信息與通訊技術(ICT)生態系統——包含個人數字設備、手機網路、電視在內的寬泛定義——佔全球碳排放的比例達到2%以上。這使得ICT的碳足跡與航空業排放量相當。

未來會發生什麼很難預測。但最令人擔憂的一個模型預測,在今天出生的孩子長成青少年之時,ICT的用電量將超過全球用電量的20%,而其中數據中心佔據1/3以上(參見「能源預測」)。如果計算密集型加密貨幣比特幣持續發展,那麼能源需求的急劇增長可能還要更早一天到來(參見「比特幣之噬」)。

比特幣之噬

自從2008年比特幣誕生以來,人們越來越擔心挖幣會導致能源需求急速上升。虛擬貨幣由礦工挖采,礦工會購買專門的伺服器在不斷擴大的區塊鏈中處理時間密集型計算——區塊鏈可以證明新型加密貨幣的有效性。國際專業服務公司PwC的數據顧問Alex de Vries表示,到2018年中期,全球的比特幣礦工每年或將消耗20 TWh電力,低於數據中心使用的10%,在全球總用電量中占不到0.1%。不過,對於他們的用電量增長有多快的預測是存在爭議的。De Vries估計,到目前為止,比特幣正在吞噬全球至少0.33%的電力,如果加上以太幣等其它加密貨幣,則該數字會升至0.5%。「我覺得這很令人震驚。」De Vries說。但是其他人,包括加州加密貨幣研究員Marc Bevand,都認為這些數字誇張了,它們所基於的是粗糙的假設。Bevand估計,到2019年1月,能源使用量至低會達到Vries當前預估數字的一半。「確實有增長,但大家太誇張了。」加州的一名IT顧問Jonathan Koomey這樣說道,他目前在收集加密貨幣的用電量數據。眼下,比特幣挖礦只在電價便宜的地方有利可圖,其中包括中國、冰島和北美哥倫比亞河沿岸水力發電豐富的地區(Bevand認為這裡所謂的便宜指電價為全球平均水平的一半左右)。當比特幣礦工進入一個地區並對電網造成壓力,能源公司會通過提高費用做出應對。而這可能會促使礦工要麼關閉系統,要麼採取措施大幅提高其硬體或系統冷卻的能耗效率。Bevand說,比特幣可能會遷移到能源密集度較低的區塊鏈系統(正如以太坊正在計劃的那樣)。或者,Koomey指出,「如果比特幣因某種原因而崩潰;所有這些設施都將消失。」Nicola Jones

就目前而言,儘管對數據的需求不斷增長,但是ICT的電力消耗幾乎保持平穩,這是因為互聯網流量和數據負載增加的同時,能源效率也在提高,比如關閉老舊設施,取而代之以像普賴恩維爾鎮上那樣的超高效中心。

不過,這種樂觀的情況可能維持不到10年。美國能源部勞倫斯伯克利國家實驗室的數據中心能效專業中心負責人Dale Sartor說:「現在的趨勢是好的,但無法保證5-10年後是什麼樣。」

隨著能源緊張的未來一步步逼近,學術實驗室的科學家和世界上一些最富有公司的工程師開始探索如何控制ICT行業對環境的影響。他們正在簡化計算流程,轉用可再生能源,研究更好的方法來冷卻數據中心並回收廢熱。

伊利諾伊州西北大學的工程師Eric Masanet表示,必須「嚴密控制」ICT的能源消耗。Masanet是去年國際能源署(IEA)數字化與能源報告的聯合撰寫人。他說,如果我們要未雨綢繆的話,那麼應當控制未來的能源需求。

切換高速道

或許對ICT未來能源需求最令人震驚的預測來自Anders Andrae,他在華為瑞典從事ICT可持續方面的工作。據他預測,到2030年,數據中心用電量將增長15倍左右,達到全球用電量估值的8%。

這些駭人的數字引發了不少爭議。Masanet說:「這些年來,人們對ICT的能量消耗做出了許多聳人聽聞的預測,後來都被證明是杞人憂天。」去年,IEA的報告預測,儘管數據中心工作負載將迎來暴增——2020年達到2014年的3倍——但能效的提升意味著用電需求只會增長3%。有研究人員表示,到2020年,隨著智能手機逐漸取代較大型設備,ICT碳足跡甚至會減少。

在過去5年里,數據中心電力需求大致保持平穩,部分原因在「超大規模數據中心的轉變」——也就是超高效信息工廠的興起。這些工廠採用有組織的統一計算架構,能夠輕鬆擴展數十萬台伺服器。

開放計算項目(Open Compute Project)的首席技術官Bill Carter告訴我們,超大規模數據中心大約10年前出現,當時亞馬遜和谷歌等公司對伺服器的需求開始超過25萬台,甚至更多。在那時候,遵循常規的做法,使用計算公司現有的硬體毫無意義。

「你有機會層層簡化直到剛好達到你所需要的程度,使之特適於你的應用。」Carter說。新的超大規模數據中心專門設計了准系統伺服器。「因為沒有視頻監視器,我們去除了視頻連接器;因為沒有人在機架上走,我們取消了閃爍的燈光。伺服器上也沒有螺絲釘。」Carter說道。平均而言,超大規模數據中心的一台伺服器相當於傳統中心的3.75台。

信息和通訊科技佔全球碳排放的2%以上。來源:SVTeam/Getty

超大規模數據中心節省的成本可以從它們的電力使用效率(PUE)中得知,PUE也就是所有運作所需要的電力——包括燈和冷卻系統,除以計算的電力消耗(1.0的PUE是一個完美的分數)。傳統數據中心的PUE一般是2.0;超大規模數據中心將這個數字砍到大約1.2;而谷歌的所有中心,都達到傲人的1.12。

老舊或技術落後的數據中心設備混雜,可能很難優化——其中一些設備甚至已經無用了。2017年,來自加州的一名IT顧問兼領先的國際IT專家Jonathan Koomey和一位同事一起,調查了藏在企業壁櫥和地下室的16000多台伺服器,發現其中1/4是「殭屍」,一邊耗電,一邊什麼作用也沒派上——或許只是因為某個人忘記把它們關掉。「這些伺服器待在那兒什麼也不做,光耗電,這太過分了。」Koomey說。

在2016年的一份報告中,勞倫斯伯克利國家實驗室估計,如果美國小型數據中心80%的伺服器遷移到超大規模數據中心,那麼將節省25%的能耗。這項工作已經在推進中。

今天,全世界大約有400座超大規模數據中心,其中許多為小公司或大學提供服務,過去,這些機構都是有自己的伺服器的。目前,超大規模數據中心佔全世界數據中心電力用量的20%。IEA稱,到2020年,這一比例將達到近50%(參見「超大規模數據中心轉變」)。

來源:IEA

冷熱之戰

當超大規模數據中心的負載達到極限後,想要再進一步提升效率就難了。但企業仍在不斷努力。比如有一項新興的管理技術,可以確保伺服器儘可能長期地處於全負荷狀態,而其它的則處於關閉而不是閑置狀態。

Facebook開發了一個叫做Autoscale的系統,能夠減少低流量時間所需伺服器的數量;該公司在2014年的一份報告中指出,試驗顯示,這一系統減少了約10%-15%的用電量。

超大規模數據中心之所以能夠讓PUE降下來,一個重要方法是解決冷卻問題。在傳統數據中心,標準空調裝置的電費支出要佔到40%。而冷卻塔——也就是通過蒸發水來冷卻空氣——卻會導致另一個環境問題:水消耗。據估計,2014年美國的數據中心使用了大約1000億升水。棄用脫壓縮冷卻器和冷卻塔,既節省能源,也節省水。

一種流行的解決方案是將數據中心設在氣候涼爽的環境中,讓外部的空氣吹進去。這類數據中心不需要處於冰冷地區,普賴恩維爾已經足夠涼爽,能夠利用所謂的「自然空氣冷卻」,許多其它數據中心的選址也是如此,IBM研究院的物理學家Ingmar Meijer說道。

在谷歌位於俄勒岡州的數據中心,藍色管道輸送冷水,紅色管道輸送需要冷卻的溫水。來源:Connie Zhou/Google/Zuma

自來水是更好的熱導體,數據中心可以用溫水來冷卻,這樣冷卻系統中生產和再循環消耗的能量較少。即便是在溫帶氣候下,溫水冷卻也已經成為管理運行速度快、易熱的高性能計算機冷卻的不二選擇,包括美國能源部的實驗室和巴伐利亞科學院位於德國的SuperMUC超級計算機。

溫暖氣候區的商業數據中心有時也會投資這些系統,比如eBay位於亞利桑那州鳳凰城的Project Mercury數據中心。

對於高密度、高功率計算,最高效的方法是將伺服器浸入非導電石油或礦物中。Facebook在2012年曾嘗試這樣做,以維持伺服器的高速運轉但避免其過度發熱。Meijer說,目前浸入式冷卻是一項維護起來非常棘手的專業領域。

2016年,谷歌指派DeepMind人工智慧研究團隊調整公司數據中心的冷卻系統,以適應天氣和其它因素。谷歌表示,在測試中,團隊減少了40%的電力用費,創造出了「測試數據中心有史以來最低的PUE」。今年8月,谷歌宣布部分數據中心的冷卻系統採用其人工智慧演算法。

Carter說,探索創新的冷卻方案,並降低現有冷卻方案的成本,在未來幾年內會變得非常重要,「當我們連接世界時,會有地方無法享受自然空氣冷卻。」他指的是非洲和南亞。同時,其它方面的發展會以新的方式對IT基礎架構造成重壓。

舉例而言,如果自動駕駛汽車湧上街頭,用於幫助這些汽車通訊和處理數據的移動信號塔的小型伺服器將需要能夠實時處理AI工作負荷的高功率設備,也需要更好的冷卻系統。

今年,開放計算項目(Open Compute Project)啟動了一個先進冷卻項目,旨在提升高效冷卻系統的易用性。Carter說:「這些超大規模數據中心已經找到解決方案了,它們效率非常高,我們正在努力幫助其他人。」

來源:IEA/A. Andrae

與提高冷卻系統效率相輔相成的,是利用伺服器廢熱,這樣就能夠節省其它地方的電力需求。「這就像一筆免費資源。」IBM研究員Patrick Ruch說。舉幾個例子:巴黎的Condorcet數據中心將其廢熱直接送到旁邊的氣候變化植物園,那裡的科學家研究的是高溫對植物的影響。

在瑞士,IBM的一個數據中心還給附近的游泳池加溫。不過,熱不能很好地傳輸,所以廢熱利用往往局限於靠近數據中心的客戶,或是本身就使用管道熱水給家庭供暖的城市。

數據中心分散在各個地方,能夠使廢熱得到更廣泛的利用,包括嘗試將其轉化為電力。也有些地方想用廢熱來運行冷卻設備,比如IBM投資200萬美元的THRIVE項目,正在開發可以更好地吸收水蒸氣並在受熱時釋放的全新材料,以便打造出更高效的「吸附式熱泵」,給數據中心降溫。

電力戰

歸根究底,數據中心的能力取決於它們的處理器——而處理器是有升級空間的。自上世紀40年代起,計算機消耗每千瓦時電力所能達到的運行次數峰值大約每1.6年翻一番,平均值每2.6年翻一番。也就是說,50年來提升了100億倍。根據Koomey的計算,從某種程度上說,自2000年以來,計算機的提升速度已經放緩,而當前一代計算將在幾十年內遇到限制晶體管功能的物理障礙。

「我們正面臨提升速度放緩的限制。」Koomey說。他認為今後要實現較可觀的效率提升,需要在硬體構建和計算方面進行變革:可能通過轉向量子計算。 「這基本上不可能預測。」Koomey說。

雖然核心重點是減少ICT的能源消耗,但值得注意的是,信息產業也能讓我們在其它地方的能源利用更加智能和高效。

IEA指出,如果所有的車輛都自動化,那麼存在這樣一種烏托邦式的可能性,即交通流量變穩和拼車變容易將使交通業總能源需求減少60%;建築物佔過去25年全球電力需求增量的60%,在提高能效方面存在巨大的進步空間:基於建築感測器和天氣預報的智能供暖和製冷,可以減少建築物未來10%的能源需求。

布魯塞爾的一個行業協會——全球電子可持續發展倡議(Global e-Sustainability Initiative)的主管Chiara Venturini估計,IT行業目前的碳足跡減少了1.5倍,到2030年這一數字可接近10。

ICT還可以通過用可再生能源替代化石燃料的方法,減少全球碳排放。2010年,環境保護組織綠色和平(Greenpeace)發布了首份ClickClean報告,該報告對主要公司進行了排名,並重點關注了IT造成的環境負擔。

2011年,Facebook承諾將使用100%可再生能源;2012年,谷歌和蘋果緊跟Facebook步伐。2017年,近20家互聯網公司採取了相同的做法(不過,中國互聯網巨頭百度、騰訊和阿里巴巴並沒有效仿)。

早在2010年,IT公司對能源公司的可再生能源購買協議貢獻微不足道;而到了2015年,它們的貢獻率已經達到一半(參見「綠色增長」)。谷歌是全球最大的可再生能源採購企業。

來源: IEA

減少對數據的需求或許是防止能源消耗無限增長的終極辦法。但恐怕很少有人同意,比如少看一會兒Netflix(Netflix佔到美國互聯網流量的1/3)。英國諮詢工程師、數據中心專家Ian Bitterlin表示,僅在手機上禁用高清彩色攝像頭就可以將歐洲的數據流量減少40%。但他補充說,誰也不敢制定這樣的政策,「我們沒法把潘多拉的盒子再蓋上,但我們可以減少數據中心用電。」?

Nature|doi:10.1038/s/d41586-018-06610-y

How to stop data centres from gobbling up the world』s electricity?

www.nature.com

原文發布在2018年9月12日《自然》新聞特寫上,作者:Nicola Jones


版權聲明:

本文由施普林格·自然上海辦公室負責翻譯。中文內容僅供參考,一切內容以英文原版為準。歡迎轉發至朋友圈,如需轉載,請郵件[email protected]。未經授權的翻譯是侵權行為,版權方將保留追究法律責任的權利。

? 2018 Springer Nature Limited. All Rights Reserved


推薦閱讀:
查看原文 >>
相关文章