⑴ 釋放邊緣算力 點燃智慧場景 聯想發布邊緣伺服器ThinkServer SE550 V2
據IDC數據顯示,過去一年,中國邊緣計算伺服器市場爆發式增長了266.3%,這意味著當前中國企業的IT架構正在邁向一個雲網融合、混合多雲、邊緣計算等多架構並存的全新階段。為幫助企業更好的應對數字化轉型下的架構變革,7月18日聯想正式發布全新邊緣伺服器ThinkServer SE550 V2,這款雙路2U邊緣伺服器具備強大的計算性能和豐富的擴展能力,能夠為企業邊緣端應用和場景提供專業計算平台支持。
聯想ISG中國戰略及運營高級總監、智能邊緣中國事業部總經理楊春表示:「邊緣計算將在企業未來的數字化轉型中發揮關鍵作用。聯想正在將邊緣計算業務上升到公司戰略高度,致力於成為行業領先的邊緣計算方案提供商。聯想ThinkServer SE550 V2邊緣伺服器憑借強大的性能、豐富的擴展能力和穩定的可靠性,能夠釋放邊緣端的強大算力,點燃邊緣人工智慧、邊緣網路、邊緣雲、邊緣加速等典型應用的智慧場景。」
近年來隨著人工智慧、5G、物聯網等信息技術的不斷發展,海量的數據被逐漸釋放,僅依靠傳統集中式的雲計算架構難以解決企業低延時、本地化、高頻次的計算需求。而邊緣計算技術由於融合了邊緣側計算、存儲、網路能力,能夠在數據產生端就近提供邊緣智能服務,從而滿足用戶和行業數字化所面臨的敏捷鏈接、實時業務、智能應用、數據安全等關鍵需求,因此受到了眾多企業的青睞。據Gartner預測,到2025年,約75%的企業數據將不通過數據中心,而是直接在邊緣進行計算。
目前,我國智能製造、智慧零售、智慧園區、智慧城市等行業的智能化轉型正在加速,這些復雜的場景對邊緣計算設備的性能要求極高。比如在智能製造領域,利用邊緣伺服器作為載體,將機器視覺運用到產品質檢過程中,智能實時處理海量圖片數據,能夠實現生產線的管理優化。作為計算平台的核心硬體之一,能夠應對復雜多樣的業務需求,面向特定場景的邊緣伺服器應運而生。
聯想ThinkServer SE550 V2邊緣伺服器不僅滿足運營商OTII邊緣伺服器的眾多標准,配合聯想「端-邊-雲-網-智」的全要素能力,還能為用戶提供從軟體到硬體的整套解決方案。聯想ThinkServer SE550 V2支持最多兩顆Intel Xeon 第三代可擴展處理器,每個處理器數量最多32核,並且支持NVIDIA專業GPU,為邊緣人工智慧的場景應用提供強大算力支持。此外,聯想ThinkServer SE550 V2也可像普通2U機架式伺服器一樣,為用戶的虛擬化、資料庫、雲計算和AI等應用場景提供強大的算力支撐。
聯想ThinkServer SE550 V2實現了便攜性與擴展性的平衡。聯想ThinkServer SE550 V2採用短機箱設計,相比傳統機架式伺服器能夠節省部署空間。同時,聯想ThinkServer SE550 V2支持16個DDR4內存插槽,內存頻率最高可支持到3200 MHz,整機內存最大可擴展到1TB。在硬碟容量方面,聯想ThinkServer SE550 V2最多支持八個2.5英寸熱插拔硬碟,最多兩個內置M.2高速固態硬碟,配合Lenovo Anybay技術,可在同一驅動器托架內靈活混搭SAS/SATA/NVMe硬碟,實現靈活擴展。
相比雲端伺服器,邊緣伺服器需要深入各類行業使用場景,應對不同的溫度、工業環境等需求對產品進行設計和優化。基於聯想在伺服器領域多年的技術積累和品質追求,聯想ThinkServer SE550 V2對可能存在的極限場景進行了針對性提升——通常產品工作溫度范圍為常溫,而聯想ThinkServer SE550 V2支持寬溫使用,能夠在45 高溫中保持長期高效運行。同時,聯想ThinkServer SE550 V2還通過了地震烈度測試,能夠保證在極端情況下的數據安全和使用穩定。
邊緣計算是聯想重點聚焦和投入的核心技術領域之一,不久前聯想正式成立智能邊緣事業部,基於對產業趨勢的洞察和用戶需求的研究,聯想正式發布智能邊緣計算品牌「慧天」。同時,聯想將充分整合其在邊緣計算領域的硬體、軟體、方案及服務,致力於成為業界領先的全棧式智能化邊緣計算方案提供商。目前,聯想已為智能製造、智慧城市、智慧園區、智慧教育、智慧醫療、智慧金融等領域的眾多企業提供智能邊緣計算服務。
在「 科技 賦能中國智能化轉型」的願景下,聯想中國區基礎設施業務群將繼續圍繞「1248」戰略全景,在邊緣計算領域持續攻堅,打磨成熟的邊緣計算解決方案,為千行百業客戶提供綠色、敏捷、高效的「新IT」智能架構,助力中國企業邁向數字化轉型新階段。
⑵ 谷歌TPU是什麼意思 專為人工智慧打造的算力神器
說起人工智慧,大家一定都會有所耳聞,其實各個企業或者國家之前關於人工智慧的競爭,歸根到底是演算法和算力的競爭,這篇文章就跟大家聊聊谷歌專為人工智慧開發的TPU!
TPU項目開始於2014年,簡單來說兩個原因: 1. 計算任務不同了, 深度神經網路開始興起,矩陣乘加成為重要的計算loading。 2. CPU和GPU太貴了,Google需要找便宜的方法,要降低TCO。所以要自己搞晶元的想法就出來了。
簡單地說,它是谷歌在2015年6月的I/O開發者大會上推出的計算神經網路專用晶元,為優化自身的TensorFlow機器學習框架而打造,主要用於AlphaGo系統,以及谷歌地圖、谷歌相冊和谷歌翻譯等應用中,進行搜索、圖像、語音等模型和技術的處理。
區別於GPU,谷歌TPU是一種ASIC晶元方案。ASIC全稱為Application-Specific Integrated Circuit(應用型專用集成電路),是一種專為某種特定應用需求而定製的晶元。但一般來說,ASIC晶元的開發不僅需要花費數年的時間,且研發成本也極高。
對於數據中心機房中AI工作負載的高算力需求,許多廠商更願意繼續採用現有的GPU集群或GPU+CPU異構計算解決方案,也甚少在ASIC領域冒險。
實際上,谷歌在2006年起就產生了要為神經網路研發一款專用晶元的想法,而這一需求在2013年也開始變得愈發急迫。當時,谷歌提供的谷歌圖像搜索、谷歌照片、谷歌雲視覺API、谷歌翻譯等多種產品和服務,都需要用到深度神經網路。
在龐大的應用規模下,谷歌內部意識到,這些夜以繼日運行的數百萬台伺服器,它們內部快速增長的計算需求,使得數據中心的數量需要再翻一倍才能得到滿足。然而,不管是從成本還是從算力上看,內部中心已不能簡單地依靠GPU和CPU來維持。
神經網路演算法一直在演變和發展,這套方法的理論還不成熟,應用場景也會在未來幾年發生巨大的變化。大家可以想像一下安防、無人機、智慧大樓、無人駕駛,等等等等。每一個子領域都有 系統/功耗/性能 一系列問題和各種權衡。一方面,是演算法多變的情況下,如何發掘計算的內在並行性,又給上層程序員提供一個高效的編程介面,是一個很重要很實際的問題。
綜合以上信息,TPU是谷歌搞出來的一個專用晶元,國內的晶元公司在搞ASIC挖礦,谷歌在搞ASIC訓練人工智慧,如果之後人工智慧在各個領域發力,tpu也表現良好的話,以後的電腦上說不定就得加上這個硬體!
⑶ 請問一下浪潮AI的算力系統咋樣
浪潮AI的算力平台敏捷、可靠、靈活,適用性比較高,目前已經被應用到了很多場景中。
⑷ AI 應用爆發,算力會迎來哪些發展機遇
隨著人工智慧應用的不斷擴大和深入,算力需求將不斷增加。因此,未來禪沒算力發展將會迎來以下機遇:
超級計算機:隨著技術的提升,超級計算機的算力將會越來越強大,可以處理更加復雜的人工智慧問題。
量子計算:量子計算是一種全新的計算方式,它利用量子比特而非傳統的經典比特進行計算,因此具有比傳統計算機更快的計算速度。這將為人工智慧開辟新的研究方向,同時也為解決更加復雜的人工智慧問題提供了可能。
模型局前壓縮與量化:針對目前人工智慧模型存在的內存佔用和計算速度慢等問題,模型壓縮和量化技術將成為重要的發展方向。通過減小模型大小和復雜度,同時保持良好的精度,桐襲清可以在不降低演算法性能的情況下實現更高效的計算。
分布式計算:由於單台設備的算力有限,分布式計算將成為滿足大規模計算需求的關鍵技術之一。這項技術可以將計算任務分配給多台設備進行處理,提高計算效率和准確性。
總之,隨著人工智慧應用的不斷擴大和深入,算力發展將會迎來更多機遇,並為人工智慧技術的進一步發展提供有力支撐。
⑸ 人工智慧算力卡是什麼東西
專門用於加速人工智慧計算的硬體設備。
人工智慧算力卡(AI加速卡)是一種專門用於加速人工智慧計算的硬體設備。它不同於一般計算機的CPU或GPU,而是採用了專門的晶元或處理器,具有更加出色的計算能力和效率。
人工智慧算力卡通常需要安裝在伺服器、工作站等高性能計算設備上,以支持更加復雜和高效的人工智慧應用。
⑹ 算力可貴,效率價高:智算中心憑啥是築基新基建的最優解
在「新基建」浪潮下,人工智慧正成為經濟增長的新引擎,各行各業開啟智能化升級轉型。算力在其中扮演了重要角色,是國家未來競爭力的集中體現。但事實是,在發展的過程中,高速增長的海量數據與更加復雜的模型,正在為算力帶來更大的挑戰,主要體現為算力不足,效率不高。
算力誠可貴:數據、演算法需要更多算力支撐
眾所周知,在人工智慧發展的三要素中,無論是數據還是演算法,都離不開算力的支撐,算力已成為人工智慧發展的關鍵要素。
IDC發布的《數據時代2025》報告顯示,2018年全球產生的數據量為33ZB (1ZB=1萬億GB),到2025年將增長到175ZB,其中,中國將在2025年以48.6ZB的數據量及27.8%的佔比成為全球最大的數據匯集地。
另據賽迪顧問數據顯示,到2030年數據原生產業規模量占整體經濟總量的15%,中國數據總量將超過4YB,佔全球數據量30%。數據資源已成為關鍵生產要素,更多的產業通過利用物聯網、工業互聯網、電商等結構或非結構化數據資源來提取有價值信息,而海量數據的處理與分析對於算力的需求將十分龐大。
演算法上,先進模型的參數量和復雜程度正呈現指數級的增長趨勢。此前 Open AI 發表的一項研究就顯示,每三到四個月,訓練這些大型模型所需的計算資源就會翻一番(相比之下,摩爾定律有 18 個月的倍增周期)。2012 至 2018 年間,深度學習前沿研究所需的計算資源更是增加了 30 萬倍。
到2020年,深度學習模型對算力的需求達到了每天百億億次的計算需求。2020年2月,微軟發布了最新的智能感知計算模型Turing-NLG,參數量高達到175億,使用125POPS AI計算力完成單次訓練就需要一天以上。隨後,OpenAI又提出了GPT-3模型,參數量更達到1750億,對算力的消耗達到3640 PetaFLOPS/s-day。而距離GPT-3問世不到一年,更大更復雜的語言模型,即超過一萬億參數的語言模型SwitchTransformer即已問世。
由此可見,高速增長的海量數據與更加復雜的模型,正在給算力帶來更大的挑戰。如果算力不能快速增長,我們將不得不面臨一個糟糕的局面:當規模龐大的數據用於人工智慧的訓練學習時,數據量將超出內存和處理器的承載上限,整個深度學習訓練過程將變得無比漫長,甚至完全無法實現最基本的人工智慧。
效率價更高:環境與實際成本高企,提升效率迫在眉睫
在計算工業行業,有個假設是「數字處理會變得越來越便宜」。但斯坦福人工智慧研究所副所長克里斯托弗•曼寧表示,對於現有的AI應用來說卻不是這樣,特別是因為不斷增加的研究復雜性和競爭性,使得最前沿模型的訓練成本還在不斷上升。
根據馬薩諸塞大學阿默斯特校區研究人員公布的研究論文顯示,以常見的幾種大型 AI 模型的訓練周期為例,發現該過程可排放超過 626000 磅二氧化碳,幾乎是普通 汽車 壽命周期排放量的五倍(其中包括 汽車 本身的製造過程)。
例如自然語言處理中,研究人員研究了該領域中性能取得最大進步的四種模型:Transformer、ELMo、BERT和 GPT-2。研究人員在單個 GPU 上訓練了至少一天,以測量其功耗。然後,使用模型原始論文中列出的幾項指標來計算整個過程消耗的總能量。
結果顯示,訓練的計算環境成本與模型大小成正比,然後在使用附加的調整步驟以提高模型的最終精度時呈爆炸式增長,尤其是調整神經網路體系結構以盡可能完成詳盡的試驗,並優化模型的過程,相關成本非常高,幾乎沒有性能收益。BERT 模型的碳足跡約為1400 磅二氧化碳,這與一個人來回坐飛機穿越美洲的排放量相當。
此外,研究人員指出,這些數字僅僅是基礎,因為培訓單一模型所需要的工作還是比較少的,大部分研究人員實踐中會從頭開發新模型或者為現有模型更改數據集,這都需要更多時間培訓和調整,換言之,這會產生更高的能耗。根據測算,構建和測試最終具有價值的模型至少需要在六個月的時間內訓練 4789 個模型,換算成碳排放量,超過 78000 磅。而隨著 AI 算力的提升,這一問題會更加嚴重。
另據 Synced 最近的一份報告,華盛頓大學的 Grover 專門用於生成和檢測虛假新聞,訓練較大的Grover Mega模型的總費用為2.5萬美元;OpenAI 花費了1200萬美元來訓練它的 GPT-3語言模型;谷歌花費了大約6912美元來訓練 BERT,而Facebook針對當前最大的模型進行一輪訓練光是電費可能就耗費數百萬美元。
對此,Facebook人工智慧副總裁傑羅姆•佩森蒂在接受《連線》雜志采訪時認為,AI科研成本的持續上漲,或導致我們在該領域的研究碰壁,現在已經到了一個需要從成本效益等方面考慮的地步,我們需要清楚如何從現有的計算力中獲得最大的收益。
在我們看來,AI計算系統正在面臨計算平台優化設計、復雜異構環境下計算效率、計算框架的高度並行與擴展、AI應用計算性能等挑戰。算力的發展對整個計算需求所造成的挑戰會變得更大,提高整個AI計算系統的效率迫在眉睫。
最優解:智算中心大勢所趨,應從國家公共設施屬性做起
正是基於上述算力需求不斷增加及所面臨的效率提升的需要,作為建設承載巨大AI計算需求的算力中心(數據中心)成為重中之重。
據市場調研機構Synergy Research Group的數據顯示,截至到2020年第二季度末,全球超大規模數據中心的數量增長至541個,相比2015年同期增長一倍有餘。另外,還有176個數據中心處於計劃或建設階段,但作為傳統的數據中心,隨之而來的就是能耗和成本的大幅增加。
這里我們僅以國內的數據中心建設為例,現在的數據中心已經有了驚人的耗電量。據《中國數據中心能耗現狀白皮書》顯示,在中國有 40 萬個數據中心,每個數據中心平均耗電 25 萬度,總體超過 1000 億度,這相當於三峽和葛洲壩水電站 1 年發電量的總和。如果折算成碳排放則大概是 9600 萬噸,這個數字接近目前中國民航年碳排放量的 3 倍。
但根據國家的標准,到2022年,數據中心平均能耗基本達到國際先進水平,新建大型、超大型數據中心的 PUE(電能使用效率值,越低代表越節能)達到 1.4 以下。而且北上廣深等發達地區對於能耗指標控制還非常嚴格,這與一二線城市集中的數據中心需求形成矛盾,除了降低 PUE,同等計算能力提升伺服器,尤其是數據中心的的計算效率應是正解。
但眾所周知的事實是,面對前述龐大的AI計算需求和提升效率的挑戰,傳統數據中心已經越來越難以承載這樣的需求,為此,AI伺服器和智算中心應運而生。
與傳統的伺服器採用單一的CPU不同,AI伺服器通常搭載GPU、FPGA、ASIC等加速晶元,利用CPU與加速晶元的組合可以滿足高吞吐量互聯的需求,為自然語言處理、計算機視覺、語音交互等人工智慧應用場景提供強大的算力支持,已經成為人工智慧發展的重要支撐力量。
值得一提的是,目前在AI伺服器領域,我們已經處於領先的地位。
近日,IDC發布了2020HI《全球人工智慧市場半年度追蹤報告》,對2020年上半年全球人工智慧伺服器市場進行數據洞察顯示,目前全球半年度人工智慧伺服器市場規模達55.9億美元(約326.6億人民幣),其中浪潮以16.4%的市佔率位居全球第一,成為全球AI伺服器頭號玩家,華為、聯想也殺入前5(分別排在第四和第五)。
這里業內也許會好奇,緣何中國會在AI伺服器方面領跑全球?
以浪潮為例,自1993年,浪潮成功研製出中國首台小型機伺服器以來,經過30年的積累,浪潮已經攻克了高速互聯晶元,關鍵應用主機、核心資料庫、雲數據中心操作系統等一系列核心技術,在全球伺服器高端俱樂部里佔有了重要一席。在AI伺服器領域,從全球最高密度AGX-2到最高性能的AGX-5,浪潮不斷刷新業界最強的人工智慧超級伺服器的紀錄,這是為了滿足行業用戶對人工智慧計算的高性能要求而創造的。浪潮一直認為,行業客戶希望獲得人工智慧的能力,但需要掌握了人工智慧落地能力的和技術的公司進行賦能,浪潮就可以很好地扮演這一角色。加快人工智慧落地速度,幫助企業用戶打開了人工智慧應用的大門。
由此看,長期的技術創新積淀、核心技術的掌握以及對於產業和技術的准確判斷、研發是領跑的根本。
至於智算中心,去年發布的《智能計算中心規劃建設指南》公布了智能計算中心技術架構,基於最新人工智慧理論,採用領先的人工智慧計算架構,通過算力的生產、聚合、調度和釋放四大作業環節,支撐和引領數字經濟、智能產業、智慧城市和智慧 社會 應用與生態 健康 發展。
通俗地講,智慧時代的智算中心就像工業時代的電廠一樣,電廠是對外生產電力、配置電力、輸送電力、使用電力;同理智算中心是在承載AI算力的生產、聚合、調度和釋放過程,讓數據進去讓智慧出來,這就是智能計算中心的理想目標。
需要說明的是,與傳統數據中心不同,「智算中心」不僅把算力高密度地集中在一起,而且要解決調度和有效利用計算資源、數據、演算法等問題,更像是從計算器進化到了大腦。此外,其所具有的開放標准,集約高效、普適普惠的特徵,不僅能夠涵蓋融合更多的軟硬體技術和產品,而且也極大降低了產業AI化的進入和應用門檻,直至普惠所有人。
其實我們只要仔細觀察就會發現,智算中心包含的算力的生產、聚合、調度和釋放,可謂集AI能力之大成,具備全棧AI能力。
這里我們不妨再次以浪潮為例,看看何謂全棧AI能力?
比如在算力生產層面,浪潮打造了業內最強最全的AI計算產品陣列。其中,浪潮自研的新一代人工智慧伺服器NF5488A5在2020年一舉打破MLPerf AI推理&訓練基準測試19項世界紀錄(保證充足的算力,解決了算力提升的需求);在算力調度層面,浪潮AIStation人工智慧開發平台能夠為AI模型開發訓練與推理部署提供從底層資源到上層業務的全平台全流程管理支持,幫助企業提升資源使用率與開發效率90%以上,加快AI開發應用創新(解決了算力的效率問題);在聚合算力方面,浪潮持續打造更高效率更低延遲硬體加速設備與優化軟體棧;在算力釋放上,浪潮AutoML Suite為人工智慧客戶與開發者提供快速高效開發AI模型的能力,開啟AI全自動建模新方式,加速產業化應用。
那麼接下來的是,智算中心該遵循怎樣的發展路徑才能充分發揮它的作用,物盡其用?
IDC調研發現,超過九成的企業正在使用或計劃在三年內使用人工智慧,其中74.5%的企業期望在未來可以採用具備公用設施意義的人工智慧專用基礎設施平台,以降低創新成本,提升算力資源的可獲得性。
由此看,智能計算中心建設的公共屬性原則在當下和未來就顯得尤為重要,即智能計算中心並非是盈利性的基礎設施,而是應該是類似於水利系統、水務系統、電力系統的公共性、公益性的基礎設施,其將承載智能化的居民生活服務、政務服務智能化。因此,在智能計算中心規劃和建設過程中,要做好布局,它不應該通過市場競爭手段來實現,而要體現政府在推進整個 社會 智能化進程的規劃、節奏、布局。
總結: 當下,算力成為推動數字經濟的根基和我國「新基建「的底座已經成為共識,而如何理性看待其發展中遇到的挑戰,在不斷高升算力的前提下,提升效率,並採取最佳的發展策略和形式,找到最優解,將成為政府相關部門以及相關企業的重中之重。