導航:首頁 > 礦池算力 > 單台機器算力最高

單台機器算力最高

發布時間:2023-12-11 08:51:22

『壹』 馬斯克發布機器人,「鋼鐵俠」那種!還順便推出全球最快AI計算機

全球最快的AI訓練速度王座,剛剛易主了。

不是英偉達GPU,也不是谷歌TPU……

馬斯克治下的特斯拉,自研AI訓練晶元 D1 ,自研AI超級計算機 Dojo ExaPod ,首秀即巔峰,登場就是全球第一。

此外,馬斯克還帶來了另一個特斯拉新品:

汽車 機器人 ,搭載了特斯拉包含晶元在內的軟硬體系統,但跟網路的不同,不像 汽車 更像人。

這就是特斯拉年度AI開放日上,馬斯克再次帶來的一系列激動人心的大進展。

馬斯克說:要有一個超快的計算機來訓練Autopilot在內的整個自動駕駛系統。

於是DOJO誕生了。

DOJO,取名源自日語里「練武」專用的 道場 ,顧名思義,DOJO就是特斯拉AI不斷精益功夫的道場。

DOJO 是一種通過網路結構連接的分布式計算架構。它還具有大型計算平面、極高帶寬和低延遲,以及分區和映射的大型網路。

實際上,在CVPR 2021現場,特斯拉就已經劇透過DOJO的相關性能。

當時總算力 1.8EFLOPS ,讀寫速度高達1.6TBps,一度被認為超越全球排名第一的超級計算機富岳,創造超算新紀錄。

但那時DOJO用的是英偉達的A100 GPU,單卡算力321TFLOPS,共計 5760 張,節點數高達720個。

而現在,DOJO更進一步,自研了「心臟」 晶元

特斯拉首款AI訓練晶元 D1 ,正式發布。

7nm 工藝,單片FP32達到算力22.6TOPs,BF16算力362TOPs。

特斯拉發布會現場,還用圖展示性能,拳打英偉達GPU,腳踢谷歌TPU。

一句話概括,比現在市面上任何晶元都強。

特斯拉也用「Pure Learning Machine」, 純學習機器 ,來稱呼D1晶元。

此外,D1晶元強的不只是單兵作戰能力,還有集團軍作戰能力,它們可以無縫融合,變成超大規模計算陣列。

能有多大,接下來,特斯拉就揭曉了之前預熱海報上的「神秘物種」:

集合了25塊D1晶元的訓練模塊!

這也是特斯拉首個訓練模塊,而把多個模塊集合,就能形成更大算力的訓練陣列:

至此, 特斯拉自研超算DOJO 完整真身亮相!

超過50萬個訓練節點。每個模塊算力為9 petaflops,帶寬為36TB/s。

DOJO的可怕之處在於,不同於世界其他超算需要承擔多種不同任務,DOJO的唯一使命就是AI訓練,或者可以說聚焦到自動駕駛演算法的訓練。

因為專注,所以首秀即巔峰。

AutoPilot、FSD,特斯拉的其他AI訓練任務,都能在DOJO里更高效練就。

另外,特斯拉官方還繼續劇透:這不是終點,下一代DOJO還會有10倍性能的提升!

所以到這里就完了?拿衣服。

最後也是最強,特斯拉D1支持下的終極大殺器登場:

ExaPOD ,集成120個訓練模塊,包含3000個D1晶元,超過1百萬個訓練節點。算力達到 1.1EFLOP

而且每單位能耗下的性能比當今最強超算高1.3倍,但碳排放僅為1/5。

速度和性能,冠絕業內。

於是特斯拉明確: 這就是全球最快的AI訓練計算機。

有意思的是,2019年美國能源部曾放言要花6億美元建E級算力的超算,2023年問世……

萬萬沒想到,這個目標被「車企」特斯拉率先實現了。

所以問題來了,自研D1晶元有了,最強AI訓練超算DOJO ready了,接下來特斯拉會有怎樣的改變?

特斯拉AI技術主管Andrej Karpathy (李飛飛高徒) 登場,介紹了D1晶元和DOJO,主要服務的對象——特斯拉的在自動駕駛方面領先所有對手的「靈丹妙葯」:

純視覺方案

事故頻出,爭議四起,甚至中國絕大部分玩家都轉向了 視覺+激光雷達 的綜合方案,但特斯拉依然堅持。

Karpathy詳細介紹了特斯拉高純視覺方案的思路,和現行8攝像頭方案的特點,以及它為什麼能work。

特斯拉純視覺方案,基本構建原則是把自動駕駛系統看作一個生物,有眼睛、有神經、有大腦。

目前的方案有八個攝像頭,背後是被稱為HydraNets——「九頭蛇網路」的多任務學習神經網路。

「九頭蛇網路」可以同時處理目標檢測、交通標志識別、車道預測等等任務,其關鍵在於對各種數據的特徵提取,包括不同種類數據的特徵共享、對不同任務的分別調參,以及參數緩存,用來加快調參速度。

這也是實現FSD敏捷開發,半年內迭代2-3個版本的關鍵。

接下來,Karpathy 描述了純視覺方案的 歷史 ,以及方案發展到今天的邏輯,他展示了一段特斯拉處理其圖像數據的視頻。

他說過去 的FSD 雖然很好,但事實證明這樣的系統不夠完善,每個攝像頭能夠檢測到工程師預期的目標,但背後神經網路的矢量空間是不夠的。

於是,特斯拉如重新設計了神經網路,就是上面的「九頭蛇」。

另外相機校準、緩存、隊列和優化等等環節都做了最大程度簡化。

特斯拉方面還比較了多攝像頭方案和單攝像頭方案的差別,相同的場景下,單攝像頭方案識別率明顯低於多攝像頭方案。

特斯拉車輛上的8個攝像頭獲取原始輸入後,系統會創建各種解析度的圖像,用於各種功能和目的。

這些不同的圖像會被分別喂給處理不同任務的神經網路,作為整個自動駕駛系統的決策依據。

接著,Karpathy介紹了特斯拉的「終極建築師」,即車輛在行駛過程中可以實時對車道、環境建模。

車道線實時建模,其實就是特斯拉自己的高精地圖能力。

中國自動駕駛玩家,強調「高精度地圖」的不少,但特斯拉的思路,「現成資源」不是本質能力,本質能力應該是「創造資源」的能力。

最後,Karpathy談了AI公司常見的數據標注問題,他認為,把數據外包給第三方去做手工標注並不好,所以特斯拉選擇自建團隊來給數據打標,目前已經從2D圖像標記升級到4D矢量空間的標記。

這也是特斯拉自動駕駛不斷快速進化的核心所在。

依靠人工標注,顯然無法應對量產車上路後的大規模數據,所以只有自動化標注,才能形成數據閉環。

開放日上,特斯拉也展示了如何從車道線、2D圖像……一點點躍遷至4D標注和建模的。

行人、車輛、樹木,建築物……清清楚楚,而且還有意圖識別。

特斯拉方面也強調,基於類腦一樣的感知系統、自動化標注能力,以及 模擬 ,確保了特斯拉為什麼可以基於純視覺實現更高維度的自動駕駛。

模擬 ,簡單講就是利用現實數據,將真實世界的實時動態景象,在計算機系統實現重新構建和重現。

這套模擬程序,用特斯拉的話說,就是一個以自動駕駛為玩家的視頻 游戲 。

在這套系統里,任何要素都可以被添加其中,包括奇葩的極端場景。

比如這里,人太多導致目標難以標注,車輛極多:

特斯拉這里還不忘補刀一下 毫米波雷達 ——純視覺也能做很好,所謂的雷達冗餘作用有限。

特斯拉方面還披露,現在標注和模擬系統,可以模擬數量高達3.71億的數據及場景。

當然,自動駕駛最後還得解決從比特世界走向原子世界應用的問題。

這次特斯拉主要披露了 控制和規劃 方面的進展。

特斯拉自動駕駛總監Ashok Elluswamy,分享了特斯拉針對復雜場景的規劃方案——「混合規劃系統」。

主要思路和技術方法是基於蒙特卡洛樹搜索,實現最佳路徑規劃。

最後,整個特斯拉自動駕駛從感知到決策規劃,一圖概括如下:

最後的最後,就在大家都以為發布會完全就是自動駕駛相關內容之際……

「簡短茶歇」環節,竟然來了一段「機器人熱舞」——宛如衣服Model一樣的穿著,樣子非常「硅基」。

這是特斯拉的行為藝術?

不不不,再次出乎意料。

馬斯克再次登台,然後鄭重其事發布: 特斯拉機器人

身高5英尺8英寸,約為172cm;重量125磅,約為56.7kg;承載能力為45磅,約為20kg。

它的面部是一個顯示屏,用來顯示重要信息。

從外形上看,四肢和人類一樣。

為了實現平衡性和敏捷性,四肢使用了40個機電推桿。

同時,特斯拉各項AI和晶元技術,都會應用其中。

比如使用Autopilot的攝像頭充當感知系統,胸腔里內置特斯拉自研晶元——FSD同款,還會加持多項特斯拉已開發出的技術,如多攝像頭視頻神經網路、規劃能力、標記。

而且馬斯克強調,這不是玩具周邊,它會最終實現——可能明年就會正式推出,這是特斯拉電動車的 下一步

矽谷鋼鐵俠還說,他會是一個非常有用的機器人,由人打造,為人服務,而且會確保一直對人友好,能把人從危險的、重復的,無聊的任務中解放出來。

甚至還能跟已經高度自動化的特斯拉車輛生產進一步結合協作。但按照馬斯克的意思,首要的應該是「做家務」。

有意思的是,隨著特斯拉這個「機器人」發布,太平洋兩岸都把「機器人」作為了智能車變革的下一步。

中國這邊,網路李彥宏剛剛推出了一款「 汽車 機器人」,不過更像「 汽車 」而不是「人」。

美國那頭,馬斯克的特斯拉機器人,更像「人」而不是「 汽車 」。

這種區別,也可能跟馬斯克的那個江湖綽號有關。

伊隆·馬斯克,不就是現實版鋼鐵俠嗎?

— 完 —

智能車參考 · AI4Auto

關注我們,第一時間獲知智能車最新動態

『貳』 高通發布全新自動駕駛計算平台 最高算力700TOPS,2023年量產

▲高通公司總裁CristianoAmon新聞發布會上向展示了SnapdragonRide(圖源CNET/James?Martin)

SnapdragonRide通過獨特的SoC、加速器和自動駕駛軟體棧的結合,為汽車製造商提供了一種可擴展的解決方案,可在三個細分領域對自動駕駛汽車提供支持,分別是:

1、L1/L2級主動安全ADAS——面向具備自動緊急制動、交通標志識別和車道保持輔助功能的汽車。

2、L2+級ADAS——面向在高速公路上進行自動駕駛、支持自助泊車,以及可在頻繁停車的城市交通中進行駕駛的汽車。

3、L4/L5級完全自動駕駛——面向在城市交通環境中的自動駕駛、無人計程車和機器人物流。

SnapdragonRide平台基於一系列不同的驍龍汽車SoC和加速器建立,採用可擴展且模塊化的高性能異構多核CPU、高能效的AI及計算機視覺引擎,以及GPU。

其中,ADASSoC系列和加速器系列採用異構計算,與此同時利用高通的新一代人工智慧引擎,ADAS和SoC能夠高效管理車載系統的大量數據。

得益於這些不同的SoC和加速器的組合,SnapdragonRide平台可以根據自動駕駛的不同細分市場的需求進行配備,同時提供良好的散熱效率,包括從面向L1/L2級別應用的30TOPS等級的設備,到面向L4/L5級別駕駛、超過700TOPS的功耗130瓦的設備。

此外,高通全新推出的SnapdragonRide自動駕駛軟體棧是集成在SnapdragonRide平台中的模塊化可擴展解決方案。

據介紹,SnapdragonRide平台的軟體框架可同時託管客戶特定的軟體棧組件和SnapdragonRide自動駕駛軟體棧組件。

SnapdragonRide平台也支持被動或風冷的散熱設計,因而能夠在成本降低的同時進一步優化汽車設計,提升可靠性。

現在,Arm、黑莓QNX、英飛凌、新思科技、Elektrobit、安森美半導體均已加入高通的自動駕駛朋友圈,成為SnapdragonRide自動駕駛平台的軟/硬體供應商。

Arm的功能安全解決方案,新思科技的汽車級DesignWare介面IP、ARC處理器IP和STARMemorySystemTM,黑莓QNX的汽車基礎軟體OS安全版及Hypervisor安全版,英飛凌的AURIXTM微控制器,以及安森美半導體的ADAS系列感測器都會集成到高通的自動駕駛平台上。

Elektrobit還計劃與高通合作,共同開發可規模化生產的新一代AUTOSAR架構,EBcorbos軟體和SnapdragonRide自動駕駛平台都將集成在這個架構上面。

據了解SnapdragonRide將在2020年上半年交付汽車製造商和一級供應商進行前期開發,而根據QualcommTechnologies估計,搭載SnapdragonRide的汽車將於2023年投入生產。

二、深耕汽車業務多年高通賦能超百萬台汽車

在發布SnapdragonRide自動駕駛平台之前,高通已在智能汽車領域深耕多年。

十多年來,高通子公司QualcommTechnologies一直在為通用汽車的網聯汽車應用提供先進的無線通信解決方案,包括通用汽車上安吉星設備所支持的安全應用。

在車載信息處理、信息影音和車內互聯等領域,QualcommTechnologies的訂單總價值目前已超過70億美元(約合人民幣487億元)。

而根據高通在CES2020發布會現場公布的信息,迄今為止已經有超百萬輛汽車使用了高通提供的汽車解決方案。

很顯然,如今高通在汽車領域的布局又向前邁進了一步。

CES2020期間,除發布SnapdragonRide自動駕駛平台外,高通還推出了全新的車對雲服務(Car-to-CloudService),該服務預計在2020年下半年開始提供。

據介紹,由QualcommTechnologies打造的車對雲服務支持SoftSKU晶元規格軟升級能力,不僅可以幫助汽車客戶滿足消費者不斷變化的需求,還可根據新增性能需求或新特性,讓晶元組在外場實現升級、以支持全新功能。

與此同時SoftSKU也支持客戶開發通用硬體,從而節省他們面向不同開發項目的專項投入。利用高通車對雲SoftSKU,汽車製造商不僅能夠為消費者提供各種定製化服務,還可以通過個性化特性打造豐富且具沉浸感的車內體驗。

另外高通的車對雲服務也支持實現全球蜂窩連接功能,既可用於引導初始化服務,也可以在整個汽車生命周期中提供無線通信連接。

QualcommTechnologies產品管理高級副總裁NakulDuggal表示,結合驍龍汽車4G和5G平台、驍龍數字座艙平台,高通的車對雲服務能夠幫助汽車製造商和一級供應商滿足當代車主的新期待,包括靈活、持續地進行技術升級,以及在整個汽車生命周期中不斷探索新功能。

此外,QualcommTechnologies也在CES2020上宣布,表示將繼續深化和通用汽車的合作。作為長期合作夥伴,通用汽車將通過與QualcommTechnologies的持續合作來支持數字座艙、車載信息處理和ADAS(先進駕駛輔助系統)。

結語:巨頭紛紛入局自動駕駛領域風起雲涌

前有華為表示要造激光雷達、毫米波雷達等智能汽車核心感測器,後有Arm牽頭成立自動駕駛汽車計算聯盟,如今移動晶元巨頭高通也發布了全新的自動駕駛平台,在汽車和自動駕駛領域上又邁進一步。

巨頭入局有利於自動駕駛汽車更快更好地落地,然而另一方面隨著更多硬核玩家拓展業務邊界,此次市場上的競爭也必然會變得更加激烈。

本文來源於汽車之家車家號作者,不代表汽車之家的觀點立場。

『叄』 英偉達秀全球最大GPU,黃仁勛從烤箱里拿出的產品果然「爆了」



SegmentFault 思否報道丨公眾號:SegmentFault



是他,還是那個男人,那個熟悉的皮夾克。


5 月 14 日 晚,黃仁勛在廚房召開了英偉達 GTC 2020 線上發布會。由於新冠病毒疫情影響,英偉達原計劃的現場活動被迫取消,定於 3 月 24 日通過媒體發布的新聞稿也未見蹤影。千呼萬喚中,黃仁勛終於在烤箱前和大家見面了。


本屆 GTC 從預熱開始就不走尋常路,黃仁勛在大會前一天曬出了自己從烤箱里拿出了 全新的安培(Ampere)架構 GPU NVIDIA A100



令人頗感意外的是,雖然無法舉辦線下活動,英偉達竟然連線上直播都懶得辦,直接播放了黃仁勛在自家廚房裡錄制的視頻完成了新品發布。果然是手裡有「硬貨」就不在乎形式了。


英偉達的首款安培架構 GPU 可以算「史上最強」了,基於 7nm 工藝製程,擁有 540 億晶體管,面積為826mm²,與 Volta 架構相比性能提升了 20 倍 ,既可以做訓練也可以做推理。



NVIDIA A100 具有 TF32的第三代 Tensor Core 核心,能在不更改任何代碼的情況下將 FP32 精度下的 AI 性能提高 20倍,達到19.5萬億次/秒


多實例 GPU-MG 可將單個 A100 GPU 分割為 7 個獨立的 GPU,根據任務不同提供不同的計算力,實現最佳利用率和投資回報率的最大化。


NVIDIA A100 新的效率技術利用了AI數學固有的稀疏性,優化之後性能提升了一倍。



英偉達將 NVIDIA A100 的特性總結為以下 5 點:



黃仁勛說:「Ampere架構的突破性設計為英偉達第八代GPU提供了迄今為止最大的性能飛躍, 集 AI 訓練和推理於一身,並且其性能相比於前代產品提升了高達 20 倍 。這是有史以來首次,可以在一個平台上實現對橫向擴展以及縱向擴展的負載的加速。A100 將在提高吞吐量的同時,降低數據中心的成本。」


NVIDIA A100 是第一個基於 NVIDIA 安培架構的 GPU,提供了在 NVIDIA 八代 GPU 里最大的性能提升,它還可用於數據分析,科學計算和雲圖形,並已全面投產並交付給全球客戶。


全球 18 家領先的服務提供商和系統構建商正在將 NVIDIA A100 整合到他們的服務和產品中,其中包括阿里雲、AWS、網路雲、思科、Dell Technologies、Google Cloud、HPE、Microsoft Azure和甲骨文。



黃仁勛還介紹了基於 NVIDIA A100 的第三代 AI 系統 DGX-A100 AI。DGX-A100 AI 是世界上第一台單節點 AI 算力達到 5 PFLOPS 的伺服器 ,每台 DGX A100 可以分割為多達 56 個獨立運行的實例,還集合了 8 個 NVIDIA A100 GPU,每個 GPU 均支持 12 路 NVLink 互連匯流排。



據了解,與其他高端 CPU 伺服器相比,DGXA100 的 AI 計算性能高 150 倍、內存帶寬高 40 倍、IO 帶寬高 40 倍。


黃仁勛說:「AI已經被應用到雲計算、 汽車 、零售、醫療等眾多領域,AI演算法也正變得越來越復雜和多樣。ResNet模型的算力需求從2016年到現在已經增加了3000倍,我們需要更好的解決方案。」


如此強大的 DGX-A100 AI 售價自然也不便宜,標價 19.9 萬美元,約合人民幣 141 萬元。


此外,黃仁勛還提到了英偉達新一代 DGXSuper POD 集群,由 140 台DGXA100系統組成,AI算力達 700 Petaflops,相當於數千台伺服器的性能



據了解,首批 DGXSuper POD 將部署在美國能源部阿貢國家實驗室,用於新冠病毒疫情相關的研究。




除了以上兩款重磅產品,黃仁勛還宣布推出了 NVIDIA Merlin,這是一個用於構建下一代推薦系統的端到端框架,該系統正迅速成為更加個性化互聯網的引擎。Merlin將創建一個 100 TB 數據集推薦系統所需的時間從四天減少到 20 分鍾。


英偉達此次還推出了眾多 AI 領域相關產品,包括 乙太網智能網卡 Mellanox ConnectX-6 Lx SmartNIC、EGX 邊緣 AI 平台和一系列軟體更新擴展。


1.乙太網智能網卡 Mellanox ConnectX-6 Lx SmartNIC


ConnectX-6 Lx 是業界首個為 25Gb/s 優化的安全智能網卡,可提供兩個 25Gb/s 埠或一個 50Gb/s 埠。


2.EGX 邊緣 AI 平台


EGX Edge AI 平台是首款基於 NVIDIA 安培架構的邊緣 AI 產品,可接收高達 200Gbps 的數據,並將其直接發送到 GPU 內存進行 AI 或 5G 信號處理。



3.Spark 3.0


英偉達還宣布在 Spark 3.0 上支持 NVIDIA GPU 加速,基於 RAPIDS 的 Spark 3.0,打破了提取,轉換和載入數據的性能基準。它已經幫助 Adobe Intelligent Services 將計算成本降低了90%。


4.NVIDIA Jarvis


黃仁勛在發布會中詳細介紹了 NVIDIA Jarvis,這是一個新的端到端平台,可以充分發揮英偉達 AI 平台的強大功能,創建實時多模態對話式 AI。



5.Misty 交互 AI


現場演示中,一個名為 Misty 的 AI系統展示了實時理解並回答一系列有關天氣的復雜問題的交互過程。



自動駕駛方面,英偉達也將安培架構嵌入了新的 NVIDIA DRIVE 平台。據了解,小馬智行、法拉第未來等自動駕駛企業已宣布採用 NVIDIA DRIVE AGX 計算平台。


英偉達的 NVIDIA Isaac 軟體定義的機器人平台還將用於寶馬集團工廠。英偉達機器人技術全球生態系統涵蓋配送、零售、自主移動機器人、農業、服務業、物流、製造和醫療保健各個行業。



英偉達這場時隔 3 年的發布會可謂誠意滿滿,首次推出的安培架構給足了驚喜,性能提升 20 倍的 NVIDIA A100 GPU 可謂性能飛躍。


雖然發布會並不是現場直播,但依舊爆點十足。一台就比千台強的 DGX-A100 AI 也印證了黃仁勛那就經典名言「買的越多,賺的越多」。英偉達的 AI 解決方案已經覆蓋了各行各業,強大的 AI 生態正在形成。


中國工程院院士倪光南曾表示:「晶元設計門檻極高,只有極少數企業能夠承受中高端晶元研發成本,這也制約了晶元領域創新。」


英偉達在本屆 GTC 上推出的安培架構和基於此的一系列 AI 平台無一部顯示了一個 AI 晶元巨頭的實力,又一次樹立了性能標桿。


根據 Gartner 的預測數據 ,未來 5 年內全球人工智慧晶元市場規模將呈飆升趨勢 ,自 2018 年的 42.7 億美元 ,升高至 343 億美元 ,增長已超過 7 倍,可見 AI 晶元市場有較大增長空間。


盡管與西方發達國家相比,中國的 AI 晶元研發還存在一定差距,但過去兩年中,中國 AI 晶元初創企業已獲得了數億美元的資金。華為等公司也開發了令人印象深刻的晶元設計。


但晶元開發極具復雜性,中國人才的短缺以及缺乏多家全球銷售排名前 15 位的中國半導體公司的情況表明,中國仍需要取得重大進展,才能在半導體領域與美國匹敵。

『肆』 高通推便攜游戲機晶元,潛藏優勢與巨大挑戰並存

電子發燒友網報道(文/周凱揚)高通在近期的技術峰會上公布了第一代G3x 游戲 平台,並與雷蛇合作基於該平台推出了開發機,面向便攜 游戲 機市場。然而對於高通來說,這一市場的主要份額已經被傳統GPU廠商霸佔。高通想藉助G3x虎口奪食的如意算盤能否成功,我們不妨拿其他競爭對手的產品做個對比。

單看便攜 游戲 機的銷量,自然沒有一家能與任天堂Switch相提並論。憑借其發展了數十年的 游戲 生態,Switch全系列銷量已經逼近億級,不過與其火爆銷量形成鮮明對比的是其落後的配置。

Tegra X1 / Nvidia

Switch自2017年發售以來還推出了Switch Lite、Switch續航版和Switch OLED三個版本,但其晶元配置基本沒有太大變化。初版Switch選用了英偉達的ARM晶元Tegra X1作為主機SoC,該晶元採用了台積電20nm製程,集成了四個4個Cortex-A57核心和Maxwell架構的GPU,其中還有4顆被禁用的Cortex-A53核心,將功耗控制在了10W以內。

19年發售的Switch續航版並未對性能做出多大的增強,只不過將Tegra X1換為16nm製程,改動了GPU的頻率,將其算力從512 GFLOPS提升至649 GFLOPS。核心數與架構均未改動,主要是靠製程優勢提升了些許續航表現。Switch推出近5年以來,任天堂似乎仍沒有透露下一代便攜 游戲 機的打算。在這樣的配置下,如今Switch平台上的多數 游戲 只有1080p 30幀甚至更低的表現。

但任天堂的機器配置差不代表英偉達拖了後腿,英偉達的Tegra系列晶元經過了幾年的迭代已經廣泛應用於各種設備中,比如英偉達自己的便攜媒體設備Nvidia Shield,甚至一度應用於特斯拉車載信息 娛樂 系統處理器。

Tegra系列SoC路線圖 / 英偉達

據業內人士透露,下一代任天堂Switch主機很可能會搭載英偉達的Tegra Orin SoC,該晶元集成了12核ARM Cortex-A78AE的CPU,以及2048個CUDA核心的Ampere架構GPU。不過考慮到Orin晶元60W的功耗,完整版的型號最終還是普遍用於車機系統,如果要用於便攜 游戲 機的話,任天堂很可能會選擇定製版的Orin,採用降低頻率或是像Tegra X1一樣砍核心的做法。

盡管在傳統的家庭 游戲 主機上,AMD占據了絕對的主導地位,微軟的Xbox和索尼的PlayStation都選用了AMD為其定製的SoC。但在便攜 游戲 主機上,AMD卻是首次出手,結合此前三星下一代Exynos晶元將搭載AMD GPU的新聞,AMD明顯是想在移動端上分一杯羹。

Steam Deck / Valve

Steam Deck為老牌PC 游戲 廠商Valve推出的便攜 游戲 機,採用了AMD定製的SoC晶元(APU)。與Nvidia採用ARM作為CPU核心架構不同,該SoC集成了4核8線程Zen 2架構的CPU,核心頻率為2.4至3.5GHz,算力最高448 GFlops FP32。GPU上,Steam Deck用上了8個RDNA 2架構的計算單元,頻率1.0-1.6GHz,算力達到1.6 TFlops FP32。這樣的配置可以說是一個迷你家用 游戲 主機了,況且在台積電7nm製程的支持下,其功耗范圍在4到15W。

在視頻輸出上,Steam Deck最高支持4K 120Hz/8K 60Hz,可以說是目前便攜 游戲 機最高的輸出格式。不過Steam Deck自身僅附帶一個1280 x 800的LCD顯示屏,且以上只是理論最高值。且在這一x86 SoC的支持下,Steam Deck選擇了「魔改版」的Linux系統SteamOS作為操作系統,這又與傳統的Windows PC生態不同,目前支持Linux的 游戲 僅佔Steam 游戲 總數的十分之一左右。

安卓便攜 游戲 機過去一直是一個邊緣化的市場,甚至被人戲說為「偽命題」,市面上的產品要麼性能落後於旗艦手機,要麼在 游戲 生態上逃不出手機 游戲 的圈子,多數人認為手機足以滿足日常的移動 游戲 要求。但隨著愈發復雜的操作要求涌現,不少手機廠商也都推出了在外觀上做文章的 游戲 手機,也有外設廠商推出手機專用 游戲 手柄,但這些都是基於手機定位的產品,並非徹頭徹尾的 游戲 設備。

驍龍G3x晶元與開發機 / 高通

高通推出的G3x的架構與手機SoC並無二致,均選用了Kryo CPU和Adreno GPU。不過高通並沒有透露具體的參數細節,僅僅強調了該平台最高支持4K解析度和144 FPS的流暢體驗。好在沒了手機的外形限制,G3x在散熱和續航上能夠做到優於手機數倍。

不過高通最大的優勢體現在其連接性上,藍牙5.2+Wi-Fi 6E+5G,可以說是目前便攜 游戲 機無線連接的天花板了,上文中的Switch和Steam僅僅支持藍牙5.0和802.11ac,更不用說5G連接了。有了藍牙5.2和Snapdragon Sound技術的支持,G3x的藍牙音頻在音質和延遲上可以說勝過市面上所有便攜 游戲 機產品。

強大的連接性加上開放的安卓平台為G3x賦予了全新的可能性,在雲 游戲 和本地串流出現後,安卓便攜 游戲 機被人詬病的 游戲 生態已經成了過去式。

無論是Xbox還是PlayStation家用 游戲 主機,還是PC 游戲 平台,均提供了本地串流選項,在Wi-Fi 6E的大帶寬低延遲的支持下,玩家可以在小屏下享受高解析度和高幀率的3A大作。且多虧了蘋果對於iOS雲 游戲 的限制,英偉達、微軟等廠商的雲 游戲 平台反倒可以在安卓平台上不遺餘力地打造完整體驗。

此外,由於整台 游戲 機主要採用了高通自己的晶元,在供應鏈管理上的優勢也會更大一些。根據小道消息稱,今年某品牌藍牙晶元缺貨嚴重影響了 游戲 手柄供應,從而造成了整機缺貨的情況。

高通選擇在這個節骨眼上選擇推出便攜 游戲 機晶元,必然是藉助安卓系統的 游戲 生態彎道超車。相較Switch的自研封閉系統和Steam Deck的開源x86系統,安卓以其包容性擴大了受眾群體,甚至可以讓傳統的PC和主機玩家也加入便攜 游戲 機陣營。

不過橫亘在其面前的還有一些挑戰,ARM的 游戲 生態經過這么多年的發展雖然銷量開始反超,但在技術和質量上仍有落後之處。比如英偉達和AMD推出的DLSS和FSR解析度壓縮技術,對於移動端普遍不高的解析度和幀數來說至關重要。高通必須以自己的專利技術形成競爭力,Adreno GPU也亟待硬體和軟體上的雙重突破。

『伍』 AI 應用爆發,算力會迎來哪些發展機遇

隨著人工智慧應用的不斷擴大和深入,算力需求將不斷增加。因此,未來禪沒算力發展將會迎來以下機遇:

超級計算機:隨著技術的提升,超級計算機的算力將會越來越強大,可以處理更加復雜的人工智慧問題。

量子計算:量子計算是一種全新的計算方式,它利用量子比特而非傳統的經典比特進行計算,因此具有比傳統計算機更快的計算速度。這將為人工智慧開辟新的研究方向,同時也為解決更加復雜的人工智慧問題提供了可能。

模型局前壓縮與量化:針對目前人工智慧模型存在的內存佔用和計算速度慢等問題,模型壓縮和量化技術將成為重要的發展方向。通過減小模型大小和復雜度,同時保持良好的精度,桐襲清可以在不降低演算法性能的情況下實現更高效的計算。

分布式計算:由於單台設備的算力有限,分布式計算將成為滿足大規模計算需求的關鍵技術之一。這項技術可以將計算任務分配給多台設備進行處理,提高計算效率和准確性。

總之,隨著人工智慧應用的不斷擴大和深入,算力發展將會迎來更多機遇,並為人工智慧技術的進一步發展提供有力支撐。

『陸』 最高280 TOPS算力,黑芝麻科技發布華山二號,PK特斯拉FSD

晶元作為智能汽車的核心「大腦」,成為諸多車企、Tier 1、自動駕駛企業重點布局的領域。
圍繞著自動駕駛最為關鍵的計算單元,國內誕生了諸多自動駕駛晶元創新公司,在該領域的絕大部分市場份額依然被國外廠商控制的當下,他們正在爭取成為「國產自動駕駛晶元之光」。
成立於 2016 年的黑芝麻智能科技便是這一名號的有力爭奪者。
繼 2019 年 8 月底發布旗下首款車規級自動駕駛晶元華山一號(HS-1)A500 後,黑芝麻又在這個 6 月推出了相較於前代在性能上實現躍遷的全新系列產品——華山二號(HS-2),兩個系列產品的推出相隔僅 300 余天,整體研發效率可見一斑。
1、國產算力最高自動駕駛晶元的自我修養
華山二號系列自動駕駛晶元目前有兩個型號的產品,包括:
應用於?L3/L4?級自動駕駛的華山二號 A1000?;針對?ADAS/L2.5?自動駕駛的華山二號 A1000L。
簡單理解就是,A1000 是高性能版本,而 A1000L 則在性能上進行了裁剪。
這樣的產品型號設置也讓華山二號系列晶元能在不同的自動駕駛應用場景中進行集成。
相較於 A500 晶元,A1000?在算力上提升了近?8 倍,達到了?40 - 70TOPS,相應的功耗為?8W,能效比超過?6TOPS/W,這個數據指標目前在全球處於領先地位。
華山二號 A1000 之所以能有如此出色的能效表現,很大程度是因為這塊晶元是基於黑芝麻自研的多層異構性的?TOA 架構打造的。
這個架構將黑芝麻核心的圖像感測技術、圖像視頻壓縮編碼技術、計算機視覺處理技術以及深度學習技術有機地結合在了一起。
此外,這款晶元中內置的黑芝麻自研的高性能圖像處理核心?NeuralIQ ISP?以及神經網路加速引擎?DynamAI DL?也為其能效躍升提供了諸多助力。
需要注意的是,這里的算力數值之所以是浮動的,是因為計算方式的不同。
如果只計算 A1000 的卷積陣列算力,A1000 大致是 40TOPS,如果加上晶元上的 CPU 和 GPU 的算力,其總算力將達到?70TOPS。
在其他參數和特性方面,A1000 內置了 8 顆 CPU 核心,包含 DSP 數字信號處理和硬體加速器,支持市面上主流的自動駕駛感測器接入,包括激光雷達、毫米波雷達、4K 攝像頭、GPS 等等。
另外,為了滿足車路協同、車雲協同的要求,這款晶元不僅集成了 PCIE 高速介面,還有車規級千兆乙太網介面。
A1000 從設計開始就朝著車規級的目標邁進,它符合晶元 AEC-Q100 可靠性和耐久性 Grade 2 標准,晶元整體達到了 ISO 26262 功能安全 ASIL-B 級別,晶元內部還有滿足 ASIL-D 級別的安全島,整個晶元系統的功能安全等級為?ASIL-D。
從這些特性來看,A1000 是一款非常標準的車規級晶元,完全可以滿足在車載終端各種環境的使用要求。
A1000 晶元已於今年 4 月完成流片,採用的是台積電的 16nm FinFET 製程工藝。
今年 6 月,黑芝麻的研發團隊已經對這款晶元的所有模塊進行了性能測試,完全調試通過,接下來就是與客戶進行聯合測試,為最後的大規模量產做准備。
據悉,搭載這款晶元的首款車型將在?2021 年底量產。
隨著 A1000 和 A1000L 的推出,黑芝麻的自動駕駛晶元產品路線圖也更加清晰。
在華山二號之後,這家公司計劃在 2021 年的某個時點推出華山三號,主要面向的是 L4/L5 級自動駕駛平台,晶元算力將超越 200TOPS,同時會採用更先進的 7nm 製程工藝。
華山三號的?200TOPS?算力,將追平英偉達 Orin 晶元的算力。
去年 8 月和華山一號 A500 晶元一同發布的,還有黑芝麻自研的 FAD(Full Autonomous Driving)自動駕駛計算平台。
這個平台演化至今,在 A1000 和 A1000L 晶元的基礎上,有了更強的可擴展性,也有了更廣泛的應用場景。
針對低級別的 ADAS 場景,客戶可以基於 HS-2 A1000L 晶元搭建一個算力為 16TOPS、功耗為 5W 的計算平台。
而針對高級別的 L4 自動駕駛,客戶可以將 4 塊 HS-2 A1000 晶元並聯起來,實現高達 280TOPS 算力的計算平台。
當然,根據不同客戶需求,這些晶元的組合方式是可變換的。
與其他大多數自動駕駛晶元廠商一樣,黑芝麻也在可擴展、靈活變換的計算平台層面投入了更多研發精力,為的是更大程度上去滿足客戶對計算平台的需求。
反過來,這樣的做法也讓黑芝麻這樣的晶元廠商有了接觸更多潛在客戶的機會。
根據黑芝麻智能科技的規劃,今年 7 月將向客戶提供基於 A1000 的核心開發板。
到今年 9 月,他們還將推出應用於 L3 自動駕駛的域控制器(DCU),其中集成了兩顆 A1000 晶元,算力可達 140TOPS。
2、黑芝麻自動駕駛晶元產品「聖經」
借著華山二號系列晶元的發布,黑芝麻智能科技創始人兼 CEO 單記章也闡述了公司 2020 年的「AI 三次方」產品發展戰略,具體包括「看得懂、看得清和看得遠」。
這一戰略是基於目前市面上對自動駕駛域控制器和計算平台的諸多要求提出的,這些要求包括安全性、可靠性、易用性、開放性、可升級以及延續性等。
其中,看得懂直接指向的是?AI 技術能力,要求黑芝麻的晶元產品能夠理解外界所有的信息,可以進行判斷和決策。
而看得懂的基礎是看得清,這指的是黑芝麻晶元產品的圖像處理能力,需要具備准確接收外界信息的能力。
這里尤其以攝像頭感測器為代表,其信息量最大、數據量也最多,當然感測器融合也不可或缺。
看得遠則指的是車輛不僅要感知周邊環境,還要了解更大范圍的環境信息,這就涉及到了車路協同、車雲協同這樣的互聯技術,所以我們看到黑芝麻的晶元產品非常注重對互聯技術的支持。
作為一家自動駕駛晶元研發商,這一戰略將成為黑芝麻後續晶元產品研發的「聖經」。
3、定位 Tier 2,綁定 Tier 1,服務 OEM
現階段,發展智能汽車已經成為了國家意志,在政策如此支持的情況下,智能汽車的市場爆發期指日可待。
根據艾瑞咨詢的報告數據顯示,到 2025 年全球將會有 6662 萬輛智能汽車的存量,中國市場的智能汽車保守預計在 1600 萬輛左右。
如此規模龐大的智能汽車增量市場,將為那些打造智能汽車「大腦」的晶元供應商培育出無限的產品落地機會。
作為其中一員,黑芝麻智能科技也將融入到這股潮流之中,很有機會成長為潮流的引領者。
作為一家自動駕駛晶元研發商,黑芝麻智能科技將自己定位為?Tier 2,未來將綁定 Tier 1 合作夥伴,進而為車企提供產品和服務。
當然,黑芝麻不僅能提供車載晶元,未來還將為客戶提供自動駕駛感測器和演算法的解決方案,還有工具鏈、操作平台等產品。
憑借著此前發布的華山一號 A500 晶元,黑芝麻智能科技已經與中國一汽和中科創達兩家達成了深入的合作夥伴關系,將在自動駕駛晶元、視覺感知演算法等領域展開了諸多項目合作。
另外,全球頂級供應商博世也與黑芝麻建立起了戰略合作關系。
目前,黑芝麻的華山一號 A500 晶元已經開啟了量產,其與國內頭部車企關於 L2+ 和 L3 級別自動駕駛的項目也正在展開。
如此快速的落地進程,未來可期。
有意思的是,黑芝麻此番發布華山二號系列晶元,包括中國一汽集團的副總經理王國強、上汽集團總工程師祖似傑、蔚來汽車 CEO 李斌以及博世中國區總裁陳玉東在內的多位行業大佬都為其雲站台。
這背後意味著什麼?給我們留下了很大的想像空間。
本文來源於汽車之家車家號作者,不代表汽車之家的觀點立場。

閱讀全文

與單台機器算力最高相關的資料

熱點內容
以太坊當日預測軟體 瀏覽:411
印度數字貨幣失敗的原因 瀏覽:325
以太坊用到顯卡什麼性能 瀏覽:522
比特幣剛出的時候怎麼挖 瀏覽:951
i7算力多少 瀏覽:923
數字虛擬貨幣是怎樣產生的 瀏覽:879
btc和eth哪個更有投資價值 瀏覽:620
以太坊2018年1月4日 瀏覽:594
安卓下載BTC 瀏覽:997
比特幣最早挖礦平台 瀏覽:226
全網算力和比特幣價格 瀏覽:608
btc礦機尺寸 瀏覽:375
虛擬貨幣會替代現金嗎 瀏覽:60
ARM算力對應關系 瀏覽:845
10萬人民幣可買多少比特幣 瀏覽:524
區塊鏈概念股名單 瀏覽:672
哪個虛擬貨幣好 瀏覽:850
比特幣的下一個牛市 瀏覽:679
以太坊怎麼比btc貴啊 瀏覽:656
2019公安公布虛擬貨幣名單 瀏覽:559