首頁 > 個股 > 正文

全球第五,破萬億市值!這家廠商正在壟斷AI產業

2023-06-02 00:59:46來源:凱恩斯  

美國芯片制造商英偉達市值一度突破1萬億美元,成為首家市值達到這一里程碑的芯片企業。是美股市值第五大公司。


(資料圖)

人工智能以及芯片行業今年的火熱程度已經不言而喻了,英偉達股價上漲一部分因素受高于預期的業績指引推動。英偉達的第一季度每股收益達到1.09美元,高于92美分的市場預期,第二季度營收指引高達110億美元,比71.5億美元的市場預期高出近40億美元。市值上,英偉達也不便宜了,未來12個月預期市盈率高達47.4倍。

現在股價的上漲更多是受到未來生成式人工智能推動英偉達產品需求大幅上升,為英偉達創造了更多的市場增長潛力和預期。

從英偉達的方向熱度來看,長遠的領域可能還比較早,現在算力GPU這些基礎才是最重要的。今天聊聊英偉達。

在這場AI大模型的戰局里,已經有不少廠商參與了,像OpenAI、微軟、谷歌,國內百度、阿里、華為、商湯等。但是掩藏在背后的GPU巨頭英偉達,要藏不住了,尤其是英偉達A100、H100,是當前為AI大模型提供算力的“主力”。掌握著“算力”也得到了不少關注。如今要參與訓練大模型了。

前兩天,英偉達創始人兼CEO黃仁勛在臺北電腦展COMPUTEX 2023上,公布涉及加速計算和人工智能(AI)的多項進展。

推出了采用英偉達最新GPU和CPU的系統巔峰之作——新型大內存AI超級計算機DGX GH200,涵蓋了英偉達最先進的加速計算和網絡技術。是首款將Grace Hopper超級芯片與英偉達NVLink Switch系統搭配的超級計算機,通過采用新互連方式,將256個Grace Hopper超級芯片連接在一起,使它們能像單個巨型GPU一樣協同運行,從而提供了1EFLOPS的性能和144TB的共享內存,比2020年推出的上一代DGX A100 320GB系統的內存多出近500倍。

同時,還在打造自己的基于DGX GH200的大型AI超級計算機NVIDIA Helios,以支持其研究和開發團隊的工作。它采用4個DGX GH200系統,每個都將與英偉達Quantum-2 InfiniBand網絡連接,帶寬高達400Gb/s,以提高訓練大型AI模型的數據吞吐量。Helios將包括1024顆Grace Hopper超級芯片。

如今GH200 Grace Hopper超級芯片已全面投產,這款產品GH200 Grace Hopper超級芯片采用NVIDIA NVLink-C2C互連技術,將基于Arm的英偉達Grace CPU和Hopper GPU架構組合在同一封裝中,提供了高達900GB/s的總帶寬——比傳統加速系統中的標準PCIe Gen5通道帶寬高7倍,互連功耗降低到原來的1/5,能夠滿足苛刻的生成式AI和高性能計算(HPC)應用。

還有推出NVIDIA Spectrum-X,是一個旨在提高基于以太網的AI云的性能和效率的網絡平臺,Spectrum-X的優勢是高度通用性,能夠用在一些AI應用上。基于Spectrum-X參考設計的藍圖和測試平臺,英偉達在其以色列數據中心構建一臺超大規模生成式AI超級計算機Israel-1。

以及NVIDIA MGX服務器規范,可以滿足各種規模的數據中心的需求。有了這個規范,系統制造商可以用該產品去構建100多種服務器配置,去適應廣泛的AI、HPC及NVIDIA Omniverse應用。MGX已經可以和英偉達全系列GPU、CPU、DPU以及各種x86及Arm處理器相配適。有了MGX,制造商可以從為其服務器機箱加速計算優化的基本系統架構開始,然后選擇GPU、DPU和CPU。AI訓練和5G等多項任務可以在一臺機器上處理,或者升級到下一代硬件上。

還有一個是關于游戲的,推出面向游戲的NVIDIA Avatar云引擎(ACE),大家的關注度比較高。是一款定制AI模型代工服務,中間件、工具和游戲開發者可以使用它來構建和部署定制的語音、對話和動畫AI模型。這款模型涵蓋了英偉達的多項技術,英偉達NeMo,使用專有數據,構建、定制和部署語言模型;英偉達Riva,用于自動語音識別和文本轉語音,以實現實時語音對話;英偉達Omniverse Audio2Face,用于即時創建游戲角色的表情動畫,以匹配任何語音軌道。關于人工智能,雖然還沒到應用狀態,但cpo和游戲傳媒方向慢慢嶄露頭角。

之前,英偉達和Convai合作,就展示過游戲開發者如何使用ACE來為游戲構建NPC。AI模型用于創作游戲,確實有不少優勢,AI可以創造更智能化NPC、更人性化對話系統、更自由的場景生成,給用戶更好的體驗,而且AI技術還能夠實現“降本增效”。傳統方法生成NPC的成本很高,制作一分鐘人物動畫可能要幾天時間,但利用AI技術就要更快一些。

會上英偉達推出的內容有很多,有興趣的話,大家可以再去了解了解。訓練AI大模型確實是一項耗費算力、算法、數據的工作,前兩天英偉達推出的一系列硬件基礎設施及軟件工具,也說明了英偉達要在大模型上發力了,要圍繞企業開發和部署生成式AI應用的核心痛點,利用自己的技術破解大規模AI的算力瓶頸。如果可以適用于更多的企業,那么會幫助企業及研究機構節省大量時間和成本。

為什么是英偉達?

在CPU和GPU上,英偉達押注的是GPU。并把GPU用在了通用計算上。那時候 GPU 的多是用來加速圖形渲染,時常用于游戲領域。但是二十年前英偉達就研發了CUDA開發平臺(通用并行計算架構)。搭載GPU的工具集,理由CUDA編程,能夠讓多個GPU并行運算,提高相應的計算性能。

在CUDA的加持之下,GPU脫離了圖像處理的單一用途,開始真正具備通用計算的能力,并逐步被用到了AI的深度學習之中。比如OpenAI研發的GPT大語言模型,就需要大量的計算能力,GPU是主要的算力產出工具。英偉達推出的A100芯片是支撐起GPT的“主力”GPU。公開數據顯示,GPT-3具有1750億個參數,45TB的訓練數據,并由上萬枚A100芯片支撐。

在這兩天的臺北電腦展上,黃仁勛也看好GPU的計算能力,提到訓練一個LLM大語言模型,將需要960個CPU組成的服務器集群,這將耗費大約1000萬美元(約合人民幣7070萬元),并消耗11千兆瓦時的電力。相比之下,同樣以1000萬美元的成本去組建GPU服務器集群,將以僅3.2千兆瓦時的電力消耗,訓練44個LLM大模型。若是都消耗11千兆瓦時的電量,而GPU服務器集群可以實現150倍的加速,訓練150個LLM大模型,且占地面積更小。

想訓練一個LLM大模型時,只需要一個40萬美元左右,消耗0.13千兆瓦時電力的GPU服務器即可。也就是說,GPU服務器可以以4%的成本和1.2%的電力消耗來訓練一個LLM,GPU比CPU服務器的優勢大很多。

相比其他廠商,英偉達在AI芯片的優勢,既有硬件性能的優勢,也有軟件生態的優勢。英偉達推出了CUDA平臺,支持開發者用熟悉的高級程序語言進行編程,靈活調用GPU的算力。自此,GPU的使用范圍不再局限于顯卡,而是擴展到所有適合并行計算的領域。GPU與CUDA組成的軟硬件系統,形成了英偉達的產品壁壘。

AMD 的產品重點是CPU, Passmark曾發布相關情況,2021年第四季度AMD EPYC 霄龍系列在英特爾壟斷下有所增長,占全球服務器 CPU 市場的 6%。但這幾年AMD也在做GPU,研發 GPGPU 產品,還建立了 Infinity Fabric 技術,將 EPYC 霄龍系列 CPU 與 Instinct MI 系列 GPU 直接相連。有了硬件建設之外,軟件上也毫不遜色,AMD 推出 ROCm 平臺打造 CDNA 架構。AMD 的 ROCm 生態采用了 HIP 編程模型,但 HIP 與 CUDA 的編程語法極為相似,開發者可以模仿 CUDA 的編程方式為 AMD 的 GPU 產品編程,然后在在源代碼層面上兼容 CUDA。也就是說,AMD 的ROCm 生態借用了 CUDA 的技術,技術上仍沒有超過英偉達。

亞馬遜推出過AI專用芯片,2020年底,AWS推出專用于訓練機器學習模型的Trainium。今年初,專為人工智能打造的Inferentia 2發布,將計算性能提高了三倍,加速器總內存提高了四分之一,吞吐量提高了四分之一,延遲提高了十分之一。Inf2實例(可通過芯片之間的直接超高速連接支持分布式推理)最多可支持1750億個參數。微軟也在開發AI芯片,還有谷歌在自己的數據中心部署了人工智能芯片TPU v4,基于TPU v4的超級計算機擁有4096塊芯片。谷歌的數據是相比TPU v3,TPU v4性能提升2.1倍。

而國內AI芯片廠商很難同時把兩者都做好,多是傾向于架構創新、算力性能、平臺方案等上,芯片的研發有些有了成果,像海光信息、天數智芯、壁仞科技和摩爾線程等為代表的國內廠商在研發 GPU,但成果也不多,軟件、系統和生態層的建設更少。

我們也知道目前ChatGPT大模型只是開始,有些廠商已經獲益不少,比如英偉達今年開始,股價增幅超過60%。英偉達在這場“AI算力上”,以A100、H100系列芯片貢獻了不少力量,是ChatGPT這樣的大型語言模型背后的動力來源。前幾天英偉達公布2024財年第一季度財務業績,季度營收71.9億美元,較上一季度增長19%。其中,超過一半營收來自數據中心,達42.8億美元,創歷史新高。基于本季度營收增長態勢,英偉達預計下季度營收將達110億美元。得益于對生成式AI和大語言模型需求的不斷增長,英偉達數據中心營收創歷史新高,同比增長14%,環比增長18%

英偉達的業績和藍海還遠不止A100、H100,因為越來越多的廠商對大模型有需求,特別是科技行業正在競相開發更大的 AI 模型,而且大型數據中心運營商也在調整的計算基礎設施,也在做人工智能方向,對芯片的需求是源源不斷的,我們之前也提到H100芯片出現過短缺,今年才開始銷售,H100 和 A100 芯片的銷量都非常強勁,只增不減。而且美國禁止向我國出售高端AI芯片,國內難以買不到A100和H100,導致A800和H800這兩款芯片的價格比原來的建議零售價高出40%。

那么,對于英偉達接下來的產品,性能如何?應用如何?市場還是非常期待。

呂長順(凱恩斯) 證書編號:A0150619070003。【以上內容僅代表個人觀點,不構成買賣依據,股市有風險,投資需謹慎】

關鍵詞:

責任編輯:hnmd003

相關閱讀

推薦閱讀