眼看著 ChatGPT 持續(xù)爆火了幾個月,期間微軟、谷歌、Meta 等科技巨頭接連入局,如今英特爾也終于官宣“參賽”。
上周末,在德國漢堡舉行的國際超級計算大會 (ISC) 高性能會議 (HPC)上,英特爾不僅展示了其在 HPC 和 AI 工作負載方面的領先性能,還宣布了一項出人意料的計劃:與阿貢國家實驗室攜手,用 Aurora 超級計算機開發(fā)生成式 AI 模型 Aurora genAI,參數(shù)量將多達 1 萬億!
要知道,ChatGPT 的參數(shù)規(guī)模僅為 1750 億,即 Aurora genAI 模型將比它至少大 5 倍。
(圖片來自英特爾官網(wǎng))
01.AI 模型將由 Aurora 超算提供算力
據(jù)了解,英特爾 Aurora genAI 模型將以兩個框架為基礎:NVIDIA 的 Megatron 和微軟的 DeepSpeed。
Megatron:用于分布式訓練大規(guī)模語言模型的架構,專門針對 Transformer 進行了優(yōu)化,不僅支持傳統(tǒng)分布式訓練的數(shù)據(jù)并行,也支持模型并行。
DeepSpeed:專注于優(yōu)化大型深度學習模型的訓練,通過提高規(guī)模、速度、成本和可用性,釋放了訓練 1000 億參數(shù)模型的能力,極大促進大型模型的訓練。
除了這兩個框架,Aurora genAI 模型還將由 Aurora 超級計算機來提供算力——這臺英特爾為阿貢國家實驗室設計的超級計算機,在經(jīng)歷了各種推遲后,如今終于成型了。
根據(jù)目前公開的資料顯示,Aurora 超級計算機由英特爾 Xeon CPU Max 和 Xeon GPU Max 系列芯片提供支持,總共有 10624 個節(jié)點,擁有 63744 個 Ponte Vecchio GPU、21248 個 Sapphire Rapids 至強 CPU、1024 個分布式異步對象存儲 (DAOS) 存儲節(jié)點以及 10.9 PB 的 DDR5 傲騰持久內存。
此外,英特爾方面還透露了 Aurora 超級計算機的早期性能結果:“Aurora 超算在科學和工程工作負載上具有領先性能,比 AMD MI250 GPU 的性能高 2 倍,在 QMCPACK 量子力學應用上比 H100 提高了 20%,并接近線性擴展,可達到數(shù)百個節(jié)點?!?/p>
值得一提的是,與最初的 1 Exaflop 目標相比,預計 Aurora 超級計算機在今年推出時,將提供超過 2 Exaflops 的雙精度浮點計算性能——比目前多次蟬聯(lián)全球超算 Top500 榜首的 Frontier 超級計算機(1.194 Exaflop/s)還要高。
02.以科學為重點的生成式 AI 模型
有了算力強悍的 Aurora 超算打底,注定 Aurora genAI 模型的規(guī)模不會小。據(jù)英特爾官方介紹,阿貢國家實驗室正在為 Aurora genAI 模型牽頭開展國際合作。
阿貢副實驗室主任 Rick Stevens 表示:“該項目旨在利用 Aurora 超級計算機的全部潛力,以產(chǎn)生一種資源,可用于能源部實驗室的下游科學,并與其他機構合作。”
總體而言,Aurora genAI 是一個以科學為重點的生成式 AI 模型,因此將在通用文本、代碼、科學文本以及生物學、化學、材料科學、物理學、醫(yī)學等科學數(shù)據(jù)上進行訓練。
由此產(chǎn)生的 AI 模型,將具有多達 1 萬億個參數(shù),包括從分子和材料的設計到數(shù)百萬個來源的綜合知識,可用于各種科學應用:系統(tǒng)生物學、癌癥研究、氣候科學、宇宙學研究、高分子化學與材料等。除了科學之外,Aurora genAI 模型還可能用于其他領域,如金融建模、自然語言處理、機器翻譯、圖像識別和語音識別等。
03.計劃 2024 年完成
除此之外,有關 Aurora genAI 模型的更多信息英特爾尚未劇透,不過據(jù)外媒報道,英特爾計劃在 2024 年開發(fā)和完成 Aurora genAI 模型——如果進展順利,或許我們等待的時間并不會太久。
這一消息的發(fā)布,引來了不少人的關注,而英特爾入局 AI 大模型即宣布 1 萬億參數(shù)起步,更是令人期待未來 GPT-4 等競品的發(fā)展:
“萬億參數(shù)應該是一個特殊的極限,但你也可以持懷疑態(tài)度,說這只是一個需要關注的巨大整數(shù)。毫無疑問,如果此模型類似于 GPT-4,這將增加一個數(shù)據(jù)點。但隨著各大公司宣布這個又宣布那個,我想知道我們是否會在 6 月達到頂峰?!?/p>
“人們正在使用 H100 構建新系統(tǒng),并且已經(jīng)有明顯更好的 AI GPU 了,如果這種情況繼續(xù)下去,NVIDIA 可能需要盡快宣布新卡以保持領先地位?!?/p>
“我猜 GPT-4 很快就不會在許多基準測試中繼續(xù)保持 SOTA(state of the art,指在特定任務中目前表現(xiàn)最好的方法或模型)了,或許未來它也將在世界上最快的超級計算機上進行訓練。作為參考,OpenAI 超級計算機擁有大約 10000 個 GPU,而 Aurora 有 63744 個 GPU?!?/p>