EDN電子技術設計的讀者們,是否還記得售價數百萬美元的“全球最大AI芯片”?EDN在去年報道過Cerebras推出的這款基于臺積電7nm的第二代產品Wafer Scale Engine,其內核數量增加了2倍多。更多詳細內容:世界上尺寸最大的芯片Wafer Scale Engine發布第二代,售價“數百萬”美元
今日,這家公司又官宣了新消息!
Cerebras Systems公司近日宣布,在基于單個Wafer Scale Engine-2芯片的CS-2系統上訓練了世界上最大的擁有200億參數的NLP(自然語言處理)人工智能模型。這也使得它能夠適應,目前網絡上非常熱門的基于文本創建圖像的OpenAI的120億個參數的DALL-E的神經網絡模型。
由Cerebras訓練的人工智能模型攀升到一個獨特的、驚人的200億個參數。 Cerebras無需在多個加速器上擴展工作負載就完成了這一操作。 Cerebras的成功對于機器學習至關重要,因為與以前的模型相比,軟件需求的基礎設施和復雜性降低了,顯著降低了原本需要數千個GPU 訓練的成本(以及相關的硬件和擴展要求),同時消除了在它們之間劃分不同版本模型的技術困難。
“Wafer Scale Engine-2”的制程工藝由臺積電16nm工藝提升到了7nm工藝,基于一整張12英寸的晶圓制造,面積是462.25平方厘米,相當于市面上數百種高級芯片,擁有2.6萬億個7納米晶體管。 除了晶圓和晶體管外,Wafer Scale Engine-2還包含85萬個核心和40 GB集成緩存,,內存帶寬由9PB/s提高到了20PB/s,結構帶寬高達220PB/s,功耗為15kW,各項指標均打破首代WSE 處理器創造的世界紀錄。
資料顯示,OpenAI 的 GPT-3 是一種 NLP 模型,可以編寫有時可能會欺騙人類讀者的整篇文章,具有驚人的 1750 億個參數。DeepMind 的 Gopher 于去年年底推出,將這個數字提高到 2800 億。Google Brain 的大腦甚至宣布訓練一個超過萬億參數的模型 Switch Transformer。
如果將CS-2所達成訓練200億參數的NLP人工智能模型的成就與上述更大規模的人工智能模型相比,CS-2的成就似乎平淡無奇。但是,事實上,CS-2大幅降低超大規模人工智能模型訓練門檻。
Cerebras的成就是特別重要的,因為研究人員將發現,他們將能夠在新的Wafer Scale Engine-2上計算和創建逐漸精細的模型,而其他人不能。
大量可行參數背后的技術使用了該公司的Weight Streaming技術,允許研究人員“解耦計算和內存占用,允許內存擴展到存儲AI工作負載中快速增長的參數所需的任何數量。” 反過來,設置學習所需的時間將從幾個月減少到幾分鐘,只需要幾個標準的命令,允許在GPT-J和GPT-Neo之間完美切換。