一份新報告來自彭博社OpenAI 執行長 Sam Altman 再次表示,他的努力為人工智慧晶片企業籌集數十億美元旨在利用這筆現金開發一個“工廠網路”,用於製造,該網路將延伸到全球,並涉及與未透露姓名的“頂級晶片製造商”合作。

運行人工智慧模型的一個主要成本和限制是擁有足夠的晶片來處理 ChatGPT 或 DALL-E 等機器人背後的計算,這些機器人會回答提示並產生圖像。Nvidia 的價值上漲首次突破1兆美元去年,部分原因是它擁有虛擬壟斷地位,GPT-4、Gemini、Llama 2 和其他模型嚴重依賴其流行的 H100 GPU。

據此,競相製造運行複雜人工智慧系統的高性能晶片的需求只會愈演愈烈。這晶圓廠數量有限能夠製造高階晶片正促使奧特曼或其他任何人在需要生產新晶片之前幾年就競標產能。並反對喜歡蘋果的需要財力雄厚的投資者承擔非營利組織 OpenAI 仍然無法負擔的成本。據報道,軟銀集團和總部位於阿布達比的人工智慧控股公司 G42 正在就為 Altman 的項目籌集資金進行談判。

A person holding Microsoft’s Azure Maia 100 AI chip

Microsoft 的全新 Azure Maia 100 AI 處理器。

圖:微軟

其他開發人工智慧模型的公司也開始嘗試製造自己的晶片。OpenAI 的投資者微軟在 11 月宣布,它打造了第一顆客製化人工智慧晶片訓練模型,亞馬遜緊跟在後宣布新版本其 Trainium 晶片。晶片設計團隊正在使用其 DeepMind AI跑步在 Google Cloud 伺服器上設計 AI 處理器,例如張量處理單元 (TPU)。

AWS、Azure 和 Google 也使用 Nvidia 的 H100 處理器。本週,Meta 執行長馬克祖克柏 (Mark Zuckerberg)告訴邊緣記者亞歷克斯·希思隨著公司追求通用人工智慧 (AGI) 的發展,到今年年底,Meta 將擁有超過 34 萬塊 Nvidia H100 GPU。

Picture of the GH200 AI processor platform, showing two dies on a circuit board

Nvidia GH200 — Grace Hopper 超級晶片 —

圖:英偉達

英偉達已經宣布新一代 GH200 Grace Hopper 晶片擴大其在該領域的主導地位,同時競爭對手AMD,高通, 和英特爾已經推出旨在為筆記型電腦、手機和其他設備上運行的人工智慧模型提供支援的處理器。