微軟和谷歌正在通過搜索引擎將人工智能帶給人們,從而推動了一場重大的計算變革,而衡量成功的標(biāo)準(zhǔn)之一可能取決于支持應(yīng)用程序的硬件和數(shù)據(jù)中心基礎(chǔ)設(shè)施。
上周,微軟和谷歌宣布推出下一代人工智能搜索引擎,可以推理和預(yù)測,并為用戶問題提供更全面的答案。搜索引擎將能夠為復(fù)雜的查詢生成完整的答案,就像 ChatGPT 提供詳細(xì)答案或撰寫論文的方式一樣。
微軟正在將 AI 置于 Bing 中以響應(yīng)文本查詢,Google 也計劃將 AI 置于其文本、圖像和視頻搜索工具中。這些公告是在上周連續(xù)幾天發(fā)布的。
兩家公司承認(rèn),如果沒有強(qiáng)大的硬件基礎(chǔ)設(shè)施,人工智能就不可能進(jìn)入搜索引擎。兩家公司沒有分享驅(qū)動人工智能計算的實際硬件的細(xì)節(jié)。
多年來,微軟和谷歌一直在培育專為黃金時段公告設(shè)計的人工智能硬件,例如上周的人工智能搜索引擎。
這些公司擁有截然不同的人工智能計算基礎(chǔ)設(shè)施,響應(yīng)速度和結(jié)果準(zhǔn)確性將成為對搜索引擎生存能力的嚴(yán)峻考驗。
谷歌的Bard在其云服務(wù)中由其 TPU(張量處理單元)芯片提供支持,熟悉該公司計劃的消息人士證實了這一點。微軟表示,其在 Azure 中的人工智能超級計算機(jī)——可能在 GPU 上運行——可以以毫秒級或搜索延遲的速度提供結(jié)果。
谷歌的 TPU 與 AI 市場領(lǐng)導(dǎo)者 Nvidia 之間的 AI 計算展開了一場非常公開的戰(zhàn)斗,Nvidia 的 GPU 在市場上占據(jù)主導(dǎo)地位。
“團(tuán)隊致力于在全球范圍內(nèi)為機(jī)器和數(shù)據(jù)中心提供動力和建設(shè)。我們仔細(xì)地編排和配置了一組復(fù)雜的分布式資源。我們構(gòu)建了新的平臺部件,旨在以前所未有的方式幫助負(fù)載平衡、優(yōu)化性能和擴(kuò)展,”微軟 Bing 產(chǎn)品負(fù)責(zé)人 Dena Saunders 在發(fā)布會上說。
微軟正在使用更高級版本的 OpenAI 的 ChatGPT。在微軟的活動中,OpenAI 首席執(zhí)行官Sam Altman估計每天有 100 億次搜索查詢。
微軟通過實現(xiàn)讓Bing擁有AI能力的道路確保其AI 超級計算機(jī)具有計算能力,該公司聲稱它是世界上最快的五臺超級計算機(jī)之一,但該計算機(jī)未列入 Top500 排名。
“我們參考了 AI 超級計算機(jī),但這項工作花費了數(shù)年時間,并且需要大量投資來構(gòu)建我們可以在堆棧的每一層中引入的規(guī)模類型、速度類型和成本類型。微軟執(zhí)行副總裁兼首席財務(wù)官Amy Hood上周在與投資者的電話會議上表示,我認(rèn)為……我們的運營規(guī)模非常不同。
Hood 說,隨著使用規(guī)模和優(yōu)化的實施,超級計算機(jī)層的 AI 計算成本將隨著時間的推移而繼續(xù)下降。
“當(dāng)然,每次搜索交易的成本往往會隨著規(guī)模的擴(kuò)大而下降,我認(rèn)為我們從一個非常強(qiáng)大的平臺開始,以便能夠做到這一點,”Hood 說。
隨著更多 GPU 的實施,計算成本通常會上升,冷卻成本和其他支持基礎(chǔ)設(shè)施也會增加賬單。但公司通常將收入與計算成本掛鉤。
微軟的 AI 超級計算機(jī)是與 OpenAI 合作建造的,它擁有 285,000 個 CPU 內(nèi)核和 10,000 個 GPU。Nvidia 在 11 月簽署了一項協(xié)議,將其數(shù)萬個 A100 和 H100 GPU 放入 Azure 基礎(chǔ)設(shè)施中。
根據(jù)Statcounter的數(shù)據(jù),微軟的 Bing 搜索份額并不接近谷歌搜索,谷歌搜索在 1 月份擁有 93% 的市場份額。
人工智能從根本上說是一種基于推理和預(yù)測能力的不同計算方式,而傳統(tǒng)計算則圍繞邏輯計算展開。AI 是在可以執(zhí)行矩陣乘法的硬件上完成的,而傳統(tǒng)計算圍繞著 CPU 展開,CPU 擅長數(shù)據(jù)的串行處理。
谷歌正在采取謹(jǐn)慎的態(tài)度,并將其 Bard 對話式 AI 作為其 LaMDA 大型語言模型的輕量級現(xiàn)代版本發(fā)布。谷歌的 LaMDA 是與 OpenAI 的 GPT-3 競爭的本土版本,后者是 ChatGPT 對話式人工智能的基礎(chǔ)。
Technalysis Research 首席分析師 Bob O'Donnell 表示,處理 AI 搜索的基礎(chǔ)設(shè)施建設(shè)仍在進(jìn)行中,微軟和谷歌需要解決很多問題。
微軟意識到人工智能計算正在迅速發(fā)展,并且愿意測試和使用新的人工智能硬件,O'Donnell 說,他在上周的 Bing AI 發(fā)布會上與微軟的基礎(chǔ)設(shè)施團(tuán)隊進(jìn)行了交談。
“他們還明確表示,‘我們正在嘗試一切,因為它一直在變化。甚至我們現(xiàn)在正在做的事情也會隨著時間的推移而改變——未來會有不同,'”O(jiān)'Donnell 說。
O'Donnell 說,對于 Microsoft 而言,擁有一個更靈活的計算平臺“比在一項給定任務(wù)上一定要快 5%”更為重要。
“他們承認(rèn),‘看,我們將在接下來的 30 天內(nèi)學(xué)到很多東西,因為人們開始使用它,我們開始看到負(fù)載的真實情況?!?這是一種動態(tài)的、動態(tài)的東西,”O(jiān)'Donnell 說。
例如,Microsoft 可能會了解人們使用搜索請求訪問服務(wù)器的高峰時間。O'Donnell 說,在低使用率期間,微軟可以從輸出結(jié)果的推理部分切換到需要更多 GPU 計算的訓(xùn)練部分。
谷歌于 2016 年推出的TPU一直是該公司人工智能戰(zhàn)略的關(guān)鍵組成部分。眾所周知,TPU 為 AlphaGo 提供了動力,該系統(tǒng)在 2016 年擊敗了圍棋冠軍李世石。該公司的 LaMDA LLM 是為在 TPU 上運行而開發(fā)的。谷歌的姊妹組織 DeepMind 也在使用 TPU 進(jìn)行人工智能研究。
SemiAnalysis 創(chuàng)始人 Dylan Patel在一份簡報中表示,谷歌的芯片“使用內(nèi)部 TPUv4 pod 與 Microsoft/OpenAI 使用基于 Nvidia 的 HGX A100s 相比,在基礎(chǔ)設(shè)施方面具有顯著優(yōu)勢” 。
隨著時間的推移,隨著硬件規(guī)模和模型針對硬件的優(yōu)化,成本將會降低,Patel寫道。
Facebook 現(xiàn)在正在建設(shè)具有更多 AI 計算能力的數(shù)據(jù)中心。Facebook 集群將擁有數(shù)千個加速器,其中包括 GPU,并將在 8 至 64 兆瓦的功率范圍內(nèi)運行。人工智能技術(shù)被用來刪除令人反感的內(nèi)容,計算集群將驅(qū)動公司的元宇宙未來。該公司還在建造一臺配備 16,000 個 GPU 的 AI 研究超級計算機(jī)。
Mercury Research 首席分析師迪恩·麥卡倫 (Dean McCarron) 表示,一般來說,現(xiàn)在正在為目標(biāo)工作負(fù)載構(gòu)建數(shù)據(jù)中心,這些工作負(fù)載越來越多地圍繞人工智能應(yīng)用,并且具有更多 GPU 和 CPU 內(nèi)容。
云提供商經(jīng)過漫長的評估周期來挑選最好的 CPU、GPU 和其他組件??倱碛谐杀臼橇硪粋€考慮因素。
“這里的另一個問題是它有多靈活?因為一些購買者可能不想對特定的工作負(fù)載投入或做出太大的承諾,因為他們不知道將來是否會出現(xiàn)這種情況,”McCarron 說。
優(yōu)先支持 AI 工作負(fù)載的數(shù)據(jù)中心將更多地采用 Intel、Nvidia 和 AMD 的 GPU 和 CPU。有些人可能會為 AI 工作負(fù)載選擇備用加速器,但它們可以與 GPU 和 CPU 共存。
“你總是需要更快的 GPU。十年后,在數(shù)據(jù)中心,會有 CPU 嗎?是的。會有 GPU 嗎?是的,也是,”麥卡倫說。
編輯:黃飛
?
評論
查看更多