編譯 |??汪越,編輯?|??Panken
GPT進(jìn)展放緩,OpenAI撞上數(shù)據(jù)墻,努力尋找出路。
智東西11月11日消息,據(jù)The Information報(bào)道,OpenAI的GPT系列模型改進(jìn)速度放緩,公司正調(diào)整策略以應(yīng)對這一挑戰(zhàn)。據(jù)OpenAI員工透露,下一代旗艦?zāi)P蚈rion已完成約20%的訓(xùn)練。Orion在語言任務(wù)上表現(xiàn)出色,但在編碼等方面未超越GPT-4,且運(yùn)行成本偏高,提升幅度低于預(yù)期。此外,Orion在明年年初發(fā)布時(shí),可能不會沿用傳統(tǒng)的“GPT”命名規(guī)則,而是采用新的命名方式。
Orion的開發(fā)暴露了高質(zhì)量文本數(shù)據(jù)短缺的問題。根據(jù)Scaling Law理論,模型性能應(yīng)隨數(shù)據(jù)量和算力的增加而提升。但高質(zhì)量數(shù)據(jù)的有限性已使Orion的訓(xùn)練效果受限,令Scaling Law的適用性受到質(zhì)疑。即便投入更多數(shù)據(jù)和算力,模型的提升速度也可能不再如前幾代那樣顯著。
為此,OpenAI成立了一個(gè)專門團(tuán)隊(duì),研究如何克服數(shù)據(jù)短缺的挑戰(zhàn),評估Scaling Law還能適用多久。
01.撞上數(shù)據(jù)墻,Orion在某些方面神似舊模型
據(jù)OpenAI員工透露,GPT改進(jìn)速度放緩的重要原因是高質(zhì)量文本和其他數(shù)據(jù)的短缺。大語言模型(LLM)的預(yù)訓(xùn)練需要大量數(shù)據(jù)來建立模型對世界和概念的理解,確保其能完成寫作或編程等任務(wù)。然而,隨著現(xiàn)有數(shù)據(jù)源日益被充分利用,模型提升正面臨瓶頸。
為解決數(shù)據(jù)不足的問題,OpenAI已組建由前預(yù)訓(xùn)練負(fù)責(zé)人尼克·萊德(Nick Ryder)領(lǐng)導(dǎo)的團(tuán)隊(duì),致力于探索如何克服數(shù)據(jù)短缺以及Scaling Law在未來的適用性。Orion模型的部分訓(xùn)練數(shù)據(jù)源于AI生成的數(shù)據(jù),即由GPT-4等舊模型生成的合成數(shù)據(jù)。然而,這種方式可能導(dǎo)致Orion在某些方面呈現(xiàn)出舊模型的特征。OpenAI正通過其他方法優(yōu)化LLM處理任務(wù)的能力,例如要求模型從大量數(shù)學(xué)或編程問題樣本中學(xué)習(xí),并通過強(qiáng)化學(xué)習(xí)提升解題效率。此外,人工評估員還會對模型的編碼和問題解決表現(xiàn)進(jìn)行評分,這種基于人類反饋的強(qiáng)化學(xué)習(xí)為模型優(yōu)化帶來重要支持。今年9月,OpenAI推出了推理模型o1。與傳統(tǒng)模型不同,o1在回答前“思考”時(shí)間更長,通過增加計(jì)算資源提升響應(yīng)質(zhì)量,顯示出“測試時(shí)計(jì)算”(Test-Time Compute)的效果。雖然o1的運(yùn)行成本是普通模型的六倍,并且該模型的客戶群較為有限,但阿爾特曼認(rèn)為它將為科學(xué)研究和復(fù)雜代碼生成等領(lǐng)域帶來突破。
02.LLM發(fā)展平臺期,投資基礎(chǔ)設(shè)施效果存疑
據(jù)The Information報(bào)道,Meta CEO馬克·扎克伯格(Mark Zuckerberg)、阿爾特曼以及其他AI開發(fā)公司的首席執(zhí)行官均公開講過,當(dāng)前的技術(shù)仍未達(dá)到Scaling Law所設(shè)定的極限。這或許是包括OpenAI在內(nèi)的公司,仍在投入數(shù)十億美元建設(shè)大型數(shù)據(jù)中心的原因之一,以進(jìn)一步提升預(yù)訓(xùn)練模型的性能。
然而,OpenAI研究員諾姆·布朗(Noam Brown)在上個(gè)月的TEDAI會議上分享說,開發(fā)更先進(jìn)的模型可能在財(cái)務(wù)上變得不可持續(xù)。布朗提出質(zhì)疑:我們真的要花費(fèi)數(shù)千億美元甚至更多來訓(xùn)練新的模型嗎?擴(kuò)展的模式終究會達(dá)到瓶頸。
OpenAI仍在對其下一代模型Orion進(jìn)行長時(shí)間的安全性測試。據(jù)公司員工透露,Orion在明年年初發(fā)布時(shí),可能不會沿用傳統(tǒng)的“GPT”命名規(guī)則,而是采用新的命名方式。OpenAI官方對此并未做出評論。
一些已經(jīng)向AI開發(fā)商投資了數(shù)千萬美元的投資者們,也對LLM是否已經(jīng)開始趨于穩(wěn)定表示擔(dān)憂。
本·霍洛維茨(Ben Horowitz)是OpenAI的股東之一,同時(shí)還投資了Mistral和Safe Superintelligence等競爭對手。他曾談道,OpenAI一直在增加訓(xùn)練AI所需的GPU數(shù)量,但似乎并未獲得預(yù)期的智能改進(jìn)。不過,他并未進(jìn)一步詳細(xì)說明?;袈寰S茨的同事馬克·安德森(Marc Andreessen)談道,許多聰明的研究人員正在努力突破技術(shù)瓶頸,嘗試提高推理能力。
企業(yè)軟件供應(yīng)商Databricks的聯(lián)合創(chuàng)始人兼董事長Ion Stoica談道,LLM在某些方面可能已經(jīng)進(jìn)入瓶頸期,但在其他方面仍在持續(xù)進(jìn)步。Stoica說,他們的平臺允許應(yīng)用程序開發(fā)者評估不同的LLM,并且發(fā)現(xiàn)雖然AI在編碼和解決復(fù)雜的多步驟問題上持續(xù)改進(jìn),但在執(zhí)行一些通用任務(wù)(如分析文本情緒或描述醫(yī)療癥狀)時(shí),能力似乎有所放緩。
Stoica還說,在常識性問題上,LLM的表現(xiàn)可能已經(jīng)接近極限。為了進(jìn)一步提升模型的能力,公司需要更多的事實(shí)數(shù)據(jù),而合成數(shù)據(jù)的幫助則有限。
03.結(jié)語:強(qiáng)化學(xué)習(xí)提升模型表現(xiàn),持續(xù)投資保持競爭力
OpenAI正通過多方策略應(yīng)對當(dāng)前的技術(shù)瓶頸,尤其是在LLM面臨的高質(zhì)量數(shù)據(jù)短缺和性能提升困境。為了克服這些挑戰(zhàn),OpenAI不僅通過強(qiáng)化學(xué)習(xí)提升模型在數(shù)學(xué)和編程等特定任務(wù)中的表現(xiàn),還依賴于AI數(shù)據(jù)平臺Scale AI和LLM訓(xùn)練商Turing等初創(chuàng)公司來管理大量外包承包商,以支持訓(xùn)練過程。
雖然當(dāng)前AI基礎(chǔ)設(shè)施的投資回報(bào)尚不明顯,且在LLM訓(xùn)練過程中面臨巨大的財(cái)務(wù)壓力與技術(shù)挑戰(zhàn),但市場競爭與投資熱情尚未減退,競爭者們在持續(xù)下注。比如,馬斯克旗下的大模型獨(dú)角獸xAI和X平臺及英偉達(dá)合作,已建成了10萬片H100 GPU的強(qiáng)大集群;Meta投入了400億打造類似規(guī)模的GPU集群,以支持Llama 4模型的訓(xùn)練;蘋果也在積極推進(jìn)與富士康的合作,提升自家設(shè)備的AI算力。
來源:The Information
(本文系網(wǎng)易新聞?網(wǎng)易號特色內(nèi)容激勵計(jì)劃簽約賬號【智東西】原創(chuàng)內(nèi)容,未經(jīng)賬號授權(quán),禁止隨意轉(zhuǎn)載。)