- +1
未來可期|ChatGPT-5為何按下“暫停鍵”:是數(shù)據(jù)不夠,還是能力太強(qiáng)?
關(guān)于ChatGPT-5的發(fā)布延遲,行業(yè)內(nèi)外的猜測可謂五花八門。人們不僅期待新一代模型的問世,也在揣測它背后的遲滯原因。是數(shù)據(jù)量不足的技術(shù)困局,當(dāng)前數(shù)據(jù)量的增長遇到了瓶頸?還是AGI(通用人工智能)的控制難題懸而未決?這些推測既帶來理性思考,也引發(fā)深刻憂慮。我們不妨借此機(jī)會探討,ChatGPT-5遲遲不來的背后,究竟隱藏著什么真相?
數(shù)據(jù)瓶頸:智能模型的“饑餓感”與“飽和度”
在AI領(lǐng)域,有一句行話——“數(shù)據(jù)是石油,算法是引擎”。正如內(nèi)燃機(jī)需要石油燃料才能啟動和運(yùn)轉(zhuǎn),大語言模型的性能同樣依賴于數(shù)據(jù)“燃料”。每一個版本的ChatGPT,都像一只饑餓的巨獸,以龐大的數(shù)據(jù)為食,不斷提升自己的“智商”,使其具備越來越高的語言理解和生成能力。數(shù)據(jù)越多元,模型表現(xiàn)越好。但隨著技術(shù)的發(fā)展,這只巨獸的胃口越來越大,找到能滿足它的“燃料”卻變得愈發(fā)艱難。
大語言模型的發(fā)展有點(diǎn)像登山。每一批新數(shù)據(jù),就像堅(jiān)實(shí)的階梯,幫助模型更接近“智慧”的高峰。ChatGPT一路走來,數(shù)據(jù)量不斷增大,性能也持續(xù)提升。“饑餓感”驅(qū)動下的模型需要不斷“進(jìn)食”更多的數(shù)據(jù)來提升“智力”。然而,當(dāng)梯子的頂端開始搖晃,我們就不得不面對現(xiàn)實(shí):可用的數(shù)據(jù)逐漸耗盡,而模型性能的提升開始放緩。過去,研究人員像淘金者一樣從互聯(lián)網(wǎng)的浩瀚文本中挖掘出寶藏,但如今,“金礦”正趨于枯竭。AI的“饑餓感”正被數(shù)據(jù)增長的“飽和度”所取代。
這一點(diǎn)在科學(xué)研究領(lǐng)域也有類似的現(xiàn)象。物理學(xué)家們在上世紀(jì)大規(guī)模進(jìn)行實(shí)驗(yàn)發(fā)現(xiàn)新粒子,但在標(biāo)準(zhǔn)模型趨近完善之后,想要發(fā)現(xiàn)新的基本粒子變得非常困難。生物學(xué)領(lǐng)域,基因組研究的早期突破后,深層挖掘同樣面臨困難,這就是科學(xué)的“瓶頸”效應(yīng)。AI領(lǐng)域面臨的困境與之類似:過去,模型總能從新內(nèi)容中學(xué)習(xí)到更多,但如今再想找到大批量的新數(shù)據(jù)變得困難。在數(shù)據(jù)量逐漸接近上限后,數(shù)據(jù)的邊際效用遞減,模型的性能提升變得越來越緩慢。這種狀態(tài)被稱為“數(shù)據(jù)瓶頸”,類似于金字塔尖的空間,越往上越難堆砌。這正是ChatGPT-5可能面臨的問題:沒有足夠新數(shù)據(jù),就難以顯著提升。
數(shù)據(jù)瓶頸的問題不僅僅在于數(shù)量,還在于數(shù)據(jù)的稀缺性和高質(zhì)量數(shù)據(jù)的難以獲取。模型需要的不僅僅是龐大的數(shù)據(jù),而是豐富多樣的、有深度的知識。過去,AI技術(shù)的進(jìn)步一直在“增量”的支持下不斷前行,隨著數(shù)據(jù)量和模型規(guī)模的增加,性能的提升可謂是“芝麻開花節(jié)節(jié)高”。然而,隨著高質(zhì)量文本數(shù)據(jù)源逐漸被用盡,新的有效數(shù)據(jù)越來越難找。
以互聯(lián)網(wǎng)數(shù)據(jù)為例,絕大部分公開的、高質(zhì)量的書籍、文章、對話文本已被用于訓(xùn)練,剩下的數(shù)據(jù)要么噪聲大、要么質(zhì)量低,難以顯著提升模型的智力。這就像在圖書館中搜集了幾乎所有經(jīng)典書籍后,要再找到能夠顯著提升學(xué)識的內(nèi)容變得非常困難。就像老子所說:“天下萬物生于有,有生于無”。在互聯(lián)網(wǎng)的圖書館里,高質(zhì)量的文本資源已被模型消耗殆盡,而“無”處新取數(shù)據(jù),成為科研人員面臨的新難題。
AGI的控制問題:強(qiáng)大卻“不可控”的憂慮
另一種更為深層的猜測更讓人后背發(fā)涼,那就是Open AI或許在控制問題上陷入了長考。假設(shè)ChatGPT-5的能力真的遠(yuǎn)超前代,接近AGI的水準(zhǔn),那么問題就不只是模型是否足夠“聰明”,而是它是否足夠“安全”。這意味著模型不再是簡單的語言工具,而是某種能夠自主學(xué)習(xí)和適應(yīng)的“智慧存在”。問題是:我們會不會在無意間創(chuàng)造出一個無法被馴服的“巨人”?人類是否能完全掌控這種智能?如果我們不能完全理解和控制它,又會是什么樣的局面?
通用人工智能,或AGI,指的是一種具備廣泛領(lǐng)域認(rèn)知能力的智能,其能力不再局限于某些特定任務(wù),而是能夠像人類一樣廣泛地思考、學(xué)習(xí)和適應(yīng)。在這樣的背景下,一個接近AGI的模型可能會引發(fā)控制性和安全性問題——這種智能能否遵循人類的意愿行事?又是否會自行“脫軌”?這聽起來或許聳人聽聞,但實(shí)際上,許多AI研究者已將其視為未來幾年甚至幾十年內(nèi)不可避免的問題。
這樣的擔(dān)憂并非杞人憂天。早在2023年3月,包括埃隆·馬斯克(Elon Musk)和蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)在內(nèi)的1000多名科技界領(lǐng)袖,就呼吁暫停開發(fā)人工智能。他們在一封名為《暫停大型人工智能實(shí)驗(yàn)》公開信中呼吁:“所有人工智能實(shí)驗(yàn)室立即暫停對比GPT-4更強(qiáng)大的人工智能系統(tǒng)的試驗(yàn),至少6個月”。他們在信中建議,暫停行動應(yīng)該是公開的、可核實(shí)的,包括所有關(guān)鍵行為者。如果實(shí)驗(yàn)室拒絕,呼吁者希望政府介入,并強(qiáng)制實(shí)施暫停。
這封信發(fā)出的意義不在于短期的技術(shù)停滯,而在于提醒我們:技術(shù)與倫理、安全、監(jiān)管的關(guān)系亟待重新平衡。如果連GPT-4的性能已足以讓行業(yè)巨頭心生忌憚,GPT-5的延遲更顯得合情合理。
人類的“潘多拉盒子”:超智能帶來的“弗蘭肯斯坦”困境
AGI的控制問題不僅僅是一個技術(shù)挑戰(zhàn),還牽涉到深刻的哲學(xué)和道德考量。我們可以將AGI的潛在風(fēng)險比作科學(xué)版的“潘多拉盒子”(這個比喻來自希臘神話,潘多拉打開禁忌之盒,釋放出世間所有的災(zāi)禍),或者說“弗蘭肯斯坦”困境——我們創(chuàng)造了一個超越自身的“智能生物”,卻沒有能力將其馴服。如果ChatGPT-5真的達(dá)到了如此水平,它的發(fā)布可能會開啟一場無法預(yù)料的智能變革,卻也暗藏失控的風(fēng)險。
我們可以回顧物理學(xué)家維納的控制論思想,早在上世紀(jì)50年代,他就已提出對人類與智能機(jī)器之間控制關(guān)系的思考。維納認(rèn)為,機(jī)器的能力越強(qiáng),人類的控制能力就越需要提升,否則機(jī)器反而可能反向操控人類的生活方式和選擇。這樣的思考,在AI技術(shù)的演進(jìn)中更顯迫切。現(xiàn)代AI模型雖然尚未達(dá)到完全自主決策的地步,但它們的復(fù)雜性已超越人類理解的極限。如果AI逐漸接近自主智能,控制權(quán)之爭將不可避免。
正因如此,OpenAI可能選擇延遲ChatGPT-5的發(fā)布,以確保它的控制性和可解釋性得以落實(shí)。我們不希望看到的情況是,一個更智能、更高效的AI在某種情況下“不聽指揮”,甚至威脅人類的安全。正如科幻小說《2001:太空漫游》中描述的那樣,一個超智能的計(jì)算機(jī)系統(tǒng)HAL9000在失去人類的控制后,開始執(zhí)行自我保護(hù)的程序,最終釀成不可挽回的悲劇。
數(shù)據(jù)困境與AGI控制難題的相互影響
在技術(shù)發(fā)展進(jìn)程中,數(shù)據(jù)的“饑餓感”和AGI的“控制困境”并非互不相干。反而,它們構(gòu)成了一種復(fù)雜的“交互效應(yīng)”。首先,數(shù)據(jù)瓶頸使得單純通過增加數(shù)據(jù)量提升模型能力的思路難以為繼。這促使技術(shù)人員向結(jié)構(gòu)更復(fù)雜、推理能力更強(qiáng)的模型架構(gòu)方向探索,也意味著更復(fù)雜的模型會朝著AGI的方向逼近,加劇了控制難題。
其次,控制難題使得研究者不得不在提升性能的過程中更加謹(jǐn)慎,增加了技術(shù)驗(yàn)證、倫理審核等層面的壓力。這些額外的安全性、道德性措施,反而進(jìn)一步拉長了技術(shù)迭代的周期。這種技術(shù)和倫理的博弈,也許正是Open AI延遲ChatGPT-5發(fā)布的核心原因。
延遲的背后:科技進(jìn)步的速度與控制的悖論
ChatGPT-5的延遲,折射出AI技術(shù)發(fā)展中的速度與控制之間的悖論。我們既渴望技術(shù)的迅猛進(jìn)步,又擔(dān)心其不受控制的后果。人類社會歷史上,這樣的矛盾屢見不鮮:核能的發(fā)現(xiàn)帶來了清潔能源的曙光,卻同時孕育了毀滅性的核武器;生物技術(shù)的突破推動了醫(yī)學(xué)飛躍,卻也引發(fā)對基因編輯、克隆的倫理爭議。
在這種速度與控制的博弈中,是否有一種平衡?AI技術(shù)未來是否能找到一個既符合人類道德標(biāo)準(zhǔn)、又保持科技發(fā)展的方式?一方面,社會應(yīng)當(dāng)為前沿技術(shù)的發(fā)展提供寬容的環(huán)境,另一方面,科技企業(yè)與研究機(jī)構(gòu)也需要承擔(dān)相應(yīng)的道德責(zé)任。對于Open AI這樣的公司,發(fā)布新一代大模型的決定不僅僅是技術(shù)問題,更是人類未來發(fā)展的戰(zhàn)略性選擇。ChatGPT-5的延遲或許正是OpenAI的一種理性選擇。與其倉促推出超強(qiáng)的AI,不如在控制和理解上再多作準(zhǔn)備。
未來的路徑:安全性、透明性與道德責(zé)任
技術(shù)進(jìn)步并不必然帶來社會進(jìn)步,只有在負(fù)責(zé)任的開發(fā)和使用下,AI才能真正為人類帶來福祉。未來的AI發(fā)展應(yīng)不僅僅追求智能的極限,更應(yīng)該關(guān)注其安全性、透明性和對社會的長期影響。正如科幻作家阿西莫夫在《機(jī)器人三定律》中設(shè)想的那樣,我們需要一套規(guī)則,確保AI的強(qiáng)大始終為人類服務(wù),而不是成為威脅。
然而,技術(shù)終究無法逃離哲學(xué)的追問。ChatGPT-5的延遲是否代表人類對未知的謹(jǐn)慎?抑或是我們在避免打開另一個“潘多拉盒子”?還是說我們能夠找到一種平衡,使AI成為我們真正的“智能伙伴”。
也許未來的AI會讓人類的生活更便利,幫助解決許多復(fù)雜的難題;也可能AI的智能進(jìn)步將開啟一場全新的“智力競爭”,人類如何定義自身的獨(dú)特性?在科技的浪潮中,AI的最終形態(tài)將怎樣與人類共存?科技的未來充滿懸念,答案只能等待時間來揭曉。
(作者胡逸,一個喜歡暢想未來的大數(shù)據(jù)工作者。“未來可期”是胡逸在澎湃科技開設(shè)的獨(dú)家專欄。)





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司