- +1
ChatGPT太火,這些人卻給它潑冷水
·兩位人工智能界的重磅專家,甚至因為都對ChatGPT持反對態度而消解了之前的長期矛盾。
·“事實上,這只是品牌之間的一場戰斗,利用人們當前對生成式人工智能的興趣來重新劃分商業版圖。”
2月7日,谷歌宣布將推出ChatGPT的競爭對手巴德(Bard),但遭遇十分尷尬的錯誤。一張演示功能的動圖顯示,巴德表示,美國宇航局的詹姆斯·韋伯(James Webb)太空望遠鏡拍攝了太陽系外行星的第一張照片。實際上,這張照片是由歐洲南方天文臺的甚大望遠鏡(VLT)拍攝的。谷歌表示,這凸顯了對聊天機器人進行“嚴格測試”的必要性。
這一錯誤加劇了對此類ChatGPT產品的質疑。早在2016年,微軟就因為聊天機器人Tay生成種族主義和性別歧視信息道歉,Tay將女權主義比作癌癥,并暗示一些暴力事件沒有發生過。去年,Meta公司推出了一款對話式人工智能Blend Bot,這款機器人很快和Meta首席執行官、Facebook創始人馬克·扎克伯格唱起了對臺戲。Blend Bot告訴記者,在得知Facebook的丑聞后,它已經刪除了自己的Facebook賬戶,并說:“自從刪除Facebook后,我的生活好多了?!?/p>
ChatGPT對某些問題的回答也錯誤頻出,其言論甚至包含一些有害內容和歧視觀點。自它去年底推出,直到今年初火爆“出圈”,不乏一些堅定的看衰者反復訴說著此類產品的問題,其中包括人工智能界的重磅專家,比如Meta首席AI科學家、圖靈獎得主楊立昆(Yann LeCun),美國作家、Robust. AI公司創始人、紐約大學教授加里·馬庫斯(Gary Marcus),這兩位專家甚至因為都對ChatGPT持反對態度而消解了之前的長期矛盾。
在全球AI學術界和科技媒體界,每天都有新的文章出爐,客觀冷靜地探討ChatGPT的技術成分和社會影響,給如今似乎有些過火的ChatGPT熱潮吹來一絲涼風。在科學界,真理越辯越明。

谷歌聊天機器人巴德(Bard)的錯誤加劇了對類ChatGPT產品的質疑。
楊立昆看衰ChatGPT被指“酸葡萄”
Yann LeCun自稱中文名“楊立昆”,被譽為“卷積網絡之父”,為卷積神經網絡(CNN,Convolutional Neural Networks)和圖像識別領域做出過重要貢獻,在人工智能研究領域,楊立昆、杰弗里·辛頓(Geoffrey Hinton)和約書亞·本吉奧(Yoshua Bengio)一直被公認為深度學習三巨頭。
然而,楊立昆卻不看好聊天機器人,認為目前人類的水平連“貓貓狗狗”級別的AI都做不出來。他此前在推特上公開表示:“ChatGPT滿嘴胡謅,你們卻對它如此寬容,但我家的Galactica(由Meta AI與Papers with Code合作開發的大型語言模型),才出來3天,就被你們罵到下線了。”
1月27日,在Zoom的媒體和高管小型聚會上,楊立昆對ChatGPT給出了一段令人驚訝的評價:“就底層技術而言,ChatGPT并不是多么了不得的創新。雖然在公眾眼中,它是革命性的,但是我們知道,它就是一個組合得很好的產品,僅此而已。”
楊立昆表示,ChatGPT并非什么獨家創新,除了谷歌和Meta之外,還有6家初創公司,基本上都擁有非常相似的技術。ChatGPT用的Transformer架構是谷歌提出的,而ChatGPT用的自監督方式,正是他自己提倡的,遠遠早于開發ChatGPT的OpenAI。
此前,楊立昆在參加播客節目時展示過ChatGPT的回答,它看上去很有道理,卻錯得離譜。但主持人在讀完ChatGPT的回答后,卻沒有第一時間發現它錯了。
楊立昆認為,人類的思維方式和對世界的感知讓人能預想即將發生的事物,這是人類獲得常識的基礎,而聊天機器人的模型并沒有這種能力。語言模型并沒有物理直覺,它們是基于文本訓練的。如果它們能從龐大的聯想記憶中檢索到類似問題的答案,則可能會答對物理直覺問題。但它們的回答也可能是完全錯誤的。依靠自動回歸和響應預測下一個單詞的大語言模型是條歪路,因為它們既不能計劃也不能推理。
不過,楊立昆的“憤怒”也可能來源于其公司Meta開發的Galactica的失敗。2022年11月中旬,Meta的FAIR實驗室發布Galactica,可以生成論文、生成百科詞條、回答問題、完成化學公式和蛋白質序列的多模態任務等。但由于錯誤百出,Galactica上線短短3天就下線了?,F在,微軟和谷歌正爭相推出自家的聊天機器人產品,在人工智能上醞釀多時的Meta卻未見聲響。一些媒體稱,楊立昆頻繁唱衰ChatGPT明顯是酸葡萄心理。

Meta首席AI科學家、圖靈獎得主楊立昆(Yann LeCun)。
馬庫斯列出7個不太積極的預測
提起討厭ChatGPT的專家,加里·馬庫斯絕對是社交媒體上最矚目的人。馬庫斯與楊立昆此前一直有矛盾,經常因為AI問題在推特上爭吵。但近日,由于楊立昆也加入反ChatGPT陣營,二人冰釋前嫌。馬庫斯還轉發楊立昆批判ChatGPT的帖子,評論道“100分”。
馬庫斯曾表示,盡管ChatGPT能夠生成合乎語言邏輯的內容,但這些內容并不一定是現實本身。也正因為此,ChatGPT可能將進一步放大假新聞的影響,存在治理層面的深切擔憂。他表示,ChatGPT只是一個工具,不是人類。說它是科學家,不如說它充其量更像是一個拼寫檢查器,一個語法檢查器,或者一個統計包。它無法提供真實的想法,不會設計精心控制的實驗,也不能從已有文獻中得到啟發。
馬庫斯曾總結道:真朋友不會允許ChatGPT成為你論文的共同作者。
對于未來將登場的OpenAI開發的GPT-4模型,馬庫斯也給出了7個不太積極的預測:
·GPT-4仍然會像它的前輩一樣犯下各種愚蠢的錯誤。它有時可能會很好地完成給定的任務,有時卻罷工不干,但你并不能提前預料到即將出現的是哪種情況。
·GPT-4對物理、心理和數學方面的推理依然靠不住。它或許能夠解決部分之前未能挑戰成功的項目,但在面對更長和更復雜的場景時依然束手無策。
比如,當被問及醫學問題時,它要么拒絕回答,要么偶爾會說出聽起來很有道理但很危險的廢話。盡管它已經吞噬了互聯網上的大量內容,但它并不能足夠可信和完整地提供可靠的醫療建議。
·流暢幻象(fluent hallucinations)仍將十分常見,而且很容易被誘發。也就是說,大型語言模型依然是一個能被輕易用于制作聽起來很有道理卻完全錯誤的信息的工具。
·GPT-4的自然語言輸出仍然無法以可靠的方式為下游程序提供服務。利用它構建虛擬助手的開發者會發現,自己無法可靠地將用戶語言映射到用戶的意圖上。
·GPT-4本身不會是一個能解決任意任務的通用人工智能。如果沒有外部的輔助,它既不能在Diplomacy(游戲)中擊敗Meta的Cicero(游戲),也不能可靠地駕駛汽車,更不能驅動《變形金剛》里的擎天柱。
·人類“想要什么”與機器“去做什么”之間的“對接”,依然是一個關鍵且尚未解決的問題。GPT-4仍將無法控制自己的輸出,一些建議是令人驚訝得糟糕,掩蓋偏見的例子也會在幾天或幾個月內被發現。
·當AGI(通用人工智能)實現時,像GPT-4這樣的大型語言模型,或許會成為最終解決方案的一部分,但也僅限于其中的一部分。單純的“擴展”,也就是建立更大的模型直到它吸收了整個互聯網,在一定程度上會被證明是有用的。但值得信賴的、與人類價值觀相一致的通用人工智能,一定會來自于結構化程度更高的系統。它將具有更多的內置知識,并包含明確的推理和計劃工具。而這些,都是現在的GPT系統所缺乏的。
馬庫斯認為,在十年內,也許更少時間內,人工智能的重點將從對大型語言模型的擴展,轉向與更廣泛的技術相結合。

美國作家、Robust. AI公司創始人、紐約大學教授加里·馬庫斯(Gary Marcus)。
學術與商業考量
除了馬庫斯和楊立昆,許多業內人士也給出了自己的觀點。
牛津大學(University of Oxford)計算機科學教授邁克爾·伍爾德里奇(Michael Wooldridge)說:“神經網絡的靈感來自于動物大腦和神經系統中出現的細胞結構,它們被構造成大規模互聯的網絡,每個組件執行非常簡單的任務,并與大量其他細胞通信,它們使用的結構是受我們在動物大腦中看到的所啟發?!?/p>
大型語言模型被輸入由數十億單詞組成的數據集,并基于統計概率,建立一個通常跟隨前一段文本的單詞和句子的模型。伍爾德里奇說:“網絡對什么是‘真’或‘假’沒有任何概念。他們只是盡可能地寫出最有可能的文本來回答所給的問題或提示。因此,大型語言模型經常出錯?!?/p>
伍爾德里奇表示,就像巴德關于望遠鏡的錯誤一樣,聊天機器人會在輸入的大量文本中反映出各種偏見。他說:“文本中包含的任何偏見都將不可避免地反映在程序本身中,這對人工智能來說是一個巨大的持續挑戰——識別和減輕這些偏見。”
研究人員齊拉格·沙阿(Chirag Shah)和艾米麗·M·本德(Emily M. Bender)在一篇題為《情境搜索》(Situational Search)的論文中指出,聊天機器人界面的引入甚至有可能加劇偏見問題。聊天機器人不僅傾向于提供單一的答案,而且答案的權威性也因人工智能的神秘性而增強,它們的答案來自多個來源,通常沒有適當的歸屬。而這與搜索引擎提供的鏈接列表相比變化巨大,在傳統搜索引擎中,每個鏈接都可以點擊和詢問。
因此,聊天機器人并不是真正的人類大腦,也只能給出聽起來似乎合理的文本回答,而這些回答又會被誤認為是正確答案。
薩里大學(University of Surrey)以人為本的人工智能研究所(Institute for human - centered AI)主任安德魯·羅戈斯基(Andrew Rogoyski)博士表示,就像谷歌在演示時的情況一樣,訓練AI的數據集可能導致了聊天機器人的錯誤。
對于近日全網關注的ChatGPT熱潮,羅戈斯基也給出了不一樣的觀點,他認為這本質上依舊是品牌之間的商業行為。羅戈斯基說:“大型人工智能模型真的是不可持續的,生成式人工智能和大型語言模型能夠做出很厲害的事情,但它們仍然不夠智能。它們不理解自己產生的輸出,也不會擁有洞察力、想法這些東西。事實上,這只是品牌之間的一場戰斗,利用人們當前對生成式人工智能的興趣來重新劃分商業版圖。”






- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司