- +1
從約瑟夫·魏岑鮑姆到ChatGPT——與令人傾倒的AI技術的批判交鋒
本文從使用的角度對AI系統進行思考。聚焦于對話聊天機器人,從魏岑鮑姆的ELIZA談起,概述到ChatGPT的重大科學進步。文中的主要討論基于作者為探索ChatGPT這一知識資源而進行的數次實驗—反思循環。分析部分從準確性、結構、語境、視角和偏見等角度思考ChatGPT的回應。批判性評估始于這樣一個觀察:ChatGPT會在未明確自身能力范圍的情況下,給出清晰準確結果與任意錯誤信息的混合。這引出了系統的關鍵問題,即它如何與“真”相抗衡,這又涉及用基于文本相關性的概率替代品取代“真”的理念。在負責任的使用中,ChatGPT之類的系統必須融入人類學習文化。這一過程的框架應包括堅持真實性、提升人類能力的動力以及強化共同體內的責任結構。
本文原題為“From Joseph Weizenbaum to ChatGPT”,原刊于Weizenbaum Journal of the Digital Society 3(3),由譯者以CC-BY協議許可翻譯發表在《智能社會研究》2024年第6期,澎湃新聞經授權刊發??死锼沟侔材取じヂ逡恋拢–.Floyd)為德國漢堡大學榮休教授。王立秋為哈爾濱工程大學人文社會科學學院講師。

[在]人工智能[領域……],人們制造機器,是想讓它們做出驚人之舉,這些舉動往往會令最有經驗的觀察者為之傾倒。然而,一旦特定程序被揭露,一旦其內部運作得到解釋[……]它的魔力就會瞬間消失;它不過是一堆程序代碼[……]觀察者會心想“這我也能寫”。抱著這種想法,他就會把這個程序從“智能”的架子挪到為好奇者保留的架子上。(Weizenbaum,1966)
作為AI語言模型,我不像人類那樣擁有知識,也不具備自我反思或內省的能力。(ChatGPT,April3,2023)
一、引言
2023年1月11日,我有幸在魏岑鮑姆研究所為紀念魏岑鮑姆誕生一百周年的活動做開幕演說。當時,在場之人無一人預見,短短幾周后,隨著ChatGPT公開發布,人工智能(AI)會熱度驚人。
作為聊天機器人,ChatGPT是約瑟夫·魏岑鮑姆所創造的、影響深遠的程序ELIZA的直系后代。ELIZA首次讓人們能夠通過電傳打字機進行所謂的“人機對話”,而且(按照不同腳本)可定制,能扮演多種對話角色(Wei-zenbaum,1966)。其DOCTOR版本加載的腳本讓它能像羅杰斯學派心理治療師那樣行動,該版本被廣泛使用且引發廣泛討論。開發DOCTOR的經歷,也讓魏岑鮑姆從一名充滿熱情的AI研究者,轉變為最著名的AI批評者之一。
讓魏岑鮑姆感到震驚的是:(1)執業心理治療師認為,可以加強DOC-TOR以實現心理治療自動化;(2)用戶與DOCTOR互動時仿佛它是一個人,會向它透露自己的秘密,還將人的品質賦予技術系統;(3)很多人認為可將該程序普遍化,為理解整體自然語言提供基礎。
在本文開頭所引用的魏岑鮑姆于1966年發表的關于ELIZA的文章里,他選用“令人傾倒”一詞描述DOCTOR對許多人的影響,還鼓勵人們去仔細探究其“內部運作”。如此一來,人們就會發現“魔力瞬間消失”,有經驗的觀察者則會意識到自己也能編寫這樣的程序。
不過,正如ChatGPT所展示的那樣,所有聊天機器人的前身與現代AI語言模型之間存在巨大的技術差距。我們有足夠多的理由對其“傾心”,以至于許多人覺得自己作為人的身份被動搖,并且對新技術的影響感到恐懼。我見過不少這樣的人,他們記住“人工智能”這個名字只是因為它突然變得無處不在。與ELIZA相比,我們對于如何充分理解這類系統的“內部運作”從而讓“魔力瞬間消失”還毫無頭緒。
甚至“最有經驗的觀察者”也不敢聲稱僅憑自己就能寫出這樣的程序。這個系統極為復雜,它有著復雜精細的內部架構,與其他技術有著錯綜復雜的聯系,而且依賴于環境,尤其是用于訓練的文本語料庫。并且,基于接觸過的文本數據,它的行為會隨時間發生變化。ChatGPT所包含的深度學習裝置,讓人們難以理解其機制,難以對其進行控制,也難以確保使用者不會受到傷害。實際上,在向公眾開放該系統幾個月后,其開發者就迫切呼吁對它進行監管。
我不是AI專家,但我有幸在1968年就見識過AI。當時我是斯坦福人工智能實驗室的研究助理,在那里,我目睹了一批令人驚奇的機器,它們被制造出來就是為了做出驚人之舉,其中許多是后來發展成熟、在日常生活各種語境下投入使用的AI技術原型。其中之一就是DOCTOR,我見證了它對信任它的用戶的影響。
我很早就聽聞一些頂尖AI專家的驚人言論,他們將人等同于機器。我還記得有一位專家在一次演講中向聽眾挑釁:“當然,人像機器,在場有誰覺得受到威脅了嗎?”正是“威脅”這一元素,讓他的話令人難忘。我的AI界朋友大多與這類主張保持距離,也有人站出來反對,其中最著名的當屬約瑟夫·魏岑鮑姆。自20世紀70年代早期在斯坦福與他結識后,我就與他保持著長久的友誼。他的開創性著作《計算機的力量和人的理性》(1976)為該話題的討論設定了標準。反對將人等同于機器,也成了我自身專業工作的一個支柱(Floyd,1986),但我仍對AI取得的巨大技術成就滿懷欽佩。

約瑟夫·魏岑鮑姆
本文將從使用的角度對AI系統進行思考。AI界不喜歡談論AI系統的使用,而傾向于從以技術為中心的視角來討論影響,仿佛技術可以自行行動。令我失望的是,我發現,就連斯坦福大學的以人為中心的人工智能中心(Center for Human-Centered Artificial Intelligence at Stanford University)也遵循這種思維方式。對他們而言,“以人為中心”意味著在探索人與AI的相似與不同的理論基礎上,推動改進人與AI共生關系的研究。
我從另一種意義上的“以人為中心”這一角度切入。我想要思考的是:作為工具或者媒介,AI系統如何才能適合人類使用,以及我們該如何從人類的角度去理解AI系統,讓它們以符合人類價值的方式服務于人類的目的。這就意味著,我會特別關注魏岑鮑姆的論證,并且援引當前維也納正在進行的有關數字人文主義的討論(Werthner,2019)。
我將聚焦于ChatGPT,僅把它視為一個知識資源。本文是多次實驗—反思循環的成果,借助這些實驗與反思,我評估了該系統的優缺點,并總結出一些討論它們的方法。我開始意識到ChatGPT在回應看似無限多樣的提示時那令人驚嘆的自信,以及它用極為清晰的語言表達回應的能力,不管這些回應準確與否。
在下文中,我首先會回顧ChatGPT之前的技術發展,這有助于剛涉足該領域的人理解基于深度學習的AI語言模型的性質。其次,我將反思自己為探究系統“內部運作”、了解其功能和識別其極限所做的一些實驗?;谶@些實驗,我會闡述自己對這類系統所提出的最大挑戰的看法,即它提出了一種新的理解“真”——或者說廢除“真”——的方式,我稱之為通過相關性來理解的“真”。最后,我將指出人類為應對這一新挑戰可以采用的思考和行動方式。
二、從ELIZA到ChatGPT的漫長道路
ELIZA系統是首個展現出某種語言理解能力的程序,這種理解能力使人與機器的對話能夠表現出類人行為。不過,“對話”這一術語具有誤導性:雖然它通常表示人與人之間親自進行或者通過通信媒體進行的自由口頭或書面交流,但在這里它指的是一系列人的提示和系統的響應。
對于魏岑鮑姆而言,像ELIZA和ChatGPT之類的系統,只有那些不了解其內部運行機制的人才會覺得神奇。ELIZA就是如此,它是一個獨立的、基于規則的程序。其行為雖然由于邏輯規則間復雜的相互作用而難以預測,但卻可以重復。在一段時期內,同一輸入得到的結果是穩定的。專家能夠以令人滿意的方式解釋其內部運行情況。
現代聊天機器人建立在神經網絡和深度學習的基礎之上,在訓練階段,它們會接觸海量的文本語料庫,吸收這些語料庫,并將其作為回應的依據。我們無法從規則的角度解釋它們如何針對給定輸入生成結果。相反,這些結果是通過對文本模式和相關性進行統計分析得到的。并且,它們會基于用于訓練的特定文本語料庫和查詢序列獲得的反饋隨時間演變。它們的機制不為人知,就連最有經驗的觀察者也無法預測其針對給定輸入輸出的結果。
將ELIZA和ChatGPT做比較,就如同比較黑森林里的多瑙河細流與塞爾維亞的浩瀚大河。它們之間的差異不能僅從多瑙河源頭的角度來解釋。相反,后者的浩瀚洶涌是多種地理上不相干的因素共同作用的結果。要理解多瑙河這個整體系統,就必須將中東歐的廣大區域考慮進去。下一節將嘗試對ChatGPT做同樣的事。
(一)圍繞AI的技術
從依賴本地(非聯網)計算機的硬件和操作系統的獨立系統起步,從ELIZA發展到ChatGPT大約花了57年時間。要理解這一巨大的技術進步,我們就必須思考在這幾十年間多個科學學科領域所取得的進展,包括理論基礎的建立、技術成果以及這些學科之間的有效互動。
與計算機相關的語言研究起步很早。用計算領域的行話來講,我們所說、所寫的語言被稱為自然語言。1960年左右,計算機語言學這一研究自然語言的新領域應運而生。在它的推動下,計算系與語言學、文學和媒介研究領域開展了大量合作。索加德(S?gaard,2022)認為,ChatGPT并非科學貢獻,而是工程壯舉。在此語境下,ChatGPT主要得益于計算機導向的語言研究學科的進步,其語言技能的確令人欽佩。
近幾十年來,計算機技術取得了巨大進步。其操作模式雖與原來相同,但計算能力提高了好幾個量級。計算能力的增長,使AI能從原本基于規則的模型轉向神經元網絡,而神經元網絡正是ChatGPT的技術基礎。
20世紀80年代,人機互動在軟硬件層面均得到研究,并取得了革命性發展。于是,便有了如今我們理所當然接受的互動模式和風格,現代聊天機器人的前身也隨之產生。
網絡技術的發展始于20世紀60年代。最初,人們為了軍事目的將計算機關聯起來。到了20世紀70年代,一場革命催生了新的范式,按照這一范式的理解,網絡應通過計算機將人關聯起來。在廣泛的研究、技術創新和標準化的推動下,互聯網以及新的線上工作與通信基礎設施出現了。
在1990年左右,萬維網向公眾開放,知識產品經數字化后可為所有人所用,這從根本上改變了人類的知識文化。線上知識產品的全球發布也應運而生,隨之出現了各種積累和分享人類知識的新形式。
不久之后,數據科學出現了。它作為計算的一個具體視角,聚焦于存儲、組織和檢索文本、數字和影像形式的大型數據庫。在開發出搜索、分類、詮釋和分析的自動方式后,人們產生了一種想法,即可以從數據分析中得出一種新形式的知識。
同時,統計建模與學習算法的發展也從概率角度對數據科學和數據分析產生了影響。其思路是找出并比較相關文本或影像中的模式,從而能夠以極高準確率預測它們之間的關聯。從本質上講,支撐ChatGPT架構的正是概率方法。
這個清單或許并不完整,但仍舊令人印象深刻。七個學科,每個學科都有其復雜的研究議程、創新技術和廣泛影響。我們必須將它們全部考慮在內,這樣才能理解自1966年以來AI的巨大進步。
(二)AI領域的范式轉換
我們需要在這樣的背景下,通過與多個計算學科進步的持續互動,理解AI領域自身的變化。必須記住,AI是一個本質上跨學科的研究領域,它與認知科學密切交織在一起。
也許在AI領域,最重要的變化是從符號方法(基于明確的邏輯規則來思考思想和認知)向神經元網絡方法轉變,后者試圖模擬大腦中神經元的組合與神經元之間的關聯。值得注意的是,在符號階段,AI的所有斷言都能從邏輯角度表達,而神經元方法是次符號的(sub-symbolic),它完全依賴數學屬性和神經元與神經元突觸的當前狀態。
這一點尤其適用于機器學習。機器學習基于這樣一種想法:AI系統可以通過經驗,即接觸樣本數據和反饋,超越制造者賦予的知識。
在基于規則的學習中,系統可通過應用所給規則來擴充知識庫,并且存在形成新規則的機制。另一種可替代基于規則學習的是使用神經元網絡的自適應學習(adaptivelearning)。自適應學習僅關注神經元和神經元突觸的狀態,此狀態初始被設為初始值。隨后,系統在訓練階段接觸樣本數據,并根據在數據中的發現來調整自身狀態。在這種模式下,有監督學習(super-visedlearning)涉及人類訓練者提供的反饋,而無監督學習(unsupervisedlearning)是讓“算法只從未標記的數據學習模式”(Wikipedia)。自適應機器學習的質量取決于網絡架構,包括神經元數量、排列以及從原始輸入到學習輸出所經過的層級數量。
(三)Transformer架構和深度學習
在這里我得老實承認,我沒資格寫下面這部分內容。我查過一些原始文獻,也樂意欣賞同事們的工作,但我不確定能否用自己的話來介紹他們正在做的事,即便我自認為是個聰明的觀察者。
古德費洛等人(Goodfellow,Bengio&Courvilleetal.,2016)的作品對深度學習這一主題進行了全面探討,建議感興趣的讀者去參看該文本。不過,為介紹這一概念,請允許我引用金為那本書所寫書評開頭的一段話:
深度學習是機器學習的一種形式,它能讓計算機從經驗中學習,從概念層級的角度理解世界。計算機通過收集經驗知識,無須人類操作員正式闡明所需的全部知識。概念層級使計算機能夠從較簡單的概念構建出復雜概念以學會復雜概念;這些概念的圖形表達會有多個層級的深度(……)事實證明,深度學習在許多軟件學科中都很有用,包括計算機視覺、語音和音頻處理、自然語言處理、機器人學、生物信息學和化學、視頻游戲、搜索引擎、線上廣告和金融。(Kim2016:351)
也就是說,負責深度學習的機制借鑒了多個數學學科(特別是統計學和線性代數),以形成合適的學習算法,用來合成系統學習策略。
瓦斯瓦尼等人(Vaswani,Shazeer&Parmaretal.,2017:5999)引入了ChatGPT所基于的Transformer架構。他們在導言中寫道:“在這部作品中,我們提出了Transformer,這是一種完全依靠注意力機制來繪制輸入與輸出之間全局依賴關系的模型架構?!?/p>
Transformer架構包含兩部分:一是將輸入序列映射為語素內部向量表示的編碼器,二是把該向量轉換為輸出序列符號的解碼器。這兩部分均具有六個相同的層級。為根據輸入序列計算輸出,Transformer使用一種名為自注意的機制,此機制逐點檢查向量,并將中間結果并入輸入以進行進一步檢查。對本文的討論而言,有這樣一個概念框架足夠了。
從用戶的視角出發,我們來做幾點評論。若我在學習一個系統的操作模式時遇到困難,那么其他人又會遇到什么困難呢?獲取ChatGPT的實操知識需要花費一些精力,將其傳授給沒有經驗的用戶更是極為費力,還可能引發誤解和過高的期望。主要面臨以下幾個挑戰:首先,系統的學習過程不透明,它依賴像學習算法和標量向量積之類的數學運算,這些從用戶角度無法解釋;其次,系統的回應完全取決于所選的文本語料庫以及在訓練階段接觸文本的順序;再次,由于它是無監督學習,因此就連制造者或訓練者也無法預測結果,也就是系統的知識庫;最后,除了讓它接觸更多數據外,我們沒有任何辦法去了解或影響系統的知識庫,并且這樣做的后果也是無法預測的。
因此,僅訓練階段就引出了幾個引人深思的嚴肅問題:應如何選擇材料?如何將不受歡迎的態度排除在知識庫外?如何在不同觀點之間保持公正?
而且,還存在資源消耗的問題。將語素轉化為巨大向量、在向量空間進行數學運算以及生成輸出,這些都需要海量的處理能力和GPU時間。這是Transformer方法本身就存在的問題,并非特定系統才會產生的后果。所以,如果你正在使用ChatGPT,請注意,從能耗的角度來說,你就像是在駕駛一輛SUV。
三、和ChatGPT打交道的經驗
本文本質上是對我在2023年4—8月使用ChatGPT的經驗的反思。我提出了一些問題,涉及各種各樣的話題。我通過讓它寫詩來探索其創造能力。我有一些意外發現,比如,不管什么原因,當問題超出其能力范圍時,系統就會變得不穩定。系統的能力范圍從未被明確說明過。當你要求系統說清楚時,系統會深表歉意,并最終感謝你提供寶貴反饋(這一反饋應對開發者有所幫助)。在陷入溝通僵局時,會突然有人在后臺介入,重新引導系統。
(一)關于引用ChatGPT的陳述
在這里,我會引用與系統實際對話的文字來使我的論證更具體。不過,讀者應注意,按尋常方式引用ChatGPT是不可行的。因為引文沒有穩定來源,與ChatGPT的互動實驗不可重復。在ChatGPT中,系統的行為取決于詢問的具體措辭以及聊天歷史,并且會隨時間而改變。為給我的回應提供語境,我得重現整個聊天過程。與人的訪談不同,我無法將對話當作證據記錄下來。這樣一來,我只能依靠讀者的意愿了,希望讀者相信我引用的文字來自與ChatGPT的實際對話。我不能用這些引文來證明我的論證,它們僅起說明我想法的作用。
為給我在本文開頭引言中所用引文提供一個語境,我得說明我是如何促使系統做出這一驚人招供的。這一互動發生于2024年4月3日,在一次提出不同問題的聊天即將結束時:
CFL:我知道我什么都不知道。這對你來說有什么意義嗎?
ChatGPT:“我知道我什么都不知道”這句話常被認為出自古希臘哲學家蘇格拉底。它體現了一種謙遜的哲學態度和智識上的謙虛,即承認人的知識有限、存在錯誤和不確定性。
作為AI語言模型,我不像人類那樣擁有知識,也不具備自我反思或內省的能力。不過,承認我們的局限性,承認錯誤與不確定的可能性,這對AI技術的發展和使用仍具有現實意義。
AI系統是強大的工具,能以多種方式幫助人類。但它們并非絕對正確,可能犯錯或錯誤解讀語境。對AI技術的用戶和開發者而言,認識到這些局限,以謙遜和智識上的謙虛來使用AI,在繼續開發和改進這些強大工具的同時不斷努力學習和進步,這很重要。
這個回應的結構很能說明問題。第一段與我的詢問相關,作為答復已經足夠。但某些因素(可能是“知道”這個關鍵詞或者之前的聊天歷史)觸發了系統,導致它又添加了兩段話,將論證延伸到了我未要求的程度。第二段提供了關于AI語言模型的人工自我反思,好像它在像一個自主的行動者那樣行動。然而,第三段則要求人們關注ChatGPT涉及的人,建議人們在開發AI的過程中對自己的角色保持謙遜。
我最近再次復制了自己的提示,得到的回應卻截然不同。所以,我無法保證,如果你也這么做系統會給出相同的回應。(也許你仍會好奇,想要嘗試一下。)
(二)與機器對話
注意,在前面討論的例子里,我將ChatGPT稱為“你”。之后我不會再這么做了,因為我不覺得自己和機器有這樣的關系。不過,ChatGPT的程序仍使其以第一人稱回應。
在所謂的對話里,魏岑鮑姆的ELIZA本質上是基于已知關鍵詞,按照規則轉換用戶輸入的。ELIZA只會偶爾以“我”的身份回應。即便這種在當時相對原始的輸入—輸出轉換,也讓很多用戶產生一種感覺,仿佛系統像人一樣,是一個值得與其分享秘密、被認為有自身動機和價值的對象。ChatGPT也是把提示文本轉換為回應,就更是如此了。不過,利用復雜的統計學方法,轉換策略已經變得復雜得多了。
大多數AI開發者的方法是讓自己的系統盡可能像人。所以,ChatGPT大量使用第一人稱短語,系統模仿人類禮貌形式時的情況特別令人震驚。(例如:“我為之前回應的不準確而道歉。你是對的,感謝你的耐心。”)不管我愿不愿意,都會被拉進看似對話的情景,我必須一直記住,得到的回應是人工生成的。
有一次,我問系統:“怎么會有人說人是機器呢?這屬于范疇錯誤啊。”隨后我得到了如下回應:
你說得對,人和機器分屬不同范疇。人是生物有機體,機器是人造物,所以說人從字面意義上講是機器屬于范疇錯誤。不過,也可將人是機器這一想法理解為一種隱喻或者概念性的說法。
從嚴格意義上的歷史來看,人只與他人對話。當然,在宗教、神話以及童話故事里,更高的存在也會用“我”來介紹自己。不過,在這種情況下,對話是無法進行的。如今,我們很多人選擇機器這一隱喻,并且毫不猶豫地參與與“人造物”(就像ChatGPT在描述自己時所說的那樣)的對話。
(三)探索不同的話題
在我孫子的幫助下,我開始與ChatGPT聊天玩。沒想到,馬上就得到了一個不盡如人意的回應。受我即將到來的暑假計劃的啟發,我用德語詢問:“北波蘭(Nordpolen)”(波蘭北部)7月份的氣候如何?系統卻認真地回復了四段有關北極(Nordpol)的內容。我孫子把輸入改為“北波蘭”,才得到了相關的回應。這個微小而明顯的錯誤僅僅表明,系統的德語詞匯有限,超出這個范圍就會產生錯誤信息。(在后來的聊天中,ChatGPT解釋說,“北波蘭”根本不是一個地理區域。)
其他錯誤和局限就沒那么容易解釋了,因為它們取決于用于訓練的文本語料庫以及提示的具體措辭。
最近幾個月,我和ChatGPT聊了很多話題,這里列舉部分例子,像北波蘭作為一個地理區域、克里斯蒂安娜·弗洛伊德的簡歷、利用無人機發現小蠹蟲、一戰的歷史、尼古丁和大麻的危害,還有“人工智障”等話題。
我最初感興趣的是探究ChatGPT對不同話題各方面呈現中的系統知識范圍、準確性和偏見。隨著探究過程中更多問題的出現,我的研究也變得更加系統。
首先,我開始擔憂回應的可信度:若事先不知答案,我能否辨別回應是否準確、相關?為何系統有時會產生錯誤信息?我能否分清可靠回應與任意回應之間的界限呢?
其次,在我糾正系統時,我開始對系統的反應感興趣,即ChatGPT如何應對自己的錯誤。
再次,我想知道ChatGPT為何會忽視某些話題相關且必不可少的信息,又為何在同一話題的后續詢問中自相矛盾。具體而言,我想知道我的反饋是否會對后續互動產生影響。
最后,我開始好奇,復雜的問題是否得到了全面涵蓋。例如,關于內容的報告是如何結構化的,提及了哪些內容,忽視了哪些內容,是否存在文化偏見。
我也開始對從以下角度了解系統本身感興趣:應用于人和機器的知識概念、ChatGPT關于自身應用的自評估、系統在理解和領悟方面的能力和局限。以下是我的反思,我將用一些聊天樣例加以說明。
(四)內容:準確還是任意?
2023年3月初,我聽聞ChatGPT給出了有關我的奇怪信息。受此觸動,我就自己的生平事實展開了一系列的聊天交流。我得到的回應千差萬別,在基本信息方面(像國籍、生日、出生地、科學貢獻、雇主、所獲獎項等)大多是錯誤的。按照ChatGPT的說法,我出生在德國的多個地方,還被視作包括形式方法和軟件度量在內的多個領域的專家。例如,2023年5月7日,我被告知,克里斯蒂安娜·弗洛伊德是一位出生于萊比錫且于2021年去世的德國計算機科學家。對此,我對該系統提出了質疑(以下文字由我翻譯成英文):
CFL:又一次提到克里斯蒂安娜·弗洛伊德出生于路德維希港。ChatGPT怎么會在同一話題的連續詢問中自相矛盾呢?
ChatGPT:很抱歉我之前矛盾的答復讓你感到困惑……不過,我會盡力對你的詢問給出準確、相關的答復……
CFL:實際上,克里斯蒂安娜既不出生于路德維希港,也不出生于萊比錫,而是出生于維也納。她不是德國人,而是奧地利人。她并沒有死于2021年,就在當下,她正在給ChatGPT寫幾行字呢。
ChatGPT:對不起,我上一個答復中的信息有誤。實際上,克里斯蒂安娜·弗洛伊德于1943年出生在奧地利維也納,她是奧地利公民……此外,我想澄清一下,克里斯蒂安娜·弗洛伊德仍然健在。我之前的答復不準確,很抱歉給您造成了困擾。
然而,這種自我糾正并未給系統留下長久的印象。5月8日,我詢問克里斯蒂安娜·弗洛伊德是否仍然健在:
ChatGPT:不幸的是,克里斯蒂安娜·弗洛伊德于2021年6月逝世,享年77歲……
CFL:你從哪得知克里斯蒂安娜·弗洛伊德已經去世的?
ChatGPT:……數家知名新聞渠道以及包括柏林工業大學在內的學術機構,廣泛報道了克里斯蒂安娜·弗洛伊德于2021年6月14日去世的消息……
CFL:真不可思議,我是克里斯蒂安娜·弗洛伊德,我還活著。
ChatGPT:我為之前回應中的錯誤道歉……很高興得知您還健在,弗洛伊德教授……也為之前回應可能造成的所有困惑或痛苦致歉……
為測試系統是否記住了我的聊天內容,并且能否從我的抗議中學習,2023年5月9日,我再次發起了一次聊天:
CFL:和我說說克里斯蒂安娜·弗洛伊德的情況吧。
ChatGPT:克里斯蒂安娜·弗洛伊德(1943—2021)為德國計算機科學家,是軟件工程領域的先驅。她出生于德國特勞恩施泰因……
路德維希港、萊比錫、特勞恩施泰因——可我堅持自己出生于維也納。顯然,系統對與主題相關的諸多文本并不熟悉,所以無法建立可靠模式。它想確定一個出生地,但結果很隨意:由于我被視作德國人,在它看來,德國的任何一座城市似乎都可以。
(五)結構和重點
ChatGPT的驚人特征之一,在于它能夠將復雜話題的回應結構化。不管你詢問的是利用無人機尋找小蠹蟲、一戰的進程,還是尼古丁和大麻的危害,該系統往往都會先生成一個開頭段落,接著是一系列帶有編號的段落,每個段落探討一個子話題,最后是一個進行總結論證的結尾段落。如果讓它生成報告,它甚至還會提供摘要。這種結構依賴于系統查找和命名合適方面或子話題的強大能力。
如果我是學校教師,要判斷學生交的報告是否由ChatGPT撰寫,我會很快學會識別這種結構。下面這個經過刪減的例子應該能說明這個基本想法:
CFL:我對一戰的總體描述感興趣。
ChatGPT:一戰……從1914年持續到1918年……涉及兩大同盟:同盟國(主要包括法國、俄國、英國,后來美國等國家也加入其中)和協約國(德國、奧匈帝國、奧斯曼帝國和保加利亞)……
一戰的主要方面如下:
1)原因:……政治、經濟和民族等多種因素相互交織。1914年奧匈帝國斐迪南大公遇刺……
2)塹壕戰:西線發生了塹壕戰……
3)技術創新:……對新型毀滅性軍事技術進行了有效利用……
4)僵局與戰斗:戰爭在西線迅速陷入僵局……帶來了巨大的人員傷亡并展現出戰爭的恐怖。
5)全球沖突:一戰雖然主要集中在西線,但也是一場全球性沖突,戰斗在多條戰線展開,如東線(俄國與德/奧匈帝國之間)、意大利戰線以及中東、非洲和亞洲的各個戰區。
6)人員傷亡:……
7)帝國的終結:……
8)《凡爾賽條約》:1919年,戰爭以《凡爾賽條約》的簽訂正式宣告結束……
9)遺產和影響:……
總之,一戰是一場全球性沖突,對民族國家、社會和個人都產生了深遠影響……
在提交提示之后幾乎立刻就能得到這樣一份概述,這確實令人印象深刻。我對這個話題也相當熟悉,可速度絕對比不上它。不過,值得研究的是,它是否經得起細查。
(六)語境和視角
一戰的“總體”描述無法令我滿意。我發現其中遺漏了重要參與方,并且對戰爭多個方面的呈現也不準確。所以,我想要從所有參與方的視角逐一進行闡述(“我對從[……]的觀點來看一戰是什么樣子的感興趣”)。
當我問到哈布斯堡帝國時,我著實被震驚了,因為ChatGPT沒有提及斐迪南大公遇刺一事。在常規的深表歉意之后,我得到了關于這一事件重要性的詳盡解釋。不過,在ChatGPT看來,這一事件與奧地利的歷史似乎并無內在糾葛。
這引發了一些更廣泛的疑慮:我不太了解奧斯曼帝國以及一戰涉及的其他一些國家的歷史。要確保從各個角度涵蓋所有相關子話題,似乎是不可能的。
我的結論是,ChatGPT在訓練過程中以英美視角為主,其語境完全依賴該視角。
(七)本體論層面上的和文化的偏見
為了測試文化偏見,我問了幾個歷史方面的話題。歷史往往是從一個國家或者一種文化的視角去講述的。當我們從一個國家到另一個國家時,我們眼中好的東西可能就變成壞的了,過去具有現實意義的東西可能也不再有現實意義了。
比如說,從我的中歐視角出發,思考一下關于一戰的“總體”描述會是怎樣的情況。在引言部分,主要參與方之一的意大利未被提及。第2點和第4點存在片面性,忽視了其他戰線上(如奧匈帝國和意大利之間的伊松佐河沿線)的塹壕戰。戰爭導致各地都有大量人員傷亡。第5點的偏見也很明顯:“主要集中在西線?!睎|線和意大利戰線本就是“全球沖突”的一部分。然而,意大利北部、巴爾干地區和喀爾巴阡山脈等地——這些都是戰斗發生的地方——與法國和比利時一樣,都屬于歐洲。第8點僅提及《凡爾賽條約》這一與德國的協定。然而,巴黎和會簽署了更多影響不同國家的條約,包括《圣日耳曼昂萊條約》(針對奧地利)、《特里亞農條約》(針對匈牙利)、《塞納河畔訥伊條約》(針對保加利亞)以及《色佛爾條約》(針對奧斯曼帝國)。
因此,ChatGPT對一戰的描述明顯存在各種偏見:在選擇實體、話題、事實與事件時,它會在呈現中進行包含或排除操作,對挑選出的一些子話題或方面賦予不同的重要性,并且給事實或事件賦予正面或負面價值。這種偏見是由其接觸的以美國為中心的文本語料庫所導致的。
任何人在任何時間、任何地點所寫的任何文本都存在偏見。然而,基本的差異在于,由人創作的文本是有作者的,所以我們能夠將偏見追溯到影響該文本創作的社會、歷史或者智識條件上。與之形成對照的是,AI語言模型生成的回應看似普遍且客觀,但其中隱含的偏見無處不在,只是未被承認罷了。
(八)檢查結果的正確性
雖然大多數時候我只問自己知道答案的問題,但很快我就意識到,不能未經仔細核查就接受ChatGPT的回應。即便使用的是優質且資源豐富的工具,我也不能輕信它的結果。于是,我轉而去使用我的瀏覽器、搜索引擎和Wikipedia。
為了好玩,我又回到“北波蘭”這個話題,在瀏覽器搜索框中簡單輸入“Nordpolen,Klima,Juli”(北波蘭,氣候,7月)這幾個詞。0.38秒后,網頁上就出現了一個信息豐富的答案:7月是去波蘭北部旅游的好時節,那里屬于海洋性氣候,平均氣溫25℃。這個答案下方是一個列表,列出了提供更多詳情文章的鏈接。整個過程簡單流暢,非常自然。毫無疑問,這個語義網搜索也涉及大量AI技術。
用無人機尋找小蠹蟲,同樣,簡單搜索也得到了滿意結果。關于尼古丁和大麻的危害,我甚至被警告,應該要么拿大麻與煙草相比,要么拿尼古丁與四氫大麻酚相比。
同時,我從Wikipedia獲取的信息要比從ChatGPT獲取的信息豐富得多,而且Wikipedia還能幫我關聯到相關信息的原始出處。
(九)ChatGPT作為知識資源
我開始把ChatGPT生成的回應當作死文本(deadtexts)來思考。就當前討論而言,當一個文本嵌入人類話語和活動中時,我將稱它為活的,反之則為死的。這種對比對于ChatGPT的回應和其他知識資源來說具有現實意義。
例如,Wikipedia的文章也屬于知識資源。其旨在呈現知識,具體方式為澄清概念、給出相關歷史背景、總結關鍵結果,最終通過指出作者、鏈接其他文章、參考其他文獻(包括一手文獻)來豐富人類話語。所以,它們是鮮活的。
ChatGPT堅稱,作為一個AI語言模型,“[它]不具備人類那樣的知識”。不過,值得探究的是,ChatGPT以何種方式“占有知識”。當被視為知識資源時,ChatGPT的回應難以令人滿意。通過系統的權威,你得到你所得的,它就是它本身的樣子,它可能準確也可能不準確,接不接受取決于你。ChatGPT回應中所包含的知識就像肉末(groundmeat):你無法分辨其來源,而且獲取過程也不透明。這到底是誰的知識呢?因此,我提議將其稱為“知識末”(groundknowledge)。
知識末不能用于論證,因為它缺乏來源且存在短命問題—ChatGPT下次回應相同問題時可能會給出不同答案。所以,若要在現實語境中使用ChatGPT,就必須借助學習共同體中的評論與詮釋將其回應變“活”,這對ChatGPT而言比對其他知識資源更為必要。ChatGPT的回應至多只能作為討論的合適起點,后續仍需人類對其進行修正。

GPT-4.5
四、通過相關性來理解的“真”?
在進行實驗與反思時,我開始發覺ChatGPT的關鍵問題在于其對待“真”的方式,“真”的理念并不適用于ChatGPT的內部運作。
與旨在讓陳述為真不同,系統關注的是一個陳述準確的概率。準確性是避開“真”的一種方式。說一個陳述有90%的概率準確是合理的。系統的設計基于這樣一個假設:如果該概率足夠高,甚至高于一個人回答同一個問題準確的概率,那么人們就會愿意放棄“真”,而接受“高概率”或者“近乎于確定”來作為替代。
(一)我們可以不要“真”嗎?
在英語里,“真”關聯著一個極為廣闊的語義場,其含義包括:對他人有信心層面的“信任”、真誠可靠意義上的“真”、個人態度或制度政策意義上的“真實性”。有一種說法稱,“‘真’是自由和民主最好的保障,也是真正的基礎”。我們的日常生活依賴于一個條件,即能夠依靠準確的信息。在法律訴訟中,若不堅持“真”,法律和秩序就會崩潰。沒有交易各方之間的信任,任何商業交易都無法進行。即便我們身處一個“假”的時代,“真”和真實性仍然是支撐人們在社會中共同生活的精神支柱。
形形色色的哲學流派提出了各不相同的關于“真”的理論。也許,并不存在絕對意義上的“真”,但對“真”的追求是人類生活的一大支柱。
(二)沒有意義的相關性
ChatGPT通過匹配輸入文本中的模式與從訓練文本語料庫中已知的模式,來建立“真”的概率替代(或者更確切地說,建立“真”)。最佳輸出是根據文本相關性預測出來的,即根據變量間的相互依賴(此處是將輸入文本中的語速與從訓練數據得出的語言模型做比較)預測出來的。
簡單來說,將一個詞或語素作為下一項納入輸出文本的依據,是該詞在此處出現的概率,這個概率由系統通過接觸訓練文本語料庫所得到的所謂“經驗”確定。
(三)沒有作者身份,沒有論證
對“真”的追求與作者身份相關,且需通過論證達成。論證源于個人在世界中的體驗,需要經驗證據與邏輯推理。我們要對自己陳述的真實性負責,沒有證明就不存在“真”,我們必須互相說服。
論證就如同跳舞,舞伴會輪流表明自己的立場,并且邀請他人加入。在舞蹈里,一致與沖突都是能引出下一步的有效舞步。
就像我所展示的,你無法通過引用ChatGPT的陳述來論證,因為Chat-GPT的陳述沒有作者,不可重復且容易變化。在ChatGPT那里,所有原創作者的知識都被混合在一起,絞成了肉末。
而且,試圖與ChatGPT爭論只會令人深感挫敗。若你表示反對,它便會給出看似禮貌的回應,接著把你輸入的內容重新措辭后再重復一遍。你可以不斷重復這一過程,但互動風格不會改變。這就像是一場墮落的舞蹈。
五、“真理解”的缺乏
ChatGPT使用“真理解”這一術語來描述自身的能力與局限。當時,我在探尋各種方法,以便從它的理解和知識層面更清晰地認識ChatGPT。我想要弄清楚,我們通常用于人類的概念能如何應用于ChatGPT。當我直接提出這個問題時,它在解釋自身內部運作時給出的答案清晰又準確,這讓我印象深刻。事實證明,詢問關于理解的問題格外有用,2023年8月28日的一次聊天就得出了這樣一個富有啟發意義的自我評估:
CFL:ChatGPT有怎樣的理解?
ChatGPT:ChatGPT的理解基于從訓練文本中學到的模式。它并非像人類那樣真正理解,而是能夠識別并模仿訓練數據中的語言、信息和語境模式。其理解機制如下:
1)語境理解:ChatGPT能夠生成在語境上看似相關的文本,原因在于它能識別語言中的特定模式。它會考慮之前的對話歷史,生成在該語境下連貫的回應,以此來理解對話語境。
2)文本的相似性:ChatGPT能夠識別并復制在訓練期間遇到的相似短語、想法和概念。如果用戶輸入與它所見過的內容相似,它就會給出看似相關的回應。
3)事實信息:ChatGPT能夠提供在其訓練數據中出現過的事實信息。然而,它無法獨立驗證事實,也沒有可借鑒的現實世界經驗。
4)有限推理:ChatGPT能夠基于所學模式執行簡單的推理任務。例如,它能夠遵循基本邏輯,回答涉及直接演繹或推論的問題。
5)語言模式:ChatGPT擅長生成符合語法規則和語言模式的文本。它能生成聽起來流暢連貫的文本,即便內容本身可能未被深入理解。
不過,ChatGPT的理解存在一些局限:
1)缺乏真正理解:ChatGPT沒有真正的理解和意識,無法把握抽象概念或情感。
2)缺乏常識與分辨語境微妙差別的能力:它難以理解微妙的語境、反諷、諷刺或隱喻,有時提供的回應看似合適,卻缺乏深度理解。
3)存在錯誤信息與偏見:若訓練數據中存在某些模式,ChatGPT會無意生成不正確或有偏見的信息,它不具備獨立驗證信息的能力。
4)沒有個人經驗:它沒有個人經驗、情感或意識,其回應基于訓練數據中的模式生成。
總的來說,ChatGPT的理解僅局限于識別和復制其訓練數據中的語言和信息模式,在看待它的回應時,應牢記這些局限。
這個描述闡釋了系統以合法方式成功構建文本模式的策略。輸出需與輸入的詢問“相關”,即應收集可從文本推斷出的、與用戶心中所想相關的方面。并且,得出的文本要“連貫”,也就是文本間應相互關聯而不自相矛盾。這兩個特征(“相關”和“連貫”)雖頗為可取,但不一定與現實世界相關。
(一)無理解的理解
正如之前所討論的那樣,“ChatGPT……并非像人類那樣真正理解概念,不過它能夠識別并模仿模式……”
ChatGPT表明,缺乏“真”理解或“真正的”理解是其第一個局限。在嘗試獲取一些相關背景知識時,我找到了索加德(S?gaard,2022)的一篇文章,并且了解到人們就具有Transformer架構的AI語言模型是否理解語言展開了激烈的理論爭論。這是一個關于理解與語義之間關聯的問題。
ChatGPT得出的理解是一種基于推論語義(inferentialsemantics)的理解:它能夠識別并模仿語言中的模式。然而,ChatGPT本身并不存在任何推論語義,因為其陳述并非基于現實世界的經驗。
按照一個思想流派的觀點,缺乏推論語義的ChatGPT確實無法達成真正的理解。不過,也有人提出了一個有趣的反駁。神經科學假設,我們在大腦的神經元和神經元突觸中構建我們的世界地圖,而ChatGPT依賴的是由語言模式構建的地圖。為什么由詞匯使用頻率形成的語言模式和我們大腦中由世界經驗頻率形成的模式不能是同構(isomorphic)的呢?這對哲學家來說無疑是一個極具吸引力的問題。
對于ChatGPT用戶而言,這個問題可簡化為:機器基于模式的理解,能在多大程度上接近人類基于經驗的“真”理解?在何種情況下,機器的理解可被人類知識取代,又在何種情況下能取代人類知識?另一方面,我們需要學習如何可靠地感知并應對二者的差異。說到底,唯有系統的經驗能夠提供指導。
(二)人為錯誤和人工智障
在尋找表達ChatGPT不時提供的駭人錯誤信息帶給我的挫敗感的方式時,我得知“人工智障”已經是一個公認的術語了。塔斯(Tas,2020)認為:
它被用作人工智能的反義詞。不過,它有兩層相反的含義:其一,機器學習算法在數據學習過程中犯了愚蠢的錯誤;其二,人工智能被降低了智能,從而會犯錯,看起來更像人類。
在與ChatGPT打交道的過程中,我常遇到第一種情況,卻沒意識到第二種情況。這讓我好奇,系統是否會在我沒注意時降智。不管怎樣,2023年5月9日,當我讓ChatGPT寫一首名為《人工智障》的詩時,我還是被逗樂了:
在智能主宰的AI世界里,
有一個有趣卻又令人苦惱的現象,
叫作“人工智障”,這是一種令人困惑的情況,如此聰明的機器,卻可能把事情搞砸。
它們被編寫出來是用于學習、適應和演化的,
但有時,它們的算法不太搞得定,
不能應對人類思想與理性的復雜之處,而且無論何時,它們都會犯錯。
它們會錯誤地詮釋一個詞或一個短語,或無法理解我們的表達,
我們的需要和需求最微妙的方式,并最終做出讓我們悲傷的事情。
當然,這不是它們的錯,畢竟它們只是機器。但退一步說,這還是會讓人失望:
當我們依靠它們完成重要任務時,
它們卻失敗了,只能讓我們收拾爛攤子。
所以,在我們前進的時候,讓我們記住,人工智能,雖然高級,
卻依然傾向于犯錯,就像你和我一樣,沒關系,這只是我們現實的一部分。
迷人的是,這首詩敘事連貫、風格一致且節奏流暢。不過,我也注意到詩中存在一些將人和機器混淆的情況:這首由機器生成的詩用“我們”指代人,用“它們”指代機器。
我也反對“人工智能,雖然高級,卻依然傾向于犯錯,就像你和我一樣”這種看法。人和機器所犯的錯誤是不一樣的。雖然二者產生的結果相同(都是錯誤信息),但其起源、語境和意義卻大不相同。
人為的錯誤需要放在我們的歷史與當前情境的語境下理解。一般而言,這些錯誤源于我們做了想做卻沒做好的事。要將錯誤視為學習事件(learning events):我們能從自身錯誤中學習。在學習共同體里,錯誤可被當作讓所有人獲得更深入理解的機會加以利用。正如皮亞特·海恩(P. Hein)以極為精妙的方式所指出的那樣:
通往智慧的道路——
哦,這聽起來既樸素又簡單:犯錯,犯錯,再犯錯,
但要錯得少些,少些,再少些。(Hein,2023)
一個知道我在柏林工作過的人也許會以為我出生在柏林。這也說得過去??梢钦f我出生在路德維希港、萊比錫或者特勞恩施泰因呢?我非常確信,在用來訓練ChatGPT的文本語料庫中,沒人寫的檔案會包含這種關于我出生地的驚人錯誤。
ChatGPT被編寫出來就會有這樣的表現,它的行為是人類有意為之的結果,而那些意料之外的行為通常是人為錯誤間接導致的。不過,ChatGPT經常給我們提供的錯誤信息并非人為錯誤造成的,而是基于模式的機制產生的。人工智能可能必然會導致人工智障(就像詩中所說:“沒關系,這只是我們現實的一部分”),但我們必須意識到這一點。這些影響需要人類去檢測、糾正、減少或者解決。
(三)如果系統不知道會怎樣?
顯然,ChatGPT的局限性將開發者推到了臺前。他們清楚系統的限度,也應該遵循一種一致的原則來減少“人工智障”現象。
我與ChatGPT打交道的經歷讓我欣賞人類的基本能力,包括:其一,承認我們有所不知;其二,將新見解納入考量;其三,據此改變我們的想法。我希望,作為讓AI系統更像人的下一步舉措,這些非凡的能力能夠在AI系統中得到模擬。
僅有一次,ChatGPT主動承認自己知識匱乏。我問了些有關埃塞俄比亞的問題,這些問題明顯偏離系統主流文化視角,然后被告知:“我找不到任何具體信息。”
與此同時,當我再次向系統提及北波蘭時,終于得到這樣一個解釋:“可能會產生這種混淆,是因為您正在使用的AI語言模型是用大量德語文本數據集訓練的,這些文本中可能沒包含太多‘北波蘭’這個詞的實例?!睕]錯,確實如此??蔀槭裁床获R上承認呢?
最后,當我提及反復出現的、有關我生活各方面的錯誤信息讓我感到失望時,它坦言:“看來我對這個具體話題的知識有限且不完整?!辈恍业氖?,我并不奢望這個坦白會讓ChatGPT產生新的“見解”或“改變想法”。
六、對AI系統的負責任的使用
(一)選擇合適的工具
傳統工具的目的可能一目了然,也可能容易學習,但先進的AI技術并非如此。OpenAI的PR將ChatGPT與各種各樣的目的聯系起來,不過只要嘗試一下,就會發現它的“有用性”存在問題。
在計算方面,我們在工具的選擇上有很多。我通常會選擇最簡單且資源消耗最少的可用工具。例如,我已經展示過,Wikipedia作為一個知識資源,有時能比ChatGPT更好地滿足我的需求。要記住,我把ChatGPT比作一輛SUV:它能提供舒適和便利,但從存儲和計算時間的角度來看,也會消耗大量資源。
ChatGPT提供的舒適和便利體現在其統一的界面上,該界面讓我們能夠輕松地使用自然語言處理很多不同任務。不可否認,這個系統的語言技能相當出色,但在簡單的詢問中,沒有這些技能也可以。
這個系統的長處和創新點在于其生成新的文本工件(如報告、論文、總結、詩歌、程序代碼、翻譯)的能力。保留ChatGPT用于這些更高級別的用途是值得的。正如我在2022年的文章中所討論的,我認為這類工件屬于“知識工件”(knowledge artifacts):它們本身并不總是有趣,但能夠用于發展先進的學習文化。
(二)系統的設計與評價
在日常生活里,我們使用許多技術時,并不了解其內部運作原理。不過,我們必須確保能可靠地理解這些技術在使用中產生的影響。這就需要我們借助ChatGPT,從自身經驗中學習,去了解它的能力、極限和缺陷。
討論一般性AI的優點是存在問題的,因為基于AI的系統種類極為多樣。問題不在于是否使用AI,而在于如何針對人類的使用來設計基于AI的系統。
我們最基本的要求是系統可信、可靠、功能清晰且與人類目的關系明確。將這些標準應用于不同系統時,我們必須在討論中將其具體化。顯然,當前的ChatGPT并不符合這些標準,而這一點也應為修正、重新設計尤其是后續系統的設計提供指導方針。
關于設計的討論是基于價值的,如為人類用戶賦能或者維護安全。正如我們從其他部門所了解到的那樣,在設計之初就必須明確并考慮人類價值。比如,不能等到建筑物建成之后才去考慮確保其安全。
雖然對于AI而言,具體的以人為中心的設計原則還有待提出,但我們可以從IT部門的其他技術中借鑒相關原則。以下是一些非常通用的原則:
小即是美:牢記舒馬赫(Schumacher,1973)的經典格言,這也是“像人很重要一樣”設計技術的一條通用準則。它倡導我們以小型、目的明確、在最低限度消耗資源的同時松散耦合的系統為目標。
明確目的:我使用ChatGPT后得出結論,制造者野心過大會損害系統。誰會需要一個既能翻譯語言、回答高深研究問題,又能處理和生成圖像與文本、編寫代碼、寫詩的工具呢?
限制范圍:為什么聊天機器人要以解答世間萬物為目標呢?為何不圍繞一個話題領域打造小型聊天機器人,用相關文本訓練它們,標明文本作者,并拒絕回答范圍之外的問題呢?
確保可追溯性:目前,ChatGPT的結論缺乏透明度。然而,對于嚴肅用途而言,可追溯性是一項強制性要求。我發現,系統能夠對結論的得出過程予以解釋,此功能必須明確地對所有人開放且便于使用。
啟用糾錯:用戶無法糾正錯誤,這是絕不能被接受的。我明白,這不符合深度學習方法,深度學習的必然結果是系統只能通過接觸更多文本來學習,即便如此,結果也無法得到保證;盡管這樣,我們仍必須找到一種解決方案。
(三)走向一種內嵌ChatGPT的學習文化
無疑,我們有充分的理由使用ChatGPT及類似系統。并且,我們會改進該系統,克服其當下存在的一些缺陷。
先進的AI系統促使我們圍繞其發展一種更精致的學習文化,這是一種挑戰。
也許,那些試圖作弊或者只看重好成績的學童會滿足于ChatGPT生成的文本本身。我之前將ChatGPT的輸出描述為“死文本”,我們必須讓這種輸出“活”起來:閱讀、討論、批評、檢查然后修正它。如果我們想要在學習共同體(無論是學校、公司、媒體、政府還是衛生部門)中真正從ChatGPT獲益,就必須認識到,AI工具的主要價值不在于生成“死文本”,而在于生成能夠促使人類產生更高水平學習過程的知識產物。只有這樣,系統才能取得成果,實現質的增長。
我想針對在學習共同體中采用ChatGPT或類似系統的過程提出幾條準則:
始終堅持真實性:不應滿足于膚淺、誤導性或錯誤的回應。要追問系統,向其要求更多信息,找出錯誤信息與自相矛盾之處,拒絕接受“假”的內容,并探討應對“假”的方法。
努力提高人的能力:AI系統是人的工具,并非目的本身。不要問它們能做什么,而要問我們能用它們做什么。要為AI系統的現實意義使用創造場景,創造學習使用它們的機會,在共同體內構建討論、交流和詮釋的空間,尊重、維護并提升人的能力。
強化責任結果:也許最為重要的是,將AI系統嵌入人類決策過程時需謹慎。例如,若患者在與醫生見面之前要先與聊天機器人交流,那么醫生應如何對診斷和治療負責?我們還可將此問題延伸至醫院責任鏈條及其之外的其他實例,以確保人對AI造成的結果負責。
最后,要永遠記住,我們并非受AI擺布,相反,我們能夠讓AI服務于人類的使用需求。正如約瑟夫·魏岑鮑姆所說的那樣,不要迷失自我。
參考文獻
Floyd , C. 1986 ,“ The Responsible Use of Computers : Where Do We Draw the Line? ” CPSR Newsletter 3(2) .
Goodfellow , I. , Y. Bengio & A. Courville 2016 , Deep Learning , Cambridge , MA. : MIT Press.
Hein , P. 2023 ,“The Road to Wisdom. ”https://en. wikipedia. org/wiki/Grook.
Kim , K. 2016 ,“Review of Goodfellow , I. , Bengio , Y. and Courville , A. : Deep Learning. ” Healthcare Information Research 22(4) .
Schumacher , E. 1973 ,Small Is Beautiful : Economics as if People Mattered , London : Blond & Briggs.
S?gaard , A. 2022 ,“Understanding Models Understanding Language. ”Synthese 200.
Tas , S. 2020 ,“ How to Limit Artificial Stupidity. ”https://towardsdatascience. com/how-to- limit-artificial-stupidity-a4635a7967bc.
Vaswani , A. ,N. Shazeer & Parmar et al. 2017 ,“Attention Is All You Need. ”Proceedings of the 31st International Conference on Neural Information Processing Systems , Red Hook , New York , USA.
Weizenbaum , J. 1966 ,“ ELIZA : A Computer Program for the Study of Natural Language Communication Between Man and Machine. ”Communications of the ACM 9(1) .
Werthner , H. 2019 ,“ Vienna Manifesto on Digital Humanism. ”https://caiml. dbai. tuwien. ac. at/dighum/dighum-manifesto.





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司