- +1
專訪趙汀陽:只要不具反思能力,人工智能就不會失控
著名哲學家趙汀陽新作《四種分叉》近期由華東師范大學出版社出版。“分叉”借用了博爾赫斯小說《小徑分叉的花園》的用語,描述了一張包含一切可能性的多維時間之網,無窮分叉生成無數未來。在本書中,趙汀陽討論了時間的無窮分叉狀態、人類意識的起源、有軌電車悖論和超級人工智能四個關于“可能性”的分叉問題。“當代”何以成為一個“創世”時刻?人類的思想、哲學與文明,統統都建基在一個詞語之上?倫理學發展到現代如何作繭自縛?超級人工智能帶來的是人類的進步,還是毀滅?這些都是一個哲學家對這個世界的深沉追問。近日,澎湃新聞就《四種分叉》對趙汀陽進行了專訪。

時間:當代性標示了在時間中面臨一個存在臨界點的狀態
澎湃新聞:《四種分叉》的第一個分叉討論的是時間,您論述了時間的無窮分叉狀態,過去因為不同的敘事成為復數的歷史,將來因為不同的選擇成為了復數的未來,歷史與未來向此刻雙向匯集過來,“當代”成為唯一沒有時間分叉的點。而您認為“當代性”并非時間屬性,而是一個存在狀態,該如何理解?
趙汀陽:“當代的”(contemporary)詞義是人或事件與時間的同步關系。顯然,當代性(contemporariness)就是這種與時間同步關系的性質,而不是時間性(temporality)的性質。存在總是在時間中存在,因此,與時間的某種關系就是存在的某種狀態(可以想想海德格爾的書名《存在與時間》的深意)。在當代性的基本詞義基礎上,根據不同的問題和理論語境,可以有多種進一步的含義伸延。我的討論也是對當代性概念的一種含義伸延。
當代性標示了在時間中面臨一個存在臨界點的狀態,即必須著手于生成某種未來的猶豫狀態,稱為“存在論的猶豫”。理由是,在現時中,或者說在此時中,面對未來性所展開的由許多可能性所構成的“時間分叉”(博爾赫斯用語),卻又無法證明哪一種可能性是更可取的,因此進入一種超越了知識論的困惑,所以是“存在論的猶豫”。這里的要點是,必然性在此缺席,每一條路徑都只是可能性,既找不到歷史必然規律也看不見歷史的目的(或終點),于是就形成了時間、存在、自由三者同一的存在論境地。為什么這種境地是猶豫?因為必然規律、先知、教師、榜樣和目的地都不在場,甚至不存在,那么,這種猶豫就不再是挑三揀四、斤斤計較的得失猶豫,而是一種在存在論水平上相當于“何以創世”的創作猶豫。
澎湃新聞:您在思考當代性的時候,將它與現代性做了區分,認為兩者存在相關又相背的關系。您能展開講講,現代性如何影響我們對于時間的認知,以及我們對當代性或生活現實的理解?
趙汀陽:當代性與現代性并不是同一個層次上的問題,也不是同一個系列里的概念。當代性不是現代性之后的新時段,后現代才是現代性的后繼。當代性是個哲學概念,是一個關于存在狀態的概念,而現代才是個歷史分期概念,通常指1500左右至今的歷史階段,也有人把1968之后歸為后現代。前現代、現代和后現代的歷史階段劃分是歐洲人基于歐洲歷史變遷事實的一種理解,這種時段劃分與世界上其它地方的歷史變遷并不吻合,最好不要混為一談。不過,世界各地的歷史變遷節奏正在變得越來越步調一致,這是全球化的結果。
歐洲的現代性觀念確實改變了歐洲對時間的歷史理解。古希臘主要是時間-歷史的循環觀;基督教建立了線性的時間-歷史觀,線性的歷史進程有個終點;現代的時間-歷史觀部分地繼承了基督教的線性觀點,但有根本變化,最重要的變化是把基督教的“等待”替換為“進步”,于是,在歷史終結之前每一步不再是除了等待就別無意義的過程,而成為具有決定性意義的主動進展,于是,現時(the present)就變成最具意義的核心時刻,因此,現代性的觀念總是以現時為核心的現時主義。

意識:反思自身系統是人的最高級能力
澎湃新聞:第二個分叉討論的是意識。您認為,以往的形而上學大都談論“是”,但實際上使人區別于動物、讓意識轉變為思想的關鍵在于“反思”,而作為反思基礎的否定詞——“不”是“第一個哲學詞匯”,也就是說,一個“不”字,啟動了人類的思想、哲學乃至文明。從“是”生出“不”,與老子想象的世界生成之道是同構的:“一生二,二生三,三生萬物。”這種論述容易讓人聯想到二進制,1和0的無窮組合構成了浩渺的計算機世界,那么我們是否能夠認為,人的思想與計算機具有共同的起源與底層架構?如果不是,區別在哪?
趙汀陽:我想,更準確的說法應該是,計算機的思維是人的思維的一部分,是由人的思維派生出來的一種特殊算法系統。既然兩者之間是父子關系,當然就是一致的,而由于計算機思維只是人的思維的一部分,當然也就只是部分相似。計算機思維在本質上就是人的邏輯和數學思維,不過,目前的一些新進展似乎試圖讓計算機具備人的其它思維能力,比如自由聯想、感知、學習甚至想象力之類,如果成功的話,那就越來越像人了。根本的差異在于,目前的計算機思維不可能對自身系統的整體性進行反思。反思自身系統是人的最高級能力。
倫理:一些倫理兩難是通過把不等式定義為等式造成的
澎湃新聞:第三個分叉討論的是倫理,您利用著名的有軌電車悖論展開論述。您認為,倫理學本來的目的是幫助人們構筑完整的生活,但有軌電車這種倫理困局被理解為不可解決的道德悖論,事實上等于拒絕了關于共同命運的思考,反而成為一種分裂的力量。很多倫理學發展到現代變成了作繭自縛,以至于把一些本來并非悖論的問題轉化為了悖論,是什么生成或者誘發了這種“作繭自縛”?
趙汀陽:關于倫理分叉的討論是本書中相對最小的一個問題,也相對最簡單。如果一個系統只有單一價值觀,原則上就不應該出現矛盾或悖論,比如說,邏輯和數學系統只使用真值(真或假)為其單一價值觀。即使如此,數學在特殊的反思條件下也會遇到難以解釋的問題。如果一個系統具有多樣價值觀,比如說人類生活系統就具有多樣價值觀,那就必定會產生許多矛盾、悖論或兩難。就目前熟知的人類價值系統而言,公正(justice)、自由、平等、公平(fairness)、博愛、善良、仁義、誠實等等價值之間就存在著大量的矛盾或兩難,不可能同時得到滿足。這是不可能解決的問題,因為那些基本價值都是同等重要的價值,難以形成理性排序。因此,這些價值之間的矛盾或兩難就是人類必須接受的命運。
但有一些所謂的倫理兩難其實是通過把某種不等式不合邏輯地定義為等式而造成的,有軌電車兩難就是一個典型,它把“5條人命大于1條人命”的不等式改為“5條人命等值于1條人命”的等式。這種難題基于一個自我中心的無理假定:一個人的生命價值無窮大,所以等價于無數人的生命價值。這個等式在邏輯上是錯誤的。假如這種等式是對的,那么,“一句等于一萬句”就也是對的。由此不難看出其中的危險性。正如真理越界多走一步就變成謬誤,人道主義越界多走一步就會變成反人道主義。
智能:人工智能會帶來全人類解放還是叢林戰爭?
澎湃新聞:第四個分叉討論的是智能,似乎前面三個分叉都是為智能的分叉做鋪墊,有點圖窮匕見的意思。人工智能本來似乎是一個科學上的專業問題,但現在有越來越多的人文學者介入到這一問題并產生廣泛影響,乃至占據了舞臺中心,比如《未來簡史》的作者赫拉利。您覺得人文學者思考人工智能的優勢何在?
趙汀陽:恐怕無法籠統地談論人文學者,因為每一個人文學者都是不一樣的。也許只能說,假如一個人文學者能夠確實做到尊重科學和邏輯的話,那么,其人文角度的反思或許有助于科學家慎重考慮人工智能的發展限度問題。
澎湃新聞:您對人工智能的未來持一個相對不樂觀的態度,霍金、比爾·蓋茨等人也對超級人工智能的研究提出警告,有相當一部分人類對超級人工智能是懷著恐懼心理的。那么,二戰后兩大陣營也一度被核恐懼籠罩,那時候人類也具備了自毀能力且保持到現在,這種恐懼與對超級人工智能的恐懼有什么異同?
趙汀陽:核戰爭當然是具有毀滅人類能力的威脅,但核武器有著“確保互相摧毀”的理性均衡,因此不如人工智能的潛在威脅那么大。我覺得,人類自己能夠做主的危險不如由別的物種做主的危險那么深不可測。
澎湃新聞:您說,存在的唯一本真意圖就是繼續存在。但人類試圖發明超越自身的超級人工智能,本身是反存在的,結果可能是人類的毀滅或者說文明的自殺。是什么誘惑人類違背“本真意圖”?或者說,這種自毀沖動來自何方?
趙汀陽:這確實是一件難以理解的怪事。對于這個費解的問題,我找不到一個充分合理的理性解釋,只有一個恐怕不太可靠的推測:科學家并非試圖毀滅人類,相反,他們試圖拯救人類,試圖通過人工智能、物理學和生物學的高端技術的聯合應用而創造出永生的新人類。問題是,假如此種技術能夠實現,也只能是一小部分人獲得存在升級和永生,大部分人沒有這種機會。不過,這個存在升級的可能性還比較遙遠,人們還有機會慢慢思考。
澎湃新聞:因為“存在的唯一本身意圖是繼續存在”,所以超級人工智能很可能采取最高效的自我保存原則,您在《智能的分叉》中推導出,超級人工智能極大可能不會遵循,甚至徹底無視人類的價值體系,人類為自己培育了掘墓人。那么,在這個人工智能還停留在AlphaGo的時代,我們是否有可能阻止這一晦暗的圖景呢?
趙汀陽:當然有可能,假如人類能夠形成集體理性而阻止越界冒險的話。我想,關鍵的界限是:(1)人工智能的發展應該限于特殊的或專業的人工智能,不能發展具有全面綜合能力的人工智能;(2)不應該發展具有等價于人類反思能力的人工智能,即不能把人工智能設計成為能夠對自身系統整體進行反思的全權自主智能。目前在研制的具有學習能力、積累經驗能力甚至具有某種“創造性”的人工智能并沒有越界,其“創造性”只是對所擁有的材料進行聯想和重組。即使人工智能將來能夠作曲比美巴赫、畫畫匹敵米開朗基羅、寫詩不輸杜甫,也不算越界。只要缺乏對自身系統整體的反思能力,人工智能就不會把自身升級為人類無法控制的超級智能存在。
澎湃新聞:在整本書的最后,您用了一頁的篇幅討論,在想象中的“人機大戰”之外,人類社會內部的極端危險。現在的人們勉強能忍受經濟不平等,但未來出現的可能是生命權的不平等,一部分人通過高技術改造生命而達到永生或者高量級的不平等,而另一部分人被降格為蝗蟲,甚至連剝削的價值都不再存在。假設“人機大戰”不會發生,技術的極大發展,更可能帶來的是全人類的解放,還是人類社會內部的極端危險?
趙汀陽:這件事情嚴格地說不是關于人工智能的問題,而是人類自身的問題。假如人工智能的發展沒有越界成為超級智能存在,那么,人工智能系統與人類之間就沒有致命的矛盾。就是說,無論人工智能發展到多么精巧,只要維持作為人類的使用工具,就與人類不會形成敵對關系。至于人工智能的發展是否在人類內部帶來馬克思式的全人類解放還是霍布斯式的叢林戰爭,就不得而知了。就目前的人性水平而言,假如一小部分人手握人工智能的利器,局面恐怕不容樂觀。假如控制人工智能的強者們聯合起來壓迫弱者,那么將是專制的最后勝利(赫拉利談到這個可能性);假如控制人工智能的強者們互相爭霸,則有可能導致人類毀滅(帝國主義邏輯的可能結局);假如控制人工智能的強者們聯合起來共建一個萬民共享之天下,應該是最優結局(我希望如此)。哪種結局的可能性更大?要看人類的運氣了。




- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司