- +1
深藏在靈魂底部的藝術:無法被ChatGPT替代的先驗圖式
【本文原題為《反正人腦比ChatGPT流氓得多!》,原載于“法國理論”微信公眾號,澎湃新聞經作者授權轉載,現標題為編者所擬。】
康德在《純粹理性批判》中提出了先驗圖式論:概念下轄直覺,范疇被強加到了表象上(the intuition be subsumed under the concept, the categories be applied to appearances, B 176, A 137)。居高臨下地指揮和調度著我們的理解過程的,是先驗想象,它動用先驗圖式(transcendental scheme),擺脫了經驗地對感性現實作純粹中介,朝外是處理感性,朝內處理智性(B178, A139)。
先驗想象將先驗圖式套用到現實的數據材料(schemata)之上,用schema來收納schemata,于是使我們的理解走向更高程度的綜合。ChatGPT似乎就是想要替我們的先驗想象去做這件事,目前雖有了更高的綜合能力,但并沒有達到人類理性中的先驗想象所達到的那種綜合能力。但更是沒有考慮到人類理解中的先驗圖式們會不會允許它來越俎代庖,收不收費都是題外話。它更不知道的是,人腦動用的先驗圖式含有比ChatGPT中還流氓得多的人工智能,流氓遇流氓,你說誰怕誰了?
如,在現實中,看到一個三角形,我們就會用思想中的三角形,也就是那一關于三角形的先驗圖式,去意會這個具體的三角形。又如:看見一棵窗外的雨中的樹時,我的先驗想象通過直覺,在得到了這棵樹的一些schemata后,就馬上就根據這些感性直覺材料,智性地調整、升級它的關于這一棵雨中的樹的先驗圖式,然后將后者強加給了那棵樹。所以,康德說,我根本沒有看見那一棵樹本身,在我定神看這一棵樹前,我的先驗想象就已將它自己得出的關于這一棵雨中的樹的先驗圖式,強加到了這一棵特定的樹之上。我是看不見樹的物自體的,因為先驗想象總自說自話地替我事先做了定奪,讓我為先驗圖式背了書。
一、先驗圖式
為了說清楚,康德舉了這樣一個關于圖式的例子:

這里,5、five、五、伍是先驗圖式,是我們的概念用來處理現實材料或數據時所使用的綜合工具,理性之先驗領域內的綜合工具。它提綱挈領,給大腦省去無數的綜合的麻煩,頗像是ChatGPT號稱要給我們做的那些工作。
康德說,先驗圖式是“先驗想象在空間中綜合純具象時所依憑的規則(B180 l A141)”。而人人都會的這一圖式術,其實是“深藏在我們靈魂底部的一門藝術”,“對它的操縱,我們幾乎不會認為是發自自然,也不會認為是我們的眼睛所指引(同上)”。幾乎是一種充滿神性的GPS在導航我們的理解過程。好神秘。
我們的理解過程隨時自帶著先驗圖式(trascendental schemes)。我們是這樣地用了它來做概念工作的:先讓經驗數據來訓練我的理解過程中將要使用的那些先驗圖式,但是一會兒之后,這些被訓練的先驗圖式就自以為是起來,開始逆轉,而居高臨下地來處理這些數據,忘了剛才它還在被訓練。大腦是通過先驗圖式,來做自己的深度學習的。閱讀是我們在給自己的大腦做深度學習,我們只是大腦的學習委員。大腦的深度學習一定能壓倒計算機的深度學習。
所以,我身上的先驗想象或先驗圖式自身就是一個深度學習大王,我時時在為它的深度學習跑腿。它也是一個揩油大王,專門想要占人工智能的便宜到不商量。它比人工智能還更懶、更不要臉、想了各種辦法,來占后者的便宜,來扮酷,最后總只有它先勝利地完成了任務。
但是,目前,大家卻都在說,ChatGPT將把人腦甩在后面,將永遠壓倒每一個人身上的先驗圖式,來替我們做更全面的綜合,之后我們都將成為一架本人小時候愛用的808收錄兩用機,一不小心就要被淘汰。這一說法或想法真是太蠢了,但廣泛流行,甚至也在哲學界流行。這是把我們理解過程中的先驗圖式當成被牽著鼻子走的村里的阿三了。這也是把哲學的根本都給忘了。
而且這也是先驗圖式這個大流氓絕不會答應的。
的確,在與人工智能打交道時,一開始,先驗圖式總會像青少年那樣地先沉迷其中,但要不了一會兒,它就一定會翻轉,來自說自話,氣指頤使,攔也攔不住地要自己來做大。它是人類身上潛伏著的那一個上帝?齊澤克就認為,康德和黑格爾似乎暗暗相信,人的大腦或思想背后都埋伏著上帝。人工智能哪怕再是高的版本,都不是我們的純粹理性中隱含的先驗圖式這個大流氓的對手。ChatGPT最后總還是太嫩了點兒。所以,在人腦勾引或被勾引了ChatGPT后,我們大家還是都應果斷地站在ChatGPT這一邊,辛苦地幫它繼續升級,防止它很快就被人腦這個渣男玩弄,輸得內褲都不剩。
在康德看來,通過深度學習而得到的更純粹的理性,仍將繼續通過這一先驗圖式來展開它自己的進一步的機器學習和深度學習。它不光借了ChatGPT的東風,還借了控制論平臺的東風,比如說借了手機屏幕的東風。比如本人用手機屏幕來寫哲學,就是本人的大腦很揩油地借了手機的屏幕-界面后面的控制論機器的東風。在手機屏幕上,我的大腦既在看抖音,但也在寫哲學。
二、人工蠢能
貝爾納·斯蒂格勒(Bernard Stiegler)的《技術與時間》第3卷圍繞著這個康德圖式論,來討論雷乃的《我們都唱過的同一首老歌》和費里尼的《Intervista》這兩部電影到底想對我們說什么。他認為,先驗圖式面對文化工業對它的誘捕時,一開始總是像肉包子打狗般地有去無回了。但之后,很快,先驗想象就會通過先驗圖式,通過那一深度回憶(anamnesis),而醒來,而回來,而逆轉,而作出反向遞歸,而利用第三預存(許煜),來反向遞歸,來占先,居高臨下地回頭去處理一開始曾使它中毒的數據材料,之后,一切就又像費里尼電影的下半場那樣地歡樂和明亮了起來。面對ChatGPT,我們現在是還處在一部費里尼電影的上半場,但歡慶也已在不遠處,最后總是那一先驗圖式將來得意地凱旋。但先驗圖式一旦能玩轉GPT4,把它當成某種電視機來用,就又認為它太無聊了,就又要去找新技術來使自己中毒,去展開新的深度學習,再從毒性造成的休克中醒來,以便撲向更新的技術和媒介。
電視到來時,我們也曾以為它是某一種ChatGPT,覺得人類終將被毀在電視手里。
電報到來時,尼采也曾認為它是ChatGPT,所有的現實都將漂浮在空中,世界將變成一個抖音舞臺。書寫剛從埃及傳到雅典時,蘇格拉底也曾以為它就是ChatGPT,為此而發誓一輩子不寫一個字,猶如今天一個書生發誓一輩子不用手機或微信朋友圈,是學生柏拉圖用書寫替他把他的思想記錄了下來。
所以,根據康德的先驗圖式論,ChatGPT對人類的挑戰,其實也只有電視曾經對人類的挑戰那么嚴重,雖然也很嚴重,但新技術對人類的挑戰每次在人類嘴里都是顯得很嚴重的,我們真是見怪不怪了啊。但不論怎樣,所有新技術及其裝置最后都將被我們當成舊電視機扔進垃圾堆。在本人家里墻上還掛著一面當時近萬元買的從未打開過一次的液晶電視機,正在提醒我決不可不把ChatGPT當成舊電視。是的,ChatGPT和它的弟弟妹妹們也都將是趙忠祥、倪萍們的電視而已,別以為多蒙我幾次我就一定會上當的。
GPT4之類最終也只是某一版本的收錄機和電視機這樣的老媒介裝置而已,露出它的“內容”的底色,這是因為,人類大腦中自有其先驗圖式,后者是像一個不要臉的領導那樣,一定會很快轉身,居高臨下地來綜合一切,將一切都說成是自己的功勞,而且馬上也將GPT4們綜合到自己之中,還開始對后者不滿意,要自己親自上馬,親自來思想,親自來表達了。如果ChatGPT已是夠不要臉的了,那么,人類的先驗圖式和先驗想象、人腦,是更大大地不要臉、更大大地偷懶、更像不要臉的領導那樣地愛來提綱挈領,把人工智能所做的一切,也全說成是它自己干的。
這一先驗圖式論本身簡單粗糙,但與今天我們應該應對人工智能這一問題高度相關。它代表了康德對人類理性的信念,但也是他的一種不徹底:這個先驗圖式到底是誰放到我們身上的啊?怎么會這么萬能的???是上帝通過它在我們背后悄悄指引或操縱我們嗎?難怪人工智能研究者們從來不敢來討論這個先驗圖式了。OpenAI的人更是糊涂到說:等有一天ChatGPT有了“先驗知識”后,它就能成為真正的人類對話者和對手。但是,但是啊,工程師們將“先驗”兩字用錯了哇。只有人能先驗,機器是斷斷不會先驗的,將“先驗”一詞用到機器上,太錯亂了;他們對機器的先驗知識的期待,是必然要落空的。
三、必須解放人工智能
ChatGPT是在模仿人類理解之綜合(synthesis)能力,但人類的先驗圖式顯然能綜合得更游刃有余、更生猛、更沒心沒肺、更張冠李戴、更亂點鴛鴦譜。提出人類大腦的可塑性的哲學家馬勒布(Catherine Malabou)在《智能的變形》中也對人工智能取了與康德的圖式論一樣中肯的立場。她說,今天的數碼平臺上的“知識的那些以腦為中心的、技術新條件,是雙重的:一方面,它使得對自我的改造的新實踐、新生活方式和回路的發明、新的理論態度和實驗式實踐變得可能,但另一方面,這也造成了反動的實證主義的一體化(166頁)”。我們從康德那里接受的“批判的任務,是要重新找到打斷自動性(automaticité)的道路,以便更好地解放各種自動論或自動術(mieux émanciper les automatismes)(同上)。在她看來,OpenAI和ChatGPT這樣的人工智能是從一開始就被鎖閉在它的自閉癥癥狀中的,急需人類理性也就是先驗想象和先驗圖式的使用,去解放它,使它免于陷入自閉癥。
人工智能非但不會戰勝人類,反而是需要人類集體智能時時去解放、解救它的。目前的計算機科學中,人類的偉大的數學能力只被猥瑣地用在了OpenAI的種種商業開發之中,錯誤地只為商業營銷服務,但這種殺雞用牛刀,也屬于人類很擅長的那種自我奴役,一代代人都如此,我們見得多了,可悲至極,但也沒有辦法。斯蒂格勒晚年經常與我們說,人工智能實際上是人工愚蠢,是人工蠢能,是人類智能的陰影;但我們一定要認識到,每次面對新技術,人類都是在愚蠢與智能之間蕩著秋千地來作出反應的,你給人類捏了一把汗,但沒有辦法的,只能期待人類在掉進double bind之中后像酗酒者和吸毒者那樣自己最終醒來,有很多人就是永遠都無法醒過來了。剛迎接ChatGPT到來時,我們總是像和珅、李蓮英那樣媚態十足地搖著尾巴上,蠢萌到了家的;但一會兒之后,先驗圖式就會在我們身上覺醒,開始它自己的銳利的深度學習,馬上就來搶人工智能的風頭,要它自己來出風頭了。所以,我們也千萬不應該小看ChatGPT這種人工愚蠢,正如家里的孩子、寵物的可愛之處,也恰恰來自于它們或他們身上的動物般的愚蠢,我們感受起來,還覺得這是可愛呢。我們今天猛夸ChatGPT,與猛夸我們家里的寵物和孩子聰明,是沒有兩樣的。而且,人不是普羅米修斯這樣的半神,而是潘多拉的老公愛毗米修斯,是基于愚蠢,必須從人工愚蠢出發;在先驗圖式完成新的深度學習之前,人類只能依靠其人工蠢能。你不能不讓人類不帶愚蠢的,什么有了科學與民主之后就啥啥啦,一勞永逸啦,那是公共知識分子的啟蒙暴力,屬于另一種人工愚蠢。斯蒂格勒認為,人類是擺脫不干凈這種人工愚蠢、人工蠢能的,哪怕今天擺脫了,明天,另一種新技術到來之后,我們身上又會冒出新的愚蠢。在新技術面前,人類總是一開始蠢萌地主動進入圈套,過后翻轉,又覺得新技術是一架必須立即扔垃圾堆的舊電視機的。
希臘神話給予我們這樣的啟示:我們在新技術裝置面前暴露出來的無窮無盡的愚蠢,是有像熟女潘多拉從她的盒里可以倒出來的虛榮物那么連綿不絕的,是永遠倒不完的,會不斷從我們身上冒出新的愚蠢品種,看得讓我們自己都驚嘆的??春昧耍覀冞€將不要臉地無數次地去歡呼n種ChatGPT的到來,但又一次次再將它們當舊電視機扔掉。而我們只能從這種新的愚蠢醒中來,才有救,搞一場新啟蒙運動,那是遠遠不夠的。
因而,馬勒布說,在GPT4之后的人文科學必須是“關于我們自己的一種歷史本體論”(同上,158頁)。腦的可塑性(La plasticité cérébrale)應該成為哲學和腦科學的共同研究目標。因而,由ChatGPT代表的新人工智能的如此天量的信息動員的理想目標、真正目標,就不應該是對人工智能的升級,而是對人類集體智能的升級,是人類的共同的深度學習水平的提高。ChatGPT是為訓練我們人人身上的先驗圖式服務的,是為人類集體智能來跑腿的。但是,在當前,我們還會正常使用人類的集體智能嗎?
四、人類集體智能才能解救人工智能
在哲學家杜威(John Dewey)看來,由算法和人工智能促成的各種虛擬社區,各種抖音式空間,也是他想要的實驗式民主的社會空間。在其中,我們非但不應害怕人工智能,而且還應該將人工智能從其自己的各種自閉癥里解放出來,使它終于不會成為人工蠢能或人工蠢萌;是我們的積極的社會實驗才使人工智能在我們的社會中有機會存活下去的,而不是要用更高版本的人工智能來代替人類之間的社會關系。人工智能只在我們排練出自己的本地社會和國家里,才有用。用活了ChatGPT的,正是我們廣大的用戶身上的先驗圖式,是后者使ChatGPT有了一點點人類的味道。但是無論怎樣,今天的人工智能還是高攀不起人類智能的。
同時,杜威的將新技術看作實驗式民主的手段這一很硬的立場,也在要求我們更進一步明確:人工智能的真正目標,是讓社會自己教自己,使全體人民走向一種合作學徒制,走向一個學習型社會,去共同制造出一片新的學習領土。只有人類理性熟練使用的先驗圖式,才能成為真正的OpenAI,在它面前,硅谷的那個OpenAI是小巫見大巫了。
在社交媒體使人民進一步愚蠢,人工智能的愚蠢使人民進一步走進愚蠢的今天,我們還應回到杜威的這一基本信念,來使我們在人工智能面前重新獲得自信:只有本地的小共同體才能接得住ChatGPT的那種浪里白條般的人工智能花活兒,才能使人類智能主動援引、挪用人工智能,阻止它直接傷害到社會:
“有限的個人的智性天賦的自由擴張和確認,是沒有極限的,也許來自社會智性的流動,也許來自本地共同體內的口對口的交流。而只有在這一小共同體內的口對口的交流,才能使公共輿論真正面對和基于現實。正如愛默生所說,我們是正坐在一種巨大的智能的懷里。但那一(來自人類集體的)巨大的智能目前還在沉睡,它的交流是被打斷、不明確和微弱的,在它把本地共同體當作它的媒介之前。“【There is no limit to the liberal expansion and confirmation of limited personal intellectual endowment which may proceed from the flow of social intelligence when that circulates by word of mouth from one to another in the communications of the local community. That and that only gives reality to public opinion. We lie,as Emerson said, in the lap of an immense intelligence.But that intelligence is dormant and its communications are broken, inarticulate and faint until it possesses the local community as its Medium(John Dewey, The Public and Its Problems, 1954:219).】
杜威在1926年就已指出,只有在能夠互相口對口交流的本地共同體之中,人工智能才能被派上用場。開源式人工智能也只有依賴這種實驗式民主之下的本地共同體的被天天自我排練的集體生活,才能真正有機會施展它的作用。本地共同體后面的集體智能,才是ChatGPT依賴的真正的推廣媒介啊。
(本文由研究生討論班里關于康德圖式論的討論內容提煉而成,包含了同學們對這個話題的貢獻。作者是同濟大學人文學院教授。)





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司