- +1
邱遙堃讀《算法治理》|算法時代:后人類抑或超人類?

《算法治理:后人類時代的政治與法律》,[立陶宛]格納斯·卡爾波卡斯著,邱遙堃譯,上海人民出版社,2022年8月出版,220頁,69.00元
進入算法時代
九零后的童年回憶大都不會缺少一部日本動畫:《數碼寶貝》。小時候誰不曾幻想也成為被選召的孩子,收獲屬于自己的神圣計劃與數碼寶貝,進入數碼世界展開冒險,打敗最終Boss,拯救數碼世界與現實世界,正如后來幻想收到霍格沃茨的錄取通知書一樣。雖然當時的數字科技并不很發達,數碼寶貝與數碼世界的想象事實上不過是人工智能與虛擬世界想象的萌化版本,但人類與數碼寶貝的關系、現實世界與數碼世界的關系,仍然映射著人與技術之關系的永恒命題。如今人工智能技術已不斷發展,能夠戰勝圍棋世界冠軍、創作藝術作品,編碼我們作為消費者、生產者、公民的日常生活,并且日益具備深不可測的迥異于人類智能的自我學習能力,于是,這一人與技術如何共處的問題便越發具有重要性和啟示意義。
由此觀之,或許法學界對算法所享權利,以至于算法主體地位的討論,并非那么未雨綢繆、杞人憂天。我們所擔心的科技反烏托邦的可能性確實正在逐漸實體化,我們正在被迫進入一個與人工智能共存(如果不是受其統治)的時代。應當如何確保人工智能與算法為人類服務而非反之,如何控制其權力屬性,防范其異化風險,甚至阻止其統治人類,便成為當代算法社會的核心議題。
但另一方面,我們又隱隱約約感覺到:雖然人工智能越來越自主、強大,但它們有時候仍然表現得像人工智障,無法處理連三歲小孩都能自如處置的問題。例如自動駕駛汽車的道路識別、自然語言處理的內容審核,都曾發生過令人啼笑皆非的故事。而且所謂的技術中立、AI自主,聽起來更像是幕后操縱者用以逃避責任的說辭;算法黑箱與算法透明,則似乎主要取決于算法的設計者、所有者是否愿意將其公開。無知的大多數人雖然被迫看向洞穴墻壁上的陰影,但已經覺察到背后可能存在更廣闊的世界與更明亮的光源。
退一萬步說,如果算法確實過于復雜又風險太高,何不棄置不用?為何不等到充分了解它并對其具有全面控制能力以后再使用,何必操之過急?鑒于前述負面影響,不用算法的收益成本比率與使用算法的收益成本比率相比,并不當然顯著更低。在人工智能發明以前的數千年,人類社會也穩步前進至今;人工智能也不是潘多拉的魔盒,打開了就無法關閉。何以至于早早開始憂慮機器人統治人類的未來,甚至在務實入世的法學學科掀起法律與科技,而非僅僅是法律與科幻的嚴肅討論?
對此,立陶宛學者伊格納斯·卡爾波卡斯的小書《算法治理:后人類時代的政治與法律》可以提供一味解藥。他首先從算法所使用的數據、算法作為代碼架構的直接規制、算法作為行為助推的間接規制這三方面入手,介紹了算法治理的技術原理,以體系化的理論理解整合了我們碎片化的經驗認知。更進一步,他還以一種獨特的后人類主義為框架,探討算法對人類主體性、政治共同體建構、法治基本原則提出的挑戰,使我們意識到自己與技術、環境之間永不停歇的交互作用,進而知曉究竟是何種力量在使用技術的過程中決定著我們的日常生活。最終,他提出的解決方案是:將普遍的愛,包括對代碼的愛,作為恢復人文關懷、修復人機平衡、改善算法治理的出路,從而克服算法治理的功利化與工具化傾向,促進人類、技術與環境的平等關系,實現每個人自由而全面的發展。

算法時代的后人類性
卡爾波卡斯的后人類主義注意到了算法對人類主體性的消解:完整而獨特的個人被分解、降格為數據的生產者、數據分析的作用對象,或更直白地說,一個數據包。
“一位友好的同事成為了一位服務提供者,一位長期誠信的客戶成為了一位擁有高信用分數者,一位善良的護士成為了一位護理提供者,一位學者成為了一位有影響力的學人,一位運動愛好者成為了一位擁有動態績效曲線者。”(178-179頁)進而,我們要么在算法對代碼架構的直接控制下,只能做出架構所允許的行為,要么在算法對行為的微妙助推下,做出自認為自主、實則受控制的“最佳”選擇,仿佛巴甫洛夫的狗一樣容易操縱。
甚至,算法的編寫者也受制于技術過程的反饋,并非獨立自主、從零開始地設計算法,而是根據算法運行的輸出結果而不斷調整完善。與此同時,線上與線下的治理邏輯趨于統一,萬事萬物都將成為算法的數據分析的對象,不再存在互聯網、物聯網以外的治理領域。于是人類的自由意志與主體地位不可挽回地喪失了,人類不能再宣稱自己是這個世界的主人,反而淪為算法的仆從、技術的奴隸,人類與技術的平衡向技術方向高度傾斜。
然而不同于技術中心主義的投降論調,卡爾波卡斯在更為廣泛的社會交互背景下認識到了人類對算法的影響,主張算法必然帶有人類的價值觀。而且,他將這一影響界定為先在的、根本的、決定性的,從而擺脫單向的技術決定論與虛偽的技術中立論,避免落入相對于人類中心主義的技術中心主義之極端。
在定義上,人工智能即是由人設定與制造的智能:簡單的算法代碼是個決策樹,由人類為特定問題的全部細枝末節設定解決路徑;復雜的機器學習也仍然需要人類提供數據,并為數據與結果之間的關聯賦予意義。更何況,算法作為平臺治理的工具,根本上反映了平臺的利益與需求,故而有大數據殺熟與靈活用工剝削,甚至將算法作為獨立法律主體看待的爭論背后,也是平臺希望免除自身責任的動力在暗中驅使。
所以,算法本身深深地嵌入了這個社會:“算法被設想為類似莫比烏斯環,既沒有純粹的內在,也沒有純粹的外在”(48頁),“算法變得具有交互性,與其運行的更廣泛的環境建立一種雙向關系:從世界中學習,接著通過分類、排序和篩選反饋給世界,然后再從受其先前輸出影響的世界中學習,繼而進一步反饋”(49頁)。人工智能并未統治世界,它仍然屬于世界的一部分。
因此,卡爾波卡斯的后人類主義具有明顯的平等主義色彩:人類與技術、環境之間不是你死我活的斗爭與統治關系,不是要么西風壓倒東風、要么東風壓倒西風;人類主體地位的消退并非向技術投降,并非復刻人類中心主義而成為技術中心主義,而是真正開啟了設想一種更為平等、包容、你中有我我中有你的伙伴關系的可能性。
作者有言:“正如人類將自然商品化并將其僅僅視為一種資源而必須最大限度地利用和優化一樣,通過機器和代碼對人類所進行的類似處理也是錯誤的。”(184頁)事實上,貫穿數碼寶貝系列動畫的主題即是:人類控制、奴役數碼寶貝固然不對,數碼寶貝轉而控制、奴役人類也并非真正的善,冤冤相報無窮盡也。甚至人類與數碼寶貝彼此孤立、獨善其身,也無法實現各自的終極進化與完善。人類與數碼寶貝需要建立一種友愛的伙伴關系,攜手進化;同樣地,人類與技術需要在平等的基礎上聯合,才能使這個世界朝正確的方向前進,止于至善。
由此觀之,當前人工智能發展所引發的技術中心主義的后人類思潮是誤入歧途的。算法與人工智能并未強大到可以取得與人類平起平坐的主體地位,現實的侵權責任法、著作權法稍作解釋或調整即足以應對自動駕駛、人工智能創作等提出的所謂新問題,只要穿透技術的迷霧,直指其實際的影響即可。畢竟,“無論數字(無身體或無實體)行動者是基于與自然人或法人的相同或相似基礎而被賦予人格,還是被認定為介于兩者之間的某種存在,或是被認定為從簡單權利和義務(例如保險)發展到更復雜安排(例如產權)的實體,抑或是被認為根本沒有明顯的人格,它們的影響是不可否認的”(134-135頁)。
具而言之,首先可從算法的輸出結果入手,要求公平公正,避免偏見與歧視,不實行不合理的差別待遇,根據各種標準來劃分算法歧視類型,進行分級分類治理。其次可從算法的輸入數據入手,一方面要求數據控制者完善其自我治理機制,強化對用戶的數據保護,另一方面賦予數據主體以免受算法自動化決策約束權等個人信息權利,以及由此延伸出的算法權利,增強個人對自身數據的支配與管理。最后輔以適當程度的算法透明,采取分場景、有層次的算法解釋權,以及制度化的算法影響評估、算法備案等可行的算法透明措施。但是主張算法所享權利,乃至算法主體地位,則大可不必,這亦非法律的制定、執行與適用者所擅長。
如果已經到了不得不革命性立法的地步,人類的單邊立法或許也不一定能夠取得人工智能的同意,二者需要斗爭或協商才能確定共同的未來何去何從。因此,這樣一種技術中心主義的后人類思潮其實仍然是人類中心主義的回魂:依舊從人類出發,思考如何將人格賜予機器或防止人格被機器破壞,過分抬高、夸大技術的作用與地位,無視人的主觀能動性。在這樣的后人類思潮之下,主客體等級關系的幽魂不散,支配-依附的思維方式根深蒂固,只是顛倒了過來罷了。持此論調者無法設想人與技術皆從中心地位退出,卸下彼此不必要的特權,彼此更為平等、合作地相處,致力于共同的解放事業,正如動畫中所想象的烏托邦一樣。
后人類之上的超人類
然而,平等的后人類主義在揭示了寶貴的洞見同時,也遮蔽了更深刻的反思空間:算法/人工智能與人類/人類智能的關系真的是平等的嗎?換個問法:被算法消解主體性的人類,與對算法具有決定性影響的人類,是同一撥人嗎?或者更準確地說,被算法計算、管理、控制的人,與設計、擁有、控制算法的人,是同一撥人嗎?如果不是,二者真的是平等的嗎?
答案當然是否定的。算法治理的服務對象是平臺經濟及其背后的網絡資本,它們決定了算法治理的目標、形式與結果,通過算法治理的技術賦權,以大多數人的后人類主義、去主體性狀態為代價,成就了自身的超人類主義、超主體性狀態。
即使算法治理在總體上提升了社會福利,并因此惠及被治理的普羅大眾,這一后果也是次要的,平臺盈利與資本增值作為算法治理的根本目的不會改變。這不僅體現在分配環節,平臺資本攫取了新增社會總福利中的大部分,更體現在當平臺利益與用戶利益、社會利益發生沖突時,算法總是維護平臺利益,例如在共享經濟中對靈活用工者的勞動剝削。
更何況復雜的技術也有利于超人類實現隱身,將他們與后人類的社會矛盾轉移、消解為后人類對技術的無知、無力與無可奈何。于是后人類只能責怪自己素質太低、不夠努力、跟不上時代,或先進技術太神秘、太狡猾、太不近人情,超人類借此坐收漁利,悶聲發大財。超人類甚至可以用信息繭房、數字鴻溝打造新的美麗新世界,讓后人類沉迷于滑動手指即可獲得并不斷自我強化的廉價快樂,從而沉淪為自動打工的生產者與不停剁手的消費者,喪失集體行動乃至獨立思考能力,最終“以一種類似奴隸支持雅典民主和哲學的方式”,支持超人類“參與幸福、共同體事務、超越性追求和其他崇高活動”(126頁)。
所以,人工智能非但沒有通過普遍地賦予或剝奪權利而使人與人之間更為平等,反而以算法黑箱、算法歧視等各種方式進一步擴大了數字鴻溝,強化并掩飾了現有的政治與經濟不平等體系,使少部分人能夠以更為隱蔽也更有效率的方式對大多數人進行盤剝與控制。換句話說,被消解或被更大程度上消解主體性的是大多數人,能夠影響甚至決定算法的是少部分人,因而在人類與技術相對平等表象之下,是人與人之間深刻不變的不平等本質。
因此,我們對機器人統治人類的擔憂或許不無道理,在某種意義上也確實觸摸到了算法時代不平等的大致輪廓。只是我們未必看透機器人背后其實還是萬變不離其宗的資本與少數人,后者才是更加值得害怕的對象。他們通過算法黑箱、技術中立、人工智能主體責任等法律修辭推卸自身應當承擔的責任,迷惑大多數后人類去控訴他們無法理解也無法左右,但事實上與之同為工具與奴仆的新興科技。質言之,算法時代的后人類主義性質只是表象,算法賦權的超人類主義現實才是殘酷的真相。大多數后人類成了滋養算法的單向度的數據材料,從而讓算法服務于更豐富、更高級、更符合人之為人本質的少部分超人類的生活品質的達成。
作者已經意識到“不僅我們自己可能并不總是人類,而且‘我們中的一些人甚至現在還沒有完全被視為人類,更不用說在西方社會、政治和科學歷史的過去了’”(128頁),并且“最有可能的是那些被甩在后面的人,即那些沒有具備足夠后人類性的人,將以最痛苦的方式感受到這種轉變”(133-134頁)。但作者最終扁平化處理了上述關系,以算法的社會性、算法與社會的相互作用,以及由此導致的人與技術的相對平等關系,取代甚或掩蓋了技術背后不平等的社會支配關系,并以算法的編寫者也不能免于這一反饋循環為由,主張普遍的后人類主義時代到來。這樣一種平等的后人類主義,雖然未以技術中立與技術決定的方式為資本免責,卻仍是一種形式的,亦即虛偽的平等。它僅僅將過分的技術中心主義稍往平衡的中心移動,帶有一種五十步笑百步的徒勞感,令人唏噓。
實際上,如果將作者對技術與社會交互關系的論述繼續推進,必然到達這一結論:技術在改變社會的同時更深刻地受到社會的塑造乃至創造。信息數量的增長及其作用的提升并沒有產生新的政治經濟社會秩序,相反,是資本主義經濟與民族國家的政治、軍事要求促使信息技術與信息服務不斷發展。換句話說,資本主義與民族國家對技術的決定具有更為根本性的地位,信息資本化僅僅是整個社會資本化的一個組成部分而已。這就導致經濟上與政治上的不平等關系成為刻在技術發展基因中的不變字節。任何無視這一現實的論述都將是虛偽的宣傳乃至欺騙,發揮著重要的意識形態功能。
太陽底下無新事,這個世界運行的底層邏輯從未改變,新興技術亦無法動搖分毫:人在本質上仍然是政治的動物,通過建立統治關系來形成共同體。
愛:知其不可而為?
在這個意義上,作者以普遍的愛,包括對代碼的愛作為破局之策,頗具知其不可而為之的理想主義或空想色彩:“愛是關懷,是擁抱不可預測和未知,是對次優、不完美和浪費的開放……如果這種愛不僅僅包括人類,還包括有生命和無生命的自然以及代碼本身,那么它就真正超越了狹隘的界限、等級和二元論。”(186頁)
一方面,愛不僅受限于囚徒困境的一廂情愿,在無人呼應、沒有回報中白白犧牲、徒然奉獻,也無法及于異于人類的無生命的代碼,更無法治愈算法治理背后深刻的不平等關系。愛很偉大,也很無力,仿佛是治愈一切問題的靈丹妙藥,卻最終頂多起到勸撫人心的安慰劑作用。
亞里士多德有言:“友愛不是指對無生物的愛,因為在這里沒有回報的愛,我們也沒有對它們的善的希望(例如,希望一瓶酒好是荒唐的,我們最多是希望它保持得好,以便可以享用)。”(《尼格馬可倫理學》,商務印書館,2003年,231頁)數碼寶貝確實可愛,但現實的人工智能尚未達到這一水平,即使在虛擬現實(VR)、增強現實(AR)技術的輔助下亦然,所以我們不可能對其產生像對伙伴一樣的友愛,只能希望其對我們有好處或至少不作惡而已。
甚至有學者在人工智能引發失業危機時預言,未來的陪伴與關懷工作將越發重要且不可能被人工智能所取代,因為它們作為無生命的物體,與有生命的人類終究不同,無法提供我們所需要的情感聯結。這也成為代碼之愛難以實現或終將只是小眾愛好(例如有人對虛擬偶像的迷戀)的佐證。《銀翼殺手2049》中的Joi起初看上去如此類人且迷人,仿佛一個模范女友、一個絕世的溫柔鄉,然而最終也被證明不過是流水線的標準化產品,可以對任何人說出對方想聽的任何話,甚至只是千篇一律的“What a day. You look lonely. I can fix that.”
亞氏亦有言:“如果兩個人在德性、惡、財富或其他方面相距太遠,他們顯然就不能繼續做朋友,實際上也不會期望繼續做朋友。……對這種差距的界限不可能作出一個精確的規定,差距可以越來越大,而友愛依然存在。但是差距如果達到像人距離神那樣遠,友愛就肯定不能保持。”(同前,242頁)因此,擁有更大權力、占據更高地位的算法的編寫者、所有者、控制者作為超人類,與受其計算、管理、支配的后人類,在財富、權力、道德等各個方面,差距無限遙遠,甚至達到了(如果不是超過了)不同物種的差距。在這樣的不平等與分化面前,怎么可能期望友愛的存在?輕飄飄的愛難道能動搖其運用算法所欲鞏固的權力體系與利益格局?
更有可能的是,這種所謂的愛將成為美化盤剝與控制、麻痹反對與革新的工具,反而把溫情脈脈的面紗重新籠罩。中國古代封建帝制將君臣關系類比為父子關系,從而移孝作忠、以國為家。當代資本家也喜歡把員工稱為兄弟、伙伴,試圖無本萬利地進行道德綁架與洗腦。這些都是愛的不同形式的扭曲與異化。
但另一方面,唯心主義的愛雖然不能解決實際問題,卻實實在在地表達了對真正的平等關系的渴望,并成為追求平等的不竭動力。這一平等關系不僅是人、技術與環境之間的平等,更首要、更緊迫地是人與人之間的真正平等,而這是更為切實的當代法律的永恒追求,也是技術賦權的終極理想。沒有這樣的愛,也許在理性計算下,當前的不平等關系與體系也是可以勉強忍受,甚至欣然接受的:喝湯雖然比不上吃肉,但總比餓死要好,而且說不定我也能成為肉食者。更何況后現代人最大的恐懼便是動蕩不安,生怕手頭僅有的一點所謂財產將因此喪失。所以許多后人類甚至比超人類更為積極地擁護既有利益格局,仿佛得了斯德哥爾摩綜合征。
更重要的是,沒有這樣的愛,即使有人意識到了問題所在,任何改變都不會發生。就像作者所說,“愛在這里最簡單的作用可能是一個努力的放大鏡:正如米奇和卡弗爾所觀察到的,我們可能有許多崇高的使這個世界(在環境和其他方面)更公平和更可持續的倡議,但‘這些努力無法實現任何事情,除非它們得到愛的補充’”(185頁)。在現實中,如果沒有這樣一種一頭腦熱的沖勁,不去積極解決問題,不去主動對抗不公正,并沒有什么美好生活與良善秩序能夠自生自發地形成。
算法對我們這個世界的改變是巨大的:它不僅重塑了我們的生產方式、生活方式,而且挑戰了我們的政治原則、法治原則,使這個世界變得更有效率也更為脆弱,使我們必須重新思考自己與技術、環境之間的關系。但算法似乎又并未真正改變什么:我們仍然生活在一個很不自由、很不平等的世界,人與人之間的關系仍是緊張且對立的,人類共同體的底層結構并未發生變化,反而更加強化了。認識個中的變與不變,知其不可為而仍然為之,或許是這本小書通過窺視算法治理之后人類性,并天真地以愛作為解決方案所能具有的最大貢獻。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司