- +1
新歷史觀中的人工智能與人類未來

一、從“怪異”的特朗普說起
在2016年的美國(guó)大選中,主流媒體一直不看好特朗普,但他最終卻贏了當(dāng)時(shí)的大熱門希拉里。不少美國(guó)人至今仍無法理解這一結(jié)果。自2017年就任美國(guó)總統(tǒng)以來,特朗普依舊堅(jiān)持“不走尋常路”,言行時(shí)常令人覺得“怪異”。但是在特朗普不按常理出牌的背后,一個(gè)很可能的真相是,并非美國(guó)人不了解特朗普,而是特朗普更了解美國(guó)人。
最近美國(guó)媒體爆出特朗普競(jìng)選期間的超級(jí)秘密武器:一家名為“劍橋分析”(Cambridge Analytica)的英國(guó)數(shù)據(jù)分析公司收集了多達(dá)8700萬臉書網(wǎng)站(Facebook)用戶的數(shù)據(jù),該公司利用自己發(fā)明的“心理學(xué)建模”算法給這些用戶“畫像”(涵蓋年齡、性別、工作、地點(diǎn)、政治立場(chǎng)、興趣愛好、情感偏好等上百個(gè)數(shù)據(jù)項(xiàng)),然后根據(jù)不同用戶的特點(diǎn)與傾向,在大選期間通過人工智能軟件向其中的選民精準(zhǔn)推送誘導(dǎo)性信息與政治廣告。這一手段幫助特朗普拉攏了很多中間選民,在特朗普的勝選中發(fā)揮了重要作用。
以此來看,相比傳統(tǒng)的民意調(diào)查和政治營(yíng)銷手段,擁有人工智能支持的特朗普之前是在打一場(chǎng)“不對(duì)稱”選戰(zhàn)。因?yàn)閷?duì)手只能看到局部,而他卻能看到選民的“全景”,并且能夠精準(zhǔn)制定和調(diào)整相應(yīng)的競(jìng)選策略,進(jìn)而不斷強(qiáng)化自己的優(yōu)勢(shì)。外界和主流媒體之所以很難理解特朗普的言行,主要緣自他們往往僅靠刻板印象與政治正確去做推斷,而不是像特朗普那樣,依靠大數(shù)據(jù)和人工智能技術(shù)把握了大多數(shù)美國(guó)人的意見。
無獨(dú)有偶,美國(guó)另一家社交媒體巨頭推特(Twitter)前不久也被發(fā)現(xiàn)卷入上述臉書的數(shù)據(jù)泄露丑聞,劍橋分析公司很可能也利用了推特?cái)?shù)據(jù)為特朗普的競(jìng)選服務(wù)。照此推理,我們也不難理解特朗普上任后為什么偏愛“推特治國(guó)”。特朗普迄今為止已在推特上發(fā)文近4萬條,擁有5100多萬追隨者,并有兩個(gè)機(jī)器人賬號(hào)幫助高頻播報(bào)他的各種推文,其粉絲數(shù)量在過去一年內(nèi)增長(zhǎng)超過200%。特朗普在大選中嘗到人工智能技術(shù)的甜頭,我們很難想象他不再使用這一工具來挖掘自己推特?cái)?shù)據(jù)的決策參考價(jià)值。
如果在很多重大問題上,特朗普均有借助人工智能收集“民意”以資決策參考,那么他的“怪異”言行并不會(huì)拉低他在美國(guó)國(guó)內(nèi)的實(shí)際支持率。
二、守門人理論視角下的人類歷史演進(jìn)
其實(shí)像特朗普這樣的決策者需要決策參考,是一個(gè)非常普遍的現(xiàn)象。幾乎古今中外的每一個(gè)人在做決策時(shí),都需要一定的決策參考。這個(gè)為我們提供決策參考的人,我們可以稱之為守門人(gatekeeper)。
我們身處在由無數(shù)守門人所編織成的無形大網(wǎng)中。每一個(gè)人都無法逃避各種守門人對(duì)我們決策的影響,與此同時(shí),我們也在為別人的決策扮演著某種守門人角色。在人類歷史的長(zhǎng)河中,基于大數(shù)據(jù)技術(shù)的人工智能發(fā)揮守門人作用,的確是一個(gè)值得認(rèn)真研究的新現(xiàn)象。
如果將我們生活的世界分為四個(gè)部分,即日常生活、公共生活、組織生活以及虛擬生活,那么與此相應(yīng),可以在這些不同的生活世界中識(shí)別出四種不同的守門人類型:咨詢型守門人、制度型守門人、管理型守門人和工具型守門人。
咨詢型守門人基于人際關(guān)系,為決策者的日常生活提供咨詢或建議,如父母親朋等;制度型守門人基于社會(huì)關(guān)系,為決策者的公共生活提供社會(huì)服務(wù)或公共產(chǎn)品,如法官和教師等;管理型守門人基于組織關(guān)系,根據(jù)其組織角色幫助組織內(nèi)的決策者提供決策參考或輔助決策;工具型守門人基于用戶關(guān)系,它們?cè)谔摂M世界中幫助用戶獲取所需信息或是協(xié)助處理大量復(fù)雜信息,如各種網(wǎng)絡(luò)技術(shù)與工具,也包括時(shí)下流行的人工智能。(詳見拙著:《誰在誤導(dǎo)你的決策——無處不在的守門人》,社會(huì)科學(xué)文獻(xiàn)出版社,2015年)
由上述守門人的類型學(xué)可以看出,守門人已經(jīng)作為一種不可或缺的機(jī)制深深地嵌入我們生活世界的各個(gè)方面。當(dāng)前,四種守門人類型并存于世,他們?cè)诟髯缘念I(lǐng)域發(fā)揮著不可或缺的作用。從最一般的意義上來說,守門人才是真正的歷史創(chuàng)造者和塑造者,由此守門人視角也可以為我們提供有關(guān)人類的新歷史觀。
從人類歷史的進(jìn)程來看,咨詢型守門人最早出現(xiàn)。在遠(yuǎn)古社會(huì),人類的生存、繁衍和發(fā)展在很大程度上需要依靠代際之間的知識(shí)和經(jīng)驗(yàn)傳承,而那些向后輩傳授知識(shí)和經(jīng)驗(yàn)的長(zhǎng)輩便是最早的咨詢型守門人。這時(shí)整個(gè)社會(huì)的信息總量不大,所涉及的人事也不太復(fù)雜。
隨著社會(huì)系統(tǒng)的信息量和復(fù)雜性的不斷增加,專業(yè)化與社會(huì)分工的發(fā)展減少了信息處理的成本,進(jìn)而使得制度型守門人作為某些咨詢型守門人制度化的替代物而產(chǎn)生。制度型守門人有助于更有效地處理較為復(fù)雜的信息和事情,在此基礎(chǔ)上宗族、民族和國(guó)家等集體概念開始出現(xiàn),進(jìn)一步促進(jìn)了人類社會(huì)的發(fā)展。
近代工業(yè)革命開啟了以理性精神為主導(dǎo)的科層制時(shí)代,組織力量的發(fā)展打破了英國(guó)經(jīng)濟(jì)學(xué)家亞當(dāng)?斯密(1723—1790)時(shí)代原子式的競(jìng)爭(zhēng)格局。在這個(gè)過程中,管理型守門人在日益組織化的社會(huì)中大量涌現(xiàn)。19世紀(jì)晚期的美國(guó),鐵路大型工程的建設(shè)助推現(xiàn)代公司制度出現(xiàn),這一制度的有效性使得公司組織形式在全世界得以廣泛應(yīng)用,管理型守門人在協(xié)調(diào)和配置市場(chǎng)資源中的角色也隨之日益凸顯。
工具型守門人則在以現(xiàn)代信息技術(shù)為標(biāo)志的第三次工業(yè)革命中應(yīng)運(yùn)而生。隨著互聯(lián)網(wǎng)技術(shù)的發(fā)展,大量新興的工具型守門人開始出現(xiàn)。在過去,面對(duì)未知和復(fù)雜的事務(wù),我們更多求助于身邊的咨詢型守門人、社會(huì)中的制度型守門人或組織內(nèi)的管理型守門人,但現(xiàn)在我們?cè)絹碓蕉嗟厥褂霉ぞ咝褪亻T人(谷歌、百度這樣的檢索工具或大數(shù)據(jù)技術(shù))來獲取認(rèn)知與決策的參考。
在當(dāng)前的大數(shù)據(jù)和人工智能時(shí)代,工具型守門人正呈現(xiàn)大發(fā)展的趨勢(shì)。比如被中國(guó)圍棋手柯潔稱為“圍棋上帝”的谷歌公司人工智能程序“阿爾法狗”(AlphaGo)以及它的超強(qiáng)升級(jí)版“阿爾法元”(AlphaZero),再比如時(shí)下被追捧的無人駕駛、機(jī)器翻譯以及語音識(shí)別等技術(shù)。由于工具型守門人擁有更強(qiáng)大的計(jì)算能力、學(xué)習(xí)能力、分析能力乃至解決問題的能力,一些傳統(tǒng)的守門人正在被一些新興的工具型守門人所取代。
三、人工智能對(duì)人類未來的三大挑戰(zhàn)
工具型守門人的最初形態(tài)只是利用信息技術(shù)幫助決策者收集和處理信息,從而輔助決策者的認(rèn)知與決策,比如百度和谷歌這一類的搜索引擎。在大數(shù)據(jù)技術(shù)基礎(chǔ)上的人工智能則是工具型守門人的一種高級(jí)形態(tài),因?yàn)樗馨l(fā)揮的作用不僅是數(shù)據(jù)處理,而且還具備深度學(xué)習(xí)和理解能力,能夠幫助決策者發(fā)現(xiàn)信息和數(shù)據(jù)背后的結(jié)構(gòu)與規(guī)律,使得決策者的決策變得更為容易和高效,有時(shí)甚至可以幫助決策者直接解決問題。
如果說從咨詢型守門人演變至工具型守門人是人類社會(huì)分工不斷發(fā)展的結(jié)果,那么人工智能作為工具型守門人的高級(jí)形態(tài),則可以被看成是人類分工發(fā)展的一種極端形式,因?yàn)樗沟萌祟愔g的一些分工轉(zhuǎn)變成人類和機(jī)器之間的分工。盡管一些人認(rèn)為人工智能目前的水平只是對(duì)人腦思維的一種簡(jiǎn)單模擬,但很多人堅(jiān)持認(rèn)為,人工智能在超越人類心智能力方面正在取得突破性進(jìn)展。從技術(shù)發(fā)展的長(zhǎng)期趨勢(shì)來看,人工智能有可能給人類的未來帶來至少三大挑戰(zhàn)。
第一大挑戰(zhàn)是人類的決策被工具型守門人控制。
關(guān)于此種挑戰(zhàn),本文開頭列舉的特朗普在大選期間所使用的人工智能技術(shù)便是一個(gè)很好的例子:選民看似是自主決策,但是人工智能技術(shù)的運(yùn)用極大減弱了選民特別是中間選民投票決策中的自主性。隨著人工智能技術(shù)的發(fā)展,在到底是誰做決策這一問題上,決策者和工具型守門人之間的界限正變得日益模糊。以人工智能技術(shù)為核心的工具型守門人常常在代替人類做決策,甚至可以說這往往是人工智能技術(shù)在商業(yè)應(yīng)用方面所追求的目標(biāo),即不斷增加用戶決策時(shí)對(duì)工具型守門人的依賴,直至其完全被控制。
例如,無人駕駛的人工智能技術(shù)旨在將駕駛員徹底變?yōu)槌丝停沟民{駛員在車輛行駛過程中無需再根據(jù)路況和車況等數(shù)據(jù)做各種決策,在此條件下,駕駛員自主駕駛反倒變成一種安全隱患。有關(guān)“被決策”的情形,當(dāng)前在互聯(lián)網(wǎng)大數(shù)據(jù)精準(zhǔn)營(yíng)銷中也體現(xiàn)得特別明顯。我們?cè)陂喿x網(wǎng)絡(luò)新聞或網(wǎng)上購(gòu)物時(shí),越來越容易發(fā)現(xiàn)自己“喜愛”或“感興趣”的新聞或商品,這使得不少人在網(wǎng)絡(luò)上花的時(shí)間越來越多。但事實(shí)上,這只是基于大數(shù)據(jù)技術(shù)對(duì)我們的網(wǎng)絡(luò)行為、心理偏好、生活習(xí)慣等進(jìn)行“畫像”后,再由網(wǎng)站或軟件精準(zhǔn)向我們推送有關(guān)新聞或商品。我們貌似在一個(gè)自由市場(chǎng)中自主決定注意力的分配或是購(gòu)買何種商品,但在很大程度上,我們的選擇都被工具型守門人所誘導(dǎo)甚至是控制,而且這種誘導(dǎo)與控制可被不斷強(qiáng)化,最終結(jié)果可能是,我們的偏好與決策被工具型守門人所塑造。
第二大挑戰(zhàn)是人類社會(huì)的不公平和不平等,即以色列新銳歷史學(xué)家尤瓦爾?赫拉利(Yuval Noah Harari)在其暢銷名作《未來簡(jiǎn)史》中提到的“前所未有的社會(huì)及政治不平等”,可能進(jìn)一步加劇。
數(shù)據(jù)大爆炸導(dǎo)致注意力成為最稀缺的資源,人工智能技術(shù)因?yàn)榭梢杂行б龑?dǎo)人類注意力的投放而擁有巨大的權(quán)力。由于人工智能技術(shù)的發(fā)展在不同國(guó)家有先有后,不同的組織對(duì)人工智能技術(shù)的掌握和應(yīng)用程度有所不同,個(gè)體之間受人工智能技術(shù)的影響也會(huì)有所差別,由此便不可避免地會(huì)帶來新的不公平和不平等。那些最先掌握人工智能技術(shù)并且應(yīng)用這些技術(shù)為自己服務(wù)的個(gè)人、組織或國(guó)家,相較于其他個(gè)體、組織或國(guó)家而言將擁有壓倒性的優(yōu)勢(shì)。當(dāng)這種優(yōu)勢(shì)被濫用而不被有效約束時(shí),不公平和不平等的加劇將是一個(gè)無法避免的結(jié)果。
在不公平和不平等方面,一個(gè)較為普遍的擔(dān)憂是人工智能將導(dǎo)致前所未有的失業(yè)問題。這與本世紀(jì)初互聯(lián)網(wǎng)和計(jì)算機(jī)的普遍使用所帶來的失業(yè)問題有根本的不同。前面已經(jīng)談及,人工智能作為工具型守門人的高級(jí)形態(tài),其目標(biāo)實(shí)質(zhì)上是取代決策者的工作,而不是像傳統(tǒng)的守門人那樣僅僅是輔助決策者的工作。換句話說,人工智能是在從根本上擠壓人類在社會(huì)分工中的價(jià)值空間。未來社會(huì)的分工可能更多將發(fā)生在人類和人工智能之間,而并非以往那樣,隨著技術(shù)發(fā)展而在人類之間進(jìn)行分工調(diào)整,那些無法很好適應(yīng)這種分工轉(zhuǎn)變的人或國(guó)家將在競(jìng)爭(zhēng)中處于明顯劣勢(shì),一些人的生存機(jī)會(huì)甚至?xí)虼耸艿酵{。反過來說,那些在開發(fā)和利用人工智能方面領(lǐng)先的精英或國(guó)家,將獲得顯失公平的極高酬賞。
第三大挑戰(zhàn)是人類會(huì)因人工智能帶來的倫理道德問題而變得更加脆弱,但這卻將促進(jìn)人工智能的進(jìn)一步發(fā)展。
對(duì)傳統(tǒng)的守門人而言,一個(gè)最基本的價(jià)值倫理問題是,他應(yīng)為決策者守門并且盡忠職守。對(duì)一般的工具型守門人而言,為用戶的決策利益服務(wù)的同時(shí)不損害其他人的利益應(yīng)是最基本的道德原則。但正如我們?cè)谇懊嫣峒暗恼螤I(yíng)銷和精準(zhǔn)市場(chǎng)營(yíng)銷中所看到的,人工智能作為工具型守門人,其目標(biāo)常常是控制決策者的決策,因此未來其行事方式很可能是在一些方面“不動(dòng)聲色”地?fù)p害決策者利益(如現(xiàn)在已經(jīng)很普遍的隱私侵犯),從而確保技術(shù)的擁有者和使用者的利益最大化。很諷刺的是,這一點(diǎn)也可能是人工智能技術(shù)獲得發(fā)展的刺激和源動(dòng)力。未來在越來越多的領(lǐng)域,人工智能技術(shù)將更容易獲得壟斷地位,高度依賴這些技術(shù)以及受這些技術(shù)控制的人將更容易受到傷害。
最具威脅性的倫理道德問題可能發(fā)生在軍事領(lǐng)域。一些技術(shù)領(lǐng)先的國(guó)家已開始將人工智能應(yīng)用到武器研發(fā)中,未來有可能在人工智能武器基礎(chǔ)上出現(xiàn)“新殖民主義”或“新恐怖主義”。如同近代中國(guó)的冷兵器無法對(duì)抗歐美的熱兵器一樣,未來僅擁有熱兵器的國(guó)家也無法抵抗擁有人工智能武器的國(guó)家。
這一威脅的嚴(yán)重性已經(jīng)引發(fā)關(guān)注:國(guó)際機(jī)器人武器控制委員會(huì)(ICRAC)作為一個(gè)機(jī)器人技術(shù)專業(yè)人士組成的非政府組織,過去近十年一直倡導(dǎo)建立和支持一個(gè)與《不擴(kuò)散核武器條約》類似的國(guó)際條約,專門管制致命自主武器系統(tǒng)的發(fā)展和使用。但是一些國(guó)家仍然熱衷通過人工智能技術(shù)來加強(qiáng)自身的軍事優(yōu)勢(shì),例如谷歌正在嘗試?yán)闷鋱D像識(shí)別和機(jī)器學(xué)習(xí)方面的人工智能技術(shù),幫助美國(guó)軍方識(shí)別無人機(jī)駕駛鏡頭中的特定目標(biāo)對(duì)象(人和物體)。這一名為Maven的項(xiàng)目最近遭到近4000名谷歌員工的聯(lián)名反對(duì),并且有員工集體提出辭職以示抗議。
四、人類會(huì)被自己創(chuàng)制的人工智能消滅嗎?
上述對(duì)人工智能的分析和評(píng)估可能會(huì)有些悲觀,但這并非是要否認(rèn)人工智能在促進(jìn)社會(huì)進(jìn)步和人類發(fā)展方面的無窮潛力。如果人們深信人工智能的巨大價(jià)值,那么更應(yīng)該對(duì)人工智能可能的破壞性保持高度的警醒與敬畏。這正如核能的威力,雖然可用于和平的核電利用,但也可以用于血腥的戰(zhàn)爭(zhēng)殺戮。
人類是否終將因人工智能的發(fā)展而自取滅亡?這是當(dāng)下有關(guān)人工智能的一個(gè)熱點(diǎn)問題。如果我們接受“凡是在歷史上產(chǎn)生的,都要在歷史中滅亡”這樣的唯物史觀,那么人類的滅亡是確定無疑的,但人類滅亡的具體方式是不確定的,人工智能只是人類被滅亡的可能方式之一。不過,相比毀于大的自然災(zāi)害、外星人攻擊、小行星撞地球以及核武戰(zhàn)爭(zhēng)等可能性,人工智能的確為人類的滅亡路徑提供了更具思辨性的討論空間。
將現(xiàn)有的各種看法歸納起來,人工智能滅亡人類的可能路徑至少有三種:首先是前面提到的人工智能軍事武器的不均衡發(fā)展以及發(fā)展的不受控制,這與核武器帶來的人類自我毀滅十分相似;第二是人工智能醫(yī)療技術(shù)特別是基因技術(shù)的發(fā)展,使得生命資源和時(shí)間資源向極少數(shù)人集中,人類將會(huì)出現(xiàn)“永生者”,從而令人類繁衍的意義和動(dòng)力逐漸弱化;第三是人工智能將發(fā)展出全面超越人類的心智能力,而且其發(fā)展速度將遠(yuǎn)超人類的進(jìn)化速度,世界最終將會(huì)被人工智能機(jī)器所統(tǒng)治。
在前兩種滅亡路徑上,人類其實(shí)是死于人性本身的缺陷,即人性中的仇恨與貪婪會(huì)將人類引向滅亡。就第三種路徑而言,如果人工智能被發(fā)展出和人類一樣的心智和情感,那么人類的確有可能死于這種人工智能中的“人性缺陷”,但這樣的缺陷只可能源自人類本身,因而人類依舊不是真正死于人工智能,仍然是死于“自殺”。假如人工智能技術(shù)能夠克服“人性缺陷”而發(fā)展出完美的心智,那倒反過來有可能幫助和拯救人類,或者至少可以和人類和平共存。也就是說,人類將不會(huì)被人工智能消滅。
有關(guān)人工智能決定人類命運(yùn)的觀點(diǎn),其背后的前提是,相較于人類的學(xué)習(xí)能力與進(jìn)化速度,人工智能技術(shù)可以在深度和廣度上無限快速發(fā)展。但一個(gè)更深刻的追問是,這一技術(shù)的發(fā)展是否可能存在某種極限。
就技術(shù)的物理支撐而言,人工智能的發(fā)展以不斷改進(jìn)的算法及強(qiáng)大的計(jì)算能力為基礎(chǔ),當(dāng)前這需要依靠集成電路芯片的不斷升級(jí)。解決更復(fù)雜的問題需要不斷更新算法,也需要更強(qiáng)的計(jì)算能力。在過去五十多年里,的確每隔大概一到兩年,一塊集成電路芯片板上可容納的元器件數(shù)目都會(huì)增加一倍,計(jì)算性能也隨之提升一倍。但是集成電路技術(shù)的發(fā)展目前已經(jīng)遇到瓶頸,芯片上多出來的元器件數(shù)目在提升算力方面的邊際效用呈現(xiàn)明顯的遞減趨勢(shì)。
未來芯片技術(shù)的發(fā)展可能會(huì)由于新材料或新的技術(shù)路線而有新的突破,但是任何基于物理基礎(chǔ)的技術(shù)都必定有其極限,人類社會(huì)本身也對(duì)計(jì)算能力的無限提升與供應(yīng)構(gòu)成各種現(xiàn)實(shí)的約束,因此邊際效用遞減在人工智能領(lǐng)域也很可能是一個(gè)十分普遍的規(guī)律:一方面,某一技術(shù)路線的價(jià)值總是趨向于遞減的;另一方面,隨著一項(xiàng)人工智能技術(shù)不斷滿足人類的某些需求,人類再耗費(fèi)資源提升這項(xiàng)技術(shù)的意愿就會(huì)逐漸降低。但是這依舊不能回答人工智能的極限與人類心智的極限孰高孰低的問題。換句話說,人類心智是否在本質(zhì)上勝過人工智能呢?或者說人工智能有沒有可能“青出于藍(lán)而勝于藍(lán)”呢?
以?shī)W地利裔美國(guó)數(shù)學(xué)家哥德爾(Kurt Friedrich G?del,1906—1978)的名字命名的“哥德爾不完備定理”有助于探索上述問題的答案。根據(jù)這一定理及其推論,以算法為基礎(chǔ)的任一有效的人工智能系統(tǒng),該系統(tǒng)內(nèi)總有一些數(shù)學(xué)命題是無法用該人工智能系統(tǒng)自身來判定真?zhèn)蔚摹5祟惖男闹遣豢赡芡耆且运惴榛A(chǔ)的系統(tǒng),否則,根據(jù)哥德爾的不完備定理,將會(huì)出現(xiàn)人類心智無法判定真?zhèn)蔚臄?shù)學(xué)命題,這與數(shù)學(xué)的理性主義原則是相矛盾的。因此在解決數(shù)學(xué)問題的能力上,人類心智的確是勝過人工智能的。
要更充分地理解人類心智相較于人工智能的優(yōu)越性,還可從分類思維入手。從認(rèn)識(shí)論的角度來說,解決問題的方法在根本上都是以分類思維為基礎(chǔ)的。人工智能作為一種人造手段,在解決問題時(shí)肯定也需要做基礎(chǔ)性的類別判定,其最基本的分類模式必定源自人類的設(shè)定或給予。而且一方面人工智能系統(tǒng)能夠被人類的分類模式所定義,另一方面該系統(tǒng)在解決問題時(shí)所使用的分類模式必定是有限的,否則該系統(tǒng)無法輸出一個(gè)確定且有意義的結(jié)果。
但是人工智能系統(tǒng)使用任一分類模式所得出的結(jié)論都將是有局限性的。人類解決問題時(shí)在分類模式的可選擇性與靈活性方面要明顯超過特定的人工智能系統(tǒng),這使得在從多方面或多角度去考慮和解決問題的能力上,人工智能系統(tǒng)要遜于人類心智。
五、守門人理論視角下的人類未來與自我救贖
相比關(guān)心人類是否會(huì)死于人工智能這樣久遠(yuǎn)的時(shí)間問題,抑或思考人類心智與人工智能孰優(yōu)孰劣這樣的哲學(xué)問題,一個(gè)更緊迫也更現(xiàn)實(shí)的問題是人工智能對(duì)人性的侵蝕。
前文已經(jīng)提到,人工智能作為工具型守門人的一種高級(jí)形態(tài),正在取代而非輔助決策者的一些決策,這使得人類作為決策者自主決策的意涵被侵蝕。隨著人類在一些方面的工作被人工智能所完全取代,人類對(duì)人工智能的依賴不斷增強(qiáng)的趨勢(shì)將很難逆轉(zhuǎn),這種過度依賴將容易造成人類總體的認(rèn)知能力和決策能力退化,人類勞動(dòng)的價(jià)值空間被縮小。
另一個(gè)明顯的趨勢(shì)是,以人工智能為代表的工具型守門人正在從虛擬生活融入我們的日常生活、公共生活和組織生活,用戶關(guān)系正在侵蝕我們的人際關(guān)系、社會(huì)關(guān)系與組織關(guān)系,虛擬社會(huì)和現(xiàn)實(shí)社會(huì)的界限也因?yàn)槿斯ぶ悄艿陌l(fā)展變得日漸模糊,未來社會(huì)將會(huì)成為人類心智與人工智能緊密聯(lián)結(jié)的復(fù)合體。隨著人工智能工具發(fā)揮的作用越來越大,人類個(gè)體的獨(dú)立性與自由性將會(huì)遭到極大削弱。這也許是德國(guó)社會(huì)學(xué)家馬克思?韋伯(1864-1920)所講的“理性化牢籠”的終極形式。
人類要如何自我救贖?
在知識(shí)層面,我們應(yīng)該更加重視對(duì)哲學(xué)和倫理學(xué)的研究與教育,站在更高的高度去理解和認(rèn)識(shí)人工智能發(fā)展的意義與影響,作為制度型守門人的政府、新聞媒體、學(xué)校和科研院所及其相關(guān)人員應(yīng)該在這方面發(fā)揮重要作用,履行好自己的守門人職責(zé)。
在道德層面,我們需要警惕“主觀為自己、客觀為他人”的自由主義危險(xiǎn),更多提倡“主觀為他人、客觀為自己”的超我主義實(shí)踐,如此將有助于人類抵御人工智能對(duì)人性的侵蝕。
在監(jiān)管層面,要高度重視工具型守門人的壟斷問題,構(gòu)建國(guó)內(nèi)和國(guó)際的人工智能技術(shù)規(guī)范,加強(qiáng)對(duì)人工智能技術(shù)發(fā)展的監(jiān)管和倫理審查,通過合規(guī)監(jiān)督與違規(guī)懲處促進(jìn)人工智能朝親社會(huì)的方向發(fā)展。
在法律層面,要加強(qiáng)有關(guān)的立法研究工作,在軍事和醫(yī)療等重要領(lǐng)域,及時(shí)建立和完善人工智能的國(guó)內(nèi)法規(guī)、國(guó)際條約與國(guó)際組織,發(fā)動(dòng)全社會(huì)和各國(guó)的參與,加大法律在國(guó)內(nèi)和國(guó)際的執(zhí)行力度。
(本文僅代表個(gè)人觀點(diǎn),不代表所在機(jī)構(gòu)和上級(jí)單位觀點(diǎn)。)





- 報(bào)料熱線: 021-962866
- 報(bào)料郵箱: news@thepaper.cn
滬公網(wǎng)安備31010602000299號(hào)
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營(yíng)許可證:滬B2-2017116
? 2014-2025 上海東方報(bào)業(yè)有限公司