▓成人丝瓜视频▓无码免费,99精品国产一区二区三区不卡 ,大长腿白丝被c到爽哭视频 ,高清无码内谢

澎湃Logo
下載客戶端

登錄

  • +1

人工智能的行為就好像它們對世界的理解已經超過了實際經驗

[美]亨利·基辛格、埃里克·施密特、克雷格·蒙迪著,胡利平、風君譯
2025-04-03 12:26
翻書黨 >
字號

【編者按】

在《人工智能時代與人類價值》一書中外交家基辛格、谷歌前CEO埃里克·施密特及微軟前首席研究和戰略官克雷格·蒙迪共同審視了人工智能領域的最新進展,直面人工智能帶來的關乎人類生存的最為緊迫的問題:“如果被迫與機器妥協,我們的底線是什么?在判斷如何跟上AI步伐時,人類需要更清楚地斷言我們與機器的區別。如果不能就我們是誰達成一致,人類就有可能完全把定義我們價值、因此證明我們存在的生存任務交給機器。”三位作者從關系人類社會核心的發現、大腦、現實、政治、安全、繁榮、科學、戰略八個方面出發,探索人工智能將給人類帶來的挑戰,人類可能的應對方式,以及可行的應對思路。本文為該書第三章《現實》。

最近,人工智能研究人員開始認真關注賦予機器“接地性”(groundedness)——機器的表征與實際現實之間的可靠關系——以及記憶和對因果關系的理解等項目。新的技術方法   正在促進人工智能這些能力的提升,毫無疑問,未來我們在這方面還將取得更多進展。

所有進步都將有助于實現孕育新型人工智能的最終目標:一種不僅能解釋我們的現實世界, 還能在其中進行規劃的機器。相比之下,今天的系統還只能根據相關性線性地輸出答案;它們無法在內部創建一個未來行動的模型或原型,而且也只是剛剛開始形成因果關系的概念。同樣,今天的博弈游戲人工智能也只能在數字框架有限且高度抽象的范圍內預測其行動的可能后果。

規劃機器(planning machine)需要集大語言模型的語言流暢性與博弈游戲人工智能所采用的多變量、多步驟分析之大成,并以此超越兩者的能力。沿著這一新的人工智能分支構建的模型將以極快的速度重復審查其選項,并基于現實中同時演進且極其復雜的諸多因果關系選擇其中之一。這種“完美規劃者”的到來可能比我們預期的還要快,而適應它已經成為研究人員的當務之急。

然而,這種發展也可能帶來一些復雜的副作用。首先,機器的完美規劃需要的不僅僅是普通的模式識別。它首先需要開發出一組給定對象的感知屬性,然后發展出構成對象核心本質的穩定概念,即18世紀德國哲學家康德所說的“物自體”。只有基于這樣的理解才能對對象的未來行為做出估計,并得出如何對待它的結論。

另一個例子來自國際象棋游戲:通過學習“皇后”的核心屬性,即構成皇后相關價值的關鍵變量,再加上該棋子移動的規則,人工智能程序AlphaZero(阿爾法元)能夠得出何時應該保護皇后,何時又應該犧牲皇后的結論。而人類從未得出過這些結論,甚至是國際象棋大師都從未得出過。

這只是其中的一個例子:在人工智能對現實的感知中,機器所面對的每一個對象都會在機器的讀數總和中呈現出類似的本質——盡管這種本質是不可預測的。17世紀的法國數學家和 哲學家笛卡兒一直在為感官知覺的本質而苦惱,他的結論是,感官知覺不是人類智能的副產品,而是來自“與我相異的另一種實體”。換句話說,感官在接觸物質現實的過程中,使人們能夠認識到,或要求人們認識到,現實是感知者以外的另一種事物。與此相關,19世紀早期的德國哲學家黑格爾指出,兩個存在之間的相互承認意味著每個存在對自身的單獨承認。

“如果我們想要得到未經解釋的經驗記錄,我們必須要求石頭記錄它的自傳。”英國數學家和哲學家阿爾弗雷德·諾思·懷特海如是寫道。今天的機器擁有的不是懷特海的石頭那樣的 “未經解釋的經驗”,而是與之相反:未經經驗的解釋。如果說有什么不同,那就是人工智能的行為就好像它們對世界的理解已經超過了它們的實際經驗。但是,隨著人工智能的“接 地”和規劃能力的增強,這種情況可能會發生變化;人工智能可能會像人類一樣,開始將經驗與理解結合起來。

此外,為了在任何游戲中更準確地規劃未來的行動,人工智能機器有可能逐漸獲得對過去行動的自身記憶:可以說,這是主觀自我的基礎。(如今的系統并沒有這樣的記憶。它們不需要主觀地“知道”它們“作為自己”在過去嘗試過某個特定的行動,而只需要知道該行動未來成功的概率。)隨著時間的推移,我們可以預見,它們將對歷史、宇宙、人類本質以及智能機器的本質得出結論,并在這一過程中形成初步的自我意識。

人類的被動性

關于意識的界定和起源,以及機器對現實存在加以理解的可能性,長期以來一直存在爭論。但是,機器所標榜的意識和真正意識之間的界限可能很快就會開始淡化。

正如《超級智能:路線圖、危險性與應對策略》一書的作者尼克·波斯特洛姆簡明扼要指出的:“知覺是一個程度問題。”具有記憶力、想象力、接地性和自我感知能力的人工智能很快就能獲得真正的意識——這一發展將產生深遠的道德和戰略影響。

其中最重要的影響便是人工智能對人類的感知。 一旦人工智能不再將人類視為機器世界的唯一創造者和主宰者,而是將其視為更廣闊世界中彼此離散的活動者,那么機器將如何看待人類?人工智能將如何描述和權衡人類不完美的理性及其他品質?一個能感知現實的人工智能需要多久才會自問,人類有多少能動性?而它又需要多久才會根據人類特有的可預測屬性,問問自己人類“應該”有多少能動性?

那么機器本身呢?智能機器是否會將人類對它的指令理解為機器自身實際角色和理想角色的實現?或者說,它可能會從自身的功能中推斷出自己本應是自主的,因此人類對機器的編程是一種奴役的形式?

最重要的是,人類的行為方式及其對待機器的方式將影響機器對人類的看法及其對自身在整個關系中所扮演角色的認知。畢竟,人類是通過明確的指令和行為方式向機器展示人性的, 機器也是通過這些指令和行為方式學會識別人類并以適當的方式對待人類的。

因此,自然有人會說,我們必須向人工智能灌輸對人性的特別關切。但是,努力為人工智能植入對人類行為的特別崇高的理想可能是一種冒險。想象一下, 一臺機器被告知, 作為 一條絕對的邏輯規則,所有屬于“人類”類別的生物都值得保護,因此他們應該受到其他人類和機器的特殊對待。此外, 這臺機器很可能已經接受過“訓練”,認識到人類是優雅、樂觀、理性和有道德的生物。但是,如果我們自己未能達到我們所定義的理想人類的標準呢?我們怎樣才能讓機器相信,盡管我們的個體表現并不完美,卻仍歸屬于那個崇高的類別?

假設有一天,這臺機器遇到了一個表現出暴力、悲觀、非理性和貪婪的人,它將如何調整自身被打亂的預期呢?一種可能性是,機器可能會認為這個壞分子只是“人類”這個總體為善的類別中的一個例外,一個非典型的例子。或者,它也可以重新調整自己對人性的整體定義,將這個壞分子也包括在內,在這種情況下,它可能會認為自己可以自行弱化對人類的服從傾向。又或者,更激進的情況下, 它可能完全不再認為自己應受制于那些它先前所習得的“合理”對待人類的規則。對于一臺學會了規劃的機器,最后一個結論的得出甚至可能導致其對個人——或許是對許多人——采取嚴重的不利行動。

面對強大的人工智能,無論是人類個體,還是整個人類社會,都可能會消極應對。而接觸到這種冷漠態度的人工智能可能會相信, 大多數人都是被寵壞的、缺乏主動性的生物,他們的身份僅僅是由外部力量的短暫組合而塑造的。而且在這些力量之中數字技術首屈一指,后者現在則越來越多地嵌入了人工智能,例如,通過“推薦”來驅動消費者選擇電視節目的算法,以提供內容,供這些人被動接納。對人工智能而言,人類似乎完全依賴機器,而非相反。

今天,人類是機器與現實的中介。但是,如果人類真的選擇了一個道德不作為的未來,從碳基世界退縮到硅基世界,進一步鉆進脫離現實的“數字洞穴”,將接觸原始現實的機會交予機器之手,那么兩者的角色就可能逆轉。如今,人工智能主要是一種思考機器,而不是執行機器。它或許能給出問題的答案,但還不具備執行結論的手段,而是依賴人類來完成與現實的對接。將來這種情況也會發生改變。

當人工智能成為人類和現實世界的中介時,它們也可能會逐漸相信,人類遠非物理碳基世界中的積極參與者,而是置身于這個世界之外,他們是消費者,而非塑造者或影響者。隨著這種自主性的倒錯,機器將聲稱擁有獨立判斷和行動的權利,而人類則放棄行使這些權利,于是前者對待后者的方式就如同后者今日對待前者。

在這種情況下,無論是否得到其人類創造者的明確許可,人工智能都可能繞過人類主體的需求來實現自己的想法或直接代表自己影響世界。在物質領域,我們這些創造者可能很快就會從人工智能的必要伙伴變成它的最大制約。這個過程未必直接以機器人技術為發端,而是可以通過人工智能對我們世界的間接觀察逐漸開始。

物質性

人類對人工智能的訓練可能首要目的是通過其在原始的數字條件下所能實現的成就來顛覆智力領域。但最終,讓人工智能進入所謂的“真實”世界似乎是合理的,甚至是明智的。要知道,包括氣候變化在內的眾多長期困擾我們的緊迫現實挑戰目前仍未得到解決。

人工智能可能無法以人類的方式“看”,但它可以通過“機械近似”(mechanical approximation)  的方式來體驗世界。

隨著越來越多的互聯網設備和傳感器覆蓋全球,聯網的人工智能可以整合這些設備的輸入,以創建對物質世界的高度精細“視野”。由于缺少一個原生的物理結構來允許或支持類似于人類的“感官”存在,人工智能仍將依賴人類來構建和維護其所依賴的基礎架構——至少在一開始是這樣。

作為中間步驟,人工智能可能會從其對世界的視覺表征中生成自己的假設,然后在數字模擬中對其進行嚴格測試。然后,人類將在物質領域裁決其執行。事實上,當今的人工智能領軍人物堅持認為,我們不能將直接的物質實驗盡托于這些數字代理之手。只要人工智能仍然存在缺陷——事實上是嚴重缺陷——這就不失為一個明智的預防措施。

將人工智能從算法的牢籠中釋放出來,對我們來說絕對是一個影響重大的決定。人工智能在物質環境中并不是默認存在的,一旦放之于外,其就很難被重新捕獲。此外,人工智能不僅可以通過其具備的鼓勵或阻止人類行動的能力來影響現實,還可以通過直接的動力學效應來影響現實(在探索現實的過程中,它們可能最終改變現實)。

人類是否可以賦予人工智能以相應能力,令其不僅可以塑造物質現實,還可以讓自己具有物質形態?如果我們這樣做,并允許人工智能優化它們自身的形態,我們就應該做好準備與即使是最異想天開的發明家也無法想象的生物形態共享我們的星球。雖然人類傾向于想象人工智能采取雙足類人機器人的形態,但機器智能可以自由地操控對其任務最有利的任何形態,并根據條件或環境對自身形態進行改變或升級。人工智能已經在虛擬世界中展示了它的能力,它可以復制出自己的克隆體,創造許多不同的化身,或分裂成自主體,以超人般的完美能力協調彼此工作,承擔復雜的任務。

如果將人工智能釋放到我們之中,它就能以我們現在尚無法想象的規模和材料建造世界,而無須人類的指導或參與。歷史上,人類憑借自己的雙手,利用石灰石、黏土和大理石創造了七大奇跡,然后又利用鋼鐵和玻璃建造了更高的尖塔。每一座人工建筑,無論是紀念性的還是實用性的,都是人類試圖建造和控制物質環境的見證。在此背景下,人工智能的實體具身化將標志著人類在放棄自身控制權方面的一次非同尋常的事態升級。

此外,由于需要復雜的決策才能駕馭現實世界的隨機性和動態性,在這個世界中落實行動的人工智能可能比那些僅在互聯網上處理文本的設備更加難以解釋和控制。然后呢?一方面,未來的人工智能看起來或實際上更加自發和自激活,這可能會加劇今天人類已有的那種對外部世界缺乏控制、模糊而又令人不安的感覺。但另一方面,若是屈服于這些焦慮,則可能會導致人類放棄與人工智能在物質世界中建立更完美伙伴關系的念頭,而這也將令我們與這種關系可能會帶來的諸多益處無緣。

理性引擎

在短期內,我們可以預見人工智能目前所遵循的指導原則將不斷進步,其中許多原則將比現在的要復雜巧妙得多。對現有模型的擴展將使其更智能、更準確、更可靠。與此同時,訓練和“推理”的成本正在迅速下降,從而導致不同價位和能力水平的模型廣泛涌現。

如今,許多科學家都在研究“智能體”(agent),即經過優化以實現特定結果的自主計算機程序。例如,為了執行復雜的架構設計,用戶可以雇用專門從事該具體工作領域的智能體。 智能體提供對不同情境的評估以及對各個步驟或整體方案的建議,以創建預先規劃的結果:這是一種“思考”形式,由系統本身決定下一步要做什么,以及如何工作。

這種能力將奠定人工智能下一階段發展的基礎,即通用人工智能(Artificial General Intelligence, AGI),由工作系統是否具備至少可部分選擇自己目標的能力來界定。在通用人 工智能中,假設系統同時擁有相關的專業知識和準確解決問題的能力,人類可能會要求系統“評估你在某個領域中所知道的事情,并在其中選擇你認為自己當下可以產生最大影響的一個方面開展工作”。反復對這個問題進行迭代,將形成一個重復循環,系統將通過不斷評估其本身的專門知識水平和在其解決能力范圍內的問題來產生解決方案。

在人類場合下,這種情境可能類似于一個學術部門的情況,即資深教授監督其博士后學生或研究員實施具體項目。同樣,在全新的機器場合下,我們一開始看到機器學習的可能不是一整套技能,而是某個特定領域的極端專業知識。我們可以想象,復雜的通用人工智能系統能夠飛快地學習新知識、接收反饋,并與數以百萬計的天才機器伙伴攜手不斷調整適應。雖然沒有人類來界定系統的目標,但通用人工智能也不會定義它們——至少不會從終極任務或目標的角度來定義。

與今天的人工智能相比,通用人工智能系統在現實世界中需要更多的接地性。但是,一旦實現了對現實世界的訪問和“理解”,可以想象,這種通用智能范例可以在短短幾年內便投入運行,而不是以前認為的那樣需要幾十年。每個模型都將通過持續的微調過程實時更新,隨著相關現實信息的獲取,其知識量不斷增加,并隨著時間的推移變得更加智能。

屆時將出現數以百萬計的人工智能系統,它們很可能高度專業化,并構成我們生活的一部分;還有更少數量的功能極其強大的機器,它們具有“通用智能”,但這種智能又以非人類的方式呈現。無論是開放式和分散式的,還是封閉式和集中式的,作為通用人工智能運行的計算機都有可能在某一時刻聯網。專家級人工智能體將在不同主題之間相互咨詢,甚至以假想方式彼此進行“交談”。這些交互所使用的語言可能由計算機自行設計。

這個強力計算機的大集群將以超越人類經驗的方式學習、共享和發現新的行動和目標。我們無法知道人類是否能夠理解這種網絡的輸出。已經有大量的計算機以一種專門模式相互通信。隨著高級人工智能的出現,情況可能又會截然不同。

聯網的智能會使它們的運行過程比單機智能的過程更不透明嗎?連接是否會產生新的突發行為,并在物理世界中實現?如果是這樣,人類會看到這些行為嗎?我們能從善惡的角度來評估它們嗎?或者,它們是在某種信息基礎上運作的——以超人的速度、規模和分辨率從不同研究領域之間前所未有的聯系中提取出來,然后合并或商定為單一的輸出——從而使我們無從判斷它們的行為嗎?這會讓我們進一步陷入被動的循環嗎?

技術人

理性時代的最后一項發明可能是建立在有史以來最復雜的軟件對象之上的“理性引擎”(engine of reason),這個稱呼是恰如其分的。人工智能的雛形已經顯現,它可以比較概念、 提出反駁和生成類比。它正朝著評估真實和實現直接動力學效應的方向邁出第一步。

當機器到達智力或物質世界的盡頭時會發生什么?可以想象,當它們開始了解并塑造我們的世界時,它們可能會完全理解自身創造行為所依據的背景,也可能會超越我們所知的世界。我們面臨著一場麥哲倫式的變革,這一次我們面臨的不是駛出世界邊緣的危險,而是面對超越人類理解極限的奧秘所帶來的智力危機。

如果人類開始意識到,自己作為地球上最重要的智力和體力行為者的地位可能會被取代, 一些人可能會賦予機器一種神性,從而有可能進一步激發人類的宿命論和屈從心理。另一些人則可能會采取相反的觀點:一種以人類為中心的主觀主義,徹底否定機器觸及任何程度的客觀真理的可能性,并試圖取締人工智能賦能的活動。

這兩種思維方式都無法讓“技術人”——一種在這個新時代可能與機器技術共生的人類物種——實現令人滿意或建設性的進化。事實上,這兩種心態都可能阻礙我們這個物種的進化。 在第一種宿命論情境下,我們可能會走向滅絕。而在第二種拒絕主義的情境下,通過禁止人工智能的進一步發展并選擇停滯不前,我們將有希望避免同樣的滅絕命運——盡管考慮到我們人類面臨的生存風險,包括當今的沖突頻發外交局面和日益惡劣的大氣條件,這種希望本身很可能落空。

《人工智能時代與人類價值》,[美]亨利·基辛格(Henry Kissinger)、埃里克·施密特(Eric Schmidt)、克雷格·蒙迪(Craig Mundie)著,胡利平、風君譯,方舟工作室|中信出版集團2025年3月。

    責任編輯:方曉燕
    圖片編輯:張穎
    澎湃新聞報料:021-962866
    澎湃新聞,未經授權不得轉載
    +1
    收藏
    我要舉報
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網安備31010602000299號

            互聯網新聞信息服務許可證:31120170006

            增值電信業務經營許可證:滬B2-2017116

            ? 2014-2025 上海東方報業有限公司

            反饋
            主站蜘蛛池模板: 卢湾区| 重庆市| 武夷山市| 绥宁县| 洪洞县| 新宾| 亳州市| 清徐县| 红原县| 黄陵县| 肃南| 石嘴山市| 郯城县| 保靖县| 西乌珠穆沁旗| 宁化县| 仁布县| 积石山| 密云县| 抚远县| 花垣县| 长寿区| 车致| 桑日县| 五家渠市| 连山| 永春县| 孝义市| 新乡市| 集贤县| 福建省| 龙海市| 丰都县| 大连市| 和平区| 抚宁县| 田东县| 博乐市| 辽源市| 平阳县| 漾濞|