- +1
當(dāng)一位牛津教授打破30年的沉默

作者 | 竺晶瑩
題圖 | 《模仿游戲》劇照
六年前,牛津大學(xué)的一個辦公室里,電話鈴聲劃破了寂寂的長廊,突然響個不停……
“請問是邁克爾·伍爾德里奇教授嗎?我們來自BBC,想跟你求證一些關(guān)于AI的言論。近日,埃隆·馬斯克說,AI在未來將摧毀人類。你怎么看呢?” 電話那頭傳來急促的聲音。
伍爾德里奇教授忍俊不禁,從他的學(xué)院派眼光看來,馬斯克的預(yù)測正如好萊塢迷戀AI統(tǒng)治世界的故事一樣,尚屬無稽之談。
隨著AI話題熱度越來越高,伍爾德里奇教授30年來平靜的研究生涯,自這通電話后開始被打破。他發(fā)現(xiàn),相較艱深的技術(shù)分析,媒體顯然更傾向于報道人工智能下的反烏托邦場景。只是,事實(shí)并非如此。這也是為什么他近年來撰寫了《人工智能全傳》一書,試圖向大眾破除關(guān)于AI的迷思。
英國議員馬特·里德利曾盛贊他:“沒有人比伍爾德里奇更了解人工智能這項(xiàng)新技術(shù)的過去和現(xiàn)在,以及它給人們帶來的便利和危害。”
議員或許夸張,倒也并非過譽(yù)。時任牛津大學(xué)計算機(jī)學(xué)院院長的邁克爾·伍爾德里奇(Michael Wooldridge),與我進(jìn)行了一次對談,希望幫我們厘清人工智能的發(fā)展簡史。對話中,教授從圖靈測試談到深度思考,算法偏見如何制約了機(jī)器,“技術(shù)奇點(diǎn)”有何缺陷。

伍爾德里奇教授被譽(yù)為英國計算機(jī)領(lǐng)域影響力最大的三位學(xué)者之一 / 圖片來源:牛津大學(xué)官網(wǎng)
祛魅AI
“這個世界已經(jīng)有足夠多的擔(dān)憂能讓我們失眠,比如氣候變化、核武器,我不建議大家再擔(dān)心AI取代人類這種事了。” 伍爾德里奇教授無奈笑道,他的英式幽默有點(diǎn)冷。
在教授的回憶里,當(dāng)時馬斯克表示AI可能摧毀人類后不久,斯蒂芬·霍金竟也警示大家,AI對于人類而言是個潛在的威脅。這讓他陷入了深思,為何像霍金這樣偉大的頭腦都作出了類似判斷。
他或許找到了部分原因。過去十年間AI的飛速進(jìn)展,讓我們幻想未來幾十年AI研究仍能以一種夢幻的速度實(shí)現(xiàn)超越。但是,伍爾德里奇指出,人們往往忽視了過去取得的進(jìn)步,僅局限于特定的領(lǐng)域以及具體的程序中,比如AlphaGo、自動翻譯。這會讓人誤以為,一個全知全能的擬人化AI快要降臨了。但能下圍棋的程序無法自動翻譯,強(qiáng)人工智能時代也不會那么快到來。因此,特定程序的研發(fā)進(jìn)步,讓我們將樂觀的情緒擴(kuò)散到了AI全面進(jìn)展上,但實(shí)際上這只是千里之行所累積的跬步而已。
“人們錯誤地認(rèn)為,如果機(jī)器可以在某方面比人類做得更好,那么它們在任何方面都超越了人類,顯然并非如此。一個程序若能比人類做得更好,那是它通過被大量訓(xùn)練使得程序最優(yōu)化,然后在一個精細(xì)的領(lǐng)域里達(dá)到頂尖水平。”
比馬斯克的言論更成體系的,大概是“技術(shù)奇點(diǎn)”(Technological Singularity)理論。20世紀(jì)50年代,計算機(jī)先驅(qū)馮·諾伊曼首次提出“奇點(diǎn)”,表述為一種可以撕裂人類歷史結(jié)構(gòu)的能力。60年代,數(shù)學(xué)家I.J.古德首創(chuàng)“智能爆炸”,指智能機(jī)器在無需人工干預(yù)的情況下不斷設(shè)計出下一代。
2005年,美國發(fā)明家、預(yù)言學(xué)家雷·庫茲韋爾(Ray Kurzweil)在《奇點(diǎn)臨近》一書中大膽預(yù)測:科技正以史無前例的速度指數(shù)級發(fā)展,計算機(jī)將超越人類智能的各個方面。到2045年,奇點(diǎn)來臨時,人工智能將完全超越人類智能。奇點(diǎn)之后,如果人的智能完全轉(zhuǎn)移到計算機(jī)上,那么人將以軟件形式實(shí)現(xiàn)永生。
庫茲韋爾將歷史分為六個紀(jì)元,每一個紀(jì)元的出現(xiàn),都是利用上一個紀(jì)元的進(jìn)化成果。人類在進(jìn)化中產(chǎn)生思維能力,繼而創(chuàng)造了技術(shù),從簡單的機(jī)械化發(fā)展為成熟的自動化設(shè)備。而接下來就將進(jìn)入人機(jī)文明的紀(jì)元,由于人類技術(shù)呈現(xiàn)指數(shù)型發(fā)展,像基因技術(shù)、納米技術(shù)、機(jī)器人技術(shù)都將呈現(xiàn)更大容量、更快速度與更強(qiáng)的知識分享能力。我們的人機(jī)文明將超越人腦的限制,奇點(diǎn)開始,并于第六紀(jì)元從地球拓展到全宇宙。
如果這段說明有點(diǎn)拗口,用伍爾德里奇教授的話來說就是,機(jī)器會不斷自我學(xué)習(xí)讓自己變得更聰明,而機(jī)器學(xué)習(xí)的速度遠(yuǎn)遠(yuǎn)超過生物。因此我們害怕,機(jī)器最終會脫離人類的控制,因?yàn)樗鼘⒙斆鞯轿覀冸y以理解它,難以與它共處。
然而,伍爾德里奇指出了奇點(diǎn)理論有明顯的不足——沒有人致力于制造“奇點(diǎn)”;而這也不會在一夜之間發(fā)生,因?yàn)槲覀冎挥袘?yīng)用大量的科學(xué)與技術(shù)才能達(dá)到“奇點(diǎn)”,好比波音747的發(fā)明,就是一個無比漫長的工程學(xué)研究過程,而它在開發(fā)中必須首要考慮的就是,確保人類的安全。
“我并不擔(dān)心奇點(diǎn)的到來,因?yàn)槲覀兡壳安⒉恢廊绾螐默F(xiàn)有的AI,演化到通用人工智能(Artificial General Intelligence),這依舊是科學(xué)之謎。” 教授補(bǔ)充道。
盡管伍爾德里奇教授理性且克制地看待AI發(fā)展,但這并不代表他對于人工智能進(jìn)步的觀點(diǎn)過于保守。事實(shí)上,AI簡史中有許多關(guān)鍵時刻令他感覺到興奮。
“如果你來挑選AI發(fā)展過程中最關(guān)鍵的三個時刻,會是什么?” 我問。
教授略一沉思,在他30余年的研究生涯里,見證過太多AI高光時刻,只挑三起事件,倒也為難。但他還是很快確認(rèn)了對自己震撼最大的三個節(jié)點(diǎn):1966-1972年,首臺采用了人工智能學(xué)的移動機(jī)器人Shakey在美國斯坦福國際研究所(Stanford Research Institute, SRI)被發(fā)明;2005年,自動駕駛汽車Stanley完成了132英里的Mojava沙漠路線,在DARPA超級挑戰(zhàn)賽上一舉奪冠;2016年,谷歌DeepMind研發(fā)的AlphaGo擊敗圍棋世界冠軍李世石。
伍爾德里奇進(jìn)而解釋,當(dāng)時斯坦福研究所團(tuán)隊(duì)試圖制造一個自主機(jī)器人,你向它下達(dá)命令后,它得自己找到途徑達(dá)成任務(wù),比如你讓它把箱子從這個角落搬到那個角落。而這需要許多步驟,首先它要聽懂你的指令,其次它要弄清怎么完成指令,再來它還要辨識真實(shí)世界的場景,你需要把這些所有元素都內(nèi)置到一個機(jī)器人上。Shakey展現(xiàn)了人工智能的應(yīng)用,但更揭示了我們在AI領(lǐng)域遠(yuǎn)有更多路徑需要探索。

自主機(jī)器人Shakey / 圖片來源:Google
Stanley在2005年挑戰(zhàn)賽上的表現(xiàn)則證明無人駕駛技術(shù)的難點(diǎn)首次被突破。2004年第一屆挑戰(zhàn)賽上,沒有一輛自動駕駛汽車能行駛超過7英里,甚至很多車都沒開過起跑線。但沒想到,僅隔一年,伍爾德里奇記得至少有七輛車能夠自動駕駛140英里以上,只需按下按鈕,斯坦福大學(xué)開發(fā)的Stanley就可以在復(fù)雜的地形上平均每小時行駛約 20 英里。他想,那簡直就像第一次見證飛機(jī)飛行一樣。

無人駕駛汽車Stanley在2005年挑戰(zhàn)賽中奪冠 / 圖片來源:Google
AlphaGo在2016年在韓國首爾擊敗李世石,則超乎意料,學(xué)界本以為這種層次的技術(shù)在未來二十年才會發(fā)生,因此這是“深度學(xué)習(xí)”(Deep Learning)取得重大突破的明證。
AI迷思
那什么是所謂的“深度學(xué)習(xí)”呢?
如果用官方語言描述,那就是推動第三次神經(jīng)網(wǎng)絡(luò)的關(guān)鍵技術(shù)。伍爾德里奇教授指出,這個人工智能中最古老的想法之一,在過去十年中才開始取得成果。我們從大腦結(jié)構(gòu)中汲取了靈感來構(gòu)建AI系統(tǒng),人類大腦約有1000億個神經(jīng)元彼此連接,那么類比在軟件中就是神經(jīng)網(wǎng)絡(luò)。1990年的一個典型神經(jīng)網(wǎng)絡(luò)可能只有約100個神經(jīng)元,2016年先進(jìn)的神經(jīng)網(wǎng)絡(luò)已經(jīng)擁有約100萬個神經(jīng)元。
深度學(xué)習(xí)的意義在于不斷前進(jìn),構(gòu)建更深的網(wǎng)絡(luò)層級、更龐大的神經(jīng)元結(jié)構(gòu)、更廣泛的神經(jīng)元連接。
雖然AlphaGo是深度學(xué)習(xí)取得重大進(jìn)展的標(biāo)志之一,但它也存在缺點(diǎn)。比如一個拒絕為客戶提供銀行貸款的深度學(xué)習(xí)程序,無法告訴你它拒絕客戶的原因。此外,神經(jīng)網(wǎng)絡(luò)的穩(wěn)定性也存疑。如果對圖像進(jìn)行細(xì)微修正,這對人類來說不影響圖片識別,但會導(dǎo)致神經(jīng)網(wǎng)絡(luò)將其錯誤分類。因此,同樣的改圖方式可以影響程序?qū)β窐?biāo)的識別,在無人駕駛汽車中,神經(jīng)網(wǎng)絡(luò)就可能誤讀路標(biāo)。
另一個常被提及的概念是“算法偏見”(Algorithmic Bias)。教授指出:“這并非算法的偏見,其實(shí)是算法繼承了人類的偏見。”
這一說法可以追溯到1970年代,為了提高招生流程的效率,倫敦圣喬治醫(yī)學(xué)院的Geoffrey Franglen博士編寫了一個“模仿人類評估員”的算法來篩選學(xué)生的入學(xué)申請,其初衷也是為了抹平招生委員會的個體偏見,交由系統(tǒng)來完成“公平”的篩選。結(jié)果卻適得其反,成功入學(xué)的申請者始終缺乏多樣性。
原來,算法被設(shè)定了一些無關(guān)因素,比如出生地和姓名,來權(quán)衡申請者。如果他們的名字不是白人姓氏,篩選流程就會對他們不利,光是沒有一個歐洲名字就會自動扣除申請者 15 分了。女性申請者平均要被扣掉3分。因此,算法只是在維持當(dāng)時招生系統(tǒng)早已存在的偏見而已。
那么今天我們有希望解決算法偏見的問題嗎?
伍爾德里奇表示,AI的工作原理就是,程序通過不斷被訓(xùn)練來作出判斷。假設(shè)一家銀行在設(shè)計程序來判斷客戶是否該獲得貸款。那么銀行需要展示大量貸款申請,并告訴算法,這是優(yōu)質(zhì)或劣質(zhì)的申請。但關(guān)鍵在于,訓(xùn)練算法的人本身就帶有自己都沒意識到的偏見,那么算法自然在大量習(xí)得數(shù)據(jù)的過程中也沾上了偏見。比如倫敦存在區(qū)域的“郵編歧視”,如果一個程序根據(jù)客戶住址來判斷他該不該獲得貸款,由于以往數(shù)據(jù)顯示偏遠(yuǎn)社區(qū)的用戶償還貸款能力不佳,這時算法就傾向于判斷這類郵編的客戶不該被批準(zhǔn)申請。
這么看來,只要人類社會的偏見不消除,算法世界的偏見也不會消失。不過,從1970年代至今,人們至少在消除種族歧視、倡導(dǎo)性別平權(quán)上的呼吁已經(jīng)得到些許進(jìn)展,而只有現(xiàn)實(shí)世界里的進(jìn)展才會延伸到算法系統(tǒng)中。
最終,這些關(guān)于機(jī)器能否思考的討論,必然會溯源到阿蘭?圖靈(Alan Turing)身上。1950 年,圖靈發(fā)表了一篇論文《計算機(jī)器與智能》,他提出了一個問題:“機(jī)器會思考嗎?”

開啟了人工智能時代的圖靈 / 圖片來源:Google
如果看過《模仿游戲》,那么對這位數(shù)學(xué)天才不會陌生。電影劇情中,二戰(zhàn)時期,英國軍情六處招募了一批人來破解德軍Enigma密碼機(jī)制造的暗號,但沒有人能在24小時內(nèi)解出無數(shù)種可能性,而一天過后又是新的密碼。直到圖靈意識到,只有機(jī)器才能打敗機(jī)器。
伍爾德里奇指出電影有許多戲劇化的偏離現(xiàn)實(shí)情節(jié),倒有助于大眾認(rèn)識到圖靈。他說,圖靈幾乎是偶然發(fā)明了計算機(jī),因?yàn)樗?930年代在劍橋讀博期間就嘗試解決當(dāng)時最重要的一個數(shù)學(xué)問題,為了解決它,圖靈最終發(fā)現(xiàn)他必須發(fā)明一種通用機(jī)器。戰(zhàn)后,他繼續(xù)建造自己的機(jī)器,這實(shí)際上是他數(shù)學(xué)夢想的載體。
隨即,圖靈就發(fā)明了一種測試來檢測機(jī)器是否會思考。英國有一種模仿游戲,一男一女分別位于不同房間,裁判需通過他們的手寫對話來猜誰是誰,但男女雙方都有可能在模仿對方。圖靈被游戲啟發(fā),構(gòu)思了一個思想實(shí)驗(yàn),將其中一位選手換成了計算機(jī)。如果計算機(jī)在編程之下,讓裁判無法斷定自己究竟是跟人還是機(jī)器對話,圖靈提出,那就有理由推斷出機(jī)器和人類一樣在“思考”。
這個思想實(shí)驗(yàn)被稱作“圖靈測試”,仍是AI界最具爭議的話題之一。伍爾德里奇將這個測試形容為美妙,因?yàn)閹缀跏菆D靈開啟了AI時代。
而那也可以被視作對哲學(xué)的一種挑釁。
哲學(xué)家Daniel Dennett表示,圖靈測試本該是哲學(xué)對話的終結(jié)者,“與其無休止地爭論思考的終極本質(zhì)和要義,我們?yōu)槭裁床欢季瓦@一點(diǎn)達(dá)成一致呢?即無論其本質(zhì)是什么,任何東西只要通過了這一測試,當(dāng)然就擁有思考能力。”
此為“算法與活法”系列報道第四篇,該系列聚焦科技時代下我們的生活如何被“異化”,通過與學(xué)者或?qū)<业脑L談以期獲得些許洞察。此前該系列篇目有:
《我們正掉入外賣陷阱》
《算法與活法:當(dāng)你不再被需要》
《“人性第一”》
如對本稿件有異議或投訴,請聯(lián)系tougao@huxiu.com
End
原標(biāo)題:《當(dāng)一位牛津教授打破30年的沉默》
本文為澎湃號作者或機(jī)構(gòu)在澎湃新聞上傳并發(fā)布,僅代表該作者或機(jī)構(gòu)觀點(diǎn),不代表澎湃新聞的觀點(diǎn)或立場,澎湃新聞僅提供信息發(fā)布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司