- +1
人工智能測謊?科學(xué)家:亂指控要負(fù)責(zé)任,不要無腦盲從
·“我們的研究表明,人工智能可能成為人們避免為指控別人說謊的后果負(fù)責(zé)的借口。”
目前的人工智能(AI)在語言理解和交互方面已經(jīng)取得了令人矚目的成績。這些程序不僅能夠理解對話的內(nèi)容,作出合適的回答,還能夠?qū)π畔⑦M(jìn)行解讀和判斷。有人認(rèn)為,有了人工智能的參與,未來社會(huì)中人們的交往、互動(dòng)乃至整個(gè)社會(huì)的規(guī)范都有可能發(fā)生變化。
近日一項(xiàng)研究指出,人工智能的出現(xiàn)或許會(huì)改變?nèi)藗兇链﹦e人謊言的方式——當(dāng)人工智能判斷一些言論是撒謊時(shí),即便沒有提供新的證據(jù)和解釋,人們也更有可能會(huì)聽取它的建議,對撒謊進(jìn)行指責(zé)。這一發(fā)現(xiàn)有助于深入了解使用人工智能系統(tǒng)進(jìn)行測謊的社會(huì)影響,并在實(shí)施類似技術(shù)時(shí)為相關(guān)政策的制定提供參考。
這項(xiàng)研究于6月27日發(fā)表在細(xì)胞出版社(Cell Press)旗下期刊iScience(《交叉科學(xué)》)上,作者是來自德國馬克思·普朗克人類發(fā)展研究所(Max Planck Institute for Human Development)、法國圖盧茲高等研究所(Institute for Advanced Study Toulouse)等機(jī)構(gòu)的Nils K?bis、Alicia von Schenk、Victor Klockmann等五名科學(xué)家。
該研究認(rèn)為,戳穿謊言是要承擔(dān)一定的社會(huì)風(fēng)險(xiǎn)的。錯(cuò)誤的指控不僅會(huì)讓被指控者蒙受不白之冤,也會(huì)讓指控者落得個(gè)“糊涂判官”的壞名聲。除此之外,之前科學(xué)家們已經(jīng)發(fā)現(xiàn),人類識(shí)別謊言的能力很差,從概率上來說跟亂猜區(qū)別不大——成功率不超過50%。
因此,人們對質(zhì)疑別人的謊言常常有所保留,也就形成了社會(huì)中信任他人、默認(rèn)別人講的都是真話的傾向。“我們的社會(huì)對撒謊指控有著牢固而完善的規(guī)范。”論文通訊作者、德國杜伊斯堡-埃森大學(xué)行為科學(xué)家Nils K?bis在接受細(xì)胞出版社采訪時(shí)說,“公開指責(zé)別人撒謊需要很大的勇氣和堅(jiān)實(shí)的證據(jù)。”
在該研究中,研究者們想要知道,如果人們有更加“權(quán)威”的AI測謊“專家”幫助,這種相對謹(jǐn)慎的揭穿謊言的習(xí)慣會(huì)不會(huì)改變。
研究者們首先招募了986名參與者對他們下周末的活動(dòng)計(jì)劃寫一份真實(shí)和一份虛假的描述,要求都要超過150字。最終,他們從768名作者那里收集到了1536份描述。
然后,該團(tuán)隊(duì)用這些數(shù)據(jù)在谷歌的開源語言模型BERT的基礎(chǔ)上訓(xùn)練了一種算法,開發(fā)出一種人工智能測謊模型。該模型識(shí)別真假陳述的準(zhǔn)確率能達(dá)到66%,明顯高于普通人的水平。
接下來,該團(tuán)隊(duì)從之前的陳述樣本中挑選出510個(gè),并招募了2040人作為評(píng)委,每個(gè)人隨機(jī)閱讀一份并決定真假。根據(jù)是否以及如何接受AI測謊的幫助,研究人員將參與者分為四組——“基線”(Baseline)組、“強(qiáng)迫”(Forced)組、“封鎖”(Block)組和“選擇”(Choice)組。
在基線組中,參與者在沒有人工智能幫助的情況下回答“對”或“錯(cuò)”。在強(qiáng)迫組中,參與者在做出自己的判斷之前會(huì)強(qiáng)制收到AI預(yù)測。在封鎖組和選擇組中,參與者可以選擇是否接受人工智能生成的預(yù)測。但封鎖組的人即便選擇了AI幫助也不會(huì)收到預(yù)測反饋,而選擇組的人會(huì)收到。
研究者們發(fā)現(xiàn),基線組的參與者在判斷真假時(shí)的準(zhǔn)確率為46%。盡管事先已經(jīng)被告知有50%的陳述一定是假,最終也只有19%的人作出了指控。研究認(rèn)為,這證實(shí)了人們傾向于避免指責(zé)別人撒謊的保守傾向。
在強(qiáng)迫組中,不管參與者是否想要,他們都得到了人工智能預(yù)測結(jié)果,因此超過1/3的參與者認(rèn)為陳述是虛假的。這一比例明顯高于基線組和未接受人工智能預(yù)測的封鎖組。
盡管沒有提供具體解釋,人工智能的判斷本身就能讓參與者們“跟風(fēng)”投票。當(dāng)人工智能預(yù)測某句話是真的時(shí),只有13%的參與者認(rèn)為這句話是假的。然而,當(dāng)人工智能預(yù)測一個(gè)陳述為假時(shí),超過40%的參與者認(rèn)為該陳述是假的。
此外,在要求并收到人工智能預(yù)測的參與者中,84%的人接受了預(yù)測結(jié)果,并在人工智能說陳述是錯(cuò)誤的時(shí)候提出了指控。
“這表明,一旦人們手頭有了這樣的算法,他們就會(huì)依賴它,并可能改變他們的行為。如果算法認(rèn)為某件事是謊言,人們就會(huì)欣然接受。這是相當(dāng)令人擔(dān)憂的,這表明我們應(yīng)該非常謹(jǐn)慎地對待相關(guān)技術(shù)。”K?bis在采訪中表示。
但有趣的是,人們似乎不愿意使用人工智能作為測謊工具。在封鎖組和選擇組中,只有1/3的參與者選擇接受人工智能預(yù)測。這個(gè)結(jié)果讓研究小組感到驚訝,因?yàn)檠芯咳藛T事先告訴參與者,該算法比人類更能發(fā)現(xiàn)謊言。K?bis說:“這可能是因?yàn)槿藗儗ψ约旱臏y謊能力過于自信,盡管人類在這方面真的很糟糕。”
盡管該研究中的人工智能測謊僅有66%的正確率,它已經(jīng)能以“權(quán)威”的面貌出現(xiàn)并影響參與者的判斷。實(shí)際上人工智能經(jīng)常犯錯(cuò),遠(yuǎn)非客觀。它不僅會(huì)“一本正經(jīng)地胡說八道”,還會(huì)因?yàn)橛?xùn)練數(shù)據(jù)的結(jié)構(gòu)問題而強(qiáng)化內(nèi)容中的刻板印象。鑒于AI測謊技術(shù)可能會(huì)在不久的將來在社交媒體等領(lǐng)域被廣泛應(yīng)用,該研究團(tuán)隊(duì)在文章最后呼吁政策制定者應(yīng)當(dāng)完善相關(guān)的政策和法律框架,呼吁對AI測謊技術(shù)進(jìn)行監(jiān)管。
“人工智能被大肆宣傳,許多人認(rèn)為這些算法非常強(qiáng)大,甚至是客觀的。我很擔(dān)心這會(huì)讓人們過度依賴它,即使它的效果并不好。”K?bis表示,“我們的研究表明,人工智能可能會(huì)成為人們避免為指控別人說謊的后果負(fù)責(zé)的借口。”





- 報(bào)料熱線: 021-962866
- 報(bào)料郵箱: news@thepaper.cn
滬公網(wǎng)安備31010602000299號(hào)
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報(bào)業(yè)有限公司