▓成人丝瓜视频▓无码免费,99精品国产一区二区三区不卡 ,大长腿白丝被c到爽哭视频 ,高清无码内谢

澎湃Logo
下載客戶端

登錄

  • +1

UNESCO第41屆大會(huì)審議通過(guò)《人工智能倫理問(wèn)題建議書(shū)》|全文

2021-11-29 09:38
來(lái)源:澎湃新聞·澎湃號(hào)·政務(wù)
字號(hào)

編者按:2021年11月24日,在剛剛閉幕的聯(lián)合國(guó)教科文組織大會(huì)第41屆會(huì)議上,誕生了《人工智能倫理問(wèn)題建議書(shū)》。筆者尤為振奮,不光因?yàn)槲覀冊(cè)?020年7月參與建言、向聯(lián)合國(guó)教科文組織提交的關(guān)于“環(huán)境、生態(tài)系統(tǒng)、生物多樣性應(yīng)寫(xiě)入人工智能倫理”的建議幾乎被全面采納;也因?yàn)椋@是筆者看到過(guò)的所有的關(guān)于人工智能倫理文本中最好、也最全面的一個(gè)文本。

然而,目前我國(guó)對(duì)其的報(bào)道還是非常有限。盡管這份建議書(shū)是在11月24日的會(huì)議上通過(guò)的,國(guó)內(nèi)當(dāng)天幾乎罕有報(bào)道(中文世界就連對(duì)聯(lián)合國(guó)教科文組織第41屆大會(huì)的報(bào)道也是很少的)。次日,也就是11月25日,UNESCO在巴黎在舉行新聞發(fā)布會(huì),介紹正式通過(guò)的這個(gè)首份人工智能倫理問(wèn)題全球性協(xié)議,然后11月26日中國(guó)新聞網(wǎng)、新華社、央視等國(guó)內(nèi)主流媒體才有簡(jiǎn)短的報(bào)道。截至2021年11月27日晚上、也就是這份建議書(shū)通過(guò)后的72小時(shí)之后,小編看到的有限的所有的中文報(bào)道都非常簡(jiǎn)短。而事實(shí)上,這份建議書(shū)文本非常全面,對(duì)于全球的人工智能的發(fā)展影響將是極為深遠(yuǎn)的。

從內(nèi)容和詞頻上看,2021年文本大量提升了生態(tài)環(huán)境相關(guān)的內(nèi)容。筆者盤(pán)點(diǎn)了一番:“生物多樣性”出現(xiàn)2次(去年草案初稿中出現(xiàn)0次),“生態(tài)系統(tǒng)”出現(xiàn)31次(去年草案初稿中約5次);“環(huán)境”一詞出現(xiàn)約59次(去年草案初稿中出現(xiàn)23次);“動(dòng)物福利”出現(xiàn)1次(之前0次);“碳足跡”出現(xiàn)2次。可以說(shuō),對(duì)比2021年的文本和2020年的文本,我們綠會(huì)的建議幾乎得到了較為全面的采納。

此外,本文尤其強(qiáng)調(diào)了“人工智能系統(tǒng)的整個(gè)生命周期”,筆者認(rèn)為,這一點(diǎn)尤為值得重視。在全文中出現(xiàn)51次。所謂人工智能系統(tǒng)整個(gè)生命周期,該文件將其定義為“從研究、設(shè)計(jì)、開(kāi)發(fā)到配置和使用等各階段,包括維護(hù)、運(yùn)行、交易、融資、監(jiān)測(cè)和評(píng)估、驗(yàn)證、使用終止、拆卸和終結(jié)。”

另外,難能可貴的一點(diǎn)是,該建議書(shū)明確表示,并不試圖對(duì)人工智能作出唯一的定義。它認(rèn)為,這種定義需要隨著技術(shù)的發(fā)展與時(shí)俱進(jìn)。因此,該文本旨在探討人工智能系統(tǒng)中具有核心倫理意義的特征。筆者注意到,此次會(huì)議決定,會(huì)員國(guó)關(guān)于其為實(shí)施《人工智能倫理問(wèn)題建議書(shū)》所采取措施的報(bào)告周期為四年一次。也就是說(shuō),在聯(lián)合國(guó)教科文組織大會(huì)43屆會(huì)議(四年后)上,將討論《人工智能倫理問(wèn)題建議書(shū)》實(shí)施情況的第一份綜合報(bào)告。

為了讓國(guó)內(nèi)同胞們能盡快看到文本,筆者從聯(lián)合國(guó)教科文組織的官網(wǎng)發(fā)布的提交給41屆大會(huì)審議的材料中提取了中文文字版。相信這份文件對(duì)我國(guó)人工智能學(xué)界、政策制定者、產(chǎn)業(yè)界都有不小的參考價(jià)值,綠會(huì)融媒在此中文首發(fā)。事實(shí)上這篇文章的排版花了小編超過(guò)四個(gè)小時(shí),不光是排版較難、也因花了點(diǎn)世界對(duì)其中文文本中的個(gè)別問(wèn)題譯法進(jìn)行了查證。以下文本來(lái)自于UNESCO官網(wǎng),全文約27000字。分享如下,供讀者參考。

編者按/王 豁 審/綠會(huì)國(guó)際部 編/angel

人工智能倫理問(wèn)題建議書(shū)。圖源/unesco

《人工智能倫理問(wèn)題建議書(shū)》草案文本

(注:已在聯(lián)合國(guó)教科文組織第41屆大會(huì)上獲得會(huì)員國(guó)通過(guò))

序言

聯(lián)合國(guó)教育、科學(xué)及文化組織(教科文組織)大會(huì)于 2021年11月9日至24日在巴黎召開(kāi)第四十一屆會(huì)議,

認(rèn)識(shí)到人工智能(AI)從正負(fù)兩方面對(duì)社會(huì)、環(huán)境、生態(tài)系統(tǒng)和人類(lèi)生活包括人類(lèi)思想具有深刻而動(dòng)態(tài)的影響,部分原因在于人工智能的使用以新的方式影響著人類(lèi)的思維、互動(dòng)和決策,并且波及到教育、人文科學(xué)、社會(huì)科學(xué)和自然科學(xué)、文化、傳播和信息,

憶及教科文組織根據(jù)《組織法》,力求通過(guò)教育、科學(xué)、文化以及傳播和信息促進(jìn)各國(guó)間之合作,對(duì)和平與安全作出貢獻(xiàn),以增進(jìn)對(duì)正義、法治及所確認(rèn)之世界人民均享人權(quán)與基本自由之普遍尊重,

深信在此提出的建議書(shū),作為以國(guó)際法為依據(jù)、采用全球方法制定且注重人的尊嚴(yán)和人權(quán)以及性別平等、社會(huì)和經(jīng)濟(jì)正義與發(fā)展、身心健康、多樣性、互聯(lián)性、包容性、環(huán)境和生態(tài)系統(tǒng)保護(hù)的準(zhǔn)則性文書(shū),可以引導(dǎo)人工智能技術(shù)向著負(fù)責(zé)任的方向發(fā)展,

遵循《聯(lián)合國(guó)憲章》的宗旨和原則,

考慮到人工智能技術(shù)可以對(duì)人類(lèi)大有助益并惠及所有國(guó)家,但也會(huì)引發(fā)根本性的倫理關(guān)切,例如:人工智能技術(shù)可能內(nèi)嵌并加劇偏見(jiàn),可能導(dǎo)致歧視、不平等、數(shù)字鴻溝和排斥,并對(duì)文化、社會(huì)和生物多樣性構(gòu)成威脅,造成社會(huì)或經(jīng)濟(jì)鴻溝;算法的工作方式和算法訓(xùn)練數(shù)據(jù)應(yīng)具有透明度和可理解性;人工智能技術(shù)對(duì)于多方面的潛在影響,包括但不限于人的尊嚴(yán)、人權(quán)和基本自由、性別平等、民主、社會(huì)、經(jīng)濟(jì)、政治和文化進(jìn)程、科學(xué)和工程實(shí)踐、動(dòng)物福利以及環(huán)境和生態(tài)系統(tǒng),

又認(rèn)識(shí)到人工智能技術(shù)會(huì)加深世界各地國(guó)家內(nèi)部和國(guó)家之間現(xiàn)有的鴻溝和不平等,必須維護(hù)正義、信任和公平,以便在公平獲取人工智能技術(shù)、享受這些技術(shù)帶來(lái)的惠益和避免受其負(fù)面影響方面不讓任何國(guó)家和任何人掉隊(duì),同時(shí)認(rèn)識(shí)到各國(guó)國(guó)情不同,并尊重一部分人不參與所有技術(shù)發(fā)展的意愿,

意識(shí)到所有國(guó)家都正值信息和通信技術(shù)及人工智能技術(shù)使用的加速期,對(duì)于媒體與信息素養(yǎng)的需求日益增長(zhǎng),且數(shù)字經(jīng)濟(jì)帶來(lái)了重大的社會(huì)、經(jīng)濟(jì)和環(huán)境挑戰(zhàn)以及惠益共享的機(jī)會(huì),對(duì)于中低收入國(guó)家(LMIC)——包括但不限于最不發(fā)達(dá)國(guó)家(LDC)、內(nèi)陸發(fā)展中國(guó)家(LLDC)和小島嶼發(fā)展中國(guó)家(SIDS)而言尤為如此,需要承認(rèn)、保護(hù)和促進(jìn)本土文化、價(jià)值觀和知識(shí),以發(fā)展可持續(xù)的數(shù)字經(jīng)濟(jì),

還認(rèn)識(shí)到人工智能技術(shù)具備有益于環(huán)境和生態(tài)系統(tǒng)的潛能,要實(shí)現(xiàn)這些惠益,不應(yīng)忽視而是要去應(yīng)對(duì)其對(duì)環(huán)境和生態(tài)系統(tǒng)的潛在危害和負(fù)面影響,

注意到應(yīng)對(duì)風(fēng)險(xiǎn)和倫理關(guān)切的努力不應(yīng)妨礙創(chuàng)新和發(fā)展,而是應(yīng)提供新的機(jī)會(huì),激勵(lì)合乎倫理的研究和創(chuàng)新,使人工智能技術(shù)立足于人權(quán)和基本自由、價(jià)值觀和原則以及關(guān)于道義和倫理的思考,

又憶及教科文組織大會(huì)在 2019 年 11 月第四十屆會(huì)議上通過(guò)了第 40 C/37 號(hào)決議,授權(quán)總干事“以建議書(shū)的形式編制一份關(guān)于人工智能倫理問(wèn)題的國(guó)際準(zhǔn)則性文書(shū)”,提交 2021 年大會(huì)第四十一屆會(huì)議,

認(rèn)識(shí)到人工智能技術(shù)的發(fā)展需要相應(yīng)提高數(shù)據(jù)、媒體與信息素養(yǎng),并增加獲取獨(dú)立、多元、可信信息來(lái)源的機(jī)會(huì),包括努力減少錯(cuò)誤信息、虛假信息和仇恨言論的風(fēng)險(xiǎn)以及濫用個(gè)人數(shù)據(jù)造成的傷害,

認(rèn)為關(guān)于人工智能技術(shù)及其社會(huì)影響的規(guī)范框架應(yīng)建立在共識(shí)和共同目標(biāo)的基礎(chǔ)上,以國(guó)際和國(guó)家法律框架、人權(quán)和基本自由、倫理、獲取數(shù)據(jù)、信息和知識(shí)的需求、研究和創(chuàng)新自由、人類(lèi)福祉、環(huán)境和生態(tài)系統(tǒng)福祉為依據(jù),將倫理價(jià)值觀和原則與同人工智能技術(shù)有關(guān)的挑戰(zhàn)和機(jī)遇聯(lián)系起來(lái),

又認(rèn)識(shí)到倫理價(jià)值觀和原則可以通過(guò)發(fā)揮指引作用,幫助制定和實(shí)施基于權(quán)利的政策措施和法律規(guī)范,以期加快技術(shù)發(fā)展步伐,

又深信全球公認(rèn)的、充分尊重國(guó)際法特別是人權(quán)法的人工智能技術(shù)倫理標(biāo)準(zhǔn)可以在世界各地制定人工智能相關(guān)規(guī)范方面起到關(guān)鍵作用,

銘記《世界人權(quán)宣言》(1948 年);國(guó)際人權(quán)框架文書(shū),包括《關(guān)于難民地位的公約》(1951 年)、《就業(yè)和職業(yè)歧視公約》(1958 年)、《消除一切形式種族歧視國(guó)際公約》(1965 年)、《公民及政治權(quán)利國(guó)際公約》(1966 年)、《經(jīng)濟(jì)社會(huì)文化權(quán)利國(guó)際公約》(1966 年)、《消除對(duì)婦女一切形式歧視公約》(1979 年)、《兒童權(quán)利公約》(1989 年)和《殘疾人權(quán)利公約》(2006 年);《反對(duì)教育歧視公約》(1960 年);《保護(hù)和促進(jìn)文化表現(xiàn)形式多樣性公約》(2005 年);以及其他一切相關(guān)國(guó)際文書(shū)、建議書(shū)和宣言,又注意到《聯(lián)合國(guó)發(fā)展權(quán)利宣言》(1986 年);《當(dāng)代人對(duì)后代人的責(zé)任宣言》(1997年);《世界生物倫理與人權(quán)宣言》(2005 年);《聯(lián)合國(guó)土著人民權(quán)利宣言》(2007年);2014年聯(lián)合國(guó)大會(huì)關(guān)于信息社會(huì)世界峰會(huì)審查的決議(A/RES/70/125)(2015年);聯(lián)合國(guó)大會(huì)關(guān)于“變革我們的世界:2030 年可持續(xù)發(fā)展議程”的決議(A/RES/70/1)(2015年);《關(guān)于保存和獲取包括數(shù)字遺產(chǎn)在內(nèi)的文獻(xiàn)遺產(chǎn)的建議書(shū)》(2015 年);《與氣候變化有關(guān)的倫理原則宣言》(2017 年);《關(guān)于科學(xué)和科學(xué)研究人員的建議書(shū)》(2017 年);互聯(lián)網(wǎng)普遍性指標(biāo)(2018年獲得教科文組織國(guó)際傳播發(fā)展計(jì)劃認(rèn)可),包括立足人權(quán)、開(kāi)放、人人可及和多利益攸關(guān)方參與原則(2015 年獲得教科文組織大會(huì)認(rèn)可);人權(quán)理事會(huì)關(guān)于“數(shù)字時(shí)代的隱私權(quán)”的決議(A/HRC/RES/42/15)(2019 年);以及人權(quán)理事會(huì)關(guān)于“新興數(shù)字技術(shù)與人權(quán)”的決議(A/HRC/RES/41/11)(2019 年),

強(qiáng)調(diào)必須特別關(guān)注中低收入國(guó)家,包括但不限于最不發(fā)達(dá)國(guó)家、內(nèi)陸發(fā)展中國(guó)家和小島嶼發(fā)展中國(guó)家,這些國(guó)家具備能力,但在人工智能倫理問(wèn)題辯論中的代表性不足,由此引發(fā)了對(duì)于地方知識(shí)、文化多元化、價(jià)值體系以及應(yīng)對(duì)人工智能技術(shù)的正負(fù)兩方面影響需要實(shí)現(xiàn)全球公平的要求受到忽視的關(guān)切,

又意識(shí)到在人工智能技術(shù)的倫理和監(jiān)管方面,目前存在許多國(guó)家政策以及由聯(lián)合國(guó)相關(guān)實(shí)體、政府間組織(包括地區(qū)組織)和由私營(yíng)部門(mén)、專(zhuān)業(yè)組織、非政府組織和科學(xué)界制定的其他框架和倡議,

還深信人工智能技術(shù)可以帶來(lái)重大惠益,但實(shí)現(xiàn)這些惠益也會(huì)加劇圍繞創(chuàng)新產(chǎn)生的矛盾沖突、知識(shí)和技術(shù)獲取不對(duì)稱(chēng)(包括使公眾參與人工智能相關(guān)議題的能力受限的數(shù)字和公民素養(yǎng)赤字)以及信息獲取障礙、能力亦即人員和機(jī)構(gòu)能力差距、技術(shù)創(chuàng)新獲取障礙、缺乏適當(dāng)?shù)膶?shí)體和數(shù)字基礎(chǔ)設(shè)施以及監(jiān)管框架(包括與數(shù)據(jù)有關(guān)的基礎(chǔ)設(shè)施和監(jiān)管框架)的問(wèn)題,所有這些問(wèn)題都需要解決,

強(qiáng)調(diào)需要加強(qiáng)全球合作與團(tuán)結(jié),包括通過(guò)多邊主義,以促進(jìn)公平獲取人工智能技術(shù),應(yīng)對(duì)人工智能技術(shù)給文化和倫理體系的多樣性和互聯(lián)性帶來(lái)的挑戰(zhàn),減少可能的濫用,充分發(fā)揮人工智能可能給各個(gè)領(lǐng)域特別是發(fā)展領(lǐng)域帶來(lái)的潛能,確保各國(guó)人工智能戰(zhàn)略以倫理原則為指導(dǎo),

充分考慮到人工智能技術(shù)的快速發(fā)展對(duì)以合乎倫理的方式應(yīng)用和治理人工智能技術(shù)以及對(duì)尊重和保護(hù)文化多樣性提出了挑戰(zhàn),并有可能擾亂地方和地區(qū)的倫理標(biāo)準(zhǔn)和價(jià)值觀,

1. 通過(guò)本人工智能倫理問(wèn)題建議書(shū);

2. 建議會(huì)員國(guó)在自愿基礎(chǔ)上適用本建議書(shū)的各項(xiàng)規(guī)定,特別是根據(jù)各自國(guó)家的憲法實(shí)踐和治理結(jié)構(gòu)采取適當(dāng)步驟,包括必要的立法或其他措施,依照包括國(guó)際人權(quán)法在內(nèi)的國(guó)際法,使建議書(shū)的原則和規(guī)范在本國(guó)管轄范圍內(nèi)生效;

3. 又建議會(huì)員國(guó)動(dòng)員包括工商企業(yè)在內(nèi)的所有利益攸關(guān)方,確保他們?cè)趯?shí)施本建議書(shū)方面發(fā)揮各自的作用;并提請(qǐng)涉及人工智能技術(shù)的管理部門(mén)、機(jī)構(gòu)、研究和學(xué)術(shù)組織、公共、私營(yíng)和民間社會(huì)機(jī)構(gòu)和組織注意本建議書(shū),使人工智能技術(shù)的開(kāi)發(fā)和應(yīng)用做到以健全的科學(xué)研究以及倫理分析和評(píng)估作為指導(dǎo)。

一、適用范圍

1. 本建議書(shū)述及與人工智能領(lǐng)域有關(guān)且屬于教科文組織職責(zé)范圍之內(nèi)的倫理問(wèn)題。建議書(shū)以能指導(dǎo)社會(huì)負(fù)責(zé)任地應(yīng)對(duì)人工智能技術(shù)對(duì)人類(lèi)、社會(huì)、環(huán)境和生態(tài)系統(tǒng)產(chǎn)生的已知和未知影響并相互依存的價(jià)值觀、原則和行動(dòng)構(gòu)成的不斷發(fā)展的整體、全面和多元文化框架為基礎(chǔ),將人工智能倫理作為一種系統(tǒng)性規(guī)范考量,并為社會(huì)接受或拒絕人工智能技術(shù)提供依據(jù)。

建議書(shū)將倫理視為對(duì)人工智能技術(shù)進(jìn)行規(guī)范性評(píng)估和指導(dǎo)的動(dòng)態(tài)基礎(chǔ),以人的尊嚴(yán)、福祉和防止損害為導(dǎo)向,并立足于科技倫理。

2. 本建議書(shū)無(wú)意對(duì)人工智能作出唯一的定義,這種定義需要隨著技術(shù)的發(fā)展與時(shí)俱進(jìn)。

建議書(shū)旨在探討人工智能系統(tǒng)中具有核心倫理意義的特征。因此,本建議書(shū)將人工智能系統(tǒng)視為有能力以類(lèi)似于智能行為的方式處理數(shù)據(jù)和信息的系統(tǒng),通常包括推理、學(xué)習(xí)、感知、預(yù)測(cè)、規(guī)劃或控制等方面。這一方法有三個(gè)重要因素:

(a) 人工智能系統(tǒng)是整合模型和算法的信息處理技術(shù),這些模型和算法能夠生成學(xué)習(xí)和執(zhí)行認(rèn)知任務(wù)的能力,從而在物質(zhì)環(huán)境和虛擬環(huán)境中實(shí)現(xiàn)預(yù)測(cè)和決策等結(jié)果。

在設(shè)計(jì)上,人工智能系統(tǒng)借助知識(shí)建模和知識(shí)表達(dá),通過(guò)對(duì)數(shù)據(jù)的利用和對(duì)關(guān)聯(lián)性的計(jì)算,可以在不同程度上實(shí)現(xiàn)自主運(yùn)行。人工智能系統(tǒng)可以包含若干種方法,包括但不限于:

(i) 機(jī)器學(xué)習(xí),包括深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí);

(ii) 機(jī)器推理,包括規(guī)劃、調(diào)度、知識(shí)表達(dá)和推理、搜索和優(yōu)化。

人工智能系統(tǒng)可用于信息物理系統(tǒng),包括物聯(lián)網(wǎng)、機(jī)器人系統(tǒng)、社交機(jī)器人和涉及控制、感知及處理傳感器所收集數(shù)據(jù)的人機(jī)交互以及人工智能系統(tǒng)工作環(huán)境中執(zhí)行器的操作。

(b) 與人工智能系統(tǒng)有關(guān)的倫理問(wèn)題涉及人工智能系統(tǒng)生命周期的各個(gè)階段,此處系指從研究、設(shè)計(jì)、開(kāi)發(fā)到配置和使用等各階段,包括維護(hù)、運(yùn)行、交易、融資、監(jiān)測(cè)和評(píng)估、驗(yàn)證、使用終止、拆卸和終結(jié)。此外,人工智能行為者可以定義為在人工智能系統(tǒng)生命周期內(nèi)至少參與一個(gè)階段的任何行為者,可指自然人和法人,例如研究人員、程序員、工程師、數(shù)據(jù)科學(xué)家、終端用戶、工商企業(yè)、大學(xué)和公私實(shí)體等。

(c) 人工智能系統(tǒng)引發(fā)了新型倫理問(wèn)題,包括但不限于其對(duì)決策、就業(yè)和勞動(dòng)、社交、衛(wèi)生保健、教育、媒體、信息獲取、數(shù)字鴻溝、個(gè)人數(shù)據(jù)和消費(fèi)者保護(hù)、環(huán)境、民主、法治、安全和治安、雙重用途、人權(quán)和基本自由(包括表達(dá)自由、隱私和非歧視)的影響。此外,人工智能算法可能復(fù)制和加深現(xiàn)有的偏見(jiàn),從而加劇已有的各種形式歧視、偏見(jiàn)和成見(jiàn),由此產(chǎn)生新的倫理挑戰(zhàn)。其中一些問(wèn)題與人工智能系統(tǒng)能夠完成此前只有生物才能完成、甚至在有些情況下只有人類(lèi)才能完成的任務(wù)有關(guān)。這些特點(diǎn)使得人工智能系統(tǒng)在人類(lèi)實(shí)踐和社會(huì)中以及在與環(huán)境和生態(tài)系統(tǒng)的關(guān)系中,可以起到意義深遠(yuǎn)的新作用,為兒童和青年的成長(zhǎng)、培養(yǎng)對(duì)于世界和自身的認(rèn)識(shí)、批判性地認(rèn)識(shí)媒體和信息以及學(xué)會(huì)作出決定創(chuàng)造了新的環(huán)境。

從長(zhǎng)遠(yuǎn)看,人工智能系統(tǒng)可能挑戰(zhàn)人類(lèi)特有的對(duì)于經(jīng)驗(yàn)和能動(dòng)作用的感知,在人類(lèi)的自我認(rèn)知、社會(huì)、文化和環(huán)境的互動(dòng)、自主性、能動(dòng)性、價(jià)值和尊嚴(yán)等方面引發(fā)更多關(guān)切。

3. 秉承教科文組織世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)(COMEST)在 2019 年《人工智能倫理問(wèn)題初步研究》中的分析,本建議書(shū)特別關(guān)注人工智能系統(tǒng)與教育、科學(xué)、文化、傳播和信息等教科文組織核心領(lǐng)域有關(guān)的廣泛倫理影響:

(a) 教育,這是因?yàn)殍b于對(duì)勞動(dòng)力市場(chǎng)、就業(yè)能力和公民參與的影響,生活在數(shù)字化社會(huì)需要新的教育實(shí)踐、倫理反思、批判性思維、負(fù)責(zé)任的設(shè)計(jì)實(shí)踐和新的技能。

(b) 科學(xué),系指最廣泛意義上的科學(xué),包括從自然科學(xué)、醫(yī)學(xué)到社會(huì)科學(xué)和人文科學(xué)等所有學(xué)術(shù)領(lǐng)域,這是由于人工智能技術(shù)帶來(lái)了新的研究能力和方法,影響到我們關(guān)于科學(xué)認(rèn)識(shí)和解釋的觀念,為決策創(chuàng)建了新的基礎(chǔ)。

(c) 文化特性和多樣性,這是由于人工智能技術(shù)可以豐富文化和創(chuàng)意產(chǎn)業(yè),但也會(huì)導(dǎo)致文化內(nèi)容的供應(yīng)、數(shù)據(jù)、市場(chǎng)和收入更多地集中在少數(shù)行為者手中,可能對(duì)語(yǔ)言、媒體、文化表現(xiàn)形式、參與和平等的多樣性和多元化產(chǎn)生負(fù)面影響。

(d) 傳播和信息,這是由于人工智能技術(shù)在處理、組織和提供信息方面起到日益重要的作用;很多現(xiàn)象引發(fā)了與信息獲取、虛假信息、錯(cuò)誤信息、仇恨言論、新型社會(huì)敘事興起、歧視、表達(dá)自由、隱私、媒體與信息素養(yǎng)等有關(guān)的問(wèn)題,自動(dòng)化新聞、通過(guò)算法提供新聞、對(duì)社交媒體和搜索引擎上的內(nèi)容進(jìn)行審核和策管只是其中幾個(gè)實(shí)例。

4. 本建議書(shū)面向會(huì)員國(guó),會(huì)員國(guó)既是人工智能行為者,又是負(fù)責(zé)制定人工智能系統(tǒng)整個(gè)生命周期的法律和監(jiān)管框架并促進(jìn)企業(yè)責(zé)任的管理部門(mén)。此外,建議書(shū)為貫穿人工智能系統(tǒng)生命周期的倫理影響評(píng)估奠定了基礎(chǔ),從而為包括公共和私營(yíng)部門(mén)在內(nèi)的所有人工智能行為者提供倫理指南。

二、宗旨和目標(biāo)

5. 本建議書(shū)旨在提供基礎(chǔ),讓人工智能系統(tǒng)可以造福人類(lèi)、個(gè)人、社會(huì)、環(huán)境和生態(tài)系統(tǒng),同時(shí)防止危害。它還旨在促進(jìn)和平利用人工智能系統(tǒng)。

6. 本建議書(shū)的目的是在全球現(xiàn)有人工智能倫理框架之外,再提供一部全球公認(rèn)的規(guī)范性文書(shū),不僅注重闡明價(jià)值觀和原則,而且著力于通過(guò)具體的政策建議切實(shí)落實(shí)這些價(jià)值觀和原則,同時(shí)著重強(qiáng)調(diào)包容、性別平等以及環(huán)境和生態(tài)系統(tǒng)保護(hù)等問(wèn)題。

7. 由于與人工智能有關(guān)的倫理問(wèn)題十分復(fù)雜,需要國(guó)際、地區(qū)和國(guó)家各個(gè)層面和各個(gè)部門(mén)的眾多利益攸關(guān)方開(kāi)展合作,故而本建議書(shū)的宗旨是讓利益攸關(guān)方能夠在全球和文化間對(duì)話的基礎(chǔ)上共同承擔(dān)責(zé)任。

8. 本建議書(shū)的目標(biāo)如下:

(a) 依照國(guó)際法,提供一個(gè)由價(jià)值觀、原則和行動(dòng)構(gòu)成的普遍框架,指導(dǎo)各國(guó)制定與人工智能有關(guān)的立法、政策或其他文書(shū);

(b) 指導(dǎo)個(gè)人、團(tuán)體、社群、機(jī)構(gòu)和私營(yíng)公司的行動(dòng),確保將倫理規(guī)范嵌入人工智能系統(tǒng)生命周期的各個(gè)階段;

(c) 在人工智能系統(tǒng)生命周期的各個(gè)階段保護(hù)、促進(jìn)和尊重人權(quán)和基本自由、人的尊嚴(yán)和平等,包括性別平等;保障當(dāng)代和后代的利益;保護(hù)環(huán)境、生物多樣性和生態(tài)系統(tǒng);尊重文化多樣性;

(d) 推動(dòng)多利益攸關(guān)方、多學(xué)科和多元化對(duì)話和建立共識(shí),討論與人工智能系統(tǒng)有關(guān)的倫理問(wèn)題;

(e) 促進(jìn)對(duì)人工智能領(lǐng)域進(jìn)步和知識(shí)的公平獲取以及惠益共享,特別關(guān)注包括最不發(fā)達(dá)國(guó)家、內(nèi)陸發(fā)展中國(guó)家和小島嶼發(fā)展中國(guó)家在內(nèi)的中低收入國(guó)家的需求和貢獻(xiàn)。

三、價(jià)值觀和原則

9. 首先,人工智能系統(tǒng)生命周期的所有行為者都應(yīng)尊重下文所載的價(jià)值觀和原則,并在必要和適當(dāng)?shù)那闆r下,通過(guò)修訂現(xiàn)行的和制定新的法律、法規(guī)和業(yè)務(wù)準(zhǔn)則來(lái)促進(jìn)這些價(jià)值觀和原則。這必須遵守國(guó)際法,包括《聯(lián)合國(guó)憲章》和會(huì)員國(guó)的人權(quán)義務(wù),并應(yīng)符合國(guó)際商定的社會(huì)、政治、環(huán)境、教育、科學(xué)和經(jīng)濟(jì)可持續(xù)性目標(biāo),例如聯(lián)合國(guó)可持續(xù)發(fā)展目標(biāo)(SDG)。

10. 價(jià)值觀作為催人奮進(jìn)的理想,在制定政策措施和法律規(guī)范方面發(fā)揮著強(qiáng)大作用。下文概述的一系列價(jià)值觀可以激發(fā)理想的行為并是確立原則的基礎(chǔ),而原則更為具體地闡述作為其根本的價(jià)值觀,以便更易于在政策聲明和行動(dòng)中落實(shí)這些價(jià)值觀。

11. 下文概述的所有價(jià)值觀和原則本身都是可取的,但在任何實(shí)際情況下這些價(jià)值觀和原則之間都可能會(huì)有矛盾。在特定情況下,需要根據(jù)具體情況進(jìn)行評(píng)估以管控潛在的矛盾,同時(shí)考慮到相稱(chēng)性原則并尊重人權(quán)和基本自由。在所有情況下,可能對(duì)人權(quán)和基本自由施加的任何限制均必須具有合法基礎(chǔ),而且必須合理、必要和相稱(chēng),符合各國(guó)依據(jù)國(guó)際法所承擔(dān)的義務(wù)。要做到明智而審慎地處理這些情況,通常需要與廣泛的相關(guān)利益攸關(guān)方合作,同時(shí)利用社會(huì)對(duì)話以及倫理審議、盡職調(diào)查和影響評(píng)估。

12. 人工智能系統(tǒng)生命周期的可信度和完整性對(duì)于確保人工智能技術(shù)造福人類(lèi)、個(gè)人、社會(huì)、環(huán)境和生態(tài)系統(tǒng)并且體現(xiàn)出本建議書(shū)提出的價(jià)值觀和原則至關(guān)重要。在采取適當(dāng)措施降低風(fēng)險(xiǎn)時(shí),人們應(yīng)有充分理由相信人工智能系統(tǒng)能夠帶來(lái)個(gè)人利益和共享利益。具有可信度的一個(gè)基本必要條件是,人工智能系統(tǒng)在整個(gè)生命周期內(nèi)都受到相關(guān)利益攸關(guān)方適當(dāng)?shù)娜姹O(jiān)測(cè)。由于可信度是本文件所載各項(xiàng)原則得到落實(shí)的結(jié)果,本建議書(shū)提出的政策行動(dòng)建議均旨在提升人工智能系統(tǒng)生命周期各個(gè)階段的可信度。

3.1 價(jià)值觀

【尊重、保護(hù)和促進(jìn)人權(quán)和基本自由以及人的尊嚴(yán)】

13. 每個(gè)人與生俱來(lái)且不可侵犯的尊嚴(yán)構(gòu)成了人權(quán)和基本自由這一普遍、不可分割、不可剝奪、相互依存又彼此相關(guān)的體系的基礎(chǔ)。因此,尊重、保護(hù)和促進(jìn)包括國(guó)際人權(quán)法在內(nèi)的國(guó)際法確立的人的尊嚴(yán)和權(quán)利,在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)都至關(guān)重要。人的尊嚴(yán)系指承認(rèn)每個(gè)人固有和平等的價(jià)值,無(wú)論種族、膚色、血統(tǒng)、性別、年齡、語(yǔ)言、宗教、政治見(jiàn)解、民族、族裔、社會(huì)出身、與生俱來(lái)的經(jīng)濟(jì)或社會(huì)條件、殘障情況或其他狀況如何。

14. 在人工智能系統(tǒng)生命周期的任何階段,任何人或人類(lèi)社群在身體、經(jīng)濟(jì)、社會(huì)、政治、文化或精神等任何方面,都不應(yīng)受到損害或被迫居于從屬地位。在人工智能系統(tǒng)的整個(gè)生命周期內(nèi),人類(lèi)生活質(zhì)量都應(yīng)得到改善,而“生活質(zhì)量”的定義只要不侵犯或踐踏人權(quán)和基本自由或人的尊嚴(yán),應(yīng)由個(gè)人或群體來(lái)決定。

15. 在人工智能系統(tǒng)的整個(gè)生命周期內(nèi),人會(huì)與人工智能系統(tǒng)展開(kāi)互動(dòng),接受這些系統(tǒng)提供的幫助,例如照顧弱勢(shì)者或處境脆弱群體,包括但不限于兒童、老年人、殘障人士或病人。

在這一互動(dòng)過(guò)程中絕不應(yīng)將人物化,不應(yīng)以其他方式損害人的尊嚴(yán),也不應(yīng)侵犯或踐踏人權(quán)和基本自由。

16. 在人工智能系統(tǒng)的整個(gè)生命周期內(nèi),必須尊重、保護(hù)和促進(jìn)人權(quán)和基本自由。各國(guó)政府、私營(yíng)部門(mén)、民間社會(huì)、國(guó)際組織、技術(shù)界和學(xué)術(shù)界在介入與人工智能系統(tǒng)生命周期有關(guān)的進(jìn)程時(shí),必須尊重人權(quán)文書(shū)和框架。新技術(shù)應(yīng)為倡導(dǎo)、捍衛(wèi)和行使人權(quán)提供新手段,而不是侵犯人權(quán)。

【環(huán)境和生態(tài)系統(tǒng)蓬勃發(fā)展】

17. 應(yīng)在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)確認(rèn)、保護(hù)和促進(jìn)環(huán)境和生態(tài)系統(tǒng)的蓬勃發(fā)展。

此外,環(huán)境和生態(tài)系統(tǒng)是關(guān)乎人類(lèi)和其他生物能否享受人工智能進(jìn)步所帶來(lái)惠益的必要條件。

18. 參與人工智能系統(tǒng)生命周期的所有行為者都必須遵守適用的國(guó)際法以及國(guó)內(nèi)立法、標(biāo)準(zhǔn)和慣例,例如旨在保護(hù)和恢復(fù)環(huán)境和生態(tài)系統(tǒng)以及促進(jìn)可持續(xù)發(fā)展的預(yù)防措施。這些行為者應(yīng)減少人工智能系統(tǒng)對(duì)環(huán)境的影響,包括但不限于碳足跡,以確保將氣候變化和環(huán)境風(fēng)險(xiǎn)因素降到最低,防止會(huì)加劇環(huán)境惡化和生態(tài)系統(tǒng)退化的對(duì)自然資源的不可持續(xù)開(kāi)采、使用和轉(zhuǎn)化。

【確保多樣性和包容性】

19. 在人工智能系統(tǒng)的整個(gè)生命周期內(nèi),應(yīng)依照包括人權(quán)法在內(nèi)的國(guó)際法,確保尊重、保護(hù)和促進(jìn)多樣性和包容性。為此,可以促進(jìn)所有個(gè)人或群體的積極參與,無(wú)論種族、膚色、血統(tǒng)、性別、年齡、語(yǔ)言、宗教、政治見(jiàn)解、民族、族裔、社會(huì)出身、與生俱來(lái)的經(jīng)濟(jì)或社會(huì)條件、殘障情況或其他狀況如何。

20. 對(duì)于生活方式的選擇范圍、信仰、意見(jiàn)、表達(dá)形式或個(gè)人經(jīng)驗(yàn),包括對(duì)于人工智能系統(tǒng)的任選使用以及這些架構(gòu)的共同設(shè)計(jì),在人工智能系統(tǒng)生命周期的任何階段都不應(yīng)受到限制。

21. 此外,應(yīng)作出努力,包括開(kāi)展國(guó)際合作,以克服并絕不利用影響到社區(qū)的缺乏必要技術(shù)基礎(chǔ)設(shè)施、教育和技能以及法律框架的情況,特別是在中低收入國(guó)家、最不發(fā)達(dá)國(guó)家、內(nèi)陸發(fā)展中國(guó)家和小島嶼發(fā)展中國(guó)家中。

【生活在和平、公正與互聯(lián)的社會(huì)中】

22. 人工智能行為者應(yīng)為確保建設(shè)和平與公正的社會(huì)發(fā)揮參與和促進(jìn)作用,這種社會(huì)的根基是惠及全民、符合人權(quán)和基本自由的相互關(guān)聯(lián)的未來(lái)。在和平與公正的社會(huì)中生活的價(jià)值觀表明,人工智能系統(tǒng)在整個(gè)生命周期內(nèi)都有可能為所有生物之間及其與自然環(huán)境之間的相互關(guān)聯(lián)作出貢獻(xiàn)。

23. 人與人之間相互聯(lián)系的概念是基于這樣一種認(rèn)識(shí),即每個(gè)人都屬于一個(gè)更大的整體,當(dāng)這個(gè)整體中的組成部分都能夠繁榮興旺時(shí),整體才會(huì)蒸蒸日上。在和平、公正與互聯(lián)的社會(huì)中生活,需要一種有機(jī)、直接、出自本能的團(tuán)結(jié)紐帶,其特點(diǎn)是不懈地尋求和平關(guān)系,傾向于在最廣泛的意義上關(guān)愛(ài)他人和自然環(huán)境。

24. 這一價(jià)值觀要求在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)促進(jìn)和平、包容與正義、公平和相互聯(lián)系,人工智能系統(tǒng)生命周期的各種進(jìn)程不得隔離或物化人類(lèi)和社區(qū)或者削弱其自由、自主決策和安全,不得分裂個(gè)人和群體或使之相互對(duì)立,也不得威脅人類(lèi)、其他生物和自然環(huán)境之間的共存。

3.2 原則

【相稱(chēng)性和不損害】

25. 應(yīng)該認(rèn)識(shí)到,人工智能技術(shù)本身并不一定能確保人類(lèi)、環(huán)境和生態(tài)系統(tǒng)蓬勃發(fā)展。況且,與人工智能系統(tǒng)生命周期有關(guān)的任何進(jìn)程都不得超出實(shí)現(xiàn)合法目的或目標(biāo)所需的范圍,并應(yīng)切合具體情況。在有可能對(duì)人類(lèi)、人權(quán)和基本自由、個(gè)別社區(qū)和整個(gè)社會(huì),或者對(duì)環(huán)境和生態(tài)系統(tǒng)造成損害時(shí),應(yīng)確保落實(shí)風(fēng)險(xiǎn)評(píng)估程序并采取措施,以防止發(fā)生此類(lèi)損害。

26. 應(yīng)從以下方面證明選擇使用人工智能系統(tǒng)和選用哪種人工智能方法的合理性:(a)所選擇的人工智能方法對(duì)于實(shí)現(xiàn)特定合法目標(biāo)應(yīng)該是適當(dāng)?shù)暮拖喾Q(chēng)的;(b)所選擇的人工智能方法不得違背本文件提出的基本價(jià)值觀,特別是其使用不得侵犯或踐踏人權(quán);(c)人工智能方法應(yīng)切合具體情況,并應(yīng)建立在嚴(yán)謹(jǐn)?shù)目茖W(xué)基礎(chǔ)上。在所涉決定具有不可逆轉(zhuǎn)或難以逆轉(zhuǎn)的影響或者在涉及生死抉擇的情況下,應(yīng)由人類(lèi)作出最終決定。人工智能系統(tǒng)尤其不得用于社會(huì)評(píng)分或大規(guī)模監(jiān)控目的。

【安全和安保】

27. 在人工智能系統(tǒng)的整個(gè)生命周期內(nèi),應(yīng)避免并解決、預(yù)防和消除意外傷害(安全風(fēng)險(xiǎn))以及易受攻擊的脆弱性(安保風(fēng)險(xiǎn)),確保人類(lèi)、環(huán)境和生態(tài)系統(tǒng)的安全和安保。開(kāi)發(fā)可持續(xù)和保護(hù)隱私的數(shù)據(jù)獲取框架,促進(jìn)利用優(yōu)質(zhì)數(shù)據(jù)更好地訓(xùn)練和驗(yàn)證人工智能模型,便可以實(shí)現(xiàn)有安全和安保保障的人工智能。

【公平和非歧視】

28. 人工智能行為者應(yīng)根據(jù)國(guó)際法,促進(jìn)社會(huì)正義并保障一切形式的公平和非歧視。這意味著要采用包容性辦法確保人工智能技術(shù)的惠益人人可得可及,同時(shí)又考慮到不同年齡組、文化體系、不同語(yǔ)言群體、殘障人士、女童和婦女以及處境不利、邊緣化和弱勢(shì)群體或處境脆弱群體的具體需求。會(huì)員國(guó)應(yīng)努力讓包括地方社區(qū)在內(nèi)的所有人都能夠獲取提供本地相關(guān)內(nèi)容和服務(wù)且尊重多語(yǔ)言使用和文化多樣性的人工智能系統(tǒng)。會(huì)員國(guó)應(yīng)努力消除數(shù)字鴻溝,并確保對(duì)人工智能發(fā)展的包容性獲取和參與。在國(guó)家層面,會(huì)員國(guó)應(yīng)努力在人工智能系統(tǒng)生命周期的準(zhǔn)入和參與問(wèn)題上促進(jìn)城鄉(xiāng)之間的公平,以及所有人之間的公平,無(wú)論種族、膚色、血統(tǒng)、性別、年齡、語(yǔ)言、宗教、政治見(jiàn)解、民族、族裔、社會(huì)出身、與生俱來(lái)的經(jīng)濟(jì)或社會(huì)條件、殘障情況或其他狀況如何。在國(guó)際層面,技術(shù)最先進(jìn)的國(guó)家有責(zé)任支持最落后的國(guó)家,確保共享人工智能技術(shù)的惠益,使得后者能夠進(jìn)入和參與人工智能系統(tǒng)生命周期,從而推動(dòng)建設(shè)一個(gè)在信息、傳播、文化、教育、研究、社會(huì)經(jīng)濟(jì)和政治穩(wěn)定方面更加公平的世界秩序。

29. 人工智能行為者應(yīng)盡一切合理努力,在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)盡量減少和避免強(qiáng)化或固化帶有歧視性或偏見(jiàn)的應(yīng)用程序和結(jié)果,確保人工智能系統(tǒng)的公平。對(duì)于帶有歧視性和偏見(jiàn)的算法決定,應(yīng)提供有效的補(bǔ)救辦法。

30. 此外,在人工智能系統(tǒng)的整個(gè)生命周期內(nèi),需要解決國(guó)家內(nèi)部和國(guó)家之間的數(shù)字和知識(shí)鴻溝,包括根據(jù)相關(guān)的國(guó)家、地區(qū)和國(guó)際法律框架解決技術(shù)和數(shù)據(jù)獲取及獲取質(zhì)量方面的鴻溝,以及在連接性、知識(shí)和技能以及受影響社區(qū)的切實(shí)參與方面的鴻溝,以便讓每個(gè)人都得到公平待遇。

【可持續(xù)性】

31. 可持續(xù)社會(huì)的發(fā)展,有賴(lài)于在人類(lèi)、社會(huì)、文化、經(jīng)濟(jì)和環(huán)境等方面實(shí)現(xiàn)一系列復(fù)雜的目標(biāo)。人工智能技術(shù)的出現(xiàn)可能有利于可持續(xù)性目標(biāo),但也可能阻礙這些目標(biāo)的實(shí)現(xiàn),這取決于處在不同發(fā)展水平的國(guó)家如何應(yīng)用人工智能技術(shù)。因此,在就人工智能技術(shù)對(duì)人類(lèi)、社會(huì)、文化、經(jīng)濟(jì)和環(huán)境的影響開(kāi)展持續(xù)評(píng)估時(shí),應(yīng)充分考慮到人工智能技術(shù)對(duì)于作為一套涉及多方面的動(dòng)態(tài)目標(biāo)(例如目前在聯(lián)合國(guó)可持續(xù)發(fā)展目標(biāo)中認(rèn)定的目標(biāo))的可持續(xù)性的影響。

【隱私權(quán)和數(shù)據(jù)保護(hù)】

32. 隱私權(quán)對(duì)于保護(hù)人的尊嚴(yán)、自主權(quán)和能動(dòng)性不可或缺,在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)必須予以尊重、保護(hù)和促進(jìn)。重要的是,人工智能系統(tǒng)所用數(shù)據(jù)的收集、使用、共享、歸檔和刪除方式,必須符合國(guó)際法,契合本建議書(shū)提出的價(jià)值觀和原則,同時(shí)遵守相關(guān)的國(guó)家、地區(qū)和國(guó)際法律框架。

33. 應(yīng)在國(guó)家或國(guó)際層面采用多利益攸關(guān)方辦法,建立適當(dāng)?shù)臄?shù)據(jù)保護(hù)框架和治理機(jī)制,將其置于司法系統(tǒng)保護(hù)之下,并在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)予以保障。數(shù)據(jù)保護(hù)框架和任何相關(guān)機(jī)制應(yīng)參鑒有關(guān)收集、使用和披露個(gè)人數(shù)據(jù)以及數(shù)據(jù)主體行使其權(quán)利的國(guó)際數(shù)據(jù)保護(hù)原則和標(biāo)準(zhǔn),同時(shí)確保對(duì)個(gè)人數(shù)據(jù)的處理具有合法的目的和有效的法律依據(jù),包括取得知情同意。

34. 需要對(duì)算法系統(tǒng)開(kāi)展充分的隱私影響評(píng)估,其中包括使用算法系統(tǒng)的社會(huì)和倫理考量以及通過(guò)設(shè)計(jì)方法對(duì)于隱私的創(chuàng)新使用。人工智能行為者需要確保他們對(duì)人工智能系統(tǒng)的設(shè)計(jì)和實(shí)施負(fù)責(zé),以確保個(gè)人信息在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)受到保護(hù)。

【人類(lèi)的監(jiān)督和決定】

35. 會(huì)員國(guó)應(yīng)確保始終有可能將人工智能系統(tǒng)生命周期的任何階段以及與人工智能系統(tǒng)有關(guān)的補(bǔ)救措施的倫理和法律責(zé)任歸屬于自然人或現(xiàn)有法人實(shí)體。因此,人類(lèi)監(jiān)督不僅指?jìng)€(gè)人監(jiān)督,在適當(dāng)情況下也指范圍廣泛的公共監(jiān)督。

36. 在某些情況下,出于效率性的考慮,人類(lèi)有時(shí)選擇依賴(lài)人工智能系統(tǒng),但是否在有限情形下出讓控制權(quán)依然要由人類(lèi)來(lái)決定,這是由于人類(lèi)在決策和行動(dòng)上可以借助人工智能系統(tǒng),但人工智能系統(tǒng)永遠(yuǎn)無(wú)法取代人類(lèi)的最終責(zé)任和問(wèn)責(zé)。一般而言,生死攸關(guān)的決定不應(yīng)讓給人工智能系統(tǒng)來(lái)作。

【透明度和可解釋性】

37. 人工智能系統(tǒng)的透明度和可解釋性往往是確保人權(quán)、基本自由和倫理原則得到尊重、保護(hù)和促進(jìn)的必要先決條件。透明度是相關(guān)國(guó)家和國(guó)際責(zé)任制度有效運(yùn)作的必要因素。缺乏透明度還可能削弱對(duì)根據(jù)人工智能系統(tǒng)產(chǎn)生的結(jié)果所作決定提出有效質(zhì)疑的可能性,進(jìn)而可能侵犯獲得公平審判和有效補(bǔ)救的權(quán)利,并限制這些系統(tǒng)的合法使用領(lǐng)域。

38. 在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)都需要努力提高人工智能系統(tǒng)(包括那些具有域外影響的系統(tǒng))的透明度和可解釋性,以支持民主治理,但透明度和可解釋性的程度應(yīng)始終切合具體情況并與其影響相當(dāng),因?yàn)榭赡苄枰谕该鞫群涂山忉屝耘c隱私、安全和安保等其他原則之間取得平衡。在所涉決定系參考或依據(jù)人工智能算法作出的情況下,包括在所涉決定關(guān)乎民眾安全和人權(quán)的情況下,民眾應(yīng)該被充分告知,并且在此類(lèi)情況下有機(jī)會(huì)請(qǐng)求相關(guān)人工智能行為者或公共機(jī)構(gòu)提供解釋性信息。此外,對(duì)于影響其權(quán)利和自由的決定,個(gè)人應(yīng)能夠了解據(jù)以作出該決定的理由,并可以選擇向能夠?qū)彶楹图m正該決定的私營(yíng)公司或公共機(jī)構(gòu)指定工作人員提出意見(jiàn)。對(duì)于由人工智能系統(tǒng)直接提供或協(xié)助提供的產(chǎn)品或服務(wù),人工智能行為者應(yīng)以適當(dāng)和及時(shí)的方式告知用戶。

39. 從社會(huì)—技術(shù)角度來(lái)看,提高透明度有助于建設(shè)更加和平、公正、民主和包容的社會(huì)。提高透明度有利于開(kāi)展公眾監(jiān)督,這可以減少腐敗和歧視,還有助于發(fā)現(xiàn)和防止對(duì)人權(quán)產(chǎn)生的負(fù)面影響。透明度的目的是為相關(guān)對(duì)象提供適當(dāng)?shù)男畔ⅲ员闼麄兝斫夂驮鲞M(jìn)信任。具體到人工智能系統(tǒng),透明度可以幫助人們了解人工智能系統(tǒng)各個(gè)階段是如何按照該系統(tǒng)的具體環(huán)境和敏感度設(shè)定的。透明度還包括深入了解可以影響特定預(yù)測(cè)或決定的因素,以及了解是否具備適當(dāng)?shù)谋WC(例如安全或公平措施)。在存在會(huì)對(duì)人權(quán)產(chǎn)生不利影響的嚴(yán)重威脅的情況下,透明度要求可能還包括共享代碼或數(shù)據(jù)集。

40. 可解釋性是指讓人工智能系統(tǒng)的結(jié)果可以理解,并提供闡釋說(shuō)明。人工智能系統(tǒng)的可解釋性也指各個(gè)算法模塊的輸入、輸出和性能的可解釋性及其如何促成系統(tǒng)結(jié)果。因此,可解釋性與透明度密切相關(guān),結(jié)果和導(dǎo)致結(jié)果的子過(guò)程應(yīng)以可理解和可追溯為目標(biāo),并且應(yīng)切合具體情況。人工智能行為者應(yīng)致力于確保開(kāi)發(fā)出的算法是可以解釋的。就對(duì)終端用戶所產(chǎn)生的影響不是暫時(shí)的、容易逆轉(zhuǎn)的或低風(fēng)險(xiǎn)的人工智能應(yīng)用程序而言,應(yīng)確保對(duì)導(dǎo)致所采取行動(dòng)的任何決定作出有意義的解釋?zhuān)员闶惯@一結(jié)果被認(rèn)為是透明的。

41. 透明度和可解釋性與適當(dāng)?shù)呢?zé)任和問(wèn)責(zé)措施以及人工智能系統(tǒng)的可信度密切相關(guān)。

【責(zé)任和問(wèn)責(zé)】

42. 人工智能行為者和會(huì)員國(guó)應(yīng)根據(jù)國(guó)家法律和國(guó)際法,特別是會(huì)員國(guó)的人權(quán)義務(wù),以及人工智能系統(tǒng)整個(gè)生命周期的倫理準(zhǔn)則,包括在涉及其有效疆域和實(shí)際控制范圍內(nèi)的人工智能行為者方面,尊重、保護(hù)和促進(jìn)人權(quán)和基本自由,并且還應(yīng)促進(jìn)對(duì)環(huán)境和生態(tài)系統(tǒng)的保護(hù),同時(shí)承擔(dān)各自的倫理和法律責(zé)任。以任何方式基于人工智能系統(tǒng)作出的決定和行動(dòng),其倫理責(zé)任和義務(wù)最終都應(yīng)由人工智能行為者根據(jù)其在人工智能系統(tǒng)生命周期中的作用來(lái)承擔(dān)。

43. 應(yīng)建立適當(dāng)?shù)谋O(jiān)督、影響評(píng)估、審計(jì)和盡職調(diào)查機(jī)制,包括保護(hù)舉報(bào)者,確保在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)對(duì)人工智能系統(tǒng)及其影響實(shí)施問(wèn)責(zé)。技術(shù)和體制方面的設(shè)計(jì)都應(yīng)確保人工智能系統(tǒng)(的運(yùn)行)可審計(jì)和可追溯,特別是要應(yīng)對(duì)與人權(quán)規(guī)范和標(biāo)準(zhǔn)之間的沖突以及對(duì)環(huán)境和生態(tài)系統(tǒng)福祉的威脅。

【認(rèn)識(shí)和素養(yǎng)】

44. 應(yīng)通過(guò)由政府、政府間組織、民間社會(huì)、學(xué)術(shù)界、媒體、社區(qū)領(lǐng)袖和私營(yíng)部門(mén)共同領(lǐng)導(dǎo)并顧及現(xiàn)有的語(yǔ)言、社會(huì)和文化多樣性的開(kāi)放且可獲取的教育、公民參與、數(shù)字技能和人工智能倫理問(wèn)題培訓(xùn)、媒體與信息素養(yǎng)及培訓(xùn),促進(jìn)公眾對(duì)于人工智能技術(shù)和數(shù)據(jù)價(jià)值的認(rèn)識(shí)和理解,確保公眾的有效參與,讓所有社會(huì)成員都能夠就使用人工智能系統(tǒng)作出知情決定,避免受到不當(dāng)影響。

45.了解人工智能系統(tǒng)的影響,應(yīng)包括了解、借助以及促進(jìn)人權(quán)和基本自由。這意味著在接觸和理解人工智能系統(tǒng)之前,應(yīng)首先了解人工智能系統(tǒng)對(duì)人權(quán)和權(quán)利獲取的影響,以及對(duì)環(huán)境和生態(tài)系統(tǒng)的影響。

46. 對(duì)數(shù)據(jù)的使用必須尊重國(guó)際法和國(guó)家主權(quán)。這意味著各國(guó)可根據(jù)國(guó)際法,對(duì)在其境內(nèi)生成或經(jīng)過(guò)其國(guó)境的數(shù)據(jù)進(jìn)行監(jiān)管,并采取措施,力爭(zhēng)在依照國(guó)際法尊重隱私權(quán)以及其他人權(quán)規(guī)范和標(biāo)準(zhǔn)的基礎(chǔ)上對(duì)數(shù)據(jù)進(jìn)行有效監(jiān)管,包括數(shù)據(jù)保護(hù)。

47. 不同利益攸關(guān)方對(duì)人工智能系統(tǒng)整個(gè)生命周期的參與,是采取包容性辦法開(kāi)展人工智能治理、使惠益能夠?yàn)樗腥斯蚕硪约巴苿?dòng)可持續(xù)發(fā)展的必要因素。利益攸關(guān)方包括但不限于政府、政府間組織、技術(shù)界、民間社會(huì)、研究人員和學(xué)術(shù)界、媒體、教育、政策制定者、私營(yíng)公司、人權(quán)機(jī)構(gòu)和平等機(jī)構(gòu)、反歧視監(jiān)測(cè)機(jī)構(gòu)以及青年和兒童團(tuán)體。應(yīng)采用開(kāi)放標(biāo)準(zhǔn)和互操作性原則,以促進(jìn)協(xié)作。應(yīng)采取措施,兼顧技術(shù)的變化和新利益攸關(guān)方群體的出現(xiàn),并便于邊緣化群體、社區(qū)和個(gè)人切實(shí)參與,同時(shí)酌情尊重土著人民對(duì)其數(shù)據(jù)的自我管理。

四、政策行動(dòng)領(lǐng)域

48. 以下政策領(lǐng)域所述的政策行動(dòng)是對(duì)本建議書(shū)提出的價(jià)值觀和原則的具體落實(shí)。主要行動(dòng)是會(huì)員國(guó)出臺(tái)有效措施,包括政策框架或機(jī)制等,并通過(guò)開(kāi)展多種行動(dòng),例如鼓勵(lì)所有利益攸關(guān)方根據(jù)包括聯(lián)合國(guó)《工商企業(yè)與人權(quán)指導(dǎo)原則》在內(nèi)的準(zhǔn)則制定人權(quán)、法治、民主以及倫理影響評(píng)估和盡職調(diào)查工具,確保私營(yíng)公司、學(xué)術(shù)和研究機(jī)構(gòu)以及民間社會(huì)等其他利益攸關(guān)方遵守這些框架或機(jī)制。此類(lèi)政策或機(jī)制的制定過(guò)程應(yīng)包括所有利益攸關(guān)方并應(yīng)考慮到各會(huì)員國(guó)的具體情況和優(yōu)先事項(xiàng)。教科文組織可以作為合作伙伴,支持會(huì)員國(guó)制定、監(jiān)測(cè)和評(píng)估政策機(jī)制。

49. 教科文組織認(rèn)識(shí)到,各會(huì)員國(guó)在科學(xué)、技術(shù)、經(jīng)濟(jì)、教育、法律、規(guī)范、基礎(chǔ)設(shè)施、社會(huì)、文化和其他方面,處于實(shí)施本建議書(shū)的不同準(zhǔn)備階段。需要指出的是,這里的“準(zhǔn)備”是一種動(dòng)態(tài)。因此,為切實(shí)落實(shí)本建議書(shū),教科文組織將:(1)制定準(zhǔn)備狀態(tài)評(píng)估方法,協(xié)助有關(guān)會(huì)員國(guó)確定其準(zhǔn)備進(jìn)程各個(gè)方面在特定時(shí)刻的所處狀態(tài);(2)確保支持有關(guān)會(huì)員國(guó)制定教科文組織人工智能技術(shù)倫理影響評(píng)估(EIA)方法,分享最佳做法、評(píng)估準(zhǔn)則、其他機(jī)制和分析工作。

【政策領(lǐng)域 1:倫理影響評(píng)估】

50. 會(huì)員國(guó)應(yīng)出臺(tái)影響評(píng)估(例如倫理影響評(píng)估)框架,以確定和評(píng)估人工智能系統(tǒng)的惠益、關(guān)切和風(fēng)險(xiǎn),并酌情出臺(tái)預(yù)防、減輕和監(jiān)測(cè)風(fēng)險(xiǎn)的措施以及其他保障機(jī)制。此種影響評(píng)估應(yīng)根據(jù)本建議書(shū)提出的價(jià)值觀和原則,確定對(duì)人權(quán)和基本自由(特別是但不限于邊緣化和弱勢(shì)群體或處境脆弱群體的權(quán)利、勞工權(quán)利)、環(huán)境和生態(tài)系統(tǒng)產(chǎn)生的影響以及倫理和社會(huì)影響,并促進(jìn)公民參與。

51. 會(huì)員國(guó)和私營(yíng)公司應(yīng)建立盡職調(diào)查和監(jiān)督機(jī)制,以確定、防止和減輕人工智能系統(tǒng)對(duì)尊重人權(quán)、法治和包容性社會(huì)產(chǎn)生的影響,并說(shuō)明如何處理這些影響。會(huì)員國(guó)還應(yīng)能夠評(píng)估人工智能系統(tǒng)對(duì)貧困問(wèn)題產(chǎn)生的社會(huì)經(jīng)濟(jì)影響,確保人工智能技術(shù)在目前和未來(lái)的大規(guī)模應(yīng)用不會(huì)加劇各國(guó)之間以及國(guó)內(nèi)的貧富差距和數(shù)字鴻溝。為做到這一點(diǎn),尤其應(yīng)針對(duì)信息(包括私營(yíng)實(shí)體掌握的涉及公共利益的信息)獲取,實(shí)行可強(qiáng)制執(zhí)行的透明度協(xié)議。會(huì)員國(guó)、私營(yíng)公司和民間社會(huì)應(yīng)調(diào)查基于人工智能的建議對(duì)人類(lèi)決策自主權(quán)的社會(huì)學(xué)和心理學(xué)影響。對(duì)于經(jīng)確認(rèn)對(duì)人權(quán)構(gòu)成潛在風(fēng)險(xiǎn)的人工智能系統(tǒng),在投放市場(chǎng)之前,人工智能行為者應(yīng)對(duì)其進(jìn)行廣泛測(cè)試,包括必要時(shí),作為倫理影響評(píng)估的一部分,在真實(shí)世界的條件下進(jìn)行測(cè)試。

52. 會(huì)員國(guó)和工商企業(yè)應(yīng)采取適當(dāng)措施,監(jiān)測(cè)人工智能系統(tǒng)生命周期的各個(gè)階段,包括用于決策的算法的性能、數(shù)據(jù)以及參與這一過(guò)程的人工智能行為者,特別是在公共服務(wù)領(lǐng)域和需要與終端用戶直接互動(dòng)的領(lǐng)域,以配合開(kāi)展倫理影響評(píng)估。人工智能系統(tǒng)評(píng)估的倫理方面應(yīng)包含會(huì)員國(guó)的人權(quán)法義務(wù)。

53. 各國(guó)政府應(yīng)采用監(jiān)管框架,其中特別針對(duì)公共管理部門(mén)提出人工智能系統(tǒng)倫理影響評(píng)估程序,以預(yù)測(cè)后果,減少風(fēng)險(xiǎn),避免有害后果,促進(jìn)公民參與并應(yīng)對(duì)社會(huì)挑戰(zhàn)。評(píng)估還應(yīng)確立能夠?qū)λ惴ā?shù)據(jù)和設(shè)計(jì)流程加以評(píng)估并包括對(duì)人工智能系統(tǒng)的外部審查的適當(dāng)監(jiān)督機(jī)制,包括確定可審計(jì)性、可追溯性和可解釋性。倫理影響評(píng)估應(yīng)透明,并酌情向公眾開(kāi)放。

此類(lèi)評(píng)估還應(yīng)具備多學(xué)科、多利益攸關(guān)方、多文化、多元化和包容等特性。應(yīng)要求公共管理部門(mén)引入適當(dāng)?shù)臋C(jī)制和工具,監(jiān)測(cè)這些部門(mén)實(shí)施和/或部署的人工智能系統(tǒng)。

54. 會(huì)員國(guó)應(yīng)確保人工智能治理機(jī)制具備包容性、透明性、多學(xué)科、多邊(包括跨界減輕損害和作出補(bǔ)救的可能性)和多利益攸關(guān)方等特性。特別是,治理應(yīng)包括預(yù)測(cè)、有效保護(hù)、監(jiān)測(cè)影響、執(zhí)行和補(bǔ)救等方面。

55. 會(huì)員國(guó)應(yīng)通過(guò)實(shí)施有力的執(zhí)行機(jī)制和補(bǔ)救行動(dòng),確保調(diào)查并補(bǔ)救人工智能系統(tǒng)造成的損害,從而確保人權(quán)和基本自由以及法治在數(shù)字世界與現(xiàn)實(shí)世界中同樣得到尊重。此類(lèi)機(jī)制和行動(dòng)應(yīng)包括私營(yíng)公司和公營(yíng)公司提供的補(bǔ)救機(jī)制。為此,應(yīng)提升人工智能系統(tǒng)的可審計(jì)性和可追溯性。此外,會(huì)員國(guó)應(yīng)加強(qiáng)履行這項(xiàng)承諾的機(jī)構(gòu)能力,并應(yīng)與研究人員和其他利益攸關(guān)方合作調(diào)查、防止并減少對(duì)于人工智能系統(tǒng)的潛在惡意使用。

56. 鼓勵(lì)會(huì)員國(guó)根據(jù)應(yīng)用領(lǐng)域的敏感程度、對(duì)人權(quán)、環(huán)境和生態(tài)系統(tǒng)的預(yù)期影響以及本建議書(shū)提出的其他倫理考量,制定國(guó)家和地區(qū)人工智能戰(zhàn)略,并考慮多種形式的柔性治理,例如人工智能系統(tǒng)認(rèn)證機(jī)制和此類(lèi)認(rèn)證的相互承認(rèn)。此類(lèi)機(jī)制可以包括針對(duì)系統(tǒng)、數(shù)據(jù)以及倫理準(zhǔn)則和倫理方面的程序要求的遵守情況開(kāi)展不同層面的審計(jì)。另一方面,此類(lèi)機(jī)制不得因行政負(fù)擔(dān)過(guò)重而妨礙創(chuàng)新,或者讓中小企業(yè)或初創(chuàng)企業(yè)、民間社會(huì)以及研究和科學(xué)組織處于不利地位。此類(lèi)機(jī)制還應(yīng)包括定期監(jiān)測(cè),在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)確保系統(tǒng)的穩(wěn)健性、持續(xù)完整性和遵守倫理準(zhǔn)則,必要時(shí)可要求重新認(rèn)證。

57. 會(huì)員國(guó)和公共管理部門(mén)應(yīng)對(duì)現(xiàn)有和擬議的人工智能系統(tǒng)進(jìn)行透明的自我評(píng)估,其中尤其應(yīng)包括對(duì)采用人工智能是否適當(dāng)進(jìn)行評(píng)估,如果適當(dāng)則應(yīng)為確定適當(dāng)?shù)姆椒ㄩ_(kāi)展進(jìn)一步評(píng)估,并評(píng)估采用這種方法是否會(huì)導(dǎo)致違反或?yàn)E用會(huì)員國(guó)的人權(quán)法義務(wù),如果是則應(yīng)禁止采用。

58. 會(huì)員國(guó)應(yīng)鼓勵(lì)公共實(shí)體、私營(yíng)公司和民間社會(huì)組織讓不同利益攸關(guān)方參與其人工智能治理工作,并考慮增設(shè)獨(dú)立的人工智能倫理干事崗位或某種其他機(jī)制,負(fù)責(zé)監(jiān)督倫理影響評(píng)估、審計(jì)和持續(xù)監(jiān)測(cè)工作,確保對(duì)于人工智能系統(tǒng)的倫理指導(dǎo)。鼓勵(lì)會(huì)員國(guó)、私營(yíng)公司和民間社會(huì)組織在教科文組織的支持下,創(chuàng)設(shè)獨(dú)立的人工智能倫理干事網(wǎng)絡(luò),為國(guó)家、地區(qū)和國(guó)際層面的這一進(jìn)程提供支持。

59. 會(huì)員國(guó)應(yīng)促進(jìn)數(shù)字生態(tài)系統(tǒng)的發(fā)展和獲取,以便在國(guó)家層面以合乎倫理和包容各方的方式發(fā)展人工智能系統(tǒng),包括消除在人工智能系統(tǒng)生命周期準(zhǔn)入方面的差距,同時(shí)推動(dòng)國(guó)際合作。此類(lèi)生態(tài)系統(tǒng)尤其包括數(shù)字技術(shù)和基礎(chǔ)設(shè)施,在適當(dāng)情況下還包括人工智能知識(shí)共享機(jī)制。

60. 會(huì)員國(guó)應(yīng)與國(guó)際組織、跨國(guó)公司、學(xué)術(shù)機(jī)構(gòu)和民間社會(huì)合作建立機(jī)制,確保所有會(huì)員國(guó)積極參與關(guān)于人工智能治理的國(guó)際討論,特別是中低收入國(guó)家,尤其是最不發(fā)達(dá)國(guó)家、內(nèi)陸發(fā)展中國(guó)家和小島嶼發(fā)展中國(guó)家。可以通過(guò)提供資金、確保平等的地區(qū)參與或任何其他機(jī)制來(lái)實(shí)現(xiàn)這一目標(biāo)。此外,為確保人工智能論壇的包容性,會(huì)員國(guó)應(yīng)為人工智能行為者的出入境提供便利,特別是中低收入國(guó)家,尤其是最不發(fā)達(dá)國(guó)家、內(nèi)陸發(fā)展中國(guó)家和小島嶼發(fā)展中國(guó)家的行為者,以便其參加此類(lèi)論壇。

61. 修訂現(xiàn)行的或制定新的有關(guān)人工智能系統(tǒng)的國(guó)家立法,必須遵守會(huì)員國(guó)的人權(quán)法義務(wù),并在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)促進(jìn)人權(quán)和基本自由。隨著人工智能技術(shù)的發(fā)展,還應(yīng)采取以下形式促進(jìn)人權(quán)和基本自由:治理舉措;關(guān)于人工智能系統(tǒng)的合作實(shí)踐的良好范例;

國(guó)家及國(guó)際技術(shù)和方法準(zhǔn)則。包括私營(yíng)部門(mén)在內(nèi)的各個(gè)部門(mén)在其關(guān)于人工智能系統(tǒng)的實(shí)踐中必須利用現(xiàn)有的和新的文書(shū)以及本建議書(shū),尊重、保護(hù)和促進(jìn)人權(quán)和基本自由。

62. 為執(zhí)法、福利、就業(yè)、媒體和信息提供者、衛(wèi)生保健和獨(dú)立司法系統(tǒng)等對(duì)人權(quán)敏感的用途獲取人工智能系統(tǒng)的會(huì)員國(guó)應(yīng)建立機(jī)制,由獨(dú)立的數(shù)據(jù)保護(hù)機(jī)關(guān)、行業(yè)監(jiān)督機(jī)構(gòu)和負(fù)責(zé)監(jiān)督的公共機(jī)構(gòu)等適當(dāng)監(jiān)督部門(mén)監(jiān)測(cè)人工智能系統(tǒng)的社會(huì)和經(jīng)濟(jì)影響。

63. 會(huì)員國(guó)應(yīng)增強(qiáng)司法機(jī)構(gòu)根據(jù)法治以及國(guó)際法和國(guó)際標(biāo)準(zhǔn)作出與人工智能系統(tǒng)有關(guān)決定(包括在其審議中使用人工智能系統(tǒng)的決定)的能力,同時(shí)確保堅(jiān)持人類(lèi)監(jiān)督原則。司法機(jī)關(guān)如若使用人工智能系統(tǒng),則需要有足夠的保障措施,尤其要保障對(duì)基本人權(quán)的保護(hù)、法治、司法獨(dú)立以及人類(lèi)監(jiān)督原則,并確保司法機(jī)關(guān)對(duì)人工智能系統(tǒng)的開(kāi)發(fā)和使用值得信賴(lài)、以公共利益為導(dǎo)向且以人為本。

64. 會(huì)員國(guó)應(yīng)確保政府和多邊組織在保障人工智能系統(tǒng)的安全和安保方面起到主導(dǎo)作用,并吸收多利益攸關(guān)方參與其中。具體而言,會(huì)員國(guó)、國(guó)際組織和其他相關(guān)機(jī)構(gòu)應(yīng)制定國(guó)際標(biāo)準(zhǔn),列出可衡量和可檢測(cè)的安全和透明度等級(jí),以便能夠客觀評(píng)估人工智能系統(tǒng)并確定合規(guī)水平。此外,會(huì)員國(guó)和工商企業(yè)應(yīng)對(duì)人工智能技術(shù)潛在安全和安保風(fēng)險(xiǎn)的戰(zhàn)略研究提供持續(xù)支持,并應(yīng)鼓勵(lì)透明度、可解釋性、包容和素養(yǎng)問(wèn)題研究,在不同方面和不同層面(例如技術(shù)語(yǔ)言和自然語(yǔ)言)為這些領(lǐng)域投入更多資金。

65. 會(huì)員國(guó)應(yīng)實(shí)施政策,在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)確保人工智能行為者的行動(dòng)符合國(guó)際人權(quán)法、標(biāo)準(zhǔn)和原則,同時(shí)充分考慮到當(dāng)前的文化和社會(huì)多樣性,包括地方習(xí)俗和宗教傳統(tǒng),并適當(dāng)考慮到人權(quán)的優(yōu)先性和普遍性。

66. 會(huì)員國(guó)應(yīng)建立機(jī)制,要求人工智能行為者披露并打擊人工智能系統(tǒng)結(jié)果和數(shù)據(jù)中任何類(lèi)型的陳規(guī)定型觀念,無(wú)論是設(shè)計(jì)使然還是出于疏忽,確保人工智能系統(tǒng)的訓(xùn)練數(shù)據(jù)集不會(huì)助長(zhǎng)文化、經(jīng)濟(jì)或社會(huì)不平等和偏見(jiàn),不會(huì)散播虛假信息和錯(cuò)誤信息,也不會(huì)干擾表達(dá)自由和信息獲取。應(yīng)特別關(guān)注數(shù)據(jù)匱乏地區(qū)。

67. 會(huì)員國(guó)應(yīng)實(shí)施政策,促進(jìn)并提高人工智能開(kāi)發(fā)團(tuán)隊(duì)和訓(xùn)練數(shù)據(jù)集的多樣性和包容性,以反映其人口狀況,確保人工智能技術(shù)及其惠益的平等獲取,特別是對(duì)農(nóng)村和城市地區(qū)的邊緣化群體而言。

68. 會(huì)員國(guó)應(yīng)酌情制定、審查并調(diào)整監(jiān)管框架,在人工智能系統(tǒng)生命周期的不同階段對(duì)其內(nèi)容和結(jié)果實(shí)施問(wèn)責(zé)制和責(zé)任制。會(huì)員國(guó)應(yīng)在必要時(shí)出臺(tái)責(zé)任框架或澄清對(duì)現(xiàn)有框架的解釋?zhuān)_保為人工智能系統(tǒng)的結(jié)果和性能確定責(zé)任歸屬。此外,會(huì)員國(guó)在制定監(jiān)管框架時(shí),應(yīng)特別考慮到最終責(zé)任和問(wèn)責(zé)必須總是落實(shí)到自然人或法人身上,人工智能系統(tǒng)本身不應(yīng)被賦予法人資格。為確保這一點(diǎn),此類(lèi)監(jiān)管框架應(yīng)符合人類(lèi)監(jiān)督原則,并確立著眼于人工智能系統(tǒng)生命周期不同階段的人工智能行為者和技術(shù)流程的綜合性方法。

69. 為在空白領(lǐng)域確立規(guī)范或調(diào)整現(xiàn)有的法律框架,會(huì)員國(guó)應(yīng)讓所有人工智能行為者(包括但不限于研究人員、民間社會(huì)和執(zhí)法部門(mén)的代表、保險(xiǎn)公司、投資者、制造商、工程師、律師和用戶)參與其中。這些規(guī)范可以發(fā)展成為最佳做法、法律和法規(guī)。進(jìn)一步鼓勵(lì)會(huì)員國(guó)采用樣板政策和監(jiān)管沙箱等機(jī)制,加快制定與新技術(shù)的飛速發(fā)展相適應(yīng)的法律、法規(guī)和政策,包括對(duì)其進(jìn)行定期審查,確保法律法規(guī)在正式通過(guò)之前能夠在安全環(huán)境下進(jìn)行測(cè)試。會(huì)員國(guó)應(yīng)支持地方政府制定符合國(guó)家和國(guó)際法律框架的地方政策、法規(guī)和法律。

70. 會(huì)員國(guó)應(yīng)對(duì)人工智能系統(tǒng)的透明度和可解釋性提出明確要求,以協(xié)助確保人工智能系統(tǒng)整個(gè)生命周期的可信度。此類(lèi)要求應(yīng)包括影響機(jī)制的設(shè)計(jì)和實(shí)施,其中要考慮到每個(gè)特定人工智能系統(tǒng)的應(yīng)用領(lǐng)域的性質(zhì)、預(yù)期用途、目標(biāo)受眾和可行性。

【政策領(lǐng)域 3:數(shù)據(jù)政策】

71. 會(huì)員國(guó)應(yīng)努力制定數(shù)據(jù)治理戰(zhàn)略,確保持續(xù)評(píng)估人工智能系統(tǒng)訓(xùn)練數(shù)據(jù)的質(zhì)量,包括數(shù)據(jù)收集和選擇過(guò)程的充分性、適當(dāng)?shù)臄?shù)據(jù)安全和保護(hù)措施以及從錯(cuò)誤中學(xué)習(xí)和在所有人工智能行為者之間分享最佳做法的反饋機(jī)制。

72. 會(huì)員國(guó)應(yīng)采取適當(dāng)?shù)谋U洗胧鶕?jù)國(guó)際法保護(hù)隱私權(quán),包括應(yīng)對(duì)人們對(duì)于監(jiān)控等問(wèn)題的關(guān)切。會(huì)員國(guó)尤其應(yīng)通過(guò)或?qū)嵤┛梢蕴峁┻m當(dāng)保護(hù)并符合國(guó)際法的法律框架。會(huì)員國(guó)應(yīng)大力鼓勵(lì)包括工商企業(yè)在內(nèi)的所有人工智能行為者遵守現(xiàn)行國(guó)際標(biāo)準(zhǔn),特別是在倫理影響評(píng)估中開(kāi)展適當(dāng)?shù)碾[私影響評(píng)估,其中要考慮到預(yù)期數(shù)據(jù)處理產(chǎn)生的更廣泛的社會(huì)經(jīng)濟(jì)影響,并在其系統(tǒng)中采用從設(shè)計(jì)入手保護(hù)隱私的做法。在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)應(yīng)尊重、保護(hù)和促進(jìn)隱私。

73. 會(huì)員國(guó)應(yīng)確保個(gè)人可以保留對(duì)于其個(gè)人數(shù)據(jù)的權(quán)利并得到相關(guān)框架的保護(hù),此類(lèi)框架尤其應(yīng)預(yù)見(jiàn)到以下問(wèn)題:透明度;對(duì)于處理敏感數(shù)據(jù)的適當(dāng)保障;適當(dāng)程度的數(shù)據(jù)保護(hù);有效和實(shí)際的問(wèn)責(zé)方案和機(jī)制;除符合國(guó)際法的某些情況外,數(shù)據(jù)主體對(duì)訪問(wèn)和刪除其在人工智能系統(tǒng)中個(gè)人數(shù)據(jù)的權(quán)利和能力的充分享有;數(shù)據(jù)用于商業(yè)目的(例如精準(zhǔn)定向廣告)或跨境轉(zhuǎn)移時(shí)完全符合數(shù)據(jù)保護(hù)法的適度保護(hù);切實(shí)有效的獨(dú)立監(jiān)督,作為使個(gè)人可以掌控其個(gè)人數(shù)據(jù)、尊重?cái)?shù)據(jù)主權(quán)并促進(jìn)國(guó)際信息自由流通(包括數(shù)據(jù)獲取)之惠益的數(shù)據(jù)治理機(jī)制的一部分。

74. 會(huì)員國(guó)應(yīng)制定數(shù)據(jù)政策或等效框架,或者加強(qiáng)現(xiàn)有政策或框架,以確保個(gè)人數(shù)據(jù)和敏感數(shù)據(jù)的充分安全,這類(lèi)數(shù)據(jù)一旦泄露,可能會(huì)給個(gè)人造成特殊損害、傷害或困難。相關(guān)實(shí)例包括:與犯罪、刑事訴訟、定罪以及相關(guān)安全措施有關(guān)的數(shù)據(jù);生物識(shí)別、基因和健康數(shù)據(jù);與種族、膚色、血統(tǒng)、性別、年齡、語(yǔ)言、宗教、政治見(jiàn)解、民族、族裔、社會(huì)出身、與生俱來(lái)的經(jīng)濟(jì)或社會(huì)條件、殘障情況或任何其他特征有關(guān)的個(gè)人數(shù)據(jù)。

75. 會(huì)員國(guó)應(yīng)促進(jìn)開(kāi)放數(shù)據(jù)。在這方面,會(huì)員國(guó)應(yīng)考慮審查其政策和監(jiān)管框架,包括關(guān)于信息獲取和政務(wù)公開(kāi)的政策和監(jiān)管框架,以便反映出人工智能特有的要求,并考慮促進(jìn)相關(guān)機(jī)制,例如為公共資金資助或公有的數(shù)據(jù)和源代碼以及數(shù)據(jù)信托建立開(kāi)放式存儲(chǔ)庫(kù),以支持安全、公平、合法與合乎倫理的數(shù)據(jù)分享等。

76. 會(huì)員國(guó)應(yīng)推動(dòng)和促進(jìn)將優(yōu)質(zhì)和穩(wěn)健的數(shù)據(jù)集用于訓(xùn)練、開(kāi)發(fā)和使用人工智能系統(tǒng),并在監(jiān)督數(shù)據(jù)集的收集和使用方面保持警惕。這包括在可能和可行的情況下投資建立黃金標(biāo)準(zhǔn)數(shù)據(jù)集,包括開(kāi)放、可信、多樣化、建立在有效的法律基礎(chǔ)上并且按法律要求征得數(shù)據(jù)主體同意的數(shù)據(jù)集。應(yīng)鼓勵(lì)制定數(shù)據(jù)集標(biāo)注標(biāo)準(zhǔn),包括按性別和其他標(biāo)準(zhǔn)分列數(shù)據(jù),以便于確定數(shù)據(jù)集的收集方式及其特性。

77. 按照聯(lián)合國(guó)秘書(shū)長(zhǎng)數(shù)字合作高級(jí)別小組報(bào)告的建議,會(huì)員國(guó)應(yīng)在聯(lián)合國(guó)和教科文組織的支持下,酌情采用數(shù)字共享方式處理數(shù)據(jù),提高工具、數(shù)據(jù)集和數(shù)據(jù)托管系統(tǒng)接口的互操作性,鼓勵(lì)私營(yíng)公司酌情與所有利益攸關(guān)方共享其收集的數(shù)據(jù),以促進(jìn)研究、創(chuàng)新和公共利益。會(huì)員國(guó)還應(yīng)促進(jìn)公共和私營(yíng)部門(mén)建立協(xié)作平臺(tái),在可信和安全的數(shù)據(jù)空間內(nèi)共享優(yōu)質(zhì)數(shù)據(jù)。

【政策領(lǐng)域 4:發(fā)展與國(guó)際合作】

78. 會(huì)員國(guó)和跨國(guó)公司應(yīng)優(yōu)先考慮人工智能倫理,在相關(guān)國(guó)際、政府間和多利益攸關(guān)方論壇上討論與人工智能有關(guān)的倫理問(wèn)題。

79. 會(huì)員國(guó)應(yīng)確保人工智能在教育、科學(xué)、文化、傳播和信息、衛(wèi)生保健、農(nóng)業(yè)和食品供應(yīng)、環(huán)境、自然資源和基礎(chǔ)設(shè)施管理、經(jīng)濟(jì)規(guī)劃和增長(zhǎng)等發(fā)展領(lǐng)域的應(yīng)用符合本建議書(shū)提出的價(jià)值觀和原則。

80. 會(huì)員國(guó)應(yīng)通過(guò)國(guó)際組織,努力為人工智能促進(jìn)發(fā)展提供國(guó)際合作平臺(tái),包括提供專(zhuān)業(yè)知識(shí)、資金、數(shù)據(jù)、領(lǐng)域知識(shí)和基礎(chǔ)設(shè)施,以及促進(jìn)多利益攸關(guān)方之間的合作,以應(yīng)對(duì)具有挑戰(zhàn)性的發(fā)展問(wèn)題,特別是針對(duì)中低收入國(guó)家,尤其是最不發(fā)達(dá)國(guó)家、內(nèi)陸發(fā)展中國(guó)家和小島嶼發(fā)展中國(guó)家。

81. 會(huì)員國(guó)應(yīng)努力促進(jìn)人工智能研究和創(chuàng)新方面的國(guó)際合作,包括可以提升中低收入國(guó)家和其他國(guó)家(包括最不發(fā)達(dá)國(guó)家、內(nèi)陸發(fā)展中國(guó)家和小島嶼發(fā)展中國(guó)家)研究人員的參與度和領(lǐng)導(dǎo)作用的研究和創(chuàng)新中心及網(wǎng)絡(luò)。

82. 會(huì)員國(guó)應(yīng)通過(guò)吸收國(guó)際組織、研究機(jī)構(gòu)和跨國(guó)公司參與,促進(jìn)人工智能倫理研究,可以將這些研究作為公共和私營(yíng)實(shí)體以合乎倫理的方式使用人工智能系統(tǒng)的基礎(chǔ),包括研究具體倫理框架在特定文化和背景下的適用性,以及根據(jù)這些框架開(kāi)發(fā)技術(shù)上可行的解決方案的可能性。

83. 會(huì)員國(guó)應(yīng)鼓勵(lì)在人工智能領(lǐng)域開(kāi)展國(guó)際合作與協(xié)作,以彌合地緣技術(shù)差距。應(yīng)在充分尊重國(guó)際法的前提下,在會(huì)員國(guó)與其民眾之間、公共和私營(yíng)部門(mén)之間以及技術(shù)上最先進(jìn)和最落后的國(guó)家之間,開(kāi)展技術(shù)交流和磋商。

【政策領(lǐng)域 5:環(huán)境和生態(tài)系統(tǒng)】

84. 在人工智能系統(tǒng)的整個(gè)生命周期內(nèi),會(huì)員國(guó)和工商企業(yè)應(yīng)評(píng)估對(duì)環(huán)境產(chǎn)生的直接和間接影響,包括但不限于其碳足跡、能源消耗以及為支持人工智能技術(shù)制造而開(kāi)采原材料對(duì)環(huán)境造成的影響,并應(yīng)減少人工智能系統(tǒng)和數(shù)據(jù)基礎(chǔ)設(shè)施造成的環(huán)境影響。會(huì)員國(guó)應(yīng)確保所有人工智能行為者遵守有關(guān)環(huán)境的法律、政策和慣例。

85. 會(huì)員國(guó)應(yīng)在必要和適當(dāng)時(shí)引入激勵(lì)措施,確保開(kāi)發(fā)并采用基于權(quán)利、合乎倫理、由人工智能驅(qū)動(dòng)的解決方案抵御災(zāi)害風(fēng)險(xiǎn);監(jiān)測(cè)和保護(hù)環(huán)境與生態(tài)系統(tǒng),并促進(jìn)其再生;保護(hù)地球。這些人工智能系統(tǒng)應(yīng)在其整個(gè)生命周期內(nèi)讓地方和土著社區(qū)參與,并應(yīng)支持循環(huán)經(jīng)濟(jì)做法以及可持續(xù)的消費(fèi)和生產(chǎn)模式。

例如,在必要和適當(dāng)時(shí)可將人工智能系統(tǒng)用于以下方面:

(a) 支持自然資源的保護(hù)、監(jiān)測(cè)和管理。

(b) 支持與氣候有關(guān)問(wèn)題的預(yù)測(cè)、預(yù)防、控制和減緩。

(c) 支持更加高效和可持續(xù)的糧食生態(tài)系統(tǒng)。

(d) 支持可持續(xù)能源的加速獲取和大規(guī)模采用。

(e) 促成并推動(dòng)旨在促進(jìn)可持續(xù)發(fā)展的可持續(xù)基礎(chǔ)設(shè)施、可持續(xù)商業(yè)模式和可持續(xù)金融主流化。

(f) 檢測(cè)污染物或預(yù)測(cè)污染程度,協(xié)助相關(guān)利益攸關(guān)方確定、規(guī)劃并實(shí)施有針對(duì)性的干預(yù)措施,防止并減少污染及曝露風(fēng)險(xiǎn)。

86. 會(huì)員國(guó)在選擇人工智能方法時(shí),鑒于其中一些方法可能具有數(shù)據(jù)密集型或資源密集型特點(diǎn)以及對(duì)環(huán)境產(chǎn)生的不同影響,應(yīng)確保人工智能行為者能夠根據(jù)相稱(chēng)性原則,傾向于使用節(jié)約數(shù)據(jù)、能源和資源的人工智能方法。應(yīng)制定要求,確保有適當(dāng)證據(jù)表明一項(xiàng)人工智能應(yīng)用程序?qū)a(chǎn)生這種預(yù)期效果,或一項(xiàng)人工智能應(yīng)用程序的附加保障措施可以為使用該應(yīng)用程序的合理性提供支撐。假如做不到這一點(diǎn),則必須遵循預(yù)防原則,而且在會(huì)對(duì)環(huán)境造成極其嚴(yán)重的負(fù)面影響的情況下,不得使用人工智能。

【政策領(lǐng)域 6:性別】

87. 會(huì)員國(guó)應(yīng)確保數(shù)字技術(shù)和人工智能促進(jìn)實(shí)現(xiàn)性別平等的潛能得到充分發(fā)揮,而且必須確保在人工智能系統(tǒng)生命周期的任何階段,女童和婦女的人權(quán)和基本自由及其安全和人格不受侵犯。此外,倫理影響評(píng)估應(yīng)包含橫向性別平等視角。

88. 會(huì)員國(guó)應(yīng)從公共預(yù)算中劃撥專(zhuān)項(xiàng)資金,用于資助促進(jìn)性別平等的計(jì)劃,確保國(guó)家數(shù)字政策包含性別行動(dòng)計(jì)劃,并制定旨在支持女童和婦女的相關(guān)政策,例如勞動(dòng)力教育政策,以確保她們不會(huì)被排除在人工智能驅(qū)動(dòng)的數(shù)字經(jīng)濟(jì)之外。應(yīng)考慮并落實(shí)專(zhuān)項(xiàng)投資,用于提供有針對(duì)性的計(jì)劃和有性別針對(duì)性的語(yǔ)言,從而為女童和婦女參與科學(xué)、技術(shù)、工程和數(shù)學(xué)(STEM)領(lǐng)域,包括信息和通信技術(shù)(信通技術(shù))學(xué)科,以及為她們的就業(yè)準(zhǔn)備、就業(yè)能力、平等的職業(yè)發(fā)展和專(zhuān)業(yè)成長(zhǎng),提供更多機(jī)會(huì)。

89. 會(huì)員國(guó)應(yīng)確保人工智能系統(tǒng)推動(dòng)實(shí)現(xiàn)性別平等的潛能得到實(shí)現(xiàn)。會(huì)員國(guó)應(yīng)確保這些技術(shù)不會(huì)加劇,而是消除模擬世界多個(gè)領(lǐng)域中已經(jīng)存在的巨大性別差距。這些差距包括:性別工資差距;某些職業(yè)和活動(dòng)中不平等的代表性;人工智能領(lǐng)域高級(jí)管理職位、董事會(huì)或研究團(tuán)隊(duì)中的代表性缺失;教育差距;數(shù)字和人工智能的獲取、采用、使用和負(fù)擔(dān)能力方面的差距;以及無(wú)償工作和照料責(zé)任在社會(huì)中的不平等分配。

90. 會(huì)員國(guó)應(yīng)確保性別陳規(guī)定型觀念和歧視性偏見(jiàn)不會(huì)被移植入人工智能系統(tǒng),而且還應(yīng)對(duì)其加以鑒別和主動(dòng)糾正。必須努力避免技術(shù)鴻溝對(duì)以下方面產(chǎn)生復(fù)合性負(fù)面影響:實(shí)現(xiàn)性別平等和避免暴力侵害,例如針對(duì)婦女和女童以及代表性不足群體的騷擾、欺凌和販運(yùn),包括在線上領(lǐng)域。

91. 會(huì)員國(guó)應(yīng)鼓勵(lì)女性創(chuàng)業(yè)、參與并介入人工智能系統(tǒng)生命周期的各個(gè)階段,具體辦法是提供并促進(jìn)經(jīng)濟(jì)和監(jiān)管方面的激勵(lì)措施以及其他激勵(lì)措施和支持計(jì)劃,制定目的是在學(xué)術(shù)界的人工智能研究方面實(shí)現(xiàn)性別均衡的參與、在數(shù)字和人工智能公司高級(jí)管理職位、董事會(huì)和研究團(tuán)隊(duì)中實(shí)現(xiàn)性別均衡的代表性的政策。會(huì)員國(guó)應(yīng)確保(用于創(chuàng)新、研究和技術(shù)的)公共資金流向具有包容性和明確的性別代表性的計(jì)劃和公司,并利用平權(quán)行動(dòng)原則鼓勵(lì)私人資金朝著類(lèi)似方向流動(dòng)。應(yīng)制定并執(zhí)行關(guān)于無(wú)騷擾環(huán)境的政策,同時(shí)鼓勵(lì)傳播關(guān)于如何在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)促進(jìn)多樣性的最佳做法。

92. 會(huì)員國(guó)應(yīng)促進(jìn)學(xué)術(shù)界和產(chǎn)業(yè)界人工智能研究領(lǐng)域的性別多樣性,為女童和婦女進(jìn)入該領(lǐng)域提供激勵(lì)措施,建立機(jī)制消除人工智能研究界的性別陳規(guī)定型觀念和騷擾行為,并鼓勵(lì)學(xué)術(shù)界和私營(yíng)實(shí)體分享關(guān)于如何提高性別多樣性的最佳做法。

93. 教科文組織可以協(xié)助建立最佳做法資料庫(kù),鼓勵(lì)女童、婦女和代表性不足的群體參與人工智能系統(tǒng)生命周期的各個(gè)階段。

【政策領(lǐng)域 7:文化】

94. 鼓勵(lì)會(huì)員國(guó)酌情將人工智能系統(tǒng)納入物質(zhì)、文獻(xiàn)和非物質(zhì)文化遺產(chǎn)(包括瀕危語(yǔ)言以及土著語(yǔ)言和知識(shí))的保護(hù)、豐富、理解、推廣、管理和獲取工作,具體辦法包括酌情出臺(tái)或更新與在這些領(lǐng)域應(yīng)用人工智能系統(tǒng)有關(guān)的教育計(jì)劃,以及確保采用針對(duì)機(jī)構(gòu)和公眾的參與式方法。

95. 鼓勵(lì)會(huì)員國(guó)審查并應(yīng)對(duì)人工智能系統(tǒng)產(chǎn)生的文化影響,特別是自動(dòng)翻譯和語(yǔ)音助手等自然語(yǔ)言處理(NLP)應(yīng)用程序給人類(lèi)語(yǔ)言和表達(dá)的細(xì)微差別帶來(lái)的影響。此類(lèi)評(píng)估應(yīng)為設(shè)計(jì)和實(shí)施相關(guān)戰(zhàn)略提供參考,通過(guò)彌合文化差距、增進(jìn)人類(lèi)理解以及消除因減少使用自然語(yǔ)言等因素造成的負(fù)面影響,最大限度地發(fā)揮人工智能系統(tǒng)的惠益。減少使用自然語(yǔ)言可能導(dǎo)致瀕危語(yǔ)言、地方方言以及與人類(lèi)語(yǔ)言和表達(dá)形式有關(guān)的語(yǔ)音和文化差異的消失。

96. 隨著人工智能技術(shù)被用于創(chuàng)造、生產(chǎn)、推廣、傳播和消費(fèi)多種文化產(chǎn)品和服務(wù),會(huì)員國(guó)應(yīng)促進(jìn)針對(duì)藝術(shù)家和創(chuàng)意從業(yè)人員的人工智能教育和數(shù)字培訓(xùn),以評(píng)估人工智能技術(shù)在其專(zhuān)業(yè)領(lǐng)域的適用性,并推動(dòng)設(shè)計(jì)和應(yīng)用適當(dāng)?shù)娜斯ぶ悄芗夹g(shù),同時(shí)銘記保護(hù)文化遺產(chǎn)、多樣性和藝術(shù)自由的重要性。

97. 會(huì)員國(guó)應(yīng)促進(jìn)當(dāng)?shù)匚幕a(chǎn)業(yè)和文化領(lǐng)域的中小企業(yè)對(duì)于人工智能工具的認(rèn)識(shí)和評(píng)價(jià),避免文化市場(chǎng)集中化的風(fēng)險(xiǎn)。

98. 會(huì)員國(guó)應(yīng)吸收技術(shù)公司和其他利益攸關(guān)方參與進(jìn)來(lái),促進(jìn)文化表現(xiàn)形式的多樣化供應(yīng)和多元化獲取,特別要確保算法建議可以提高本地內(nèi)容的知名度和可見(jiàn)性。

99. 會(huì)員國(guó)應(yīng)促進(jìn)在人工智能和知識(shí)產(chǎn)權(quán)的交匯點(diǎn)上開(kāi)展新的研究,例如確定是否或如何對(duì)通過(guò)人工智能技術(shù)創(chuàng)作的作品給予知識(shí)產(chǎn)權(quán)保護(hù)。會(huì)員國(guó)還應(yīng)評(píng)估人工智能技術(shù)如何影響作品被用于研究、開(kāi)發(fā)、培訓(xùn)或?qū)嵤┤斯ぶ悄軕?yīng)用程序的知識(shí)產(chǎn)權(quán)所有者的權(quán)利或利益。

100. 會(huì)員國(guó)應(yīng)鼓勵(lì)國(guó)家級(jí)博物館、美術(shù)館、圖書(shū)館和檔案館使用人工智能系統(tǒng),以突出其藏品,強(qiáng)化其圖書(shū)館、數(shù)據(jù)庫(kù)和知識(shí)庫(kù),并允許用戶訪問(wèn)。

【政策領(lǐng)域 8:教育和研究】

101. 會(huì)員國(guó)應(yīng)與國(guó)際組織、教育機(jī)構(gòu)、私營(yíng)實(shí)體和非政府實(shí)體合作,在各個(gè)層面向所有國(guó)家的公眾提供充分的人工智能素養(yǎng)教育,以增強(qiáng)人們的權(quán)能,減少因廣泛采用人工智能系統(tǒng)而造成的數(shù)字鴻溝和數(shù)字獲取方面的不平等。

102. 會(huì)員國(guó)應(yīng)促進(jìn)人工智能教育“必備技能”的掌握,例如基本讀寫(xiě)、計(jì)算、編碼和數(shù)字技能、媒體與信息素養(yǎng)、批判性思維和創(chuàng)意思維、團(tuán)隊(duì)合作、溝通、社會(huì)情感技能和人工智能倫理技能,特別是在相關(guān)技能教育存在明顯差距的國(guó)家及國(guó)內(nèi)地區(qū)或區(qū)域。

103. 會(huì)員國(guó)應(yīng)促進(jìn)關(guān)于人工智能發(fā)展的一般性宣傳計(jì)劃,其中包括數(shù)據(jù)、人工智能技術(shù)帶來(lái)的機(jī)會(huì)和挑戰(zhàn)、人工智能系統(tǒng)對(duì)人權(quán)(包括兒童權(quán)利)的影響及其意義。這些計(jì)劃對(duì)于非技術(shù)群體和技術(shù)群體來(lái)說(shuō)都應(yīng)簡(jiǎn)明易懂。

104. 會(huì)員國(guó)應(yīng)鼓勵(lì)開(kāi)展關(guān)于以負(fù)責(zé)任和合乎倫理的方式將人工智能技術(shù)應(yīng)用于教學(xué)、教師培訓(xùn)和電子學(xué)習(xí)等方面的研究活動(dòng),以增加機(jī)會(huì),減輕這一領(lǐng)域的挑戰(zhàn)和風(fēng)險(xiǎn)。在開(kāi)展這些研究活動(dòng)的同時(shí),應(yīng)充分評(píng)估教育質(zhì)量以及人工智能技術(shù)的應(yīng)用對(duì)于學(xué)生和教師的影響。會(huì)員國(guó)還應(yīng)確保人工智能技術(shù)可以增強(qiáng)師生的權(quán)能和體驗(yàn),同時(shí)銘記關(guān)系和社交方面以及傳統(tǒng)教育形式的價(jià)值對(duì)于師生關(guān)系以及學(xué)生之間的關(guān)系至關(guān)重要,在討論將人工智能技術(shù)應(yīng)用于教育時(shí)應(yīng)考慮到這一點(diǎn)。當(dāng)涉及到監(jiān)測(cè)、評(píng)估能力或預(yù)測(cè)學(xué)習(xí)者的行為時(shí),用于學(xué)習(xí)的人工智能系統(tǒng)應(yīng)符合嚴(yán)格的要求。人工智能應(yīng)依照相關(guān)的個(gè)人數(shù)據(jù)保護(hù)標(biāo)準(zhǔn)支持學(xué)習(xí)過(guò)程,既不降低認(rèn)知能力,也不提取敏感信息。在學(xué)習(xí)者與人工智能系統(tǒng)的互動(dòng)過(guò)程中收集到的為獲取知識(shí)而提交的數(shù)據(jù),不得被濫用、挪用或用于犯罪,包括用于商業(yè)目的。

105. 會(huì)員國(guó)應(yīng)提升女童和婦女、不同族裔和文化、殘障人士、邊緣化和弱勢(shì)群體或處境脆弱群體、少數(shù)群體以及沒(méi)能充分得益于數(shù)字包容的所有人在各級(jí)人工智能教育計(jì)劃中的參與度和領(lǐng)導(dǎo)作用,監(jiān)測(cè)并與其他國(guó)家分享這方面的最佳做法。

106. 會(huì)員國(guó)應(yīng)根據(jù)本國(guó)教育計(jì)劃和傳統(tǒng),為各級(jí)教育開(kāi)發(fā)人工智能倫理課程,促進(jìn)人工智能技術(shù)技能教育與人工智能教育的人文、倫理和社會(huì)方面的交叉協(xié)作。應(yīng)以當(dāng)?shù)卣Z(yǔ)言(包括土著語(yǔ)言)開(kāi)發(fā)人工智能倫理教育的在線課程和數(shù)字資源,并考慮到環(huán)境多樣性,特別要確保采用殘障人士可以使用的格式。

107. 會(huì)員國(guó)應(yīng)促進(jìn)并支持人工智能研究,特別是人工智能倫理問(wèn)題研究,具體辦法包括投資于此類(lèi)研究或制定激勵(lì)措施推動(dòng)公共和私營(yíng)部門(mén)投資于這一領(lǐng)域等,同時(shí)承認(rèn)此類(lèi)研究可極大地推動(dòng)人工智能技術(shù)的進(jìn)一步發(fā)展和完善,以促進(jìn)落實(shí)國(guó)際法和本建議書(shū)中提出的價(jià)值觀和原則。會(huì)員國(guó)還應(yīng)公開(kāi)推廣以合乎倫理的方式開(kāi)發(fā)人工智能的研究人員和公司的最佳做法,并與之合作。

108. 會(huì)員國(guó)應(yīng)確保人工智能研究人員接受過(guò)研究倫理培訓(xùn),并要求他們將倫理考量納入設(shè)計(jì)、產(chǎn)品和出版物中,特別是在分析其使用的數(shù)據(jù)集、數(shù)據(jù)集的標(biāo)注方法以及可能投入應(yīng)用的成果的質(zhì)量和范圍方面。

109. 會(huì)員國(guó)應(yīng)鼓勵(lì)私營(yíng)公司為科學(xué)界獲取其數(shù)據(jù)用于研究提供便利,特別是在中低收入國(guó)家,尤其是最不發(fā)達(dá)國(guó)家、內(nèi)陸發(fā)展中國(guó)家和小島嶼發(fā)展中國(guó)家。這種獲取應(yīng)遵守相關(guān)隱私和數(shù)據(jù)保護(hù)標(biāo)準(zhǔn)。

110. 為確保對(duì)人工智能研究進(jìn)行批判性評(píng)估并適當(dāng)監(jiān)測(cè)可能出現(xiàn)的濫用或負(fù)面影響,會(huì)員國(guó)應(yīng)確保人工智能技術(shù)今后的任何發(fā)展都應(yīng)建立在嚴(yán)謹(jǐn)和獨(dú)立的科學(xué)研究基礎(chǔ)上,并吸收除科學(xué)、技術(shù)、工程和數(shù)學(xué)(STEM)之外的其他學(xué)科,例如文化研究、教育、倫理學(xué)、國(guó)際關(guān)系、法律、語(yǔ)言學(xué)、哲學(xué)、政治學(xué)、社會(huì)學(xué)和心理學(xué)等,促進(jìn)開(kāi)展跨學(xué)科的人工智能研究。

111. 認(rèn)識(shí)到人工智能技術(shù)為助力推進(jìn)科學(xué)知識(shí)和實(shí)踐提供了大好機(jī)會(huì),特別是在以往采用模型驅(qū)動(dòng)方法的學(xué)科中,會(huì)員國(guó)應(yīng)鼓勵(lì)科學(xué)界認(rèn)識(shí)到使用人工智能的惠益、不足和風(fēng)險(xiǎn);這包括努力確保通過(guò)數(shù)據(jù)驅(qū)動(dòng)的方法、模型和處理方式得出的結(jié)論完善可靠。此外,會(huì)員國(guó)應(yīng)歡迎并支持科學(xué)界在為政策建言獻(xiàn)策和促進(jìn)人們認(rèn)識(shí)到人工智能技術(shù)的優(yōu)缺點(diǎn)方面發(fā)揮作用。

【政策領(lǐng)域 9:傳播和信息】

112. 會(huì)員國(guó)應(yīng)利用人工智能系統(tǒng)改善信息和知識(shí)的獲取。這可包括向研究人員、學(xué)術(shù)界、記者、公眾和開(kāi)發(fā)人員提供支持,以加強(qiáng)表達(dá)自由、學(xué)術(shù)和科學(xué)自由、信息獲取,加大主動(dòng)披露官方數(shù)據(jù)和信息的力度。

113. 在自動(dòng)內(nèi)容生成、審核和策管方面,會(huì)員國(guó)應(yīng)確保人工智能行為者尊重并促進(jìn)表達(dá)自由和信息獲取自由。適當(dāng)?shù)目蚣埽ūO(jiān)管,應(yīng)讓線上通信和信息運(yùn)營(yíng)商具有透明度,并確保用戶能夠獲取多樣化的觀點(diǎn),以及迅速告知用戶為何對(duì)內(nèi)容進(jìn)行刪除或其他處理的相關(guān)程序和讓用戶能夠?qū)で笱a(bǔ)救的申訴機(jī)制。

114. 會(huì)員國(guó)應(yīng)投資于并促進(jìn)數(shù)字以及媒體與信息素養(yǎng)技能,加強(qiáng)理解人工智能系統(tǒng)的使用和影響所需的批判性思維和能力,從而減少和打擊虛假信息、錯(cuò)誤信息和仇恨言論。此種努力應(yīng)包括加強(qiáng)對(duì)推薦系統(tǒng)的積極和潛在有害影響的了解和評(píng)估。

115. 會(huì)員國(guó)應(yīng)為媒體創(chuàng)造有利的環(huán)境,使媒體有權(quán)利和資源切實(shí)有效地報(bào)道人工智能系統(tǒng)的利弊,并鼓勵(lì)媒體在其業(yè)務(wù)中以合乎倫理的方式使用人工智能系統(tǒng)。

【政策領(lǐng)域 10:經(jīng)濟(jì)和勞動(dòng)】

116. 會(huì)員國(guó)應(yīng)評(píng)估并處理人工智能系統(tǒng)對(duì)所有國(guó)家勞動(dòng)力市場(chǎng)的沖擊及其對(duì)教育要求的影響,同時(shí)特別關(guān)注經(jīng)濟(jì)屬于勞動(dòng)密集型的國(guó)家。這可以包括在各級(jí)教育中引入更廣泛的跨學(xué)科“核心”技能,為當(dāng)前的勞動(dòng)者和年輕世代提供可以在飛速變化的市場(chǎng)中找到工作的公平機(jī)會(huì),并確保他們對(duì)于人工智能系統(tǒng)的倫理問(wèn)題有所認(rèn)識(shí)。除了傳授專(zhuān)業(yè)技術(shù)技能和低技能任務(wù)知識(shí)之外,還應(yīng)教授“學(xué)會(huì)如何學(xué)習(xí)”、溝通、批判性思維、團(tuán)隊(duì)合作、同理心以及在不同領(lǐng)域之間靈活運(yùn)用知識(shí)的能力等技能。關(guān)鍵是要在有高需求的技能方面保持透明度,并圍繞這些技能更新學(xué)校課程。

117. 會(huì)員國(guó)應(yīng)支持政府、學(xué)術(shù)機(jī)構(gòu)、職業(yè)教育與培訓(xùn)機(jī)構(gòu)、產(chǎn)業(yè)界、勞工組織和民間社會(huì)之間的合作協(xié)議,以彌合技能要求方面的差距,讓培訓(xùn)計(jì)劃和戰(zhàn)略與未來(lái)工作的影響和包括中小企業(yè)在內(nèi)的產(chǎn)業(yè)界的需求保持一致。應(yīng)促進(jìn)以項(xiàng)目為基礎(chǔ)的人工智能教學(xué)和學(xué)習(xí)方法,以便公共機(jī)構(gòu)、私營(yíng)公司、大學(xué)和研究中心之間能夠建立伙伴關(guān)系118. 會(huì)員國(guó)應(yīng)與私營(yíng)公司、民間組織和其他利益攸關(guān)方(包括勞動(dòng)者和工會(huì))合作,確保高風(fēng)險(xiǎn)員工可以實(shí)現(xiàn)公平轉(zhuǎn)型。這包括制定技能提升計(jì)劃和技能重塑計(jì)劃,建立在過(guò)渡期內(nèi)保留員工的有效機(jī)制,以及為無(wú)法得到再培訓(xùn)的員工探索嘗試“安全網(wǎng)”計(jì)劃。會(huì)員國(guó)應(yīng)制定并實(shí)施計(jì)劃,以研究和應(yīng)對(duì)已確定的各項(xiàng)挑戰(zhàn),其中可能包括技能提升和技能重塑、加強(qiáng)社會(huì)保障、主動(dòng)的行業(yè)政策和干預(yù)措施、稅收優(yōu)惠、新的稅收形式等。會(huì)員國(guó)應(yīng)確保有足夠的公共資金來(lái)支持這些計(jì)劃。應(yīng)審慎審查并在必要時(shí)修改稅制等相關(guān)法規(guī),消解基于人工智能的自動(dòng)化造成的失業(yè)后果。

119. 會(huì)員國(guó)應(yīng)鼓勵(lì)并支持研究人員分析人工智能系統(tǒng)對(duì)于當(dāng)?shù)貏趧?dòng)環(huán)境的影響,以預(yù)測(cè)未來(lái)的趨勢(shì)和挑戰(zhàn)。這些研究應(yīng)采用跨學(xué)科方法,調(diào)查人工智能系統(tǒng)對(duì)經(jīng)濟(jì)、社會(huì)和地域因素、人機(jī)互動(dòng)和人際關(guān)系產(chǎn)生的影響,以便就技能重塑和重新部署的最佳做法提出建議。

120. 會(huì)員國(guó)應(yīng)采取適當(dāng)措施,確保競(jìng)爭(zhēng)性市場(chǎng)和消費(fèi)者保護(hù),同時(shí)考慮可在國(guó)家、地區(qū)和國(guó)際各級(jí)采取何種措施和機(jī)制來(lái)防止在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)濫用與人工智能系統(tǒng)有關(guān)的市場(chǎng)支配地位,包括壟斷,無(wú)論是數(shù)據(jù)、研究、技術(shù)還是市場(chǎng)壟斷。會(huì)員國(guó)應(yīng)防止由此造成的不平等,評(píng)估相關(guān)市場(chǎng),并促進(jìn)競(jìng)爭(zhēng)性市場(chǎng)。應(yīng)適當(dāng)考慮中低收入國(guó)家,尤其是最不發(fā)達(dá)國(guó)家、內(nèi)陸發(fā)展中國(guó)家和小島嶼發(fā)展中國(guó)家,這些國(guó)家由于缺乏基礎(chǔ)設(shè)施、人力資源能力和規(guī)章制度等要素,面臨濫用市場(chǎng)支配地位行為的風(fēng)險(xiǎn)更大,也更容易因之受到影響。

在已制定或通過(guò)人工智能倫理標(biāo)準(zhǔn)的國(guó)家從事人工智能系統(tǒng)開(kāi)發(fā)的人工智能行為者,在出口這些產(chǎn)品以及在可能沒(méi)有此類(lèi)標(biāo)準(zhǔn)的國(guó)家開(kāi)發(fā)或應(yīng)用其人工智能系統(tǒng)時(shí),應(yīng)遵守這些標(biāo)準(zhǔn),并遵守適用的國(guó)際法以及這些國(guó)家的國(guó)內(nèi)立法、標(biāo)準(zhǔn)和慣例。

【政策領(lǐng)域 11:健康和社會(huì)福祉】

121. 會(huì)員國(guó)應(yīng)努力利用有效的人工智能系統(tǒng)來(lái)改善人類(lèi)健康并保護(hù)生命權(quán),包括減少疾病的爆發(fā),同時(shí)建立并維護(hù)國(guó)際團(tuán)結(jié),以應(yīng)對(duì)全球健康風(fēng)險(xiǎn)和不確定性,并確保在衛(wèi)生保健領(lǐng)域采用人工智能系統(tǒng)的做法符合國(guó)際法及其人權(quán)法義務(wù)。會(huì)員國(guó)應(yīng)確保參與衛(wèi)生保健人工智能系統(tǒng)的行為者會(huì)考慮到患者與家屬的關(guān)系以及患者與醫(yī)護(hù)人員關(guān)系的重要性。

122. 會(huì)員國(guó)應(yīng)確保與健康、特別是精神健康有關(guān)的人工智能系統(tǒng)的開(kāi)發(fā)和部署適當(dāng)關(guān)注兒童和青年,并受到監(jiān)管,使其做到安全、有效、高效、經(jīng)過(guò)科學(xué)和醫(yī)學(xué)證明并能促進(jìn)循證創(chuàng)新和醫(yī)學(xué)進(jìn)步。此外,在數(shù)字健康干預(yù)的相關(guān)領(lǐng)域,大力鼓勵(lì)會(huì)員國(guó)主動(dòng)讓患者及其代表參與系統(tǒng)開(kāi)發(fā)的所有相關(guān)步驟。

123. 會(huì)員國(guó)應(yīng)特別注意通過(guò)以下方式規(guī)范人工智能應(yīng)用程序中用于衛(wèi)生保健的預(yù)測(cè)、檢測(cè)和治療方案:

(a) 確保監(jiān)督,以盡可能減少和減輕偏見(jiàn);

(b) 在開(kāi)發(fā)算法時(shí),確保在所有相關(guān)階段將專(zhuān)業(yè)人員、患者、護(hù)理人員或服務(wù)用戶作為“領(lǐng)域?qū)<摇奔{入團(tuán)隊(duì);

(c) 適當(dāng)注意因可能需要醫(yī)學(xué)監(jiān)測(cè)而產(chǎn)生的隱私問(wèn)題,并確保所有相關(guān)的國(guó)家和國(guó)際數(shù)據(jù)保護(hù)要求得到滿足;

(d) 確保建立有效機(jī)制,讓被分析的數(shù)據(jù)主體了解對(duì)其個(gè)人數(shù)據(jù)的使用和分析并給予知情同意,同時(shí)又不妨礙他們獲取衛(wèi)生保健服務(wù);

(e) 確保人工護(hù)理以及最終的診斷和治療決定一律由人類(lèi)作出,同時(shí)肯定人工智能系統(tǒng)也可以協(xié)助人類(lèi)工作;

(f) 必要時(shí)確保在投入臨床使用之前由倫理研究委員會(huì)對(duì)人工智能系統(tǒng)進(jìn)行審查。

124. 會(huì)員國(guó)應(yīng)研究人工智能系統(tǒng)對(duì)于心理健康的潛在危害所產(chǎn)生的影響及如何加以調(diào)控的問(wèn)題,例如深度抑郁、焦慮、社會(huì)隔離、成癮、販運(yùn)、激進(jìn)化和誤導(dǎo)等。

125. 會(huì)員國(guó)應(yīng)在研究的基礎(chǔ)上,針對(duì)機(jī)器人的未來(lái)發(fā)展,制定關(guān)于人機(jī)互動(dòng)及其對(duì)人際關(guān)系所產(chǎn)生影響的準(zhǔn)則,并特別關(guān)注人類(lèi)身心健康。尤其應(yīng)關(guān)注應(yīng)用于衛(wèi)生保健以及老年人和殘障人士護(hù)理的機(jī)器人、應(yīng)用于教育的機(jī)器人、兒童用機(jī)器人、玩具機(jī)器人、聊天機(jī)器人以及兒童和成人的陪伴機(jī)器人的使用問(wèn)題。此外,應(yīng)利用人工智能技術(shù)的協(xié)助來(lái)提高機(jī)器人的安全性,增進(jìn)其符合人體工程學(xué)的使用,包括在人機(jī)工作環(huán)境中。應(yīng)特別注意到利用人工智能操控和濫用人類(lèi)認(rèn)知偏差的可能性。

126. 會(huì)員國(guó)應(yīng)確保人機(jī)互動(dòng)遵守適用于任何其他人工智能系統(tǒng)的相同價(jià)值觀和原則,包括人權(quán)和基本自由、促進(jìn)多樣性和保護(hù)弱勢(shì)群體或處境脆弱群體。應(yīng)考慮與人工智能驅(qū)動(dòng)的神經(jīng)技術(shù)系統(tǒng)和腦機(jī)接口有關(guān)的倫理問(wèn)題,以維護(hù)人的尊嚴(yán)和自主權(quán)。

127. 會(huì)員國(guó)應(yīng)確保用戶能夠輕松識(shí)別與自己互動(dòng)的對(duì)象是生物,還是模仿人類(lèi)或動(dòng)物特征的人工智能系統(tǒng),并且能夠有效拒絕此類(lèi)互動(dòng)和要求人工介入。

128. 會(huì)員國(guó)應(yīng)實(shí)施政策,提高人們對(duì)于人工智能技術(shù)以及能夠識(shí)別和模仿人類(lèi)情緒的技術(shù)擬人化的認(rèn)識(shí),包括在提及這些技術(shù)時(shí)所使用的語(yǔ)言,并評(píng)估這種擬人化的表現(xiàn)形式、倫理影響和可能存在的局限性,特別是在人機(jī)互動(dòng)的情況下和涉及到兒童時(shí)。

129. 會(huì)員國(guó)應(yīng)鼓勵(lì)并促進(jìn)關(guān)于人與人工智能系統(tǒng)長(zhǎng)期互動(dòng)所產(chǎn)生影響的合作研究,特別注意這些系統(tǒng)對(duì)兒童和青年的心理和認(rèn)知可能產(chǎn)生的影響。在開(kāi)展此類(lèi)研究時(shí),應(yīng)采用多種規(guī)范、原則、協(xié)議、學(xué)科方法,評(píng)估行為和習(xí)慣的改變,并審慎評(píng)估下游的文化和社會(huì)影響。

此外,會(huì)員國(guó)應(yīng)鼓勵(lì)研究人工智能技術(shù)對(duì)于衛(wèi)生系統(tǒng)的業(yè)績(jī)和衛(wèi)生結(jié)果產(chǎn)生的影響。

130. 會(huì)員國(guó)和所有利益攸關(guān)方應(yīng)建立機(jī)制,讓兒童和青年切實(shí)參與到關(guān)于人工智能系統(tǒng)對(duì)其生活和未來(lái)所產(chǎn)生影響的對(duì)話、辯論和決策中。

五、監(jiān)測(cè)和評(píng)估

131. 會(huì)員國(guó)應(yīng)根據(jù)本國(guó)具體國(guó)情、治理結(jié)構(gòu)和憲法規(guī)定,采用定量和定性相結(jié)合的方法,以可信和透明的方式監(jiān)測(cè)和評(píng)估與人工智能倫理問(wèn)題有關(guān)的政策、計(jì)劃和機(jī)制。為支持會(huì)員國(guó),教科文組織可以從以下方面作出貢獻(xiàn):

(a) 制定以嚴(yán)謹(jǐn)?shù)目茖W(xué)研究為基礎(chǔ)且以國(guó)際人權(quán)法為根據(jù)的教科文組織人工智能技術(shù)倫理影響評(píng)估(EIA)方法,關(guān)于在人工智能系統(tǒng)生命周期各個(gè)階段實(shí)施該方法的指南,以及用于支持會(huì)員國(guó)對(duì)政府官員、政策制定者和其他相關(guān)人工智能行為者進(jìn)行倫理影響評(píng)估方法培訓(xùn)的能力建設(shè)材料;

(b) 制定教科文組織準(zhǔn)備狀態(tài)評(píng)估方法,協(xié)助會(huì)員國(guó)確定其準(zhǔn)備進(jìn)程各個(gè)方面在特定時(shí)刻的所處狀態(tài);

(c) 制定教科文組織關(guān)于在事先和事后對(duì)照既定目標(biāo)評(píng)估人工智能倫理政策和激勵(lì)政策效力和效率的方法;

(d) 加強(qiáng)關(guān)于人工智能倫理政策的基于研究和證據(jù)的分析和報(bào)告;

(e) 收集和傳播關(guān)于人工智能倫理政策的進(jìn)展、創(chuàng)新、研究報(bào)告、科學(xué)出版物、數(shù)據(jù)和統(tǒng)計(jì)資料,包括通過(guò)現(xiàn)有舉措,以支持最佳做法分享和相互學(xué)習(xí),推動(dòng)實(shí)施本建議書(shū)。

132. 監(jiān)測(cè)和評(píng)估進(jìn)程應(yīng)確保所有利益攸關(guān)方的廣泛參與,包括但不限于弱勢(shì)群體或處境脆弱群體。應(yīng)確保社會(huì)、文化和性別多樣性,以期改善學(xué)習(xí)過(guò)程,加強(qiáng)調(diào)查結(jié)果、決策、透明度和成果問(wèn)責(zé)制之間的聯(lián)系。

133. 為促進(jìn)與人工智能倫理有關(guān)的最佳政策和做法,應(yīng)制定適當(dāng)?shù)墓ぞ吆椭笜?biāo),以便根據(jù)商定的標(biāo)準(zhǔn)、優(yōu)先事項(xiàng)和具體目標(biāo),包括關(guān)于處境不利者、邊緣化群體和弱勢(shì)群體或處境脆弱群體的具體目標(biāo),評(píng)估此類(lèi)政策和做法的效力和效率,以及人工智能系統(tǒng)在個(gè)人和社會(huì)層面產(chǎn)生的影響。人工智能系統(tǒng)及相關(guān)人工智能倫理政策和做法的影響監(jiān)測(cè)和評(píng)估應(yīng)以與有關(guān)風(fēng)險(xiǎn)相稱(chēng)的系統(tǒng)方法持續(xù)開(kāi)展。這項(xiàng)工作應(yīng)以國(guó)際商定的框架為基礎(chǔ),涉及對(duì)于私營(yíng)和公共機(jī)構(gòu)、提供方和計(jì)劃的評(píng)估,包括自我評(píng)估,以及開(kāi)展跟蹤研究和制定一系列指標(biāo)。數(shù)據(jù)收集和處理工作應(yīng)遵守國(guó)際法、關(guān)于數(shù)據(jù)保護(hù)和數(shù)據(jù)隱私的國(guó)家立法以及本建議書(shū)概述的價(jià)值觀和原則。

134. 尤其是,會(huì)員國(guó)不妨考慮可行的監(jiān)測(cè)和評(píng)估機(jī)制,例如:倫理問(wèn)題委員會(huì)、人工智能倫理問(wèn)題觀察站、記錄符合人權(quán)與合乎倫理的人工智能系統(tǒng)發(fā)展情況或在教科文組織各職能領(lǐng)域通過(guò)恪守倫理原則為現(xiàn)有舉措作出貢獻(xiàn)的資料庫(kù)、經(jīng)驗(yàn)分享機(jī)制、人工智能監(jiān)管沙箱和面向所有人工智能行為者的評(píng)估指南,以評(píng)估會(huì)員國(guó)對(duì)于本文件所述政策建議的遵守情況。

六、本建議書(shū)的使用和推廣

135. 會(huì)員國(guó)和本建議書(shū)確定的所有其他利益攸關(guān)方應(yīng)尊重、促進(jìn)和保護(hù)本建議書(shū)提出的人工智能倫理價(jià)值觀、原則和標(biāo)準(zhǔn),并應(yīng)采取一切可行步驟,落實(shí)本建議書(shū)的政策建議。

136. 會(huì)員國(guó)應(yīng)與在本建議書(shū)的范圍和目標(biāo)范疇內(nèi)開(kāi)展活動(dòng)的所有相關(guān)國(guó)家和國(guó)際政府組織、非政府組織、跨國(guó)公司和科學(xué)組織合作,努力擴(kuò)大并充實(shí)圍繞本建議書(shū)采取的行動(dòng)。

制定教科文組織倫理影響評(píng)估方法和建立國(guó)家人工智能倫理委員會(huì),可以作為這方面的重要手段。

七、本建議書(shū)的宣傳

137. 教科文組織是負(fù)責(zé)宣傳和傳播本建議書(shū)的主要聯(lián)合國(guó)機(jī)構(gòu),因此將與其他相關(guān)聯(lián)合國(guó)實(shí)體合作開(kāi)展工作,同時(shí)尊重它們的任務(wù)授權(quán)并避免工作重復(fù)。

138. 教科文組織,包括其世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)(COMEST)、國(guó)際生物倫理委員會(huì)(IBC)和政府間生物倫理委員會(huì)(IGBC)等機(jī)構(gòu),還將與其他國(guó)際、地區(qū)和分地區(qū)政府組織和非政府組織開(kāi)展合作。

139. 盡管在教科文組織范圍內(nèi),促進(jìn)和保護(hù)任務(wù)屬于各國(guó)政府和政府間機(jī)構(gòu)的職權(quán)范圍,但民間社會(huì)將是倡導(dǎo)公共部門(mén)利益的重要行為者,因此教科文組織需要確保和促進(jìn)其合法性。

八、最后條款

140. 應(yīng)將本建議書(shū)作為一個(gè)整體來(lái)理解,各項(xiàng)基本價(jià)值觀和原則應(yīng)被視為相互補(bǔ)充、相互關(guān)聯(lián)。

141. 本建議書(shū)中的任何內(nèi)容既不得解釋為取代、改變或以其他方式損害各國(guó)根據(jù)國(guó)際法所負(fù)義務(wù)或所享權(quán)利,也不得解釋為允許任何國(guó)家、其他政治、經(jīng)濟(jì)或社會(huì)行為者、群體或個(gè)人參與或從事任何有悖人權(quán)、基本自由、人的尊嚴(yán)以及對(duì)生物和非生物的環(huán)境與生態(tài)系統(tǒng)所抱之關(guān)切的活動(dòng)或行為。

全球環(huán)境治理前沿資訊

 

綠會(huì)融媒LOGO

【綠訊】是中國(guó)綠發(fā)會(huì)國(guó)際部發(fā)揮智庫(kù)功能、為了推動(dòng)中國(guó)深度參與全球環(huán)境治理推出的一系列全球環(huán)境治理的最新的動(dòng)態(tài)。本文資訊摘自聯(lián)合國(guó)教科文組織發(fā)布的會(huì)議文件。僅供參考。

【拓展閱讀】

綠會(huì)建言獲UNESCO采納:生物多樣性寫(xiě)入人工智能倫理問(wèn)題建議書(shū)(2021-11-27)

http://www.kxwhcb.com/newsDetail_forward_15587198

《人工智能倫理問(wèn)題建議書(shū)》出臺(tái)過(guò)程一覽(2021-11-27)

https://baijiahao.baidu.com/s?id=1717586373427536377

周晉峰:就UNESCO人工智能倫理征求意見(jiàn),談全面踐行生態(tài)文明(2020/9/8)

http://www.cbcgdf.org/NewsShow/4854/13747.html

中國(guó)綠發(fā)會(huì)生物與科學(xué)倫理工作委員會(huì)征集對(duì)《人工智能倫理問(wèn)題建議書(shū)草案》建議 (2020-07-28)

http://www.kxwhcb.com/newsDetail_forward_8467531

中國(guó)綠發(fā)會(huì)BASE建言聯(lián)合國(guó)教科文組織人工智能倫理應(yīng)納入生物多樣性及公共衛(wèi)生安全新共識(shí)(2020-07-27)

https://www.sohu.com/a/410010586_100001695

    本文為澎湃號(hào)作者或機(jī)構(gòu)在澎湃新聞上傳并發(fā)布,僅代表該作者或機(jī)構(gòu)觀點(diǎn),不代表澎湃新聞的觀點(diǎn)或立場(chǎng),澎湃新聞僅提供信息發(fā)布平臺(tái)。申請(qǐng)澎湃號(hào)請(qǐng)用電腦訪問(wèn)http://renzheng.thepaper.cn。

            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號(hào)

            滬公網(wǎng)安備31010602000299號(hào)

            互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006

            增值電信業(yè)務(wù)經(jīng)營(yíng)許可證:滬B2-2017116

            ? 2014-2025 上海東方報(bào)業(yè)有限公司

            反饋
            主站蜘蛛池模板: 苏尼特右旗| 永新县| 腾冲县| 枝江市| 全南县| 密云县| 惠安县| 石渠县| 长武县| 五家渠市| 伊金霍洛旗| 饶平县| 遵义县| 雷波县| 松滋市| 固始县| 偃师市| 驻马店市| 荔浦县| 西乌| 昌平区| 华蓥市| 昭觉县| 台州市| 东乌珠穆沁旗| 茌平县| 株洲县| 平度市| 桐乡市| 蚌埠市| 买车| 荆州市| 新竹县| 南岸区| 灵石县| 井研县| 都昌县| 额敏县| 罗山县| 旬邑县| 神池县|