beat365

學者觀點

傅瑩:人工智能的治理和國際機制的關鍵要素

傅瑩

beat365戰略與安全研究中心主任、外交部前副部長

當前,由人工智能引領的新一輪科技革命和産業變革方興未艾,正在對經濟發展、社會進步、全球治理産生重大影響,未來的潛力更是有可能帶來颠覆性的影響。與此同時,其風險和挑戰也引起全球範圍的擔憂。2015年1月,包括著名物理學家霍金在内的全球數百名人工智能專家和企業家簽發了一封公開信警告說,如果不對人工智能技術進行有效限制,“人類将迎來一個黑暗的未來”。由此引發的擔憂和恐懼,成為媒體和社會輿論的熱門話題,很多國家和組織開始研究如何構建人工智能技術應用的安全治理和相關機制。

一、人工智能的治理問題引發廣泛關注

目前已有20多個國家和地區推出了國家級人工智能發展規劃。2017年1月,全球行業領袖制定的《阿西洛馬人工智能原則》,提出了技術發展“有益于人類”的守則;2019年4月,歐盟委員會發布了人工智能道德準則,提出包括透明性、公平性、安全性和人類監督在内的七大條件;2019年5月,經濟合作與發展組織(OECD)正式通過了首部人工智能政府間政策指導方針,确保人工智能的系統設計符合公正、安全、公平和值得信賴的國際标準;2019年6月,二十國集團(G20)也出台了倡導人工智能使用和研發“尊重法律原則、人權和民主價值觀”的《G20人工智能原則》;中國于同月由國家新一代人工智能治理專業委員會發布《新一代人工智能治理原則》,提出和諧友好、公平公正、包容共享、尊重隐私、安全可控、共擔責任、開放協作、敏捷治理等八項原則,要求發展負責任的人工智能。

在我國,黨中央、國務院高度重視人工智能發展及治理。中國領導人強調,“人工智能是新一輪科技革命和産業變革的重要驅動力量,加快發展新一代人工智能是事關我國能否抓住新一輪科技革命和産業變革機遇的戰略問題”。中國領導人明确要求,“要加強人工智能發展的潛在風險研判和防範”,“要确保人工智能安全、可靠、可控”,“要整合多學科力量,加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德”。2019年7月,中央全面深化改革委員會第九次會議審議通過了《國家科技倫理委員會組建方案》等文件。會議還指出,科技倫理是科技活動必須遵守的價值準則。組建國家科技倫理委員會,目的就是加強統籌規範和指導協調,推動構建覆蓋全面、導向明确、規範有序、協調一緻的科技倫理治理體系。

中國在人工智能治理相關的法律法規制定上走在世界前列。按照十九屆四中全會推進國家治理體系和治理能力現代化的要求,為保障我國新一代人工智能健康發展,全國人大常委會加強了這方面的研究,并且在立法過程中納入一些比較有社會共識和相對成熟的内容。2019年8月,全國人大常委會審議通過民法典人格權編草案,其中針對收集、處理自然人個人信息作出明确規定,要求必須“征得該自然人或者其監護人同意”等,而且把個人生物識别信息也納入保護範圍。另一項重要進展是國家網信辦發布的《兒童個人信息網絡保護規定》,自2019年10月1日起生效。

國務院在2017年7月8日發布的《新一代人工智能發展規劃》【國發〔2017〕35号】中,既提出了技術和産業體系的發展策略,又提出了倫理和治理體系的構建思路。在規劃中提出了三步走戰略:第一步,到2020年,部分領域的人工智能倫理規範和政策法規初步建立。第二步,到2025年,初步建立人工智能法律法規、倫理規範和政策體系形成人工智能安全評估和管控能力。第三步,到2030年,建成更加完善的人工智能法律法規、倫理規範和政策體系。在規劃“保障措施”中第一條就提到:要制定促進人工智能發展的法律法規和倫理規範。

到2023年,政府将在全國布局建設20個新一代人工智能創新發展試驗區,檢驗八項原則的實施和收集反饋。其他措施還包括提供開放平台,鼓勵企業制定自己的标準,人工智能研發項目也需要遵守這八項原則。此外,目前中國的科學界和企業界在積極探索自律和監管手段,例如,成立人工智能治理研究院;在産品程序中加入“禁飛策略”來規範無人機的使用;在醫療和交通業界通過數據脫敏保護個人隐私信息;對收集數據的企業和機構提出承擔保護數據的責任等要求。

人工智能技術的成長依靠的是世界各國科研人員分享思想、相互借鑒,是全球協作的産物,跨國企業構建的人工智能平台也在快速擴展。要想規範這個進程,各國需要制定互通的道德規範和行業規則。中國30多年來一直處于高速工業化的進程中,在立法和立規過程中廣泛地參考了兩個世紀以來世界上陸續出現的基本規則。今天,中國第一次跻身新技術進步的第一梯隊,除了盡己所能地向前邁進,中國人也逐漸意識到自身肩負的參與國際制訂新規則的責任。因此,中國在人工智能治理方面的努力,需要與世界其他國家和地區、包括在技術研發上領先的美國的努力,相互聯通和協調。為此,中國對與各國探讨擴大共識、縮小差異,秉持開放态度。

beat365戰略與安全研究中心的人工智能治理項目小組着眼于國際共同規則,2018年7月,在世界和平論壇上提出“人工智能六點原則”,探讨人工智能綜合性治理的宏觀框架:一是福祉原則。人工智能的發展應服務于人類共同福祉和利益,其設計與應用須遵循人類社會基本倫理道德,符合人類的尊嚴和權利。二是安全原則。人工智能不得傷害人類要保證人工智能系統的安全性、可适用性與可控性,保護個人隐私,防止數據洩露與濫用。保證人工智能算法的可追溯性與透明性,防止算法歧視。三是共享原則。人工智能創造的經濟繁榮應服務于全體人類,構建合理機制,使更多人受益于人工智能技術的發展、享受便利,避免數字鴻溝的出現。四是和平原則。人工智能技術須用于和平目的緻力于提升透明度和建立信任措施,倡導和平利用人工智能,防止開展緻命性自主武器軍備競賽。五是法治原則。人工智能技術的運用應符合《聯合國憲章》的宗旨以及各國主權平等、和平解決争端、禁止使用武力、不幹涉内政等現代國際法基本原則。六是合作原則。世界各國應促進人工智能的技術交流和人才交流,在開放的環境下推動和規範技術的提升。

這六項原則為人工智能國際治理的讨論和共識構建提供了一種可能,在2018年底的世界互聯網大會和2019年的世界和平論壇上,國際上不少學者和企業家對此表達興趣和重視,有機構希望進一步合作研讨。

二、人工智能國際治理機制的關鍵要素

國際治理機制不僅意味着共識和規則,也應包括構建能夠确保規則落地的組織機構和行動能力,需要有相應的社會政治和文化環境。beat365戰略與安全研究中心正在與一些國家的學者專家、前政要和企業家一道,對這些問題進行探讨。從現實來看,人工智能國際治理的有效機制至少應包括如下五個關鍵:

一是動态的更新能力。人工智能技術的研發和應用進入快速發展的階段,但是人們對未來的很多應用場景乃至安全挑戰還缺乏了解和明确的認識。因而對其治理時,須充分考慮到技術及其應用還處于變化的過程中,需要建立一種動态開放的、具備自我更新能力的治理機制。

例如,當向社會提供人工智能“惡意應用”的具體界定和表述時,應該是在生産和生活實踐中可觀測、可區分的,在技術上可度量、可标定的。同時,更為重要的是,它應當持續更新。隻有具備動态更新能力的治理機制,才能在人工智能技術保持快速發展的情況下發揮作用。

這就意味着,在推進國際治理的同時,要承認和主動适應人工智能技術的不确定性特征,做好不斷調整的準備。愛因斯坦曾說,“我們不能用制造問題時的思維來解決問題”。創新技術與固有思維之間的沖突與激蕩,必将伴随人工智能技術發展的過程。此種情景下的治理機制在面對各種思潮和意見的交織與反複時,也應該具備足夠的包容之心和适應能力。如此,國際治理機制才能幫助人類攜手應對人工智能層出不窮的新挑戰。從這個意義上講,建立一個能夠适應技術不斷發展的動态治理機制,也許比直接給出治理的法則更有意義。

二是技術的源頭治理。人工智能的應用本質是技術應用,對其治理須緊緊抓住其技術本質,特别是在安全治理上,從源頭抓起更容易取得效果。例如,當前大放異彩的深度學習技術,其關鍵要素是數據、算法和計算力。針對這些要素的治理可以從數據控流、算法審計、計算力管控等方面尋找切入點。随着人工智能技術的飛速發展,今後可能會出現迥然不同的智能技術,例如小樣本學習、無監督學習、生成式對抗網絡,乃至腦機技術等。不同的技術機理意味着,需要不斷從技術源頭尋找最新、最關鍵的治理節點和工具,并将其納入治理機制之中,以實現治理的可持續性。另外,技術治理還有一個重要内容,就是在技術底層賦予人工智能“善用”的基因。例如在人工智能武器化的問題上,似可采用阿西莫夫制定“機器人三原則”的思維,從技術底層約束人工智能的行為,将武裝沖突法則和國際人道主義法則中的“區分性”原則納入代碼,禁止任何對民用設施的攻擊。誠然,實現這一點對國際治理來說是一個艱巨的挑戰。曾在美國國防部長辦公室工作、深度參與自主系統政策制定的保羅·沙瑞爾認為:“對于今天的機器而言,要達到這些标準(區分性、相稱性和避免無謂痛苦)是很難的。能否實現要取決于追求的目标、周圍的環境以及未來的技術預測。”

三是多角度的細節刻劃。人工智能的國際治理須構建一種多元參與的治理生态,将所有利益相關方納入其中。科學家和學者專家是推動技術發展的主力,政治家是國家決策的主體,民衆的消費需求是推動技術應用的激勵因素。這些群體之間的充分溝通是人工智能治理取得成功的基礎。企業是技術轉化應用的平台,社會組織是行業自律的推動者,政府和軍隊是人工智能安全治理的操作者,這些主體之間的充分協調則是人工智能治理機制有效發揮作用的關鍵。

在這個過程中,不同的群體應該以自身視角對人工智能的治理細則進行深入刻化。例如,2019年8月,亨利·基辛格、埃裡克·施密特、丹尼爾·胡滕洛赫爾三人聯合撰文提出,從人工智能沖擊哲學認知的角度看,可能應該禁止智能助理回答哲學類問題,在有重大影響的模式識别(Pattern recognition)活動中,須強制要求人類的參與,由人類對人工智能進行“審計”,并在其違反人類價值觀時進行糾正,等等。

如果能将來自不同群體的治理主張細則集聚在一起,将形成反映人類多元文化的智慧結晶,對人類共同應對人工智能挑戰發揮引領的作用。面對未知,哲學家的擔憂與普羅大衆的恐懼一樣重要,隻有盡可能細緻地刻劃人工智能治理的各種細節,才能增強人類對未來的把控,讓迷茫和恐懼轉變為好奇與希望。

四是有效的歸因機制。在人工智能的國際治理中,歸因和歸責發揮着“托底”的作用。如果不能解決“誰負責”的問題,那麼所有的治理努力最終都将毫無意義。當前人工智能治理的歸因困難主要源自以下一些問題:從人機關系的角度看,是否人擔負的責任越大,對惡意使用的威懾作用就越大,有效治理的可能性也就越大?從社會關系的角度看,程序“自我進化”導緻的後果該由誰負責?是“誰制造誰負責”、“誰擁有誰負責”,還是“誰使用誰負責”?

世界上沒有不出故障的機器,如同世上沒有完美的人,人工智能發生故障造成财産損失、乃至人員傷亡是遲早會出現的。我們是否需要賦予機器以“人格”,讓機器承擔責任?如果讓機器承擔最後的責任,是否意味着人類在一定範圍内将終審權拱手讓給了機器?目前對這些問題還沒有答案,需要在實踐中探索和印證歸因的恰當路徑。

五是場景的合理劃分。現階段對人工智能的技術應用實施治理需要針對不同場景逐一細分處理。在2019年7月的世界和平論壇上,很多學者主張從當前的應用中選擇幾個具體場景入手,由點及面地實驗治理,由易到難地積累經驗。場景至少應該從物理場景、社會場景和數據場景三個維度加以區分。考慮到人工智能技術對數據的高度依賴性,有效的場景劃分有利于關注數據的影響。

劃分場景也可以幫助我們更好地理解人工智能在什麼情況下能做什麼,一方面可以避免對人工智能不求甚解的恐懼,另一方面也可以消除一些誇大其詞的判斷。美國國防部前副部長羅伯特·沃克一直是人工智能武器化的積極倡導者,但是,具體到核武器指揮控制的場景上,他也不得不承認,人工智能不應擴展到核武器,以免引發災難性後果。

對血肉之軀的人類而言,任何一項新技術的出現和擴展都是雙刃劍,幾乎每一次重大的技術突破和創新都會給人們帶來不适與陣痛。但是,人類今日科學之昌明,生活之富足,足以讓我們有信心、有智慧對新技術善加利用、科學治理,妥善應對風險和挑戰。本着構建人類命運共同體的思維,國際社會應該努力構建共識,一同探索良性治理,使得人工智能技術更好地完善文明,創建更加繁榮和更加安全的世界。

聯系我們

電話:010-62780592 

郵箱:skxy@tsinghua.edu.cn

地址:北京市海澱區清華園1号

郵編:100084

Copyright© beat·365(中国)唯一官方网站 版權所有