人工智能各國戰略解讀系列之七《聯合國的人工智能政策》

中國信息通信研究院與騰訊研究院AI聯合課題組

作  者:Danit Gal   騰訊研究院科技政策分析師

譯  者:孫   那   騰訊研究院研究員、博士後

             李金磊   騰訊研究院助理研究員

人工智能是人類進入信息產業革命時代,達到的認識和改造客觀世界能力的高峰。人工智能的大規模應用與機器人技術發展的日新月異,將在未來帶給人類社會前所未有的巨大衝擊。聯合國作為全球最重要的國際組織,在2016年最新發布的人工智能報告中,表達了其對於人工智能的關注;同時為應對人工智能及機器人技術的發展帶來的各種問題,提出了全新的思考方式與解決路徑,這對世界各國的人工智能監管具有重要的參考意義。

人工智能各國戰略解讀系列之七《聯合國的人工智能政策》

聯合國的人工智能政策與監管

近年來,自動化和智能化的機器人在現代社會的應用越來越廣泛。先進機器人的全球研發、部署安裝與使用,在引發的公眾討論的同時,也鼓勵著政府監管的創新。例如,無人機不僅成為大眾消遣的工具,同時也在反恐戰爭發揮著重要作用。自動化機器正在取代工廠中體力勞力者,同時帶來了勞力力市場的革命。人形機器人不但被引進了學校,還用來在日托機構中照顧老年人;輔助機器人技術還廣泛應用在醫療方案中,不管是在對自閉症患者的心理治療還是在複雜重要的外科手術中,都能發現智能機器人的身影。機器人在家庭、工作、社會公共層面的廣泛存在,不僅帶給人類新的機會與挑戰,同時還改變著人類的行為方式。


在聯合國內,雖然大部分關於自動化系統與人工智能的討論主要圍繞在自動化武器系統,但是,我們看到聯合國正在對大眾化的人工智能系統應用產生濃厚的興許。聯合國關於人工智能的若干附屬報告,呼籲世界各國採用全新的視角看待人工智能系統的未來監管以及它們在機器人和機器人技術上的應用。聯合國提供了一種考察基於機器人物理形態下的人工智能系統全新路徑,作為世界各國「國家中心」視角的有效補充。


人工智能各國戰略解讀系列之七《聯合國的人工智能政策》


人工智能各國戰略解讀系列之七《聯合國的人工智能政策》  世界科學知識與技術倫理委員會(COMEST)關於機器人倫理的初步草案報告


聯合國教科文組織(The United Nations Education, Scientificand Cultural Organization)與世界科學知識與技術倫理委員會(World Commission on the Ethics ofScientific Knowledge and Technology)最新聯合發布的報告(2016)主要討論了機器人的製造和使用促進了人工智能的進步,以及這些進步所帶來的社會與倫理道德問題。


盡管人工智能機器人通常被認為是人工智能系統的載體,事實上,人工智能機器人具有的身體移動功能和應用以及機器學習能力使得它們成為了自動化、智能化的電子實體。同樣的,自動化、智能化機器人不僅能夠勝任複雜的決策過程,而且還能通過複雜的算法進行實實在在的執行活動。這些進化出的新能力,反過來,導致出現了新的倫理和法律問題。具體來說,主要包括以下四個方面:

自動化機器人的使用帶來的挑戰

2016年歐洲議會發布的關於人工智能和機器人的報告,表達了其對於機器人將給人類帶來的風險的關注,包括:安全、隱私、誠信尊嚴;自主。(註釋2,第7頁)為了應對這些風險,歐洲議會討論了未來可能面對的道德挑戰以及應對的監管措施。聯合國教科文組織與世界科學知識與技術倫理委員會的報告(2015)列舉了以下可行的應對措施,包括:

數據和隱私保護;創新關於機器人與機器人製造者之間的責任分擔機制;預警機制的建立;對機器人在實際生活場景中的測試;在涉及人類的機器人研究中的知情同意權;智能機器人的退出機制;為應對自動機器人的廣泛應用將給人類教育和就業帶來的巨大影響而建立全新的保險制度。(註釋4,第12頁)

機器人技術與機械倫理學

關於機器人製造和部署的倫理道德問題,被視為「機械倫理學(roboethics)」,用來處理人們發明和分配機器人的倫理道德問題,而不僅僅是機器的倫理學。聯合國教科文組織與世界科學知識與技術倫理委員會的報告(2015)認為,「機械倫理學」的大部分領域仍然處於沒有規範的狀態,一方面是因為政府無法跟飛速的科技發展相同步,另一方面是因為「機械倫理學」的複雜性和其無法預知的本質。這一問題對於常常與公眾直接接觸的機器人商業開發者和製造者來說,尤其麻煩,因為他們同樣沒有既定的倫理準則去遵守和執行。聯合國在報告中記錄了,各個國家在尋找機器人倫理道德準則的實踐中,所採用的不同做法。例如,韓國政府強制實施的機器人特許狀制度;日本對於機器人應用部署問題制定的管理方針,包括建立中心數據基地來儲存機器人對於人類造成傷害的事故報告。

邁向新的責任分擔機制?

聯合國聯合國教科文組織與世界科學知識與技術倫理委員會的報告(2015)探討了一個複雜的問題,即在製造一個機器人需要不同的專家和部門合作的情況下,誰該為機器人的某次操作失靈負有責任。在科學技術不斷進步和市場需求不斷增長,機器人的自由和自主性不斷增強的情況下,這個問題顯得尤為重要。報告認為,關於機器人倫理的考慮,不應該局限於某次事故或者失靈造成的人身損害,更應該包括智能機器人帶來的心理傷害,如機器人侵犯人的隱私、人因為機器人的類人行為而對其過分依賴等。


報告提出了一個可行的解決辦法,即採取責任分擔的解決途徑,讓所有參與到機器人的發明、授權、和分配過程中的人來分擔責任。另一個解決辦法,就是讓智能機器人承擔責任,因為智能機器人確實擁有前所未有的自主性,並且擁有能夠獨立做出決策的能力。這兩種責任分擔方式展現了兩種極端,既無視了人類在科技發展過程中的固有偏見,也忽略了科技被居心叵測的使用者用做他途的可能性。因此,報告並沒有對機器人使用者應該承擔的責任給予充分的考慮。


為了尋找可能的法律解決途徑,聯合國的報告援引了阿薩羅(Asaro)提出的結論,即機器人以及機器人技術造成的傷害,很大一部分由民法中產品責任的相關法律調整,因為機器人一般被視為通常意義上的科技產品。從這個角度看,機器人造成的傷害很大一部分被歸責於機器人製造者和零售商的「過失」、「產品警告的缺失」、「沒有盡到合理的注意義務」。(註釋1,第171頁)這種歸責制度,在阿薩羅(Asaro)看來,會隨著機器人越來越自動化及智能化,而逐漸被廢棄。然後一個新的平衡機器人製造者、銷售者和最終使用者的責任分擔機制會被逐漸創造出來。

決策可追溯的重要性

聯合國的報告認為,在對機器人及機器人技術的倫理與法律監管中,一個至關重要的要素是可追溯性,可追溯性的確立才能讓機器人的行為及決策全程處於監管之下。可追溯性的重要性表現在,它讓人類的監管機構不僅能夠理解智能機器人的思考決策過程以及做出必要的修正,而且能夠在特定的調查和法律行動中發揮它本來應有的作用。只有保證人類能夠全面追蹤機器人思考及決策的過程,我們才有可能在監管機器人的過程中占據主動權或者事後進行全面的追蹤調查。

人工智能各國戰略解讀系列之七《聯合國的人工智能政策》

人工智能各國戰略解讀系列之七《聯合國的人工智能政策》  決策制定者考慮的問題


聯合國報告在探討政府監管政策的制定方法時,引用了來自聯合國經濟與社會事務部(United Nations Department of Economic andSocial Affairs)的索爾陶·弗裡德裡希(Soltau Friedrich)的說法,認為國家應該關注於社會生活中不斷增長的半自動化與全自動化服務。索爾陶認為人類更熱衷於人與人之間的交流互動,即使計算機或者人工智能化的機器能夠更好的勝任這項交流互動,而且在某項交流需要敏感的社會感知力與同情心的情況下,尤其如此。所以,監管者必須考慮科技發展的社會性限制因素。因為即使科技被發明出來並且得到應用,但是並不一定意味著其就會被廣大的普通消費者所接受。


因此,索爾陶建議每個國家的政策制定者在將一般的機械自動化推進至智能自主化時,需要考慮諸多問題的應對措施,包括:

加強社會保障系統;採取教育政策促進計算機人才的培養滿足市場需求;制定政策促使勞力者從低技能行業向高技能行業流動;同時強化失業安全保障網應對國際貿易條約對勞力者帶來的不利影響;制定政策提高在研究和開發領域的投資,促進發展中國家的市場競爭與發達國家的創新。(註釋3,第4頁)



聯合國的報告指出了智能機器人的核心問題,由於它們能夠執行複雜的任務,無疑將影響就業市場和人類消費與接受服務的方式。除了法律與倫理道德的政府監管,公眾對於智能化機器人的某一項功能的接受與拒絕所帶來的社會、經濟以及科技影響,也可能促進或阻礙智能機器人未來的發展、擴張及大規模應用。正因如此,政府必須考慮公眾對於科技的需求和接受程度,才能在新興科技迅猛發展引起社會結構劇烈變遷的過程中找準自己的角色。

【參考文獻】
[1] Asaro, P. M. (2012). A body to kick, but still no soul to damn:legal perspectives on robotics, in Lin, P., Abney, K., and Bekey, G. A. (eds.) RobotEthics: The ethical and social implications of robotics, MIT Press, pp. 169– 186.
[2] EU Parliament.(2016). Draft report with recommendations to the Commission on Civil LawRules on Robotics. Accessibleonline at: http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+COMPARL+PE-582.443+01+DOC+PDF+V0//EN

[3] Soltau, F. (2016). Automation and artificial intelligence – whatcould it mean for sustainable development?  Accessible online at: https://sustainabledevelopment.un.org/content/documents/968825_Soltau_Automation%20and%20artificial%20intelligence%20-%20what%20could%20it%20mean%20for%20sustainable%20development.pdf

[4] United Nations Educations, Scientific and Cultural Organization(UNESCO) and World Commission On the Ethics of Scientific Knowledge andTechnology (COMEST). (2015). Preliminary draft reports on COMEST on roboticsethics. Accessible online at: http://unesdoc.unesco.org/images/0024/002455/245532E.pdf

相關閱讀:

人工智能各國戰略解讀系列之六《英國人工智能的未來監管措施與目標概述》

人工智能各國戰略解讀系列之五《歐盟人腦計劃》

人工智能各國戰略解讀系列之四《日本機器人新戰略》

人工智能各國戰略解讀系列之三《歐盟機器人研發計劃》

人工智能各國戰略解讀系列之二《美國機器人發展路線圖》

人工智能各國戰略解讀系列之一《美國國家創新戰略》

微信名:騰訊研究院

微信ID:cyberlawrc

❶ 網聚智慧 連接未來
❷ 研究合作:[email protected]

❸ 長按右側二維碼關注

人工智能各國戰略解讀系列之七《聯合國的人工智能政策》

公眾號搜尋「騰訊研究院」收聽研究院及各子中心帳號人工智能各國戰略解讀系列之七《聯合國的人工智能政策》