不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點






不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點

本文經AI新媒體量子位(公眾號ID:qbitai )授權轉載,轉載請聯繫出處

圓栗子 發自 凹非寺

不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點

此前,馬斯克(Elon Musk) 剛剛帶領一眾AI專家,簽訂了一份承諾書。

內容是,永不開發自主殺人武器(Lethal Autonomous Weapon Systems)。

理由有二。一,不該把生殺大權交給機器。二,致命AI武器的存在,會讓國家和個人承受危險的動蕩。

不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點

意圖自然是好的,但牛津大學的學者Mariarosaria Taddeo (簡稱瑪利亞) 說,他們忽略了一個重點

而且,把萬眾目光集中在「AI殺手」上,人們就更難注意到那個重點了。

表面「靜止」

智能機器人統治世界,支配人類,這樣的極端場景,的確非常吸引眼球。

但那並不是AI技術唯一的隱患。

美軍曾經把AI分成兩種:一是移動的 (AI in Motion) ,二是靜止的 (AI at Rest) 。

不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點

前者表示依托於實體機器人的AI,後者表示僅僅存在於軟件系統的AI。

美國海軍有自動駕駛的軍艦,以色列有自主識別、打自主擊目標的無人機,這些軍用設備里的AI,是移動型。

但戰爭並非只有硬碰硬,比如,網路世界 (Cyber Space) 就從不和平。

瑪利亞覺得,後者才更需要重視,「靜止」也不代表不危險

暗潮洶湧

網路世界里,大大小小的國際爭端,可能每天都在發生。

不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點

今年3月,美國譴責了俄羅斯,說對方幾個月來,一直攻擊美國關鍵的基礎設施

這樣的話,事情就不像WannaCry搶比特幣那樣簡單。

如果,有人能利用AI,造成全國範圍的停電,或者供暖系統癱瘓,就可能導致非常嚴重的後果。

不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點

停電不是小事

雖然,還沒有發現AI直接造成物理傷害的事件,但不代表以後也不會有。畢竟,AI正在飛速普及。

瑪利亞說,社會的運轉越依賴AI,系統之間的衝突越可能帶來物理傷害。

AI與AI之間,有了自主打擊、自主防禦行為,就算沒有實體機器人,局面還是可能失控。

一線之隔

現在,許多國家都在建立自己的AI網路防線。

瑪利亞說,「網路軍備競賽(Cyber Arms Race) 」可能就要開始了。

可是,防禦與攻擊,僅一線之隔

不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點

現在,國際上依然沒有法規,能夠規範網路防禦 (Cyberdefence) 行為。

早在2004年,聯合國就成立了信息安全政府專家組(Group of Governmental Experts on Information Security) ,目的便是達成共識,用統一的法條來規範各國在網路空間里的行為。

然而,會開了很多次,共識到今天都沒有達成。

不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點

今年4月,瑪利亞的一篇文章在Nature上發表。她寫道,網路防禦要三步走——

第一步,劃定法律界限。

第二步,在友好邦國之間,測試防禦策略。

第三步,建立監管機制,強化法規執行。

她給每一步,都描繪了一些合理的設想。

不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點

不過,還不知道這個世界,哪天能走出第一步。

Nature文章傳送門:https://www.nature.com/magazine-assets/d41586-018-04602-6/d41586-018-04602-6.pdf

不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點

不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點


點擊下方「閱讀原文」了解招募大會事宜

↓↓↓