科幻連續(xù)劇《西部世界》海報。 資料圖
有人預測,我們不久就能看到一個諸如西部世界般的瘋狂樂園出現(xiàn)在我們的現(xiàn)實社會中,機器人的報復也將隨之而來。阻止此類事件的發(fā)生,或許是法學及法律人涉足人工智能領域的意義所在
馮子軒
《西部世界》改編自邁克爾·卡萊頓的同名小說,故事發(fā)生在未來世界的一座以美國西部世界為主題的成人樂園中,講述了為人類游樂提供服務的機器人自主意識和思維的覺醒,進而反抗人類并引發(fā)失控的科幻故事。
《西部世界》同名電影于1973年上映,當時就引發(fā)了熱烈反響。2016年,該小說被拍成科幻連續(xù)劇。雖其并未擺脫好萊塢大片“機器人意識覺醒反擊人類”的老套路,但由于恰好與當下機器人工程、人工智能技術突破性進展以及爭議不斷的時代背景高度相關,因此引發(fā)了觀看熱潮,并迅速成為世界性、現(xiàn)象級的神劇。
風險來臨:人工智能的多重面孔
1956年,美國計算機科學家約翰·麥卡錫和他的同事最早提出人工智能(Artificial Intelligence,以下簡稱AI)概念,指出“讓機器達到這樣的行為,即與人類做同樣的行為,可以被稱為人工智能”。在隨后的60多年時間中,人工智能曾經(jīng)經(jīng)歷了三起三落,興起與低谷常伴。
在2016年,阿法狗打敗李世石和柯潔以前,多數(shù)公眾對于AI的印象可能還僅僅停留在諸如《西部世界》之類的科幻電影中。但近年來,隨著網(wǎng)絡、云計算、大數(shù)據(jù)、深度學習技術的突破,人工智能發(fā)展迅猛異常。
當今的人工智能技術以機器學習為核心,在視覺、語音、自然語言等領域迅速發(fā)展,并開始進入到具體的應用場景中,包括自動駕駛、虛擬助理、研究和教育、金融服務、醫(yī)療和診斷、設計和藝術創(chuàng)作、法律、社交陪伴、服務業(yè)和工業(yè),展現(xiàn)出廣闊的發(fā)展前景?!段鞑渴澜纭氛宫F(xiàn)的成人主題樂園,也是其應用場景的一個表現(xiàn)。
但是,當前人工智能技術發(fā)展仍處于弱人工智能時代,即僅具備狹義的專業(yè)領域人工智能能力,與《西部世界》所展現(xiàn)的強人工智能相去甚遠(強人工智能,又稱通用人工智能,具備處理多種類型任務和適應未曾預料的情形和能力)。目前,科學界對于強人工智能何時實現(xiàn)并無定論,多數(shù)技術專家和業(yè)內(nèi)人士認為,強人工智能在2045年之前不會實現(xiàn)。
人工智能的威脅,最著名的當屬馬斯克發(fā)表的“AI威脅論”,他認為AI有可能成為人類文明最大的威脅,呼吁政府迅速采取措施監(jiān)管AI技術。與之相反,扎克伯格、李開復等多位業(yè)界人士表示人工智能對人類生存威脅尚且遙遠。
這些辯論實則代表了當前公眾與專業(yè)人士之間、技術研發(fā)人員與社科研究人員之間對人工智能基本認知方面的巨大鴻溝。當前,計算機或機器人正在逐漸成為某種具有一定自主性的能動體,原本只能由人類完成的各項工作開始被計算機接手,由機器來完成,例如開車、翻譯、文藝創(chuàng)作等。
決策讓渡于機器蘊含著人工智能的決策選擇優(yōu)于人類的經(jīng)濟動因。事實上,近年蓬勃發(fā)展的機器人產(chǎn)業(yè),已經(jīng)對人類社會產(chǎn)生了越來越深遠的影響。例如,自動駕駛場景中,依靠人工智能、視覺計算、雷達、監(jiān)控裝置和全球定位系統(tǒng)協(xié)同合作,電腦可以在沒有任何人類主動的操作下,自動安全地操作機動車輛。
另一方面,這一切都是建立在機器人會聽從人類指揮,心甘情愿為人類服務的基礎上。如若人工智能變得足夠聰明,如同《西部世界》中所上演的那樣不愿意再聽從人類命令,甚至要奪取人類的統(tǒng)治權(quán),那人類發(fā)展人工智能豈非玩火自焚?
阿法狗打敗李世石和柯潔使得這種擔憂迅速蔓延,或許我們還可開玩笑稱關掉機器人的電源,人類依然能夠立于不敗之地,但當前機器人卻也在朝著自主保證能源供給的方向發(fā)展。
正如波斯特洛姆提出的曲別針思想實驗那樣:如果一個人工智能被設置為工廠生產(chǎn)管理,其最終目標是使曲別針的產(chǎn)量最大化,那么,人工智能很可能具有無法滿足的胃口,去不斷地獲取物質(zhì)和能力,走上首先將地球、然后將整個可觀察宇宙的大部分都變成曲別針的道路。
縱然,當前很多技術研發(fā)人員認為人工智能超越人類是杞人憂天,但需要注意到的是,科學家在很多時候并不能充分理解科學技術在未來的發(fā)展程度以及其發(fā)明的科學技術的具體應用。典型如核武器,其在發(fā)明后是否使用以及如何使用不能為發(fā)明它的科學家所決定。
同樣,認為人工智能發(fā)展僅會停留在弱人工智能時代的觀點似乎同樣站不住腳。提姆·厄班提出了科技發(fā)展在時間維度上呈加速度趨勢的觀點——兩百年前的人無法想象今天的社會發(fā)展程度,正如今天的人無法想象兩百年后的科技發(fā)展程度一樣,時間跨度越大,科技代差越明顯。所以,沒有人知道奇點會不會來、何時會來。
在人工智能未來風險處于不可完全認知,風險評估及成本效益分析等規(guī)制手段可能不完全有效的情況下,人工智能技術發(fā)展的風險規(guī)制應成為社會治理中重要環(huán)節(jié)。此外,即便于弱人工智能時代,機器人在決策與行動自主性上也有脫離被動工具的可能性;在放任自由的情況下,其判斷和行為未必完全符合人類的價值觀、道德觀以及法律規(guī)范、倫理規(guī)范等。
《西部世界》中的驚悚場景離我們很遠,但當前伴隨著人工智能技術發(fā)展的隱私泄露、算法偏見、算法黑箱、歸責困難等風險已為人們所逐漸覺察。
應對之一:機器人也有倫理
《西部世界》中有段對白:“我們一脫離現(xiàn)實世界,你就變成一個邪惡的混蛋了?!边@在某個層面隱喻了人性的弱點,人類至今取得的輝煌成就有賴于集體創(chuàng)造的道德倫理、法制社會的束縛。隨著機器智能的崛起,人類社會對人工智能的道德倫理約束業(yè)已提上日程。
早在1942年,阿西莫夫便在其小說《環(huán)舞》中提出了著名的“機器人三定律”,提出了機器人倫理思考:第一定律,機器人不能傷害人類,不能袖手旁觀人類受到傷害;第二定律,機器人應當服從人類命令,除非該指令與第一定律相悖;第三定律,在不違背第一和第二定律的情況下,機器人應保護自身的存在。此后,阿西莫夫?qū)θ蛇M行了修正,提出第零定律,即機器人必須保護人類的整體利益不受損害。
2016年8月,聯(lián)合國世界科學知識與科技倫理委員會發(fā)布《關于機器人倫理的初步草案報告》,認為機器人不僅需要尊重人類社會的倫理規(guī)范,而且需要將特定倫理規(guī)范寫入機器程序中。歐盟亦提出所謂“機器人憲章”,即人工智能研究需遵守諸如人類利益、正義、基本權(quán)利、包容性、可責性、安全性等倫理準則。將“道德代碼”嵌入人工智能程序的呼聲越來越強。
然而需注意的是,即便不談技術上的困難,單從人類自身的角度而言亦難以達成關于倫理準則的統(tǒng)一標準。社會建構(gòu)意義上的倫理法則并無貫之以四海皆行的意味。
例如,“機器人憲章”中所提及的“正義”“人類利益”等字眼便無法提取其最明確的內(nèi)涵。不同社會、不同時代的正義觀念以及利益取向有所不同,即便處于同一時代同一社會,亦不能將某一行動一概歸為“正義”或“人類利益”。何況諸如電車難題等道德困境的存在同樣無法忽視。此時,無論是功利主義抑或是絕對主義的行動準則似乎都無法被稱為“正義”或都可被稱為“正義”,在這種即便是人類也無法作出正確行動的情況下,如何妄想機器人能夠設定正確的行動程序呢?
另一個有意思的問題就是價值對接問題,即機器人的行動真的就是你想要的嗎?機器人幫你打掃屋子,但是可能扔掉了你最喜歡的舊雨鞋。它履行了自己的義務,但由此造成的結(jié)果卻不是你想要的。
這種設定性矛盾看起來似乎并不少見,機器人對指令的理解更可能是五花八門。這使得為人類自身便利而設計出來的機器人最終使人類無時無刻不處于風險之中。諸如此類的問題還有很多,單純期待依靠內(nèi)涵寬泛、沖突且難以具化的倫理法則嵌入人工智能的程序似乎并不是萬全之策。
應對之二:法律人的方案
人類擁抱科學和理性的過程不是一蹴而就的,法律習慣于對社會技術的發(fā)展做出相對滯后的回應,但在AI領域,我們需要作出具有前瞻性的立法布局,這是全世界需要共同面臨的法律難題。
盡管各國關于人工智能立法均呈現(xiàn)分散化的特點,但針對人工智能法律責任及潛在風險方面均作出了積極的立法嘗試。
如,德國在2017年通過自動駕駛汽車法案,制定了諸如自動駕駛汽車須安裝“黑匣子”以及“司機必須始終坐在方向盤后”等規(guī)則;歐盟于2016年發(fā)布《歐盟機器人民事法律規(guī)則》。
針對公眾普遍關注的隱私泄露問題,歐盟頒布了被稱為史上最嚴格的關于數(shù)據(jù)保護的《歐盟一般數(shù)據(jù)保護條例》(GDPR);美國、日本、韓國等也對現(xiàn)有的個人信息保護立法展開修訂工作。我國也于2016年通過《網(wǎng)絡安全法》,要求網(wǎng)絡運營者應當對其收集的用戶信息嚴格保密,并建立健全用戶信息保護制度。
在算法歧視的問題上,歐盟數(shù)據(jù)保護委員會發(fā)布《應對大數(shù)據(jù)挑戰(zhàn):呼吁通過設計和可歸責性實現(xiàn)透明性、用戶控制及數(shù)據(jù)保護》,提出警惕大數(shù)據(jù)對窮人及弱勢群體的歧視。美國國會為避免在刑事司法程序中出現(xiàn)諸如“黑人較白人更易犯罪”等算法歧視,正積極推動《量刑改革法案》,引入“犯罪風險得分”。我國剛頒布的電子商務法亦有“電子商務經(jīng)營者根據(jù)消費者的興趣愛好、消費習慣等特征向其推銷商品或者服務,應當同時向該消費者提供不針對其個人特征的選項,尊重和平等保護消費者合法權(quán)益”的規(guī)定。
凡此種種立法努力,為此后人工智能技術發(fā)展賴以存在的法律環(huán)境鋪平了道路。
另一個有趣的問題是,《西部世界》中人類肆意殺戮機器人,這似乎提醒我們思考,機器人的權(quán)利是否需要保護?即使在當前工具意義的機器人狀態(tài)下,是否需要賦予其最低限度的道德權(quán)利,如人類不能利用其主導地位對機器人進行肆意虐待?當機器人出現(xiàn)意志時我們又該如何對其定位?當前有學者提出的應當對機器人進行征稅以補貼因機器人而失去勞動崗位的人的意見,是否可行?這些都是伴隨著人工智能技術發(fā)展而拋給我們的新問題。
西部世界樂園是一個在法律和戒律之外的試驗場,在這個試驗場中人類可以進行他們最瘋狂的放縱而不受指摘與處罰?;蛟S對某些人而言,這是人工智能的一個絕佳用處。甚至有人預測,在10年、20年后我們就能看到一個諸如西部世界般的瘋狂樂園出現(xiàn)在現(xiàn)實社會中,而無人對此感到不適,但機器人的報復也將隨之而來。阻止此類事件的發(fā)生,或許是法學及法律人涉足人工智能領域的意義所在。
(作者系中國社科院法學所博士后研究人員、西南政法大學人工智能法學院副教授)
責編:高恒濤