1981年,約翰·布羅克曼成立了一個名為“現(xiàn)實俱樂部”的組織,試圖把那些探討后工業(yè)時代話題的人們聚集在一起,就大家共同關心的話題進行討論。1997 年,“現(xiàn)實俱樂部”上線,更名為 Edge。每年一次,Edge網(wǎng)站邀請幾十位全球最偉大的頭腦坐在同一張桌子旁,共同探討關乎人類命運的同一個大問題,開啟一場智識的探險,一次思想的旅行。這次,包括史蒂芬·平克、朱迪亞·珀爾、丹尼爾·丹尼特、邁克斯·泰格馬克等計算機科學家、心理學家、物理學家、科技史學家在內(nèi)的25位頂尖思想家們將話題聚焦到了人工智能,他們的思想集結成了《AI的25種可能》一書。
一、人工智能的發(fā)展
從上世紀60年代“人工智能”這一概念被提出來至今,人工智能的研究和實踐已經(jīng)經(jīng)歷過幾次大起大落的發(fā)展階段,大致上看,約十年為一個周期。
在第一個周期中,人們將目標聚焦在主機的研發(fā)上,其所追求的目標就是工業(yè)自動化。現(xiàn)在有很多工作的崗位已經(jīng)被自動化的機械所替代,這與此階段人們就開始所做的探索是有直接關系的。但當將研發(fā)的這些自動化的機械用到人的身上時,就會發(fā)現(xiàn)問題,因為在現(xiàn)實中,很難編寫程序來完成對人們來講很簡單的任務。
在第二個周期中,人們聚焦的是專家系統(tǒng),其目的是設法將專家的知識編成法典,并最終達到取代專家的效果。我們看到在醫(yī)學、司法領域,已經(jīng)有很多這樣的專家系統(tǒng),確實給相關領域的工作帶來了很大的便利。利用計算機來下棋,也已經(jīng)有很大的突破。但專家系統(tǒng)存在的弊端也是非常明顯的,在收集知識和推理尚未涵蓋的案例方面就會束手無策。
在第三個周期中,人們將目光聚焦在感知器上,其目的是設法讓感知器來模擬大腦的學習方法。不過現(xiàn)在看來,要有實質性的突破依然非常困難。我們自己現(xiàn)在對大腦的認識還是很模糊的,還有很多未解之謎。在這樣的情況下,讓感知器來模擬大腦是不現(xiàn)實的,有很多事情目前還做不到。
第四個周期中,人們研究的重點是多層感知器,多層感知器可以處理那些使簡單網(wǎng)絡出錯的測試問題,但是對于非結構化的、真實世界的問題,它們的表現(xiàn)很差。很多時候,我們的大腦所思考的、或者我們所面臨的問題,就有這樣的特點。
第五個周期也就在當下,人們探究的重點即深度學習。我們現(xiàn)在正處于深度學習時代,許多早期人工智能想要達到的目標均得以實現(xiàn),但在某種程度上卻又很難理解這種深度學習,這給人們帶來了一系列的困惑和憂慮,擔心人工智能帶來的后果,會對人類的智能以及人類的存亡帶來威脅。
二、什么是深度學習
簡單地說,深度學習指的是計算機通過觀察大量數(shù)據(jù)來自學,使自己變得更聰明?!鞍柗ü贰睉?zhàn)勝李世石和柯潔兩位世界圍棋界頂級高手之后,其研發(fā)團隊又研制出新一代的機器人,讓其和“阿爾法狗”進行比賽,結果無一敗績。之后,該團隊宣布,新一代的機器人和人類比賽已經(jīng)沒有意義,它將通過自適應新的學習,來提高自身的能力。這就是典型的深度學習的案例。
深度學習有自己的動力學機制,它能自我修復,找出最優(yōu)化組合,絕大多數(shù)時候都會給出正確的結果??梢坏┙Y果錯了,你不會知道哪里出了問題,也不知道該如何修復。尤其是,你不知道問題是出在程序上還是方法上,抑或是因為環(huán)境發(fā)生了改變。之所以會出現(xiàn)這樣的狀況,是因為深度學習的不透明性。以深度學習方式自我提升的人工智能機器其學習的過程是隱秘的,是不被人類所知的。
一些人或許認為,我們并不需要透明。比如說,我們并不了解人類大腦的神經(jīng)構造,它也運行得挺好,所以我們可以原諒自己的淺薄,最大限度地利用機器。我們需要明白的是,我們之所以可以原諒自己不了解人類大腦的運作原理,是因為人類大腦的運作原理是一樣的,無須了解我們也可以與他人交流、向他人學習、給他人指導、用我們的語言鼓勵他人。但如果我們的機器人都像“阿爾法圍棋”(AlphaGo)一樣不透明,我們便無法與它們進行有意義的交流。
賦予機器目的,使它能夠根據(jù)明確的計算程序來優(yōu)化它的行為,這似乎是一個不錯的方法,可以確保“機器按照我們可接受的原則行動”。但是,無論是人工智能還是圍繞目標優(yōu)化的其他學科,如經(jīng)濟學、統(tǒng)計學、控制理論、運籌學等,都無法確定究竟什么是“我們真正想要的目的”。相反,這些學科假定我們只是簡單地把目標賦予機器。目前人工智能的研究主要是研究機器實現(xiàn)目標的能力,而不是如何設計那些目標。
在科學的發(fā)展歷程中,其實經(jīng)常出現(xiàn)在透明性與不透明性之間進行對比以便加以抉擇的情況。比如說,巴比倫天文學家是做出黑匣子預測的大師,在天文觀測的準確性和一致性方面遠遠超過了對手希臘。然而,科學卻偏愛希臘天文學家創(chuàng)造性的推測,這種推測大膽且充滿隱喻性的意象:充滿了火焰的圓管、天火透過小孔被視作星星以及半球狀的地球騎在龜甲上。正是這種大膽的建模策略,而不是巴比倫的外推,震驚了埃拉托色尼,使他做了一個當時世界上最具創(chuàng)造力的實驗——測算出了地球的周長。巴比倫的那些以數(shù)據(jù)為準則的科學家們永遠不會做這樣的實驗。
看來,并不是說機器的所有程序和步驟都透明就是好的,也不是說不透明就不好,需要依據(jù)所要研究的問題,在兩者之間的某一中間地帶找到一個平衡點。
深度學習具有如下特征:一是強調知識的主動建構,二是重視知識的遷移運用,三是立足于問題的解決。針對以上特點,近些年來,教育領域也廣泛開始對深度學習的借鑒和研究,提煉出了深度學習教學的一些基本范式、學校層面開展深度學習的策略等一系列實施的路徑和建議,值得一線的教師加以深入研究。
三、未來的發(fā)展可能
自從發(fā)明寫作和計算以來,我們的思想一直靠技術輔助。有人擔心通用人工智能在思考方面會變得特別優(yōu)秀,以至于人類和他們相比就像昆蟲對于人類一樣。對此,不同的科學家提出了大致相同的論點。
有的科學家認為,擔心人工智能比人更優(yōu)秀是錯誤的。因為所有的思考都是一種計算,任何一臺程序集包括一套通用的基本運算的計算機都可以模擬其他任何計算機的計算。因此,人類大腦可以思考通用人工智能能思考的任何事情,只是會受到速度或記憶能力的限制,而這兩者都可以通過技術來提高。
有的科學家認為,即使我們發(fā)明了超人智能機器人,他們也不會奴役他們的主人或接管世界。智能是指運用新的手段達到目標的能力。但是這些目標與智能無關,因為聰明并不等同于一定要追求某些東西。智人的智能是達爾文自然選擇的產(chǎn)物,而自然選擇本質上是一個競爭過程。在智人的大腦中,推理與一些諸如支配對手和積累資源等目標捆綁在一起。但是,把某些靈長類動物的邊緣腦中的回路與智能的本質混為一談是錯誤的。沒有任何一個復雜系統(tǒng)定律表明,智能主體一定會變成無情的自大狂。
從物理學家的角度來看,智能只是由四處移動的基本粒子所進行的某種信息處理,沒有任何物理定律表明人類不能制造出在任何方面都比我們具有更高級智能的機器,這種機器能孕育宇宙生命。真正的問題是,人工智能安全研究必須在嚴格的期限內(nèi)進行:在通用人工智能到來之前,我們需要弄清楚如何讓人工智能理解、采納和保留我們的目標。機器越智能、越強大,使它們的目標與我們的目標一致就越重要。只要我們制造的機器相對愚蠢,那么問題便不是人類的目標是否會占上風,而是在達到我們與機器目標一致之前,機器會造成多少麻煩。然而,如果制造出超級智能,那么情況就會反過來:因為智能就是實現(xiàn)目標的能力,所以超級智能人工智能從定義上來說,比起我們?nèi)祟悓崿F(xiàn)自己的目標,它更擅長完成它的目標,因此會占上風。
對奇點主義的恐懼,主要是擔心隨著計算機更多地參與設計它們自己的軟件,它們將迅速擁有超人的計算能力。但機器學習的真實情況卻恰恰相反。當機器的學習能力變得越來越強時,它們的學習方式會變得越來越像人類。許多事例表明,機器的學習是在人類和機器老師的監(jiān)管下進行的。對計算機進行教育就像對青少年進行教育一樣困難、緩慢。世界上最好的國際象棋棋手既不是計算機,也不是人類,而是與計算機合作的人。網(wǎng)絡空間里確實存在有害的程序,但這些主要是惡意軟件,即病毒,它們不是因為其超級智能而為世人所知,而是因為惡意的無知而遭世人譴責。
……
總的看來,對人工智能的未來前景充滿希望和信心的專家還是占上風的。
《AI的25種可能》 [美]約翰·布羅克曼/著 王佳音/譯 浙江人民出版社 2019.10pplong