作者 | 莫以菲
來(lái)源 | 互聯(lián)網(wǎng)今日爆點(diǎn)(ID:ceoquanzi)
近日,英國(guó)著名物理學(xué)家斯蒂芬·霍金發(fā)出警告:
人類(lèi)地球生活僅剩100年!
01
在地球生活,我們只剩100年!
昨天,久負(fù)盛名的物理學(xué)家霍金警告稱(chēng),人類(lèi)必須在100年內(nèi)殖民另一個(gè)星球,否則將會(huì)面臨滅頂之災(zāi)。
人類(lèi)若想避開(kāi)滅頂之災(zāi),就必須在100年內(nèi)殖民另一個(gè)星球,才現(xiàn)在開(kāi)始做好在外太空生活的準(zhǔn)備。
去年11月,霍金曾有過(guò)關(guān)于人類(lèi)地球生活年限的演講。當(dāng)時(shí)他預(yù)言比這次保守的多——人類(lèi)還能在地球上幸存1000年。在當(dāng)時(shí)的大會(huì)上,霍金表示:
也許將來(lái)有一天,我們將能夠利用引力波來(lái)回顧宇宙大爆炸的中心。在我們堅(jiān)持不懈地觀察和研究中,宇宙學(xué)說(shuō)也在不斷取得新的進(jìn)展,但為了人類(lèi)的未來(lái),我們必須進(jìn)入太空。如果不逃離這個(gè)脆弱的星球,我認(rèn)為人類(lèi)的生存時(shí)間還剩下不到1000年。
但是,在今年6月播出的新片《探索新地球》中,霍金重申闡述了觀點(diǎn),他表示:
人類(lèi)在地球上生活的年限僅剩下100年。在未來(lái)的100年內(nèi),人類(lèi)必須離開(kāi)地球,到外太空尋找可能居住的星球,否則會(huì)全部滅亡。
02
外星人是存在的,千萬(wàn)別跟他們接觸
霍金說(shuō),人類(lèi)面臨的主要危險(xiǎn)包括小行星墜落、流行病、氣候變化和地球人口過(guò)剩。
早些時(shí)候,霍金稱(chēng)可能的威脅還有核戰(zhàn)爭(zhēng)、全球變暖、基因改變的病毒和人工智能。這些都有可能成為毀滅人類(lèi)的元兇。
另外,外星人也是一個(gè)可怕的因素。他十分確信在地球之外的存在著智慧生命,但他警告人類(lèi)應(yīng)當(dāng)想盡一切辦法避免與這些外星生命接觸。
霍金表示:“我們只需要看看自己,就能知道 這些外星生命會(huì)如何變得讓我們寧愿沒(méi)碰見(jiàn)過(guò)他們。如果外星人來(lái)拜訪人類(lèi),我想其結(jié)果會(huì)變得與哥倫布到達(dá)新大陸時(shí)非常相似,那對(duì)美洲土著可并不有利?!?/span>
如果真是這樣,人類(lèi)將面臨很可怕的局面?;艚鸬脑?huà)看似荒唐,其實(shí)深思還是很有道理的,如此廣闊的宇宙,存在多種智慧生命的可能性,實(shí)在是太高了,現(xiàn)在沒(méi)有找到,可能是我們的探索技術(shù)還不夠成熟。
但是,如果真的有比人類(lèi)更聰明的生命存在,我們是否就一定要躲躲藏藏,不跟他們接觸呢?如果他們真的更有智慧,想必想避免也避免不了。
03
人工智能:要么是最好的,要么是最壞的
對(duì)于人工智能,霍金一直憂(yōu)心忡忡:
在我的一生中,我見(jiàn)證了社會(huì)深刻的變化。其中最深刻的,同時(shí)也是對(duì)人類(lèi)影響與日俱增的變化,是人工智能的崛起。簡(jiǎn)單來(lái)說(shuō),我認(rèn)為強(qiáng)大的人工智能的崛起,要么是人類(lèi)歷史上最好的事,要么是最糟的。
可是,是好是壞,沒(méi)人知道。對(duì)此,我們應(yīng)該竭盡所能,確保其未來(lái)發(fā)展對(duì)我們和我們的環(huán)境有利。
霍金認(rèn)為,人工智能的發(fā)展,本身是一種存在著問(wèn)題的趨勢(shì),而這些問(wèn)題必須在現(xiàn)在和將來(lái)得到解決。
例如,我們擔(dān)心聰明的機(jī)器將能夠代替人類(lèi)正在從事的工作,并迅速地消滅數(shù)以百萬(wàn)計(jì)的工作崗位。
因?yàn)?,人工智能發(fā)展到一定階段,跟人類(lèi)沒(méi)有本質(zhì)區(qū)別。它遵循了“計(jì)算機(jī)在理論上可以模仿人類(lèi)智能,然后超越”這一原則。
最令人擔(dān)心的就是,人工智能一旦脫離束縛,以不斷加速的狀態(tài)重新設(shè)計(jì)自身,人類(lèi)由于受到漫長(zhǎng)的生物進(jìn)化的限制,無(wú)法與之競(jìng)爭(zhēng),將被取代,這將給我們的經(jīng)濟(jì)帶來(lái)極大的破壞。
“未來(lái),人工智能可以發(fā)展出自我意志,一個(gè)與我們沖突的意志。盡管我對(duì)人類(lèi)一貫持有樂(lè)觀的態(tài)度,但其他人認(rèn)為,人類(lèi)可以在相當(dāng)長(zhǎng)的時(shí)間里控制技術(shù)的發(fā)展,這樣我們就能看到人工智能可以解決世界上大部分問(wèn)題的潛力?!?/span>
04
無(wú)論如何,一定要確保機(jī)器人為人類(lèi)服務(wù)!
無(wú)獨(dú)有偶,特斯拉CEO馬斯克也表示,人類(lèi)必須以某種方式與機(jī)器融合,否則將會(huì)在AI時(shí)代被異化。
早在2014年,馬斯克曾警告:“我們需要萬(wàn)分警惕人工智能,它們比核武器更加危險(xiǎn)!”
為了避免走向終結(jié),2017年2月,馬斯克和全球2000多人,包括844名人工智能和機(jī)器人領(lǐng)域的專(zhuān)家聯(lián)合簽署了23條AI發(fā)展原則,呼吁全世界的人工智能領(lǐng)域在發(fā)展AI的同時(shí)嚴(yán)格遵守這些原則,共同保障人類(lèi)未來(lái)的利益和安全。
機(jī)器正逐年變得更加智能,研究人員相信他們?cè)谖磥?lái)幾十年內(nèi)可以擁有人類(lèi)智能水平。 一旦他們達(dá)到這個(gè)程度,他們就可以開(kāi)始改善自己,并創(chuàng)造其他智能,甚至更強(qiáng)大的AI,牛津哲學(xué)家尼克·博斯特羅姆和其他幾個(gè)該領(lǐng)域的專(zhuān)家認(rèn)為,應(yīng)當(dāng)稱(chēng)其為超級(jí)智能。
馬斯克和霍金的擔(dān)心,其實(shí)這一百年一直都存在。人類(lèi)對(duì)人工智能這項(xiàng)技術(shù)的擔(dān)憂(yōu)是歷史性的,每當(dāng)有新技術(shù)產(chǎn)生,這些擔(dān)憂(yōu)都會(huì)隨之而來(lái)。
新技術(shù)的發(fā)展,往往是利弊參半的,人工智能確實(shí)有可能終結(jié)人類(lèi),除非我們學(xué)會(huì)避免危險(xiǎn)。
對(duì)于人類(lèi)失業(yè)的危險(xiǎn),真正的挑戰(zhàn)在于,人類(lèi)如何更快更好地去適應(yīng)這種技術(shù)帶來(lái)的變化,被替代的人如何有效地通過(guò)再培訓(xùn),重新定位到新的工作領(lǐng)域。
而且,關(guān)于預(yù)測(cè),如果我們回到1934年,看看喬治·奧威爾所著的《一九八四》,會(huì)發(fā)現(xiàn)書(shū)中預(yù)測(cè)的時(shí)間是錯(cuò)誤的,技術(shù)也是錯(cuò)誤的,
接下來(lái)的十年,機(jī)器可能會(huì)慢慢融入日常生活。像汽無(wú)人駕駛、疾病的診斷和治療、安全保障方面,都會(huì)讓我們?nèi)〉煤艽蟮陌l(fā)展,甚至是我們還無(wú)法想象的發(fā)展。
所以,作為一個(gè)負(fù)責(zé)人的科學(xué)家,霍金的擔(dān)憂(yōu)是正常的,但是人工智能可以為我們帶來(lái)的便利太多了,我們需要的,是確保機(jī)器人無(wú)論現(xiàn)在還是將來(lái),都為人類(lèi)而服務(wù),讓人類(lèi)過(guò)得更好。
聯(lián)系客服