3月14日,英國(guó)物理學(xué)家史蒂芬·霍金去世,享年76歲。生前的最后幾年,霍金留下了幾個(gè)預(yù)言,重點(diǎn)關(guān)注了地球的未來(lái)、人工智能對(duì)人類(lèi)的影響和人類(lèi)的宇宙探索。他也多次在演講中呼吁,人類(lèi)應(yīng)該把主要精力放在探索宇宙和科學(xué),而非戰(zhàn)爭(zhēng)或是破壞地球的生態(tài)環(huán)境。
[核武器]核武器是人類(lèi)捍衛(wèi)領(lǐng)土的終極武器,但核武器頃刻間會(huì)令一切化為烏有,研究我們無(wú)法控制的武器,最終的結(jié)局就是人類(lèi)自取滅亡。
[探索宇宙]人類(lèi)應(yīng)該邁出地球,去宇宙中尋找人類(lèi)的第二家園,如果安于現(xiàn)狀,就會(huì)遭遇6500萬(wàn)年前恐龍滅絕的情況,人類(lèi)文明頃刻間倒塌。
[全球變暖]全球變暖正在發(fā)生,人類(lèi)開(kāi)始改變環(huán)境但行動(dòng)太慢,而且科技已經(jīng)無(wú)法阻止環(huán)境變化。人類(lèi)將在不到百年間被新文明取代。
(*當(dāng)然,霍金的預(yù)言也招致了很多爭(zhēng)論)
2017年4月,霍金教授專(zhuān)門(mén)為GMIC 北京 2017大會(huì)做了主題為“讓人工智能造福人類(lèi)及其賴(lài)以生存的家園”的視頻演講。以下為當(dāng)時(shí)的演講全文:
在我的一生中,我見(jiàn)證了社會(huì)深刻的變化。其中最深刻的,同時(shí)也是對(duì)人類(lèi)影響與日俱增的變化,是人工智能的崛起。簡(jiǎn)單來(lái)說(shuō),我認(rèn)為強(qiáng)大的人工智能的崛起,要么是人類(lèi)歷史上最好的事,要么是最糟的。是好是壞,我不得不說(shuō),我們依然不能確定。但我們應(yīng)該竭盡所能,確保其未來(lái)發(fā)展對(duì)我們和我們的環(huán)境有利。我們別無(wú)選擇。我認(rèn)為人工智能的發(fā)展,本身是一種存在著問(wèn)題的趨勢(shì),而這些問(wèn)題必須在現(xiàn)在和將來(lái)得到解決。
人工智能的研究與開(kāi)發(fā)正在迅速推進(jìn)。也許科學(xué)研究應(yīng)該暫停片刻,從而使研究重點(diǎn)從提升人工智能能力轉(zhuǎn)移到最大化人工智能的社會(huì)效益上面?;谶@樣的考慮,美國(guó)人工智能協(xié)會(huì)(AAAI)于2008至2009年,成立了人工智能長(zhǎng)期未來(lái)總籌論壇[原文:PresidentialPanel on Long-Term AI Futures],他們近期在目的導(dǎo)向的中性技術(shù)上投入了大量的關(guān)注。但我們的人工智能系統(tǒng)的原則依然須要按照我們的意志工作。跨學(xué)科研究可能是一條可能的前進(jìn)道路:從經(jīng)濟(jì)、法律、哲學(xué)延伸至計(jì)算機(jī)安全、形式化方法,當(dāng)然還有人工智能本身的各個(gè)分支。
文明所提產(chǎn)生的一切都是人類(lèi)智能的產(chǎn)物,我相信生物大腦總有一天會(huì)達(dá)到計(jì)算機(jī)可以達(dá)到的程度,沒(méi)有本質(zhì)區(qū)別。因此,它遵循了“計(jì)算機(jī)在理論上可以模仿人類(lèi)智能,然后超越”這一原則。但我們并不確定,所以我們無(wú)法知道我們將無(wú)限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。的確,我們擔(dān)心聰明的機(jī)器將能夠代替人類(lèi)正在從事的工作,并迅速地消滅數(shù)以百萬(wàn)計(jì)的工作崗位。
在人工智能從原始形態(tài)不斷發(fā)展,并被證明非常有用的同時(shí),我也在擔(dān)憂這樣這個(gè)結(jié)果,即創(chuàng)造一個(gè)可以等同或超越人類(lèi)的智能的人工智能:人工智能一旦脫離束縛,以不斷加速的狀態(tài)重新設(shè)計(jì)自身。人類(lèi)由于受到漫長(zhǎng)的生物進(jìn)化的限制,無(wú)法與之競(jìng)爭(zhēng),將被取代。這將給我們的經(jīng)濟(jì)帶來(lái)極大的破壞。未來(lái),人工智能可以發(fā)展出自我意志,一個(gè)與我們沖突的意志。很多人認(rèn)為人類(lèi)可以在相當(dāng)長(zhǎng)的時(shí)間里控制技術(shù)的發(fā)展,這樣我們就能看到人工智能可以解決世界上大部分問(wèn)題的潛力。但我并不確定。盡管我對(duì)人類(lèi)一貫持有樂(lè)觀的態(tài)度。
2015年1月份,我和科技企業(yè)家埃隆·馬斯克,以及許多其他的人工智能專(zhuān)家簽署了一份關(guān)于人工智能的公開(kāi)信,目的是提倡就人工智能對(duì)社會(huì)所造成的影響做認(rèn)真的調(diào)研。在這之前,埃隆·馬斯克就警告過(guò)人們:超人類(lèi)人工智能可能帶來(lái)不可估量的利益,但是如果部署不當(dāng),則可能給人類(lèi)帶來(lái)相反的效果。我和他同在“生命未來(lái)研究所”擔(dān)任科學(xué)顧問(wèn)委員會(huì)的職務(wù),這是一個(gè)旨在緩解人類(lèi)所面臨的存在風(fēng)險(xiǎn)的組織,而且之前提到的公開(kāi)信也是由這個(gè)組織起草的。這個(gè)公開(kāi)信號(hào)召展開(kāi)可以阻止?jié)撛趩?wèn)題的直接研究,同時(shí)也收獲人工智能帶給我們的潛在利益,同時(shí)致力于讓人工智能的研發(fā)人員更關(guān)注人工智能安全。此外,對(duì)于決策者和普通大眾來(lái)說(shuō),這封公開(kāi)信內(nèi)容翔實(shí),并非危言聳聽(tīng)。人人都知道人工智能研究人員們?cè)谡J(rèn)真思索這些擔(dān)心和倫理問(wèn)題,我們認(rèn)為這一點(diǎn)非常重要。比如,人工智能具有根除疾患和貧困的潛力的,但是研究人員必須能夠創(chuàng)造出可控的人工智能。那封只有四段文字,題目為《應(yīng)優(yōu)先研究強(qiáng)大而有益的人工智能》的公開(kāi)信,在其附帶的十二頁(yè)文件中對(duì)研究的優(yōu)先次序作了詳細(xì)的安排。