“我在這個星球上過著不平凡的生活,同時用我的頭腦和物理定律穿越宇宙。我去過銀河系最遠(yuǎn)的地方,進(jìn)入了黑洞,回到了時間的起源。在地球上,我經(jīng)歷過高潮和低谷,動蕩和和平,成功和痛苦。我富有過,貧窮過,我健全過,殘疾過。我受到過贊揚(yáng)也受到過批評,但我從未被忽視?!?/p>
——霍金《Brief Answers to the Big Questions》
近日,霍金生前最后一本著作“Brief Answers to the Big Questions”正式出版,在書中,霍金試圖回答幾個問題:人類會在挑戰(zhàn)之下活下來嗎?我們應(yīng)該在太空中殖民嗎?上帝真的存在嗎?
創(chuàng)造AI可能是人類歷史上最后一個大事件
人類犯下的最大的錯誤就在于,認(rèn)定科幻只是科幻,高度智能機(jī)器是不可能普及在人們生活中的。
霍金認(rèn)為,當(dāng)AI在人工智能設(shè)計領(lǐng)域變得比人類更優(yōu)秀,以至于它可以在沒有人類幫助的情況下遞歸地自我改進(jìn)時,我們可能會面臨一場智能爆炸,最終導(dǎo)致機(jī)器的智能遠(yuǎn)遠(yuǎn)超出我們。
迄今為止,人工智能的原始形式已被證明非常有用,霍金擔(dān)心,如果創(chuàng)造出一種能與人類匹敵或超越人類的東西,后果將不堪設(shè)想。人類受到緩慢的生物進(jìn)化的限制,無法競爭,將被取代。在未來,人工智能可以發(fā)展出自己的意志,一種與我們的意志相沖突的意志。
未來,超級智能的出現(xiàn),將給人類帶來爆炸性的轉(zhuǎn)變,一個超級智能的人工智能會非常擅長實現(xiàn)它的目標(biāo),如果這些目標(biāo)與我們的不一致,人類就有巨大的麻煩了。
霍金認(rèn)為,創(chuàng)造人工智能將是人類歷史上最大的事件。不幸的是,它也可能是最后一個,除非我們學(xué)會如何規(guī)避風(fēng)險。
星際擴(kuò)張也許是人類拯救自己的唯一辦法
霍金認(rèn)為,在未來1000年的某個時間點,核對抗或環(huán)境災(zāi)難將使地球癱瘓是不可避免的。到那時,霍金希望并且相信,人類這個聰明的種族將會找到一種方法來擺脫地球上粗暴的束縛,從而在這場災(zāi)難中幸存下來。
現(xiàn)在看來,挖掘其他星球的生存機(jī)會,是人類在面對達(dá)災(zāi)難的唯一選擇。人類需要重燃20世紀(jì)60年代早期太空旅行的熱情,去探索其他太陽系。
星際擴(kuò)張也許是唯一能把人類拯救自己辦法。
新生命形式的星際旅行機(jī)器會出現(xiàn)
根據(jù)相對論,人類到達(dá)星系中心大約需要10萬年。
在科幻小說中,人們通過太空扭曲或者穿越維度來克服這個困難。但霍金認(rèn)為這些都不可能實現(xiàn),無論生命變得多么聰明。
而未來還可能出現(xiàn)一種更簡單的方法——幾乎已經(jīng)在我們的能力范圍內(nèi)——設(shè)計出能夠持續(xù)足夠長的機(jī)器用于星際旅行。當(dāng)人們到達(dá)一顆新恒星時,他們可以在合適的行星上著陸,開采出更多的物質(zhì)來制造更多的機(jī)器,這些機(jī)器可以被送往更多的恒星。
這樣的機(jī)器將會是一種新的生命形式,基于機(jī)械和電子元件而不是大分子。它們最終可能取代以DNA為基礎(chǔ)的生命,就像DNA可能取代了早期生命一樣。
本世紀(jì)出現(xiàn)基因編輯后的超人
在達(dá)爾文的進(jìn)化論中,時間會讓人變得更加聰明、善良,但是顯然,人類沒有那么多時間,等待自然進(jìn)化,我們正在進(jìn)入一個新的階段,這個階段可能被稱為“自我設(shè)計進(jìn)化”——人類將能夠改變和改善我們的DNA,改善我們在原本DNA控制下,顯示的缺陷。
由多個基因控制的智力,改善起來會困難的多,但是也不是不可能。霍金確信在本世紀(jì)人們將會發(fā)現(xiàn)如何修正智力和本能,比如攻擊性。因此,他預(yù)測反對人類基因工程的法律可能會通過。但有些人無法抗拒改善人類特征的誘惑,比如記憶力大小、抗病性和壽命長短。
一旦人們嘗試這種“誘惑”,就會出現(xiàn)超人。一旦這樣的超人出現(xiàn),那些無法與之競爭的人類將面臨重大的問題,他們將會消亡,或者變得不重要。相反,那些靠自我設(shè)計改變基因的人,會以越來越快的速度提升自己。
宇宙中還有其他智慧生命嗎?
這個問題爭論已久。
霍金提出了幾種可能。
我們習(xí)慣于認(rèn)為智能生命是進(jìn)化的必然結(jié)果,但更有可能的是,進(jìn)化是一個隨機(jī)的過程,智力只是眾多可能結(jié)果中的一個。
從進(jìn)化的年表來看,也許智力對地球上的生命來說是不太可能的發(fā)展,因為從單個細(xì)胞到多細(xì)胞生物需要很長時間——25億年——這是智力的必要前體,所以這與生命發(fā)展智力的概率很低的假設(shè)是一致的。在這種情況下,我們可能期望在銀河系中找到許多其他的生命形式,但我們不太可能找到智慧生命。
另一種無法發(fā)展到智能階段的生命可能是小行星或彗星與行星相撞。一部分觀點認(rèn)為,大約6600萬年前,一個相對較小的天體與地球相撞,導(dǎo)致了恐龍的滅絕。一些早期的小型哺乳動物幸存下來,但是任何像人類一樣大的動物幾乎肯定會被消滅。
還有一種可能性是,生命有合理的可能性形成并進(jìn)化為智能生物,但系統(tǒng)變得不穩(wěn)定,智能生命毀滅了自己。這將是一個悲觀的結(jié)論,霍金說,我希望這不是真的。
他更傾向于第四種可能性:我們忽略了其他形式的智慧生命。在我們目前的階段,與一個更先進(jìn)的文明相遇,可能有點像當(dāng)初的美洲居民與哥倫布相遇,霍金認(rèn)為對方會因此而更先進(jìn)。
霍金生前曾經(jīng)有很多預(yù)言,在人類發(fā)展過程中一一應(yīng)驗,你對本書猜想持怎樣的觀點?
-
AI
+關(guān)注
關(guān)注
87文章
31022瀏覽量
269360 -
人工智能
+關(guān)注
關(guān)注
1792文章
47372瀏覽量
238852
原文標(biāo)題:霍金留給人類的最后警告:超級智能和超人將會降臨
文章出處:【微信號:nq6819,微信公眾號:AI聶潛】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論