AI的未來,會(huì)如何影響人類的未來?
本文是對(duì)人工智能未來好與壞的探討,內(nèi)容綜合選自《AI的25種可能》。在書中Edge創(chuàng)始人約翰布羅克曼攜手哲學(xué)家與認(rèn)知科學(xué)家丹尼爾丹尼特;心理學(xué)家史蒂芬平克、艾莉森高普尼克;計(jì)算機(jī)科學(xué)家朱迪亞珀?duì)?、斯圖爾特羅素、丹尼爾希利斯;物理學(xué)家邁克斯泰格馬克、戴維多伊奇;科技史學(xué)家史學(xué)家喬治戴森,以及藝術(shù)家、發(fā)明家、企業(yè)家等多個(gè)領(lǐng)域的思想家,進(jìn)行了一場(chǎng)關(guān)于人工智能的大思考。
認(rèn)知心理學(xué)家史蒂芬平克反對(duì)悲觀的末日語言,他認(rèn)為那些預(yù)言源自于心理偏見,媒體的報(bào)道也是助紂為虐,“機(jī)器對(duì)社會(huì)造成的危險(xiǎn)不來自機(jī)器本身,而來自人類如何看待它。”
邁克斯泰格馬克從物理學(xué)家的角度表示,智能不獨(dú)屬于人類,所以通用人工智能的出現(xiàn)只是時(shí)間問題,現(xiàn)在的關(guān)鍵問題在于讓AI能理解、采納和保留我們的目標(biāo)。
塞思勞埃德則認(rèn)為,人們對(duì)深度學(xué)習(xí)等方法的期待要適度,雖然AI有了長(zhǎng)足的發(fā)展,但機(jī)器人“還是不會(huì)系鞋帶”。
史蒂芬平克
在不理智的頭腦想象區(qū),
總是很容易想象出災(zāi)難場(chǎng)景
今天許多科技預(yù)言的一個(gè)焦點(diǎn)是人工智能,在原始的反烏托邦科幻作品中,計(jì)算機(jī)瘋狂地運(yùn)行并奴役人類,人類無法阻擋它們的控制;而在更新的版本中,它們偶然地征服了人類,一心一意地尋求我們賦予的目標(biāo),盡管會(huì)對(duì)人類福祉產(chǎn)生副作用。
無論是在哪個(gè)版本中,人工智能都是焦點(diǎn)。不過我還是覺得這兩種威脅都是虛構(gòu)的,因?yàn)樗从谝环N狹隘的技術(shù)決定論,這種技術(shù)決定論忽略了在像計(jì)算機(jī)或大腦這樣的智能系統(tǒng)以及整個(gè)社會(huì)中的信息和控制網(wǎng)絡(luò)。
這種對(duì)征服的恐懼來自對(duì)智能的模糊理解,其模糊之處在于將智能歸于一種存在之鏈和尼采式的權(quán)力意志,而不是根據(jù)信息、計(jì)算和控制對(duì)智能和目的進(jìn)行的維納式分析。
在這些恐怖場(chǎng)景中,智能被描繪成一種全能的、能實(shí)現(xiàn)愿望的神藥,智能主體各自擁有不同數(shù)量的這種神藥。
人類比動(dòng)物擁有更多的神藥,而人工智能的計(jì)算機(jī)或機(jī)器人比人類擁有的更多。
既然我們?nèi)祟愒梦覀儾桓卟坏偷闹悄荞Z養(yǎng)或消滅了那些不太有智能的動(dòng)物,既然技術(shù)先進(jìn)的社會(huì)奴役或消滅了技術(shù)水平很低的社會(huì),那么超級(jí)聰明的人工智能也會(huì)對(duì)我們?nèi)祟愖鐾瑯拥氖虑椤?/p>
但是這些場(chǎng)景混淆了智能與動(dòng)機(jī)、信念與欲望、推理與目標(biāo)、圖靈闡明的計(jì)算和維納闡明的控制。
即使我們發(fā)明了超人智能機(jī)器人,他們?yōu)槭裁匆鬯麄兊闹魅嘶蚪庸苁澜纾恐悄苁侵高\(yùn)用新的手段達(dá)到目標(biāo)的能力。
但是這些目標(biāo)與智能無關(guān),因?yàn)槁斆鞑⒉坏韧谝欢ㄒ非竽承〇|西。巧合的是,智人的智能是達(dá)爾文自然選擇的產(chǎn)物,而自然選擇本質(zhì)上是一個(gè)競(jìng)爭(zhēng)過程。
在智人的大腦中,推理與一些諸如支配對(duì)手和積累資源等目標(biāo)捆綁在一起。
但是,把某些靈長(zhǎng)類動(dòng)物的邊緣腦中的回路與智能的本質(zhì)混為一談是錯(cuò)誤的。
沒有任何一個(gè)復(fù)雜系統(tǒng)定律表明,智能主體一定會(huì)變成無情的自大狂。
邁克斯泰格馬克
通用人工智能的真正風(fēng)險(xiǎn)
不是它的惡意,而是它的能力
許多思想家把超級(jí)智能這個(gè)概念貶低為科幻小說,因?yàn)樗麄冋J(rèn)為智能是一種神秘的東西,只能存在于生物有機(jī)體,尤其是人類中,他們還認(rèn)為這種智能從根本上限制了今天的人類能做什么。
但是,從我作為物理學(xué)家的角度來看:
智能只是由四處移動(dòng)的基本粒子所進(jìn)行的某種信息處理,沒有任何物理定律表明人類不能制造出在任何方面都比我們具有更高級(jí)智能的機(jī)器,這種機(jī)器能孕育宇宙生命。
這表明,我們僅僅看到了智能的冰山一角,存在這么一種驚人的可能性:
也許我們能釋放出自然界中所蘊(yùn)藏的全部智能,利用它來幫助人類繁榮發(fā)展,或掙扎求生。
真正的問題是,人工智能安全研究必須在嚴(yán)格的期限內(nèi)進(jìn)行:
在通用人工智能到來之前,我們需要弄清楚如何讓人工智能理解、采納和保留我們的目標(biāo)。
機(jī)器越智能、越強(qiáng)大,使它們的目標(biāo)與我們的目標(biāo)一致就越重要。
只要我們制造的機(jī)器相對(duì)愚蠢,那么問題便不是人類的目標(biāo)是否會(huì)占上風(fēng),而是在達(dá)到我們與機(jī)器目標(biāo)一致之前,機(jī)器會(huì)造成多少麻煩。
然而,如果制造出超級(jí)智能,那么情況就會(huì)反過來:
因?yàn)橹悄芫褪菍?shí)現(xiàn)目標(biāo)的能力,所以超級(jí)智能人工智能從定義上來說,比起我們?nèi)祟悓?shí)現(xiàn)自己的目標(biāo),它更擅長(zhǎng)完成它的目標(biāo),因此會(huì)占上風(fēng)。
換句話說,通用人工智能的真正風(fēng)險(xiǎn)不是它的惡意,而是它的能力。
一個(gè)擁有超級(jí)智能的通用人工智能將非常擅長(zhǎng)完成它的目標(biāo),如果這些目標(biāo)與我們?nèi)祟惖牟灰恢?,我們就有麻煩了?/p>
為修建水力發(fā)電大壩需要淹沒蟻丘,對(duì)這件事,人類不會(huì)反復(fù)三思,所以我們不要把人類置于螞蟻的位置。
大多數(shù)研究人員認(rèn)為,如果我們最終創(chuàng)造了超級(jí)智能,我們應(yīng)該確保它是人工智能安全先驅(qū)埃利澤尤德考斯基所稱的“友好的人工智能”,其目標(biāo)在某種深層意義上是有益的。
塞思勞埃德
雖然AI有了長(zhǎng)足的發(fā)展,
但機(jī)器人“還是不會(huì)系鞋帶”
我們不應(yīng)該完全相信技術(shù)奇點(diǎn)一說,預(yù)測(cè)技術(shù)進(jìn)步的常見困難以及發(fā)展超級(jí)智能時(shí)特有的問題都應(yīng)該讓我們警惕,不要高估信息處理的力量和效能。
沒有任何一種指數(shù)式增長(zhǎng)能一直持續(xù)下去。
原子彈爆炸呈指數(shù)式增長(zhǎng),但也就持續(xù)到燃料耗盡之時(shí)。同樣地,摩爾定律的指數(shù)式增長(zhǎng)近來開始進(jìn)入基礎(chǔ)物理所設(shè)定的極限之中。
計(jì)算機(jī)的時(shí)鐘速度在 15 年前不超過幾千兆赫,僅僅是因?yàn)樗俣仍俑?a target="_blank">芯片就開始熱得熔化了。由于隧道效應(yīng)和電流泄漏,晶體管的小型化已經(jīng)進(jìn)入量子力學(xué)領(lǐng)域。最終,摩爾定律驅(qū)動(dòng)的各種存儲(chǔ)器和處理器的指數(shù)式增長(zhǎng)都將停止。
然而,再過幾十年,計(jì)算機(jī)的原始信息處理能力也許就能與人類的大腦匹敵,至少按照每秒處理的比特率和位翻轉(zhuǎn)粗略計(jì)算的話是如此。
人類的大腦構(gòu)造復(fù)雜,經(jīng)過幾百萬年的自然選擇變成了現(xiàn)在的樣子。越來越敏感的儀器和成像技術(shù)表明,我們的大腦在結(jié)構(gòu)和功能上遠(yuǎn)比維納所能想象的更多樣、更復(fù)雜。
最近,我問現(xiàn)代神經(jīng)科學(xué)先驅(qū)托馬索波焦(Tomaso Poggio),是否擔(dān)心隨著計(jì)算機(jī)處理能力的快速提高,計(jì)算機(jī)將很快趕上人類的腦?!敖^不可能。”他回答。
對(duì)奇點(diǎn)主義的恐懼,主要是擔(dān)心隨著計(jì)算機(jī)更多地參與設(shè)計(jì)它們自己的軟件,它們將迅速擁有超人的計(jì)算能力。
但機(jī)器學(xué)習(xí)的真實(shí)情況卻恰恰相反。
當(dāng)機(jī)器的學(xué)習(xí)能力變得越來越強(qiáng)時(shí),它們的學(xué)習(xí)方式會(huì)變得越來越像人類。
許多事例表明,機(jī)器的學(xué)習(xí)是在人類和機(jī)器老師的監(jiān)管下進(jìn)行的。對(duì)計(jì)算機(jī)進(jìn)行教育就像對(duì)青少年進(jìn)行教育一樣困難、緩慢。
因此,基于深度學(xué)習(xí)的計(jì)算機(jī)系統(tǒng)正在變得越來越人性化。
它們帶來的學(xué)習(xí)技能不是“優(yōu)于”而是“補(bǔ)充”人類學(xué)習(xí):計(jì)算機(jī)學(xué)習(xí)系統(tǒng)可以識(shí)別人類無法識(shí)別的模式,反之亦然。
世界上最好的國際象棋棋手既不是計(jì)算機(jī),也不是人類,而是與計(jì)算機(jī)合作的人。
網(wǎng)絡(luò)空間里確實(shí)存在有害的程序,但這些主要是惡意軟件,即病毒,它們不是因?yàn)槠涑?jí)智能而為世人所知,而是因?yàn)閻阂獾臒o知而遭世人譴責(zé)。
普京強(qiáng)調(diào)人工智能關(guān)系國家未來
俄羅斯總統(tǒng)普京日前在莫斯科出席首屆“人工智能之旅”國際會(huì)議時(shí)表示,人工智能具有極大潛力,誰能掌握它,誰就會(huì)脫穎而出,向前發(fā)展,進(jìn)而獲得巨大競(jìng)爭(zhēng)優(yōu)勢(shì),因此人工智能關(guān)系到國家未來, 俄各界應(yīng)該積極推動(dòng)人工智能研發(fā)應(yīng)用事業(yè)。
據(jù)俄總統(tǒng)網(wǎng)站9日發(fā)布的消息,普京在會(huì)上發(fā)言時(shí)表示,人工智能研發(fā)的“推進(jìn)劑”是大量數(shù)據(jù)和信息,這些數(shù)據(jù)信息的質(zhì)量越高,人工智能所應(yīng)用的計(jì)算方法便越有效,其推算結(jié)果也越準(zhǔn)確,因此俄有關(guān)方面需消除人工智能研發(fā)者獲取充足數(shù)據(jù)信息方面的障礙。
普京說:“俄還要大力培養(yǎng)人工智能研發(fā)所需的編程人員、數(shù)學(xué)和計(jì)算機(jī)語言學(xué)專業(yè)人員、數(shù)據(jù)處理及深度學(xué)習(xí)領(lǐng)域的專家,最終使經(jīng)濟(jì)、商務(wù)、教育、衛(wèi)生、司法和其他領(lǐng)域的從業(yè)人員都能理解、使用與之相關(guān)的人工智能技術(shù),進(jìn)而構(gòu)建生產(chǎn)、管理新流程?!?/p>
談及保障協(xié)助工作時(shí),普京強(qiáng)調(diào)說,俄官方需確保俄研發(fā)界在人工智能創(chuàng)新和應(yīng)用倡導(dǎo)方面擁有更大限度的自由度,為其建立便捷的風(fēng)險(xiǎn)投資機(jī)制,解決管理和法規(guī)方面的相關(guān)問題,為俄初創(chuàng)企業(yè)將人工智能產(chǎn)品推向市場(chǎng)創(chuàng)造良好條件。
普京表示:“在數(shù)學(xué)、物理和其他精密科學(xué)及人文領(lǐng)域具備實(shí)力的俄羅斯,必須也能夠在人工智能領(lǐng)域成為全球領(lǐng)先者之一?!?/p>
-
人工智能
+關(guān)注
關(guān)注
1792文章
47525瀏覽量
239265
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論