如果有一天,機(jī)器學(xué)會了互相通信,超越人類的認(rèn)知,這個(gè)世界會變成什么樣?美國前國務(wù)卿亨利·基辛格向人類發(fā)出了一個(gè)嚴(yán)厲警告:人工智能的進(jìn)步可能導(dǎo)致一個(gè)人類將無法理解的世界 ,而我們應(yīng)該從現(xiàn)在就開始準(zhǔn)備,否則“不久后我們就會發(fā)現(xiàn)開始得太晚了”。
“如果機(jī)器學(xué)會相互通信怎么辦? 如果他們開始建立自己的目標(biāo)怎么辦? 如果他們變得太聰明以至于做出超出人類思維能力的決策呢?”
這些是95歲的基辛格發(fā)表在《大西洋月刊》的文章《啟蒙如何終結(jié)》(How The Enlightenment Ends)中提出的一些問題。
基辛格對人工智能的興趣始于他了解到一個(gè)已經(jīng)成為Go專家的計(jì)算機(jī)程序的工作原理。在比國際象棋更復(fù)雜的圍棋比賽中,基于圍棋規(guī)則,機(jī)器在與自己對弈的實(shí)戰(zhàn)中來訓(xùn)練自己去掌握游戲;它會從錯(cuò)誤中吸取教訓(xùn),重新定義算法,完美呈現(xiàn)“熟能生巧”。
進(jìn)入未知世界
基辛格警告稱,我們正處于“一場全面的技術(shù)革命中,這場革命的后果我們沒有完全考慮,其高潮可能是一個(gè)依賴數(shù)據(jù)和算法驅(qū)動(dòng)、不受倫理或哲學(xué)規(guī)范支配的機(jī)器的世界?!?/p>
基辛格應(yīng)用了自動(dòng)駕駛汽車的例子。駕駛汽車需要在不可預(yù)測的情況下做出判斷。他問道,如果汽車發(fā)現(xiàn)自己必須在殺死祖父母或殺死一個(gè)孩子之間作出決定,會發(fā)生什么?它會選擇誰,為什么?
他說,人工智能遠(yuǎn)遠(yuǎn)超出了我們習(xí)慣的那種自動(dòng)化,因?yàn)槿斯ぶ悄苡心芰Α敖⒆约旱哪繕?biāo)”,這使它“本質(zhì)上不穩(wěn)定”。換句話說,通過運(yùn)行,AI“培養(yǎng)了一個(gè)以前人類認(rèn)為是為自己保留的能力?!?/p>
蘇格蘭國家黨主席Nicola Sturgeon在Twitter上推薦基辛格的文章
意想不到的后果
典型的科幻小說敘述是機(jī)器人將發(fā)展到他們成為自己的創(chuàng)造者并威脅全人類的程度 。
但是,根據(jù)基辛格的說法,雖然人工智能的危險(xiǎn)性很大,但現(xiàn)實(shí)中它的威脅性可能會更溫和一點(diǎn)。他認(rèn)為,更有可能的是危險(xiǎn)將來自人工智能“由于語境理解的缺失”而誤解人類指令。
最近的一個(gè)例子是一個(gè)名為Tay的AI聊天機(jī)器人。該機(jī)器被指示以一名19歲女孩的身份進(jìn)行友好交談,然而最終卻成為種族主義,產(chǎn)生了性別歧視和煽動(dòng)性反應(yīng)?;粮裾f,人工智能不能完全按照人類的期望工作的風(fēng)險(xiǎn)在于,它可能會從我們預(yù)期的結(jié)果“陷入災(zāi)難性的偏離”。
對人類來說太聰明了
第二個(gè)危險(xiǎn)是,人工智能將變得過于聰明,無論是為了它們自己的利益還是我們的利益。在Go游戲中,計(jì)算機(jī)能夠制造出人類還沒想到的前所未有具有戰(zhàn)略意義的動(dòng)作。 “這些動(dòng)作是否超出了人類大腦的能力?”基辛格問道。 “或者人類所了解的他們已經(jīng)被新主人掌控了嗎?”
事實(shí)是人工智能學(xué)習(xí)速度比人類快得多。最近的另一個(gè)例子是計(jì)算機(jī)程序AlphaZero,它學(xué)會了國際象棋界史無前例的下棋風(fēng)格。在僅僅給出了游戲的基本規(guī)則后,它在短短幾個(gè)小時(shí)內(nèi)便達(dá)到了人類花費(fèi)了1500年才達(dá)到的技能水平。
原英國財(cái)政大臣George sborne的Twitter
這種極快的學(xué)習(xí)過程意味著人工智能也將犯下更多“比人類更快,更大”的錯(cuò)誤?;粮裰赋觯斯ぶ悄苎芯咳藛T經(jīng)常設(shè)想通過將“道德”和“倫理”結(jié)果納入編程能夠避免這些錯(cuò)誤,但是什么是符合道德的和倫理的?這些是人類仍然在爭論如何定義的事情。
沒辦法解釋
如果AI達(dá)到預(yù)期目標(biāo)但無法解釋其基本原理會發(fā)生什么? “人工智能的決策能力是否會超越人類語言和理性的解釋力?”基辛格問道。
他認(rèn)為,這種情況對人類意識的影響將是深遠(yuǎn)的。事實(shí)上,他認(rèn)為這是我們所面臨的新世界最重要的問題。
“如果人類的認(rèn)知被人工智能超越,那將會變成什么樣?社會是不是再也無法解釋他們賴以生存的世界對他們來說是否還有意義?”
法律和機(jī)會
除了哲學(xué)問題之外,基辛格還概述了一些合法性的問題:在這個(gè)發(fā)生巨大變化的世界中,誰將對人工智能的行為負(fù)責(zé)? 如何為其錯(cuò)誤承擔(dān)責(zé)任? 人類設(shè)計(jì)的法律體系能跟上一個(gè)能夠思考的人工智能世界的腳步嗎?
不過關(guān)于人工智能也并不全是這么黑暗又令人沮喪的事情。 基辛格承認(rèn),AI遲早會給醫(yī)療科學(xué)、清潔能源和環(huán)境問題等領(lǐng)域帶來“巨大的好處”。
基辛格承認(rèn)科學(xué)家更關(guān)心推動(dòng)發(fā)現(xiàn)的極限,而不是理解他們或思考他們的哲學(xué)后果。政府也更關(guān)心AI如何被用于安全和情報(bào),而不是檢驗(yàn)其對人類狀況的結(jié)果。
最后,這位高級外交官懇求美國政府將人工智能作為國家重點(diǎn)關(guān)注的焦點(diǎn),“最重要的是,從協(xié)調(diào)人工智能與人文傳統(tǒng)的關(guān)系角度去看。”
他認(rèn)為,應(yīng)該建立一個(gè)由該領(lǐng)域杰出思想家組成的總統(tǒng)委員會,以幫助制定國家遠(yuǎn)景計(jì)劃。 “如果我們不盡快開始這項(xiàng)工作,”基辛格寫道,“不久后我們就會發(fā)現(xiàn)開始得太晚了?!?/p>
今年3月,一則亞馬遜Echo音箱中搭載的虛擬助手Alexa在半夜發(fā)出令人毛骨悚然的笑聲的新聞傳遍網(wǎng)絡(luò),亞馬遜隨后立即對其程序進(jìn)行修改防止誤報(bào)。雖然知道這是由于語音識別的誤判,但想象一下一個(gè)機(jī)器半夜發(fā)出的怪笑依然會讓人有點(diǎn)后怕。
如果有一天,機(jī)器真的發(fā)展到了互相通信、做出超越人類認(rèn)知的決策的地步,人類將做出怎樣的應(yīng)對措施呢?
-
機(jī)器人
+關(guān)注
關(guān)注
211文章
28501瀏覽量
207467 -
人工智能
+關(guān)注
關(guān)注
1792文章
47409瀏覽量
238923 -
自動(dòng)駕駛
+關(guān)注
關(guān)注
784文章
13856瀏覽量
166587
原文標(biāo)題:基辛格發(fā)出警告:人工智能太聰明該怎么辦?
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論