就目前而言,人工智能的火熱程度是大家能夠想象到的,人工智能的出現(xiàn)使得很多人都開(kāi)始關(guān)注這項(xiàng)新穎的學(xué)科。其實(shí)人工智能并不是一個(gè)新穎的學(xué)科,人工智能從提出到現(xiàn)在已經(jīng)經(jīng)歷了很長(zhǎng)的時(shí)間了。人們對(duì)于人工智能的了解還是遠(yuǎn)遠(yuǎn)不夠的,這也造成了人們對(duì)于人工智能存在一些誤解,那么人們對(duì)人工智能的誤解都有哪些呢?下面我們就給大家介紹一下這些內(nèi)容。
誤解1:超人工智能會(huì)十分友好
如果這個(gè)說(shuō)法是正確的,那我們可以預(yù)測(cè)智能爆炸將會(huì)同時(shí)引發(fā)一場(chǎng)道德爆炸。我們還可以預(yù)測(cè)由此產(chǎn)生的超人工智能系統(tǒng)將會(huì)在超智能的同時(shí)也是超道德的,所以這種預(yù)測(cè)是有些道理的。但是有些人認(rèn)為先進(jìn)的人工智能會(huì)是開(kāi)明并且天生就好的觀點(diǎn)是站不住腳的。畢竟在社會(huì)中,有許多戰(zhàn)犯都是很聰明的。智力與道德之間的聯(lián)系好像并不存在于人類(lèi)身上,因此他對(duì)這一聯(lián)系存在于其他智能形式的假設(shè)提出了質(zhì)疑。有人認(rèn)為,行為不道德的聰明人可能會(huì)給他愚蠢的同胞們帶來(lái)更大規(guī)模的傷害。智力恰好賦予了他們更聰明地做壞事的能力,而并不會(huì)使他們變好。一個(gè)能夠達(dá)成目標(biāo)的能力并不取決于這個(gè)目標(biāo)一開(kāi)始是否聰明。如果我們的人工智能具有獨(dú)一無(wú)二的在變聰明的同時(shí)會(huì)變得更加道德的能力,那我們是非常幸運(yùn)的。但是,單純依靠運(yùn)氣面對(duì)某些可能會(huì)決定我們未來(lái)的東西,并不是很好的策略。所以說(shuō),超人工智能會(huì)很友好這個(gè)觀點(diǎn)是靠不住的。
誤解2:科幻小說(shuō)是對(duì)未來(lái)人工智能的具體描述
很多人喜歡看科幻小說(shuō),用科幻小說(shuō)的內(nèi)容去預(yù)測(cè)我們未來(lái)的人工智能是一個(gè)不太靠譜的想法。當(dāng)然,很多年以來(lái)作家和未來(lái)學(xué)家都利用科幻來(lái)作夢(mèng)幻般的預(yù)言,但是人工智能可能是非常不人道的,因此我們很難了解和預(yù)測(cè)其準(zhǔn)確性質(zhì)和形式。在人類(lèi)中,人類(lèi)的思想也是千差萬(wàn)別的,即使在人類(lèi)內(nèi)部,你可能和你的朋友完全不同,而這種差別和所有可能存在的頭腦相比是微不足道的。大多數(shù)科幻是為了講述一個(gè)引人入勝的故事,并不需要在科學(xué)上準(zhǔn)確無(wú)誤。因此,在科幻中即使是對(duì)等的實(shí)體之間也往往存在沖突。所以人工智能并不是科幻小說(shuō)中最后實(shí)現(xiàn)的目標(biāo)。
誤解3:我們不應(yīng)該害怕人工智能
Facebook創(chuàng)始人扎克伯格認(rèn)為我們不應(yīng)害怕人工智能,因?yàn)槿斯ぶ悄軐?huì)為世界創(chuàng)造很多令人驚異的好東西。其實(shí)他只對(duì)了一半。我們安然享受人工智能所能創(chuàng)造的巨大的好處,比如從無(wú)人駕駛汽車(chē)到新藥的制造,然而我們卻無(wú)法保證所有通過(guò)人工智能所實(shí)現(xiàn)的將會(huì)是良性的。有很多的害處我們現(xiàn)在還無(wú)法發(fā)現(xiàn)?,F(xiàn)階段的人工智能的表現(xiàn)就是一個(gè)高度智慧的系統(tǒng),一個(gè)高度智慧的系統(tǒng)也許能了解完成一個(gè)特定任務(wù)所需要的所有知識(shí),但除開(kāi)這些它所專(zhuān)長(zhǎng)的特定的領(lǐng)域外,它很可能非常無(wú)知和愚昧。比如阿爾法狗精通于圍棋,然而除了圍棋,它對(duì)于其他領(lǐng)域卻沒(méi)有任何推理和邏輯能力。當(dāng)然,還有很多的系統(tǒng)缺乏深入的安全考慮。
誤解4:人工智能由于其極高智能,將不會(huì)犯任何錯(cuò)誤
顯然這是錯(cuò)誤的。雖然人工智能是非常智能的,但是人工智能也是由程序組成的,如果是某方面引起的故障的話(huà),那么人工智能可能會(huì)產(chǎn)生自相矛盾的邏輯,面臨無(wú)數(shù)自相矛盾的邏輯推理,也因此會(huì)干擾了其認(rèn)知從而變得非常愚蠢,而同時(shí)根本不足以對(duì)我們?cè)斐蓚Α6茖W(xué)家們認(rèn)為人工智能將很大程度上依賴(lài)其程序鎖定。他們不相信人工智能不會(huì)犯錯(cuò)誤,或者反過(guò)來(lái)他們沒(méi)有聰明到可以理解我們希望他們能做什么。人工智能就是一個(gè)在方方面面都比最聰明的人腦要更為聰明的智慧載體。在未來(lái)人工智能將會(huì)完全知道我們?cè)O(shè)計(jì)他們來(lái)做什么??茖W(xué)家相信人工智能將只會(huì)做其程序編寫(xiě)的任務(wù),但如果它足夠聰明的話(huà),它會(huì)最終理解法律的精髓和人文的意義。
誤解5:一個(gè)簡(jiǎn)單的修補(bǔ)程序?qū)⒔鉀Q人工智能的控制問(wèn)題
其實(shí)并不是這樣的,如果,我們創(chuàng)造出強(qiáng)于人類(lèi)的人工智能,我們將要面對(duì)一個(gè)非常重要的問(wèn)題,那就是如何控制人工智能,未來(lái)主義者和人工智能理論家完全不知如何限制和制約超強(qiáng)人工智能,一旦它被創(chuàng)造出來(lái),也不知道如何保證它將對(duì)人類(lèi)友好。而現(xiàn)在人們已經(jīng)提出很多簡(jiǎn)單的技巧來(lái)解決整個(gè)人工智能的控制問(wèn)題,如果把人工智能的控制編寫(xiě)程序并且希望取悅?cè)祟?lèi)以及作為人類(lèi)的工具。但是,這些解決方案要么太簡(jiǎn)單,要么太復(fù)雜。如果我們?cè)噲D給出一個(gè)連貫的、可操作的定義去尊重一次,是非常困難的。這并不是說(shuō),這種簡(jiǎn)單的技巧是無(wú)用的,許多此類(lèi)建議揭示了好的研究途徑,而且有助于解決最終的問(wèn)題。但是,在沒(méi)有大量工作來(lái)發(fā)展和探索這些技巧之前,我們是不能去信賴(lài)它們的。
誤解6:我們將會(huì)被人工智能毀滅
其實(shí)這種想法不是很牢靠的,這是因?yàn)楝F(xiàn)在還沒(méi)有證據(jù)保證人工智能會(huì)毀滅我們,或者我們將來(lái)一定沒(méi)有辦法來(lái)控制它。人工智能不討厭你,也不喜歡你,但你是由可以用做別的東西的原子組成的。當(dāng)人工智能如果有自己的意識(shí),它會(huì)有強(qiáng)烈的動(dòng)機(jī)以確保自己不被中斷或干擾,包括被關(guān)閉,或其目標(biāo)被改變,因?yàn)檫@樣這些目標(biāo)將無(wú)法實(shí)現(xiàn)。但萬(wàn)事無(wú)絕對(duì),也沒(méi)有人可以肯定人工智能會(huì)采取何種形式,以及它如何可能危及人類(lèi)。人工智能實(shí)際上可以用于控制、調(diào)節(jié)和監(jiān)控其他人工智能?;蛘?,它可能被灌輸人類(lèi)價(jià)值,以及強(qiáng)制要求友好對(duì)待人類(lèi)。
誤解7:人工智能將接手我們所有的工作:
這是一個(gè)十分恐怖的事情,其實(shí)人工智能自動(dòng)完成人類(lèi)工作的能力與它摧毀人類(lèi)的潛能是兩回事。而技術(shù)的進(jìn)步和未來(lái)的失業(yè)往往是密不可分的。思考人工智能在未來(lái)可能扮演的角色無(wú)可厚非,但是我們更應(yīng)該關(guān)注的是后面幾十年的問(wèn)題。人工智能主要完成的還是大規(guī)模自動(dòng)化的工作。毫無(wú)疑問(wèn),人工智能將徹底接管包括從工廠做工到上層的白領(lǐng)工作在內(nèi)的許多現(xiàn)有的工作崗位。有專(zhuān)家預(yù)測(cè),在美國(guó)有一半的工作崗位可能在不久的將來(lái)實(shí)現(xiàn)自動(dòng)化。但這并不意味著我們不能適應(yīng)這種巨變。通過(guò)人工智能將自己從紛雜的體力和腦力勞動(dòng)中解放出來(lái),這也是人們所希望的。
在接下來(lái)的幾十年中,人工智能會(huì)摧毀許多工作,但是這是一件好事,例如,自動(dòng)駕駛汽車(chē)可以取代卡車(chē)司機(jī),這將減少運(yùn)輸成本,從而降低它的商品購(gòu)買(mǎi)價(jià)格。而這些人將錢(qián)節(jié)省下來(lái)可以購(gòu)買(mǎi)其他商品和服務(wù),因而會(huì)創(chuàng)造新的工作。所以最終的結(jié)果可能是,人工智能會(huì)產(chǎn)生創(chuàng)造財(cái)富的新途徑,而人類(lèi)可以騰出來(lái)做其他事情。而在人工智能的進(jìn)步將帶動(dòng)其他領(lǐng)域,尤其是制造業(yè)的發(fā)展。在未來(lái),滿(mǎn)足人類(lèi)需求會(huì)變得更加容易,而不是更難。人工智能的出現(xiàn)會(huì)使得解放人們的雙手。
誤解8:來(lái)自人工智能的危險(xiǎn)和機(jī)器人是一回事
這是一個(gè)特別常見(jiàn)的錯(cuò)誤,如果超級(jí)人工智能真的想毀滅人類(lèi),它不會(huì)使用揮舞機(jī)關(guān)槍的機(jī)器人。它會(huì)使用更有效的手段,我們就給大家舉個(gè)例子,比如釋放生物瘟疫,或發(fā)動(dòng)基于納米技術(shù)的災(zāi)難?;蛘呖梢灾苯悠茐牡舸髿鈱?。人工智能是潛在的危險(xiǎn),并不因?yàn)樗馕吨鴻C(jī)器人的未來(lái),而是它將如何對(duì)世界展現(xiàn)它的存在。
誤解9:我們永遠(yuǎn)不會(huì)創(chuàng)造出類(lèi)似人類(lèi)智慧的人工智能
其實(shí)并不是這樣的,就目前而言,我們已經(jīng)在一些游戲領(lǐng)域,如象棋與圍棋、股市交易和談話(huà)等創(chuàng)造出可以與人類(lèi)智慧匹敵、甚至超過(guò)人類(lèi)的計(jì)算機(jī)。而背后驅(qū)動(dòng)的計(jì)算機(jī)和算法只會(huì)越來(lái)越好;因此,計(jì)算機(jī)趕超其他人類(lèi)活動(dòng),將只是個(gè)時(shí)間問(wèn)題。在人工智能領(lǐng)域工作的基本每個(gè)人都認(rèn)為,機(jī)器將最終會(huì)替代我們自己。支持者和懷疑論者之間的唯一真正的區(qū)別只是時(shí)間框架問(wèn)題。未來(lái)學(xué)家普遍認(rèn)為機(jī)器替代人類(lèi)可能會(huì)在幾十年發(fā)生。
誤解:10:工智能會(huì)有自覺(jué)的意識(shí),其實(shí)這種想法不完全正確
關(guān)于機(jī)器智能的一個(gè)共同的假設(shè)是,它是自覺(jué)的有意識(shí)的,也就是說(shuō),它會(huì)像人類(lèi)一樣思考。更重要的是,但是現(xiàn)在我們還沒(méi)有實(shí)現(xiàn)人工普遍智能,也就是說(shuō)能夠執(zhí)行任何一項(xiàng)人類(lèi)能夠進(jìn)行的智能任務(wù),因?yàn)槲覀內(nèi)狈﹃P(guān)于意識(shí)的完整科學(xué)理論知識(shí)體系。而人工智能的意識(shí)無(wú)疑是一個(gè)有趣和重要的主題,但還是有很多人不相信意識(shí)是匹敵人類(lèi)水平的人工智能必要的部分,我們完全可以想像一個(gè)非常聰明的機(jī)器,缺乏一個(gè)或多個(gè)這種屬性。最后,我們可以建立一個(gè)非常聰明的,但沒(méi)有自我意識(shí)的,不能主觀或有意識(shí)地體驗(yàn)世界的人工智能。沙納漢說(shuō),將智慧和意識(shí)同時(shí)融合在一臺(tái)機(jī)器里也是有可能的,但是,我們不應(yīng)該忽視這樣一個(gè)事實(shí),即智慧和意識(shí)是兩個(gè)不同的概念。只是因?yàn)橐慌_(tái)機(jī)器通過(guò)圖靈測(cè)試從而證實(shí)計(jì)算機(jī)和人類(lèi)在智能上無(wú)區(qū)別,并不意味著它是有意識(shí)的。對(duì)我們來(lái)說(shuō),先進(jìn)的人工智能可能會(huì)導(dǎo)致機(jī)器看起來(lái)是意識(shí)的假象,但是在自我自覺(jué)方面,它并不比一塊巖石或計(jì)算器更能感知自我意識(shí)。
-
AI
+關(guān)注
關(guān)注
87文章
31338瀏覽量
269740
原文標(biāo)題:聊一聊人們對(duì)人工智能的十大誤解
文章出處:【微信號(hào):Imgtec,微信公眾號(hào):Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論