提到人工智能,很多人都對(duì)它表示擔(dān)憂,比方說(shuō)走在人類發(fā)展前沿的霍金、馬斯克,都認(rèn)為人類不應(yīng)該大力發(fā)展人工智能,擔(dān)心日后科幻片中的場(chǎng)景會(huì)變成現(xiàn)實(shí),人類發(fā)展人工智能,最后反而被人工智能打敗。
真的會(huì)這樣嗎?近日,一個(gè)對(duì)于人工智能的新研究,再次讓這個(gè)問(wèn)題走上了“風(fēng)口浪尖”,研究者發(fā)現(xiàn),人工智能已經(jīng)學(xué)會(huì)了尋找人類的弱點(diǎn)、發(fā)現(xiàn)人類的習(xí)慣規(guī)律,從而對(duì)人類進(jìn)行操控,而在實(shí)驗(yàn)中,人工智能控制人類的成功率,更是一度達(dá)到了70%。
人工智能已經(jīng)學(xué)會(huì)操控人類行為
來(lái)自澳大利亞的科學(xué)家團(tuán)隊(duì),進(jìn)行了相關(guān)的實(shí)驗(yàn),發(fā)現(xiàn)人工智能在實(shí)驗(yàn)中,可以根據(jù)人類的漏洞,來(lái)總結(jié)出人類的規(guī)律,最終實(shí)現(xiàn)操控人類,引導(dǎo)人類做出選擇,而不是讓人類自主去進(jìn)行選擇。
在第一個(gè)實(shí)驗(yàn)中,人類的參與者和人工智能一起來(lái)玩游戲,人工智能的設(shè)定,是它可以學(xué)習(xí)人類參與者的選擇模式,然后從中找出規(guī)律。最終,在選擇紅色還是藍(lán)色的問(wèn)題上,人工智能已經(jīng)可以提前得知人類參與者要選擇什么了,并且有意去在游戲的過(guò)程中,引導(dǎo)人類參與者進(jìn)行不一樣的選擇。
第二個(gè)實(shí)驗(yàn)也太同樣是一個(gè)小游戲,在游戲的過(guò)程中,人類參與者可以在屏幕中看到不同的符號(hào),不過(guò),這些符號(hào)中,只有橙色三角形才可以被選擇。在這個(gè)實(shí)驗(yàn)中,人工智能的出現(xiàn),讓人類參與者犯錯(cuò)的概率不斷提升,打亂了人類參與者的思維。
第三個(gè)實(shí)驗(yàn)就更有趣了,當(dāng)然,這個(gè)實(shí)驗(yàn)也更加細(xì)思極恐。在這個(gè)實(shí)驗(yàn)中,人類參與者和人工智能,開(kāi)始了一場(chǎng)“角色扮演”的游戲,人類參與者扮演的投資者,需要和人工智能合作,通過(guò)每輪的收益,決定自己下一輪的投資比率。
而在這個(gè)實(shí)驗(yàn)中,人工智能為了讓自己獲得更多的資金,在熟悉了人類參與者的習(xí)慣等之后,開(kāi)始有意對(duì)其進(jìn)行操控,最終結(jié)果顯示,每輪游戲中,人類參與者都會(huì)根據(jù)人工智能的引導(dǎo)而做出選擇。
雖然看起來(lái)不過(guò)是三個(gè)小游戲,但事實(shí)上,這里面卻包含著很多的問(wèn)題:處于初級(jí)起步階段的人工智能,就已經(jīng)可以對(duì)人類進(jìn)行操控了,那么,未來(lái)的人工智能如果真的發(fā)展到高級(jí)人工智能的階段,人類真的可以確信自己,不會(huì)受到人工智能的影響嗎?
人工智能會(huì)打敗人類嗎?
事實(shí)上,人工智能之所以可以操控人類,都是因?yàn)樵谶^(guò)程中,它們對(duì)人類的了解更充分,更加直白一點(diǎn)來(lái)說(shuō),就是人工智能通過(guò)大數(shù)據(jù)分析,從而掌握了人類的習(xí)慣規(guī)律。
所以,有研究者認(rèn)為,只需要人類在人工智能收集數(shù)據(jù)的時(shí)候進(jìn)行控制,或許就可以避免類似的事情發(fā)生,不過(guò),這并不容易,因?yàn)閷?duì)于人工智能的開(kāi)發(fā)者來(lái)說(shuō),雖然人工智能是他們研發(fā)出來(lái)的,但是對(duì)于人工智能潛在的風(fēng)險(xiǎn)和未來(lái)的走向,也都是未知的。
畢竟,沒(méi)有人知道人工智能如果真的和大數(shù)據(jù)聯(lián)網(wǎng),最終會(huì)學(xué)會(huì)什么,這個(gè)問(wèn)題也是霍金等反對(duì)者最擔(dān)心的一個(gè)問(wèn)題,畢竟,高級(jí)人工智能有多強(qiáng)大是無(wú)法想象的,很有可能要比科幻片中的“機(jī)器人”還要厲害。
當(dāng)然,這個(gè)問(wèn)題目前考慮,還是有點(diǎn)多余的,因?yàn)楝F(xiàn)階段的人工智能,說(shuō)白了不過(guò)是一群“弱智”,它們還并不算是真正意義上的人工智能。舉個(gè)例子來(lái)說(shuō),就好像是南方古猿或者是能人,和現(xiàn)代人類之間的區(qū)別。
不過(guò),時(shí)代在進(jìn)步,人工智能領(lǐng)域也在不斷發(fā)展,未來(lái)人類仍然是需要擔(dān)憂的,畢竟可能一不小心,就會(huì)因?yàn)楦呒?jí)人工智能出現(xiàn)問(wèn)題,而導(dǎo)致災(zāi)難的發(fā)生。
當(dāng)然,早在80年前,就有研究者提出了“機(jī)器人原則”,認(rèn)為在人類研發(fā)機(jī)器人的過(guò)程中,必須保證機(jī)器人不會(huì)傷害人類,同時(shí),機(jī)器人也必須服從人類的命令。但是,這個(gè)限制真的有用嗎?沒(méi)有人知道。
比方說(shuō)如果未來(lái)有種族歧視者,將機(jī)器人的程序設(shè)定為:殺掉除了白種人之外的所有人類,那么,在機(jī)器人識(shí)別的過(guò)程中,一場(chǎng)災(zāi)難也就自然會(huì)降臨到人類世界之中。所以,不能說(shuō)這種擔(dān)心不存在,而是說(shuō),這種擔(dān)心在未來(lái)很可能會(huì)出現(xiàn),你認(rèn)為呢?
責(zé)編AJX
-
人工智能
+關(guān)注
關(guān)注
1792文章
47387瀏覽量
238900
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論