1、人工智能的本質(zhì)
人工智能是相對(duì)于人的智能而言的。正是由于意識(shí)是一種特殊的物質(zhì)運(yùn)動(dòng)形式,所以根據(jù)控制論理論,運(yùn)用功能模擬的方法,制造電腦模擬人腦的部分功能,把人的部分智能活動(dòng)機(jī)械化,叫人工智能。人工智能的本質(zhì)是對(duì)人思維的信息過(guò)程的模擬,是人的智能的物化。盡管人工智能可以模擬人腦的某些活動(dòng),甚至在某些方面超過(guò)人腦的功能,但人工智能不會(huì)成為人類(lèi)智能而取代人的意識(shí)。
2、人工智能與人類(lèi)思維的本質(zhì)區(qū)別
人工智能是思維模擬,并非人的思維本身,決不能把“機(jī)器思維”和人腦思維等同起來(lái),認(rèn)為它可以超過(guò)人腦思維是沒(méi)有根據(jù)的。
(1)人工智能是無(wú)意識(shí)的機(jī)械的、物理的過(guò)程。人的智能主要是生理的和心理的過(guò)程。
(2)人工智能沒(méi)有社會(huì)性。人類(lèi)智慧具有社會(huì)性。
(3)人工智能沒(méi)有人類(lèi)意識(shí)特有的能動(dòng)性和創(chuàng)造能力。人類(lèi)思維則主動(dòng)提出新的問(wèn)題,進(jìn)行發(fā)明創(chuàng)造。
(4)電腦可以代替甚至超過(guò)人類(lèi)的部分思維能力,但它同人腦相比,局部超出,整體不及。智能機(jī)器是人類(lèi)意識(shí)的物化,它的產(chǎn)生和發(fā)展,既依賴于人類(lèi)科學(xué)技術(shù)的發(fā)展水平,又必須以人類(lèi)意識(shí)對(duì)于自身的認(rèn)識(shí)為前提。因此,從總體上說(shuō);人工智能不能超過(guò)人類(lèi)智慧的界限。關(guān)于電腦能夠思維,甚至?xí)^(guò)人的思維,電腦、機(jī)器人將來(lái)統(tǒng)治人類(lèi)的觀點(diǎn)是完全沒(méi)有根據(jù)的。
他們居然雇人扮AI這是玩哪出
很多美其名曰“人工智能”的高科技,竟壓根就是真人手動(dòng)操作的“智能人工”。
事情要從本月初說(shuō)起。2日,《華爾街日?qǐng)?bào)》在刊文曝出了一宗“谷歌郵件泄露”丑聞。為了優(yōu)化客戶服務(wù)體驗(yàn),谷歌郵箱(Gmail)竟允許上百家第三方App的開(kāi)發(fā)人員瀏覽用戶的電子郵件。
涉事公司之一,eDataSource的前CTO錫德·羅德(Thede Loder)表示,讓員工“偷偷”讀用戶郵件的事,在數(shù)據(jù)服務(wù)行業(yè)中早已屢見(jiàn)不鮮。但是他解釋,這么做是為了改進(jìn)軟件算法,訓(xùn)練AI系統(tǒng),所以工程師們只是“偶爾看看”,也就是讓工程師“輔助”AI。
其他諸如Return Path 和Edison Software等軟件公司的說(shuō)法,和羅德如出一轍。
事情在第二天便得到了谷歌的承認(rèn)。但除了是否侵犯用戶隱私外,字里行間顯然還隱藏著另一個(gè)重要的問(wèn)題:
為什么讀郵件的都是人工?
這還沒(méi)完。英國(guó)《衛(wèi)報(bào)》在6日繼續(xù)“吐槽”稱,讓人來(lái)“輔助”AI已經(jīng)不錯(cuò)了,以往還有很多更過(guò)分的“黑科技”。
2008年,英國(guó)一個(gè)自稱可以“自動(dòng)將語(yǔ)音留言轉(zhuǎn)為文本短信”的SpinVox軟件,被人指控在南非、菲律賓等地設(shè)立了海外呼叫中心。
2016年,彭博社曝光美國(guó)創(chuàng)業(yè)公司X.ai(AI啊這公司名字就叫AI)推出的“人工智能私人助理Amy”,“后臺(tái)”居然是一支不眠不休的人工團(tuán)隊(duì)。Amy號(hào)稱可以幫用戶完成會(huì)議安排和發(fā)送電子郵件等簡(jiǎn)單任務(wù),但受訪員工稱,自己需要每天工作12 小時(shí),假扮虛擬助理完成一系列單調(diào)無(wú)聊到“令人麻木”的工作。
去年,推出了企業(yè)費(fèi)用管理App的跨國(guó)公司Expensify承認(rèn),他們一直使用人工來(lái)處理他們的主打產(chǎn)品“智能掃描技術(shù)”(SmartScan)的部分收據(jù)轉(zhuǎn)錄工作。他們只要將用戶上傳的收據(jù)掃描,把照片發(fā)布到亞馬遜的眾包平臺(tái)上,那里的工作人員便會(huì)將其手動(dòng)抄錄下來(lái)。而且,這些人的薪水便宜得很。
“不知道Expensify的用戶明不明白真相呢?我現(xiàn)在正在看著某人的Uber發(fā)票,上面寫(xiě)著他的全名,以及出發(fā)地、目的地的地址”,接到活兒的羅謝爾·拉普朗特(Rochelle LaPlante)說(shuō)道,他本人對(duì)這種“滿口謊言”的公司很是反感,現(xiàn)在根本不想用他們的產(chǎn)品。他透露,其實(shí)很多同行都有不同程度的抵觸情緒,“我們感覺(jué)自己被丟到幕后,勞動(dòng)成果還被用來(lái)欺騙其他消費(fèi)者?!?/p>
裝成翹楚好賺錢(qián)
隨后,《衛(wèi)報(bào)》分析了這些科技企業(yè)對(duì)“偽人工智能”趨之若鶩的原因。
首先便是裝成行業(yè)佼佼者,吸引關(guān)注和投資,“這是他們不會(huì)告訴投資者和用戶的秘密”。這其中又分兩種情況。一種是讓人類(lèi)來(lái)協(xié)助已有的人工智能,比如牽涉到谷歌郵箱泄密的那些第三方App,再比如,美國(guó)有家叫Scale API的公司,雇了一大堆人幫自己的自動(dòng)駕駛汽車(chē)校準(zhǔn)傳感器。
再有便是對(duì)外假稱是AI技術(shù),然后偷偷用人工代替,直到真的開(kāi)發(fā)出這個(gè)AI之前,能混一天算一天。報(bào)道稱,真人雖然速度又慢,又不能批量處理任務(wù),但畢竟便宜啊。
有趣的是,早在2016年,一家交互設(shè)計(jì)工具網(wǎng)站Readme的老板格里高利·科貝格(Gregory Koberger)便在推特上用玩笑的口吻曝光了這個(gè)黑幕。
13日,《華爾街日?qǐng)?bào)》再次評(píng)論了“偽人工智能”現(xiàn)象,稱其為“機(jī)器學(xué)習(xí)”熱潮和“零工經(jīng)濟(jì)”相結(jié)合的產(chǎn)物。
真人扮AI不道德?AI扮真人更不道德
此外,《衛(wèi)報(bào)》認(rèn)為還有一個(gè)不那么“功利”的原因。心理學(xué)家發(fā)現(xiàn),當(dāng)用戶以為自己面對(duì)的是機(jī)器人時(shí),會(huì)更容易放下戒備。一旦涉及敏感話題,這種情況就更加明顯。
再說(shuō)回谷歌郵件事件,如果大家聽(tīng)說(shuō)郵件只是被機(jī)器人偷看了,抵觸情緒定然會(huì)比得知真相后小得多。
類(lèi)似情形還存在于醫(yī)療問(wèn)診中、來(lái)自南加大的研究團(tuán)隊(duì)用他們開(kāi)發(fā)的虛擬心理治療師艾莉(Ellie)做了一番測(cè)試。他們發(fā)現(xiàn),患有創(chuàng)傷后應(yīng)激障礙的退伍軍人只要發(fā)現(xiàn)艾莉是個(gè)AI,就老是會(huì)發(fā)病。
不過(guò),這也引發(fā)了其他專家的擔(dān)憂?!斑@設(shè)計(jì)很綠野仙蹤呢”,心理學(xué)家、心理健康聊天機(jī)器人Woebot的創(chuàng)始人艾莉森·達(dá)西(Alison Darcy)道,“作為心理學(xué)家,我們需要遵循道德準(zhǔn)則,不欺騙別人顯然應(yīng)該是準(zhǔn)則之一?!?/p>
確實(shí)掌握AI技術(shù)的谷歌,也在早前意識(shí)到了這個(gè)倫理難題。而他們的解決方案是:
讓AI假裝自己是人類(lèi)
谷歌在5月初宣布,“谷歌助手”(Google Assistant)的新功能Google Duplex會(huì)在打電話時(shí)加入“嗯”、“呃”之類(lèi)擬人的象聲詞。但這一改動(dòng)迅速遭到強(qiáng)烈反對(duì),用戶紛紛表示“這豈不騙得更厲害了”。
達(dá)西也對(duì)當(dāng)時(shí)的設(shè)計(jì)很不滿,“萬(wàn)一AI能模仿名人或政客的聲音,打出真假難辨的電話,那還得了?”
于是,谷歌隨后又做了改動(dòng),讓Google Duplex在對(duì)話一開(kāi)始就自報(bào)機(jī)器人身份,加強(qiáng)AI技術(shù)“透明度”。
-
機(jī)器人
+關(guān)注
關(guān)注
211文章
28557瀏覽量
207692 -
AI
+關(guān)注
關(guān)注
87文章
31262瀏覽量
269628 -
人工智能
+關(guān)注
關(guān)注
1792文章
47497瀏覽量
239213
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論