現(xiàn)今,“AI讓會讓你丟失工作“、”AI可以無孔不入的監(jiān)控你“等等危險的言論,讓很多人都很恐懼AI的發(fā)展。最近,谷歌首席決策科學(xué)家CassieKozyrkov卻提出了:“人類可以彌補(bǔ)人工智能的缺點”,并進(jìn)一步表示,相較于”機(jī)器學(xué)習(xí)“,”機(jī)器教學(xué)“才是AI發(fā)展到現(xiàn)在更需要關(guān)注的點。
AI剛剛興起的時候,大多數(shù)人們對這個詞匯還是感到很陌生,但隨著各類AI機(jī)器人不斷出現(xiàn),人工智能聲名大噪,成為了各個國家未來的發(fā)展戰(zhàn)略??茖W(xué)家、工程師看到了一個嶄新領(lǐng)域的興起,商人們看到了技術(shù)帶來源源不斷的財富,而普通人則不得不面對“機(jī)器人竊取大量工作”的局面。由此“人工智能是人類最大的生存威脅”、“我們應(yīng)該抵制人工智能”等言論甚囂塵上!人類與人工智能究竟能否共贏共存成為了一個既敏感又現(xiàn)實的問題。
近日,谷歌首席決策科學(xué)家CassieKozyrkov提出了:“人類可以彌補(bǔ)人工智能的缺點”。過去五年,CassieKozyrkov在Google擔(dān)任過很多技術(shù)職務(wù),但如今她要正式面對“首席決策科學(xué)家”這個有點奇怪的職位了。
簡單來講,決策科學(xué)就是數(shù)據(jù)和行為科學(xué)的交叉點,涉及統(tǒng)計學(xué)、機(jī)器學(xué)習(xí)、心理學(xué)、經(jīng)濟(jì)學(xué)等學(xué)科。Kozyrkov的主要職責(zé)就是幫助Google推動更積極的AI議程,至少也要讓人們相信AI并不像頭條新聞所說的那么糟糕。
面對人工智能,人類到底在焦慮些什么?
“機(jī)器人正在竊取我們的工作,”“人工智能是人類最大的生存威脅”,類似的宣言已經(jīng)存在了很長一段時間,但在過去幾年中,這種擔(dān)憂變得更加明顯。
對話式AI助手廣泛存在于現(xiàn)實生活中,汽車、卡車幾乎能夠自動駕駛,機(jī)器可以輕而易舉的在電腦游戲中擊敗人類,甚至藝術(shù)創(chuàng)意的工作也受到了人工智能的沖擊。我們不斷被告知,無聊和重復(fù)的工作可能會成為過去。
身處自動化世界,人們對未來感到焦慮和困惑是可以理解的。但是,根據(jù)Kozyrkov的說法,人工智能僅僅是自人類誕生以來一直努力奮斗的延伸。
在倫敦AI峰會上Kozyrkov發(fā)表講話說:“人類的故事是自動化的故事。人類發(fā)展的歷程就是關(guān)于如何將事情做得更好,從舊石器時代開始,原始人拿起一塊石頭敲擊另一塊巖石,就是因為可以更快完成工具,然后利用工具進(jìn)行更好的創(chuàng)造。從古至今,人類都是工具制造的種族,我們反對一味的埋頭苦干”。
人工智能是危險的,因為它能比人類做得更好。這種的潛在威脅對Kozyrkov來說是站不住腳的,她認(rèn)為所有的工具都比人類徒手來做強(qiáng)得多。理發(fā)師用剪刀剪頭發(fā),就是因為用手抓不那么理想。古騰堡的印刷機(jī)生產(chǎn)文本的規(guī)??梢赃_(dá)到了人類無法復(fù)制的規(guī)模。
使用工具比人類徒手做效果更好—這就是工具的意義。如果沒有工具你可以做得更好,為什么要使用這個工具?如果你擔(dān)心計算機(jī)在認(rèn)知上比你更好,那么筆和紙在記憶時也比人類更長久;水桶在拿水的時候比人類得儲存量更大,計算器的六位數(shù)計算遠(yuǎn)勝于大部分人類計算。我們有理由相信,未來人工智能在某些方面也會變得更好。
當(dāng)然,許多人對人工智能和自動化的潛在恐懼并不是說它會比人類做得更好。而是害怕政府、企業(yè)和任何惡意實體可以肆無忌憚地追蹤和微觀管理人類的一舉一動——幾乎不費(fèi)吹灰之力就可以實現(xiàn)秘密的宏偉愿景,從而給人類蒙上反烏托邦的陰影。
其他問題涉及像算法偏見,缺乏足夠的監(jiān)督以及世界末日情景等因素有關(guān):如果某件事急劇地——無意地——出錯了怎么辦?
人工智能該如何真正減少人類的偏見?
研究人員已經(jīng)證明了面部識別系統(tǒng)的內(nèi)在偏見,像亞馬遜的Rekognition。最近,民主黨總統(tǒng)候選人參議員伊麗莎白·沃倫呼吁聯(lián)邦機(jī)構(gòu)解決有關(guān)算法偏差的問題,例如美聯(lián)儲的放貸歧視問題 。
其實,人工智能在現(xiàn)實生活也能起到減少人類現(xiàn)有偏見的作用。
最近,舊金山警方聲稱,指控人們犯罪時,它將使用人工智能來減少偏見,例如,通過自動編輯警方報告中的某些信息。在招聘領(lǐng)域,由風(fēng)險投資公司支持的Fetcher正在著手通過利用人工智能來幫助公司尋找人才,該公司聲稱人工智能也有助于將人類偏見降至最低,F(xiàn)etcher通過搜索在線渠道自動尋找潛在候選人,并使用關(guān)鍵字來確定個人可能擁有的、未在個人資料中列出的技能。該公司將自己定位為簡單消除招聘偏見的平臺,因為如果你訓(xùn)練一個系統(tǒng)遵循一套嚴(yán)格的標(biāo)準(zhǔn),而這些標(biāo)準(zhǔn)只關(guān)注技能和經(jīng)驗,那么性別、種族或年齡等因素就不會被考慮在內(nèi)。
在很多人工智能領(lǐng)域,AI如何擴(kuò)散系統(tǒng)歧視的擔(dān)憂是首要議程。微軟敦促美國政府監(jiān)管面部識別系統(tǒng),研究人員致力于在不影響預(yù)測結(jié)果準(zhǔn)確性的情況下減少人工智能中的偏見。
人工智能展示的偏差來源于何處?
人工智能正處于相對初期階段,研究人員仍在研究如何解決算法偏差等問題。但Kozyrkov表示,人工智能展示的偏見和現(xiàn)存人類偏見是一樣的,人類用來訓(xùn)練機(jī)器的數(shù)據(jù)集就像用來教育人類的教科書一樣。數(shù)據(jù)集和教科書都有人類作者—它們都是根據(jù)人類的指示收集的,其中一個比另一個更容易搜索。一個可能是紙質(zhì)版,另一個是電子版,實際上它們沒什么區(qū)別。如果你給學(xué)生一本有極度偏見作家寫的教科書,難道你的學(xué)生不會接受一些同樣的偏見嗎?
當(dāng)然,在現(xiàn)實世界中,備受好評的同行評審期刊或教科書應(yīng)該有足夠的監(jiān)督來對抗任何公然的偏見。如果作家、原始數(shù)據(jù)、鼓勵學(xué)生閱讀的教科書的老師都有相同的偏見呢?人們要花費(fèi)很長的時間才能發(fā)現(xiàn)一些陷阱,但到那時阻止任何不良影響都為時已晚。因此,Kozyrkov認(rèn)為“視角的多樣性”對于確保最小的偏見是必不可少的。
研究人員越是關(guān)注自己的數(shù)據(jù),思考用這些例子來表達(dá)自己的結(jié)論,就越有可能抓住那些潛在的壞案例。在人工智能中,數(shù)據(jù)的多樣性是必須的,而且需要從不同的角度來看待和思考使用這些例子會對世界產(chǎn)生怎樣的影響。
檢驗人工智能與檢驗學(xué)生學(xué)習(xí)的方法非常相似
人工智能算法和機(jī)器學(xué)習(xí)模型部署之前,關(guān)鍵要像學(xué)生考試一樣測試它們,確保能夠執(zhí)行設(shè)定任務(wù)的。
如果在考試中,一個學(xué)生被問及學(xué)過的確切問題,可能表現(xiàn)得非常好,但這極大概率要?dú)w功于好的記憶,而不是對手頭的科目有完全的了解。為了測試更廣泛的理解,要為學(xué)生提供更多的問題,以便他們能更好的應(yīng)用所學(xué)知識。
機(jī)器學(xué)習(xí)在同一個前提下運(yùn)行——有一個被稱為“過度擬合”的建模錯誤,即一個特定的函數(shù)與訓(xùn)練數(shù)據(jù)過于接近,就會導(dǎo)致誤報。“計算機(jī)有很好的記憶力,“Kozyrkov指出,“所以你實際測試它們的方式是你給他們真正的新東西,他們無法記住,這與你的問題有關(guān)。如果它有效,那么它就有效。“
Kozyrkov在安全有效的人工智能四個原則和學(xué)生教學(xué)的四個基本原則之間進(jìn)行了相似的比較并表示:
明確的教學(xué)目標(biāo)—你想要教給你學(xué)生的東西。
相關(guān)和多樣化的觀點。
精心設(shè)計的測試。
安全網(wǎng)
安全網(wǎng)特別重要,因為很容易出現(xiàn)忽視“如果出現(xiàn)問題怎么辦?”的情況。即使是最精心設(shè)計,人工智能系統(tǒng)也可能出現(xiàn)問題。事實上,系統(tǒng)越好在某些方面就越危險,就像學(xué)生一樣。
Kozyrkov表示,即使你的學(xué)生真的很好,但他們?nèi)匀粫稿e誤。
甚至在某些方面,“C”學(xué)生比“A +”學(xué)生更不危險,因為“C”學(xué)生犯錯誤的頻率較高,所以你已經(jīng)有了安全網(wǎng)。 但是“A +”犯錯頻率較少,如果你以前從未見過他們犯錯誤,你可能會認(rèn)為他們從未犯過錯誤,那么極有可能導(dǎo)致一個災(zāi)難性的失敗。
所謂的“安全網(wǎng)”可以采取多種形式,通常涉及建立一個單獨(dú)的系統(tǒng)而不是“過度信任你的“A +”學(xué)生。
評論
查看更多