現(xiàn)今,“AI讓會讓你丟失工作"、"AI可以無孔不入的監(jiān)控你"等等危險的言論,讓很多人都很恐懼AI的發(fā)展。最近,谷歌首席決策科學家CassieKozyrkov卻提出了:“人類可以彌補人工智能的缺點”,并進一步表示,相較于”機器學習“,”機器教學“才是AI發(fā)展到現(xiàn)在更需要關注的點。
AI剛剛興起的時候,大多數(shù)人們對這個詞匯還是感到很陌生,但隨著各類AI機器人不斷出現(xiàn),人工智能聲名大噪,成為了各個國家未來的發(fā)展戰(zhàn)略??茖W家、工程師看到了一個嶄新領域的興起,商人們看到了技術帶來源源不斷的財富,而普通人則不得不面對“機器人竊取大量工作”的局面。由此“人工智能是人類最大的生存威脅”、“我們應該抵制人工智能”等言論甚囂塵上!人類與人工智能究竟能否共贏共存成為了一個既敏感又現(xiàn)實的問題。
近日,谷歌首席決策科學家CassieKozyrkov提出了:“人類可以彌補人工智能的缺點”。過去五年,CassieKozyrkov在Google擔任過很多技術職務,但如今她要正式面對“首席決策科學家”這個有點奇怪的職位了。
簡單來講,決策科學就是數(shù)據和行為科學的交叉點,涉及統(tǒng)計學、機器學習、心理學、經濟學等學科。Kozyrkov的主要職責就是幫助Google推動更積極的AI議程,至少也要讓人們相信AI并不像頭條新聞所說的那么糟糕。
面對人工智能,人類到底在焦慮些什么?
“機器人正在竊取我們的工作,”“人工智能是人類最大的生存威脅”,類似的宣言已經存在了很長一段時間,但在過去幾年中,這種擔憂變得更加明顯。
對話式AI助手廣泛存在于現(xiàn)實生活中,汽車、卡車幾乎能夠自動駕駛,機器可以輕而易舉的在電腦游戲中擊敗人類,甚至藝術創(chuàng)意的工作也受到了人工智能的沖擊。我們不斷被告知,無聊和重復的工作可能會成為過去。
身處自動化世界,人們對未來感到焦慮和困惑是可以理解的。但是,根據Kozyrkov的說法,人工智能僅僅是自人類誕生以來一直努力奮斗的延伸。
在倫敦AI峰會上Kozyrkov發(fā)表講話說:“人類的故事是自動化的故事。人類發(fā)展的歷程就是關于如何將事情做得更好,從舊石器時代開始,原始人拿起一塊石頭敲擊另一塊巖石,就是因為可以更快完成工具,然后利用工具進行更好的創(chuàng)造。從古至今,人類都是工具制造的種族,我們反對一味的埋頭苦干”。
人工智能是危險的,因為它能比人類做得更好。這種的潛在威脅對Kozyrkov來說是站不住腳的,她認為所有的工具都比人類徒手來做強得多。理發(fā)師用剪刀剪頭發(fā),就是因為用手抓不那么理想。古騰堡的印刷機生產文本的規(guī)??梢赃_到了人類無法復制的規(guī)模。
使用工具比人類徒手做效果更好—這就是工具的意義。如果沒有工具你可以做得更好,為什么要使用這個工具?如果你擔心計算機在認知上比你更好,那么筆和紙在記憶時也比人類更長久;水桶在拿水的時候比人類得儲存量更大,計算器的六位數(shù)計算遠勝于大部分人類計算。我們有理由相信,未來人工智能在某些方面也會變得更好。
當然,許多人對人工智能和自動化的潛在恐懼并不是說它會比人類做得更好。而是害怕政府、企業(yè)和任何惡意實體可以肆無忌憚地追蹤和微觀管理人類的一舉一動——幾乎不費吹灰之力就可以實現(xiàn)秘密的宏偉愿景,從而給人類蒙上反烏托邦的陰影。
其他問題涉及像算法偏見,缺乏足夠的監(jiān)督以及世界末日情景等因素有關:如果某件事急劇地——無意地——出錯了怎么辦?
人工智能該如何真正減少人類的偏見?
研究人員已經證明了面部識別系統(tǒng)的內在偏見,像亞馬遜的Rekognition。最近,民主黨總統(tǒng)候選人參議員伊麗莎白·沃倫呼吁聯(lián)邦機構解決有關算法偏差的問題,例如美聯(lián)儲的放貸歧視問題。
其實,人工智能在現(xiàn)實生活也能起到減少人類現(xiàn)有偏見的作用。
最近,舊金山警方聲稱,指控人們犯罪時,它將使用人工智能來減少偏見,例如,通過自動編輯警方報告中的某些信息。在招聘領域,由風險投資公司支持的Fetcher正在著手通過利用人工智能來幫助公司尋找人才,該公司聲稱人工智能也有助于將人類偏見降至最低,F(xiàn)etcher通過搜索在線渠道自動尋找潛在候選人,并使用關鍵字來確定個人可能擁有的、未在個人資料中列出的技能。該公司將自己定位為簡單消除招聘偏見的平臺,因為如果你訓練一個系統(tǒng)遵循一套嚴格的標準,而這些標準只關注技能和經驗,那么性別、種族或年齡等因素就不會被考慮在內。
在很多人工智能領域,AI如何擴散系統(tǒng)歧視的擔憂是首要議程。微軟敦促美國政府監(jiān)管面部識別系統(tǒng),研究人員致力于在不影響預測結果準確性的情況下減少人工智能中的偏見。
人工智能展示的偏差來源于何處?
人工智能正處于相對初期階段,研究人員仍在研究如何解決算法偏差等問題。但Kozyrkov表示,人工智能展示的偏見和現(xiàn)存人類偏見是一樣的,人類用來訓練機器的數(shù)據集就像用來教育人類的教科書一樣。數(shù)據集和教科書都有人類作者—它們都是根據人類的指示收集的,其中一個比另一個更容易搜索。一個可能是紙質版,另一個是電子版,實際上它們沒什么區(qū)別。如果你給學生一本有極度偏見作家寫的教科書,難道你的學生不會接受一些同樣的偏見嗎?
當然,在現(xiàn)實世界中,備受好評的同行評審期刊或教科書應該有足夠的監(jiān)督來對抗任何公然的偏見。如果作家、原始數(shù)據、鼓勵學生閱讀的教科書的老師都有相同的偏見呢?人們要花費很長的時間才能發(fā)現(xiàn)一些陷阱,但到那時阻止任何不良影響都為時已晚。因此,Kozyrkov認為“視角的多樣性”對于確保最小的偏見是必不可少的。
研究人員越是關注自己的數(shù)據,思考用這些例子來表達自己的結論,就越有可能抓住那些潛在的壞案例。在人工智能中,數(shù)據的多樣性是必須的,而且需要從不同的角度來看待和思考使用這些例子會對世界產生怎樣的影響。
檢驗人工智能與檢驗學生學習的方法非常相似
人工智能算法和機器學習模型部署之前,關鍵要像學生考試一樣測試它們,確保能夠執(zhí)行設定任務的。
如果在考試中,一個學生被問及學過的確切問題,可能表現(xiàn)得非常好,但這極大概率要歸功于好的記憶,而不是對手頭的科目有完全的了解。為了測試更廣泛的理解,要為學生提供更多的問題,以便他們能更好的應用所學知識。
機器學習在同一個前提下運行——有一個被稱為“過度擬合”的建模錯誤,即一個特定的函數(shù)與訓練數(shù)據過于接近,就會導致誤報。“計算機有很好的記憶力,“Kozyrkov指出,“所以你實際測試它們的方式是你給他們真正的新東西,他們無法記住,這與你的問題有關。如果它有效,那么它就有效。“
Kozyrkov在安全有效的人工智能四個原則和學生教學的四個基本原則之間進行了相似的比較并表示:
明確的教學目標—你想要教給你學生的東西。
相關和多樣化的觀點。
精心設計的測試。
安全網
安全網特別重要,因為很容易出現(xiàn)忽視“如果出現(xiàn)問題怎么辦?”的情況。即使是最精心設計,人工智能系統(tǒng)也可能出現(xiàn)問題。事實上,系統(tǒng)越好在某些方面就越危險,就像學生一樣。
Kozyrkov表示,即使你的學生真的很好,但他們仍然會犯錯誤。
甚至在某些方面,“C”學生比“A +”學生更不危險,因為“C”學生犯錯誤的頻率較高,所以你已經有了安全網。 但是“A +”犯錯頻率較少,如果你以前從未見過他們犯錯誤,你可能會認為他們從未犯過錯誤,那么極有可能導致一個災難性的失敗。
所謂的“安全網”可以采取多種形式,通常涉及建立一個單獨的系統(tǒng)而不是“過度信任你的“A +”學生。
一個有趣的例子,房主配置他的智能相機和鎖定系統(tǒng)以激活它是否發(fā)現(xiàn)不熟悉的面孔。但是,它錯誤地將房主識別為他的T恤上蝙蝠俠圖像并拒絕他進入。在這種情況下,“安全網”是鎖上的PIN,房主也可以在他的移動應用程序中使用一個功能來覆蓋AI。
這些都引出了一個對許多人來說顯而易又值得重復的觀點:人工智能是其創(chuàng)造者的反映。因此,我們需要專注于實施系統(tǒng)和檢查,以確保那些制造機器的人(“教師”)是負責的。
目前,人們越來越認同“機器教學”的重要性,微軟等公司最近表示,人工智能的下一個前沿領域將需要利用人類專業(yè)人員的專業(yè)知識來培訓機器學習系統(tǒng)——而不是專家對人工智能的知識或編碼能力如何。。
“現(xiàn)在是我們關注機器教學的時候了,而不僅僅是機器學習,”Kozyrkov指出?!安灰尶苹眯≌f的華麗辭藻分散你對人類責任的注意力,要從一開始就關注人類本身。領導者設定的目標、工程師創(chuàng)作、分析師和決策者核查數(shù)據集、統(tǒng)計學家進行測試以及可靠性工程師構建的安全網——所有這些都包含了許多人為因素。”
-
機器人
+關注
關注
211文章
28474瀏覽量
207394 -
谷歌
+關注
關注
27文章
6171瀏覽量
105504 -
人工智能
+關注
關注
1792文章
47372瀏覽量
238858 -
機器學習
+關注
關注
66文章
8423瀏覽量
132744
原文標題:面對人工智能的發(fā)展,人類未來將扮演怎樣的角色?
文章出處:【微信號:Aiobservation,微信公眾號:人工智能觀察】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論