人工智能(AI)滲透到我們的日常生活中,決定諸如誰獲得福利,誰入圍工作,甚至發(fā)現(xiàn)農(nóng)場(chǎng)植物中的疾病之類的事情。但是,人工智能也帶來了無數(shù)挑戰(zhàn),尤其是對(duì)于設(shè)計(jì)人工智能系統(tǒng)的企業(yè)而言。
在過去的30多年中,人工智能已經(jīng)離開實(shí)驗(yàn)室,出現(xiàn)在我們的日常生活中?!斑@是AI的可笑之處,它正在觸動(dòng)人們的生活,但他們甚至可能沒有意識(shí)到?!毕つ嵛髂洗髮W(xué)悉尼分校計(jì)算機(jī)科學(xué)與工程學(xué)院的人工智能科學(xué)教授Toby Walsh說,他領(lǐng)導(dǎo)著Data61算法決策理論小組。
沃爾什(Walsh)教授最近被提名為14位享有盛名的澳大利亞獲獎(jiǎng)?wù)咧?,并獲得澳大利亞研究委員會(huì)(Australian Research Council)授予的310萬美元獎(jiǎng)金,以繼續(xù)他的研究,以了解如何構(gòu)建人類可以信賴的AI系統(tǒng)。
人工智能今天面臨的挑戰(zhàn)
沃爾什教授解釋說,每次您在Facebook或Twitter提要上閱讀故事時(shí),都是AI會(huì)向您推薦這些故事,而您在Netflix上觀看的所有電影中的三分之一也來自算法。他警告說,但是即使這種聽起來無害的活動(dòng)也可以轉(zhuǎn)移到機(jī)器上,但也會(huì)對(duì)社會(huì)產(chǎn)生腐蝕作用。
確實(shí),他的研究發(fā)現(xiàn)了不良影響的范圍之廣。他說:“它們會(huì)產(chǎn)生過濾泡,最終導(dǎo)致虛假新聞或選舉被篡改的可能性。”
雖然AI可以通過消除瑣碎的工作來使社會(huì)更公平,更公正地生活,但它也可用于損害社會(huì)的凝聚力。實(shí)際上,沃爾什教授說,他對(duì)當(dāng)今更多的世俗誤用AI感到擔(dān)憂,而不是對(duì)未來超級(jí)智能AI的擔(dān)憂。他解釋說:“我更加擔(dān)心自動(dòng)化在社會(huì)中加劇的不平等現(xiàn)象?!?/p>
算法可能像人類一樣有偏見,這是當(dāng)今AI面臨的最大挑戰(zhàn)之一。沃爾什教授繼續(xù)說:“更糟糕的是,它們不以任何法律方式負(fù)責(zé),也不透明。”
因此,Walsh教授在研究中著眼于如何構(gòu)建AI并驗(yàn)證AI系統(tǒng)做出的公平?jīng)Q策,這些決策可以被追蹤,解釋和審計(jì),并且尊重人們的隱私。
但是,那些已經(jīng)在使用AI的公司,即“五大”(Facebook,亞馬遜,蘋果,微軟和Google)呢?如此強(qiáng)大的科技巨頭如何設(shè)計(jì)人們可以信賴的AI流程?
Google根據(jù)七項(xiàng)原則設(shè)計(jì)AI
2018年3月,谷歌宣布與五角大樓在``Project Maven‘’上合作,通過AI幫助分析和解釋無人機(jī)視頻。此后,這家科技巨頭發(fā)布了七項(xiàng)AI原則,構(gòu)成了道德憲章,指導(dǎo)Google在AI的所有開發(fā)和使用,并禁止在武器和侵犯人權(quán)行為中使用AI。
但有人說,自2018年以來的許多考慮并沒有消失。人權(quán)觀察組織(Human Rights Watch)最近發(fā)表了一份報(bào)告,呼吁禁止使用“完全自主武器”。確實(shí),將AI永久性使用的潛力是巨大的,但是這種強(qiáng)大的技術(shù)提出了同樣強(qiáng)烈的疑問,即該技術(shù)對(duì)社會(huì)的使用和影響,承認(rèn)Google澳大利亞工程總監(jiān)Daniel Nadasi。
他警告開發(fā)AI的任何人都應(yīng)該堅(jiān)持最高的道德標(biāo)準(zhǔn),并仔細(xì)考慮如何使用這項(xiàng)技術(shù)來造福整個(gè)社會(huì)。確實(shí),在過去的幾年中,Google一直在使用AI來完成許多任務(wù),例如識(shí)別圖像中的項(xiàng)目,自動(dòng)翻譯以及為您的電子郵件提出明智的建議。
-
Google
+關(guān)注
關(guān)注
5文章
1769瀏覽量
57656 -
人工智能
+關(guān)注
關(guān)注
1792文章
47505瀏覽量
239222
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論