0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI研究人員如何應(yīng)對透明AI

倩倩 ? 來源:新經(jīng)網(wǎng) ? 2020-07-14 16:31 ? 次閱讀

人工智能經(jīng)常被提及的挑戰(zhàn)之一是無法獲得關(guān)于人工智能系統(tǒng)如何做出決策的充分理解的解釋。盡管這對于機器學(xué)習(xí)應(yīng)用程序(例如產(chǎn)品推薦或個性化方案)而言可能不是挑戰(zhàn),但在需要理解決策的關(guān)鍵應(yīng)用程序中使用AI都會面臨透明性和可解釋性問題。

在最近的AI Today播客中,斯坦福大學(xué)計算機科學(xué)系戰(zhàn)略研究計劃主任Steve Eglash分享了有關(guān)透明和負責(zé)任的AI演變的見解和研究。Eglash教授是計算機科學(xué)系的一名工作人員,他與一小群人一起開展研究計劃,與大學(xué)以外的公司合作。這個小組幫助公司與學(xué)生共享觀點和技術(shù),學(xué)生與公司共享技術(shù)。在加入斯坦福大學(xué)之前,史蒂夫是一名電氣工程師。在這個職位上,他介于技術(shù)和科學(xué)之間。在他最終進入學(xué)術(shù)界之前,他還從事過投資,政府,研究工作。

隨著AI在每個行業(yè)和政府中得到廣泛使用,深入了解AI使用的機會為斯坦福大學(xué)的學(xué)生提供了許多探索新領(lǐng)域的機會。充分了解人工智能的工作原理至關(guān)重要,因為我們越來越依賴人工智能來執(zhí)行各種任務(wù),例如自動駕駛汽車。在這些情況下,錯誤可能是致命的或?qū)е聡乐氐膫騻?。因此,更深入地研究透明和可解釋的AI系統(tǒng)可以使這些系統(tǒng)更加值得信賴和可靠。確保自動駕駛汽車等AI技術(shù)的安全至關(guān)重要。我們需要確保AI能夠安全運行。因此,我們需要能夠理解計算機做出決策的方式和原因。與此同時,

許多現(xiàn)代的AI系統(tǒng)都在神經(jīng)網(wǎng)絡(luò)上運行,而我們僅了解其基礎(chǔ)知識,因為算法本身很少提供解釋方式。缺乏解釋性通常被稱為AI系統(tǒng)的“黑匣子”。研究人員將注意力集中在神經(jīng)網(wǎng)絡(luò)如何工作的細節(jié)上。由于神經(jīng)網(wǎng)絡(luò)的規(guī)模,很難檢查它們的錯誤。神經(jīng)元及其權(quán)重之間的每個連接都增加了復(fù)雜性,使事后檢查決策變得非常困難。

Reluplex-透明AI的一種方法

驗證是證明神經(jīng)網(wǎng)絡(luò)特性的過程。Reluplex是最近由許多人設(shè)計的一種程序,用于測試大型神經(jīng)網(wǎng)絡(luò)。Reluplex背后的技術(shù)使其能夠在大型神經(jīng)網(wǎng)絡(luò)中快速運行。Reluplex被用于測試自主無人機的機載碰撞檢測和回避系統(tǒng)。使用該程序時,該程序能夠證明網(wǎng)絡(luò)的某些部分可以正常工作。但是,它也能夠找到網(wǎng)絡(luò)中的錯誤,該錯誤可以在下一個實現(xiàn)中修復(fù)。

關(guān)于黑匣子的想法,可解釋性是史蒂夫提出的另一個領(lǐng)域。如果您有大型模型,是否可以了解模型如何進行預(yù)測?他以圖像識別系統(tǒng)為例,試圖了解海灘上狗的照片。它可以通過兩種方式識別狗。AI可以拍攝組成狗的像素并將其與狗關(guān)聯(lián)。另一方面,它可能需要圍繞狗的海灘和天空的像素來創(chuàng)建對狗在那里的了解。如果不了解系統(tǒng)是如何做出這些決定的,那么您將不知道網(wǎng)絡(luò)實際上正在接受什么培訓(xùn)。

如果AI使用第一種方法來了解存在的狗,那么它正在以一種可以模擬我們自己的大腦工作方式的理性方式進行思考。但是,替代方法可以視為弱關(guān)聯(lián),因為它不依賴包含狗的圖片的實際部分。為了確認AI是否正確處理了圖像,我們需要知道它是如何做到的,并且有很大一部分研究正在進行此任務(wù)以及與之相似的任務(wù)。

探索數(shù)據(jù)偏差

人工智能系統(tǒng)的數(shù)據(jù)偏差也是斯坦福大學(xué)的重點。根據(jù)用于訓(xùn)練機器學(xué)習(xí)模型的數(shù)據(jù),發(fā)現(xiàn)人工智能系統(tǒng)存在相當(dāng)大的偏差。AI用來做決定的數(shù)據(jù)通常會導(dǎo)致偏差,因為計算機沒有進行公正分析所需的信息。除了有偏見的數(shù)據(jù)問題之外,系統(tǒng)本身也可以通過僅考慮特定的組而使決策偏向偏見。當(dāng)您訓(xùn)練機器學(xué)習(xí)模型以傾向于較大的數(shù)據(jù)組時,它很可能會偏向那些較大的組。

我們需要消除AI系統(tǒng)與人之間的互動越來越多的偏見。人工智能現(xiàn)在正在為人類做出決策,例如保險資格,人員再次犯罪的可能性以及其他可能改變生活的決策。人工智能做出的決定具有現(xiàn)實世界的后果,我們不希望計算機使不平等和不公正現(xiàn)象長期存在。

為了消除AI的偏見,數(shù)據(jù)科學(xué)家需要分析AI并根據(jù)社會偏見做出決策。至此,Percy Liang教授正在與他的學(xué)生們一起創(chuàng)造強大的分布優(yōu)化,旨在擺脫人口統(tǒng)計學(xué)的影響,朝著機器的力量集中于所有人群的方向發(fā)展。其他研究人員正在致力于關(guān)注人工智能的公平與平等。

由于AI系統(tǒng)尚未證明其可解釋性和完全的可信賴性,因此Steve認為AI將主要以增強和輔助方式使用,而不是完全獨立。通過使人員處于循環(huán)中,我們可以更好地進行更改,以便在系統(tǒng)做出有問題的決策時保持警惕,并對AI輔助操作的最終結(jié)果施加更多控制。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏

    評論

    相關(guān)推薦

    NVIDIA與谷歌量子AI部門達成合作

    NVIDIA CUDA-Q 平臺使谷歌量子 AI 研究人員能夠為其量子計算機創(chuàng)建大規(guī)模的數(shù)字模型,以解決設(shè)計中面臨的各種挑戰(zhàn)
    的頭像 發(fā)表于 11-20 09:39 ?250次閱讀

    NVIDIA AI助力日本制藥公司推進藥物研發(fā)

    制藥公司、醫(yī)療技術(shù)公司和學(xué)術(shù)研究人員正在開發(fā)主權(quán) AI 能力,以驅(qū)動藥物發(fā)現(xiàn)、加速基因組學(xué)和醫(yī)療設(shè)備。
    的頭像 發(fā)表于 11-19 15:40 ?286次閱讀

    AMD發(fā)布10億參數(shù)開源AI模型OLMo

    AMD公司近日宣布了一項重大進展,推出了首個完全開放的10億參數(shù)語言模型系列——AMD OLMo。這一舉措為開發(fā)者和研究人員提供了強大的AI研究工具,有助于推動AI技術(shù)的進一步發(fā)展。
    的頭像 發(fā)表于 11-12 18:08 ?441次閱讀

    AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感

    領(lǐng)域的研究人員的工作模式相融合,也是一個亟待解決的問題。然而,這些挑戰(zhàn)也孕育著新的機遇。隨著技術(shù)的不斷進步和應(yīng)用場景的拓展,AI在生命科學(xué)領(lǐng)域的應(yīng)用將更加廣泛和深入,為科學(xué)家們提供更多的研究工具和方法
    發(fā)表于 10-14 09:21

    AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得

    偏見、倫理道德等問題。此外,如何更好地將AI與科學(xué)研究人員的傳統(tǒng)工作模式相融合,也是一個亟待解決的問題。未來,隨著技術(shù)的不斷進步和應(yīng)用場景的拓展,AI for Science有望在更多領(lǐng)域發(fā)揮關(guān)鍵作用
    發(fā)表于 10-14 09:16

    AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第一章人工智能驅(qū)動的科學(xué)創(chuàng)新學(xué)習(xí)心得

    的同時,確保其公正性、透明度和可持續(xù)性,是當(dāng)前和未來科學(xué)研究必須面對的重要課題。此外,培養(yǎng)具備AI技能的科研人才,也是推動這一領(lǐng)域發(fā)展的關(guān)鍵。 4. 激發(fā)創(chuàng)新思維 閱讀這一章,我被深深啟發(fā)的是人工智能
    發(fā)表于 10-14 09:12

    人工智能ai4s試讀申請

    目前人工智能在繪畫對話等大模型領(lǐng)域應(yīng)用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個需要研究的課題,本書對ai4s基本原理和原則,方法進行描訴,有利于總結(jié)經(jīng)驗,擬
    發(fā)表于 09-09 15:36

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新

    、生命科學(xué)、電子科學(xué)、能源科學(xué)、環(huán)境科學(xué)等領(lǐng)域的政府工作人員、科研人員、創(chuàng)業(yè)者、投資者等參考。 本書共分為8章 第1章介紹了作為全新的科學(xué)創(chuàng)新范式的AI for Science的具體含義、底層邏輯,以及
    發(fā)表于 09-09 13:54

    谷歌研究人員推出革命性首個AI驅(qū)動游戲引擎

    在科技日新月異的今天,人工智能(AI)正以前所未有的速度滲透到我們生活的每一個角落,從自動駕駛汽車到智能家居,無一不彰顯著其巨大的潛力和無限可能。而最近,谷歌研究團隊的一項突破性成果更是將AI的邊界
    的頭像 發(fā)表于 08-29 17:21 ?536次閱讀

    云開發(fā)AI助手

    AI
    草帽王路飛
    發(fā)布于 :2024年07月22日 14:41:54

    平衡創(chuàng)新與倫理:AI時代的隱私保護和算法公平

    成了一把雙刃劍,其銳利的一面正逐漸指向我們的核心價值。面對這些挑戰(zhàn),制定一套有效的AI治理框架和隱私保護機制變得迫在眉睫。 確保AI決策的透明度是解決這些問題的關(guān)鍵一步。透明度不僅
    發(fā)表于 07-16 15:07

    助力科學(xué)發(fā)展,NVIDIA AI加速HPC研究

    科學(xué)家和研究人員正在利用 NVIDIA 技術(shù)將生成式 AI 應(yīng)用于代碼生成、天氣預(yù)報、遺傳學(xué)和材料科學(xué)領(lǐng)域的 HPC 工作。
    的頭像 發(fā)表于 05-14 09:17 ?416次閱讀
    助力科學(xué)發(fā)展,NVIDIA <b class='flag-5'>AI</b>加速HPC<b class='flag-5'>研究</b>

    研究人員發(fā)現(xiàn)提高激光加工分辨率的新方法

    通過透明玻璃聚焦定制激光束可以在材料內(nèi)部形成一個小光斑。東北大學(xué)的研究人員研發(fā)了一種利用這種小光斑改進激光材料加工、提高加工分辨率的方法。 他們的研究成果發(fā)表在《光學(xué)通訊》(Optics
    的頭像 發(fā)表于 04-18 06:30 ?346次閱讀
    <b class='flag-5'>研究人員</b>發(fā)現(xiàn)提高激光加工分辨率的新方法

    NVIDIA生成式AI研究實現(xiàn)在1秒內(nèi)生成3D形狀

    NVIDIA 研究人員使 LATTE3D (一款最新文本轉(zhuǎn) 3D 生成式 AI 模型)實現(xiàn)雙倍加速。
    的頭像 發(fā)表于 03-27 10:28 ?498次閱讀
    NVIDIA生成式<b class='flag-5'>AI</b><b class='flag-5'>研究</b>實現(xiàn)在1秒內(nèi)生成3D形狀

    ai_reloc_network.h引入后,ai_datatypes_format.h和formats_list.h報錯的原因?

    當(dāng)準(zhǔn)備使用神經(jīng)網(wǎng)絡(luò)的relocatable方式,將ai_reloc_network.h頭文件加入程序編譯后,ai_datatypes_format.h在cubeIDE和Keilc里分別報如下錯誤
    發(fā)表于 03-14 06:23