盡管微軟在構建人工智能應用方面早已制定了一系列原則和流程,以盡最大可能減少意外傷害并為用戶提供他們所期望的體驗。但是,生成式人工智能產品的大規(guī)模應用,無疑也帶來了前所未有的新挑戰(zhàn)與新機遇。
因此,微軟發(fā)布了首份年度《負責任的人工智能透明度報告》,旨在幫助公眾理解微軟是如何推進負責任的人工智能(RAI)實踐的。微軟還在 Azure AI 中推出了新的工具供企業(yè)客戶和開發(fā)人員使用,以幫助保障其人工智能產品的輸出質量,并防范系統(tǒng)被惡意或意外使用。
這是對新興技術和保障措施進行大規(guī)模壓力測試的重要一年。領導團隊定義和管理微軟實現(xiàn) RAI 方法的 Natasha Crampton,以及負責在微軟整個產品組合中推動 RAI 實施的 Sarah Bird 分享了她們的幾點心得。
01讓RAI成為基礎
而不是亡羊補牢
RAI 從來不是某個團隊或某位專家的任務,而是微軟全體員工的責任。例如,每一位參與開發(fā)生成式人工智能應用的員工都必須遵守公司的 “負責任的人工智能標準”(Responsible AI Standard)。該標準詳細列出了人工智能產品開發(fā)的要求,包括評估新人工智能應用可能帶來的影響、制定計劃以應對可能出現(xiàn)的未知問題、及時確認必要的限制或變更措施等,以確??蛻簟⒑献骰锇橐约叭斯ぶ悄軕玫氖褂谜吣軌蜃龀雒髦堑倪x擇。
微軟還在強制性培訓方面進行了投資,希望提升全體員工對負責任地使用人工智能的意識和理解。截至2023年底,99%的員工已經完成了相關培訓。
Natasha Crampton 說:“我們不能將 RAI 當成產品發(fā)貨前的‘檢查清單’。我們需要從一開始就將其融入到產品的制造過程中,并確保公司的每個人從一開始就考慮 RAI 問題?!?/p>
02做好快速發(fā)展的準備
人工智能產品的開發(fā)是動態(tài)的。為了廣泛地推廣生成式人工智能,我們必須快速整合來自眾多試點項目的用戶反饋,并持續(xù)與用戶保持互動——這不僅可以了解隨著新技術被更多人采用而出現(xiàn)的問題,還能探索如何提升用戶體驗,使產品更具吸引力。
正是通過這一過程,微軟決定提供不同的對話樣式——更有創(chuàng)造力、更平衡或更精確的模式——作為 Bing 搜索引擎 Copilot 的一部分。
Sarah Bird 強調:“我們需要共同進行一個實驗周期,來嘗試多種可能性。同時通過這一過程,汲取寶貴的經驗,并據(jù)此對產品進行相應的優(yōu)化、調整?!?/p>
03集中發(fā)展從而更快實現(xiàn)規(guī)?;?/strong>
隨著 Microsoft Copilot 的推出,微軟開始將人工智能技術整合至旗下所有產品中,所以公司需要構建一個更加集中化的系統(tǒng)來確保所有發(fā)布的產品均達到統(tǒng)一的高標準。為此,微軟正在 Azure AI 中開發(fā)一個 RAI 技術棧,以便團隊能夠依靠統(tǒng)一的工具和流程。
此外,微軟 RAI 專家團隊還開創(chuàng)了一套新的管理方法,用以集中管理產品發(fā)布的評估和審批過程。依據(jù)“共識驅動框架”,該團隊在技術棧的每個層面,以及產品發(fā)布的前、中、后階段,都會審查產品團隊在識別、評估和管理生成式人工智能可能帶來的風險時所采取的措施。同時,團隊也會考慮測試、威脅建模和“Red Teaming”(一種通過嘗試破壞或規(guī)避安全功能來對新的生成式人工智能技術進行壓力測試的方法)中收集的數(shù)據(jù)。
通過集中化的審查流程,微軟能夠更有效地發(fā)現(xiàn)并減少產品組合中的潛在安全漏洞,制定最佳實踐策略,并確保與公司內部以及微軟外部的客戶和開發(fā)者的信息能夠得到及時共享。
Sarah Bird 說:“技術發(fā)展日新月異。我們必須真正集中精力一蹴即至,然后最大限度地利用這些經驗教訓。”
04為人們明確信息來源
人工智能技術在創(chuàng)建逼真的合成視頻、音頻和圖像方面的能力日益精進,因此用戶能夠識別出人工智能生成內容的出處和來源就變得尤為關鍵。
今年2月,微軟聯(lián)合19家企業(yè)簽署了一系列自愿性承諾,旨在在2024年美國大選期間打擊人工智能的欺詐性使用以及潛在的 deepfakes 技術的濫用。承諾內容包括開發(fā)功能以阻止創(chuàng)建誤導公眾的虛假圖像,嵌入元數(shù)據(jù)以追溯圖像的來源,并為候選人提供一種機制,使他們能夠舉報自己被 deepfakes 技術偽造的圖像。
微軟已經開發(fā)并部署了媒體來源功能(又稱“內容憑證”),允許用戶驗證圖片或視頻是否由人工智能生成。這一功能使用加密技術對人工智能生成的內容進行了標記和簽名,并附上了關于其來源和歷史的元數(shù)據(jù),遵循了2021年創(chuàng)立的內容來源和真實性聯(lián)盟(C2PA)制定的開放技術標準。微軟 AI for Good 實驗室也在加大力度識別深度偽造內容、追蹤不良行為者并分析其策略。
Natasha Crampton 表示:“這些問題不僅是科技公司所面臨的挑戰(zhàn),更是需要整個社會共同應對的挑戰(zhàn)。”
05將RAI工具交到客戶手中
為了提高人工智能模型的輸出質量,并防止生成式人工智能系統(tǒng)遭到濫用,微軟正在積極向客戶提供自身所采用的工具和安全措施,以便他們能夠負責任地構建人工智能。這些資源包括開源工具、商業(yè)工具和服務,以及一系列協(xié)助企業(yè)構建、評估、部署和管理他們生成式人工智能系統(tǒng)的模板和指南。
2023年,微軟推出了 Azure AI Content Safety,幫助客戶識別并過濾掉人工智能模型中有害的輸出,如仇恨、暴力、性或自殘等內容。最近,Azure AI Studio 中還添加了新的工具(這些工具即將或已經可以使用),旨在幫助開發(fā)者和客戶提高他們自己生成式人工智能系統(tǒng)的安全性和可靠性。這些新工具包括允許客戶對其應用程序進行安全評估的功能,幫助開發(fā)者快速識別和解決漏洞,執(zhí)行額外的風險和安全監(jiān)控,并檢測模型產生“幻覺”、生成虛假或虛構數(shù)據(jù)的情況。
Sarah Bird 表示:“關鍵在于,我們希望安全性能成為默認選項?!?/p>
06預見并防范破壞行為
人工智能技術的越來越復雜,或許不可避免會有人試圖以各種方式挑戰(zhàn)系統(tǒng),進行一些無害或惡意的“越獄”操作。在科技領域,“越獄”指的是繞過人工智能系統(tǒng)中的安全機制的行為。
除了在新產品發(fā)布前探測漏洞,微軟還與客戶合作,為其提供最新工具以保護客戶在 Azure 上的自定義 AI 應用。例如,微軟推出的新模型可以通過模式識別檢測并阻止惡意“越獄”,從而保護了大語言模型和用戶交互的完整性,并防止惡意指令控制或攻擊 AI 系統(tǒng)。
Natasha Crampton 指出:“這些用途顯然不是我們設計系統(tǒng)時的初衷,但隨著技術的邊界不斷向前推進,這就會自然發(fā)生?!?/p>
07幫助用戶了解人工智能的局限性
盡管人工智能給我們的生活帶來了諸多便利,但它并非完美無缺。微軟鼓勵用戶驗證AI系統(tǒng)提供的信息,并在聊天輸出結果的末尾提供了引用來源鏈接,以增強透明度。
自2019年以來,微軟一直都有發(fā)布“透明度說明”,為客戶提供關于 AI 功能、限制、用途及負責任使用的詳細信息。公司還在面向消費者的產品(如 Copilot)中加入了用戶友好型通知,圍繞風險識別、人工智能報錯或生成意外內容的可能性等主題提供重要披露,并提醒人們他們正在與人工智能進行交互。
隨著生成式人工智能技術及其用途的不斷擴展,持續(xù)改進系統(tǒng)、適應新法規(guī)、更新流程并努力創(chuàng)造符合用戶需求的人工智能體驗,將尤為重要。
“我們必須保持謙遜,認識到我們對新技術的應用方式尚不明確,因此,我們需要傾聽用戶的聲音,” Sarah Bird 說,“我們必須不斷創(chuàng)新、學習和傾聽?!?/p>
-
微軟
+關注
關注
4文章
6599瀏覽量
104100 -
AI
+關注
關注
87文章
30947瀏覽量
269216 -
人工智能
+關注
關注
1791文章
47314瀏覽量
238652
原文標題:構建負責任且大規(guī)模的生成式人工智能的七個啟示
文章出處:【微信號:mstech2014,微信公眾號:微軟科技】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論