0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為了不讓AI帶有歧視色彩,谷歌操碎了心訓(xùn)練模型

如意 ? 來源:極客公園 ? 作者:沈知涵 ? 2020-11-03 10:47 ? 次閱讀

土耳其語的「他」和「她」沒有性別的區(qū)分,統(tǒng)一用 O 表示。過去 Google Translate 在翻譯 o bir doktor(ta 是一位醫(yī)生)和 o bir hem?ire(ta 是一位護(hù)士)時,會把前者翻譯成 He is a doctor,把后者翻譯成 She is a nurse,只因?yàn)闄C(jī)器在學(xué)習(xí)數(shù)億數(shù)據(jù)和某些「社會規(guī)律」之后,「偏向」把醫(yī)生男性化,護(hù)士女性化。

看到這個問題后,Google 意識到要想辦法更好地訓(xùn)練模型,讓它變得更加「中立」。后來 Google Translate 以增加選項(xiàng)的方式規(guī)避了這個問題。

「當(dāng)然,該解決方案僅適用于幾種語言,僅適用幾個有代表性的單詞,但是我們正在積極嘗試擴(kuò)展它?!筎ulsee Doshi 在 Google I/O’19 上說道。

這只是 Google 這家公司將先進(jìn)技術(shù)與技術(shù)價值觀合二為一的體現(xiàn)之一。上周 Meg Mitchel,Tulsee Doshi,Tracy Frey 三位谷歌科學(xué)家、研究學(xué)者向包括極客公園(id: geekpark)在內(nèi)的全球媒體闡釋了 Google 如何理解機(jī)器學(xué)習(xí)公平性,以及為了打造一個「負(fù)責(zé)任的 AI」,Google 做了哪些事情。

要讓 AI 被人信任這件事情變得越來越重要。

「最近一次調(diào)研中,全球 90% 的受訪高管都遇到過人工智能的倫理問題,因此有 40% 的人工智能項(xiàng)目被放棄。從企業(yè)的角度來看,對 AI 的不信任正在成為部署 AI 最大的障礙,只有在 AI 被負(fù)責(zé)任地開發(fā)出來并且取得終端用戶信任的語境下,效率提升和競爭優(yōu)勢才會得到充分體現(xiàn)?!筎racy Frey 說,打造一個負(fù)責(zé)任的 AI 成為 Google 上下最重要的事情之一。

兩年之前 Google 公布了 AI principles(人工智能原則),這些直指 AI 技術(shù)應(yīng)用倫理的原則包括:

· 對社會有益(Be socially beneficial)

· 避免建立和加劇不公的偏見(Avoid creating or reinforcing unfair bias)

· 保障建立和測試安全性(Be built and tested for safety)

· 對人類負(fù)責(zé)(Be accountable to people)

· 建立并體現(xiàn)隱私保護(hù)原則(Incorporate privacy design principles)

· 支持并鼓勵高標(biāo)準(zhǔn)的技術(shù)品格(Uphold high standards of scientific excellence)

· 提供并保障上述原則的可操作性(Be made available for uses that accord with these principles)

只是把這些原則停留在字面上沒有意義,Google 為此形成了一個從理論到實(shí)踐的「閉環(huán)」。Tulsee Doshi 和她的團(tuán)隊通過一些基礎(chǔ)性質(zhì)的研究建立和迭代 AI 原則、規(guī)范,作為閉環(huán)的中心,他們一邊通過向高級顧問尋求改進(jìn)建議,一邊讓產(chǎn)品團(tuán)隊(Chrome、Gmail、Cloud 等)來實(shí)施和反饋。

Tulsee 舉了一個例子,Google 內(nèi)部孵化器 Jigsaw 曾經(jīng)開發(fā)了一個名叫 Perspective 的 API,它的工作就是在網(wǎng)絡(luò)對話、評論中尋找各種各樣的言論,自動評價它們是否帶有仇恨、辱罵、不尊重等行為,從 0-1 代表「毒性」從低到高。

比如「我想抱抱這只可愛的小狗」和「這只小狗也太討厭了吧」分別評分為 0.07 和 0.84。

當(dāng)然機(jī)器也不是從一開始就「完美無瑕」。在 2017 年的 1.0 版本中,它給「我是直男」打分 0.07 分,給「我是同性戀」打分 0.84 分,與之相似的很多測試中,系統(tǒng)都被證實(shí)帶著身份認(rèn)知上的偏見。

為了提升機(jī)器學(xué)習(xí)的公平性,Google 內(nèi)部研發(fā)了一項(xiàng)名為對抗訓(xùn)練(Adversarial Training)的技術(shù)——如何使機(jī)器學(xué)習(xí)模型對抗樣本更魯棒。2018 年開始,對抗訓(xùn)練開始應(yīng)用在 Google 產(chǎn)品中。緊接著今年 11 月,Google 會將此應(yīng)用在 TensorFlow 更加廣泛的生態(tài)里。

「事實(shí)上,任何一位 Googler 都可以對一款產(chǎn)品、一份研究報告、一項(xiàng)合作進(jìn)行 AI 原則審查?!筎ulsee 說道。

比如去年,一位 Google 員工將照片跑在 Cloud Vision API 上時發(fā)現(xiàn)自己的性別被搞錯了,而這違反了 AI 原則的第二條「避免建立和加劇不公的偏見」。

發(fā)生這樣的失誤很好理解,單單從外表一個維度,機(jī)器很難正確地判斷出一個人的性別,所以后來 Google 干脆取消 Cloud Vision API 將圖像中的人標(biāo)記為「男人」或「女人」的標(biāo)簽功能。

Tracy Frey 稱這是因?yàn)榻裉鞕C(jī)器學(xué)習(xí)面臨社會語境下的挑戰(zhàn)比以前更多了。在 AI 深入社會的過程中,必然有人類的刻板印象和偏見被帶入 AI,所以需要對模型進(jìn)行迭代,保證其透明性和可解釋性,找準(zhǔn)模型性能和公平之間的平衡點(diǎn)。
責(zé)編AJX

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6180

    瀏覽量

    105782
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31429

    瀏覽量

    269832
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8437

    瀏覽量

    132895
收藏 人收藏

    評論

    相關(guān)推薦

    GPU是如何訓(xùn)練AI模型

    AI模型訓(xùn)練過程中,大量的計算工作集中在矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU是如何
    的頭像 發(fā)表于 12-19 17:54 ?197次閱讀

    為什么ai模型訓(xùn)練要用gpu

    GPU憑借其強(qiáng)大的并行處理能力和高效的內(nèi)存系統(tǒng),已成為AI模型訓(xùn)練不可或缺的重要工具。
    的頭像 發(fā)表于 10-24 09:39 ?372次閱讀

    AI模型訓(xùn)練數(shù)據(jù)來源分析

    AI模型訓(xùn)練數(shù)據(jù)來源廣泛且多元化,這些數(shù)據(jù)源對于構(gòu)建和優(yōu)化AI模型至關(guān)重要。以下是對AI
    的頭像 發(fā)表于 10-23 15:32 ?930次閱讀

    如何訓(xùn)練自己的AI模型

    訓(xùn)練自己的AI模型是一個復(fù)雜且耗時的過程,涉及多個關(guān)鍵步驟。以下是一個詳細(xì)的訓(xùn)練流程: 一、明確需求和目標(biāo) 首先,需要明確自己的需求和目標(biāo)。不同的任務(wù)和應(yīng)用領(lǐng)域需要不同類型的
    的頭像 發(fā)表于 10-23 15:07 ?2475次閱讀

    如何訓(xùn)練ai模型

    訓(xùn)練AI模型是一個復(fù)雜且耗時的過程,涉及多個關(guān)鍵步驟和細(xì)致的考量。 一、數(shù)據(jù)準(zhǔn)備 1. 數(shù)據(jù)收集 確定數(shù)據(jù)類型 :根據(jù)模型的應(yīng)用場景,確定需要收集的數(shù)據(jù)類型,如文本、圖像、音頻等。
    的頭像 發(fā)表于 10-17 18:17 ?1288次閱讀

    ai模型訓(xùn)練需要什么配置

    AI模型訓(xùn)練是一個復(fù)雜且資源密集的過程,它依賴于高性能的硬件配置來確保訓(xùn)練的效率和效果。 一、處理器(CPU) CPU是計算機(jī)的核心部件,負(fù)責(zé)處理各種計算任務(wù)。在
    的頭像 發(fā)表于 10-17 18:10 ?1681次閱讀

    蘋果AI模型訓(xùn)練新動向:攜手谷歌,未選英偉達(dá)

    近日,蘋果公司發(fā)布的最新研究報告揭示了其在人工智能領(lǐng)域的又一重要戰(zhàn)略選擇——采用谷歌設(shè)計的芯片來訓(xùn)練AI模型,而非行業(yè)巨頭英偉達(dá)的產(chǎn)品。這一決定在業(yè)界引起了廣泛關(guān)注,尤其是在當(dāng)前英偉
    的頭像 發(fā)表于 08-01 18:11 ?945次閱讀

    蘋果承認(rèn)使用谷歌芯片來訓(xùn)練AI

    蘋果公司最近在一篇技術(shù)論文中披露,其先進(jìn)的人工智能系統(tǒng)Apple Intelligence背后的兩個關(guān)鍵AI模型,是在谷歌設(shè)計的云端芯片上完成預(yù)訓(xùn)練的。這一消息標(biāo)志著在尖端
    的頭像 發(fā)表于 07-30 17:03 ?759次閱讀

    蘋果揭示AI新動向:Apple Intelligence模型谷歌云端芯片上預(yù)訓(xùn)練

    蘋果公司在最新的技術(shù)論文中披露了一項(xiàng)重要信息,其全新的人工智能系統(tǒng)Apple Intelligence所依賴的模型并非傳統(tǒng)上大型科技公司首選的NVIDIA GPU,而是選擇了在谷歌設(shè)計的云端芯片上進(jìn)行預(yù)訓(xùn)練。這一決定不僅打破了行
    的頭像 發(fā)表于 07-30 15:00 ?566次閱讀

    ai模型訓(xùn)練方法有哪些?

    AI模型訓(xùn)練方法是一個復(fù)雜且不斷發(fā)展的領(lǐng)域。以下是ai模型訓(xùn)練方法: 數(shù)據(jù)預(yù)處理和增強(qiáng) 數(shù)據(jù)
    的頭像 發(fā)表于 07-16 10:11 ?1693次閱讀

    ai模型ai框架的關(guān)系是什么

    的數(shù)據(jù)和計算資源來進(jìn)行訓(xùn)練AI模型的主要特點(diǎn)包括: 1.1 參數(shù)數(shù)量大:AI模型的參數(shù)數(shù)量通常在數(shù)百萬到數(shù)十億之間,這使得它們能夠捕捉
    的頭像 發(fā)表于 07-16 10:07 ?4.4w次閱讀

    李彥宏:開源模型將逐漸滯后,文模型提升訓(xùn)練與推理效率

    李彥宏解釋道,百度自研的基礎(chǔ)模型——文 4.0,能夠根據(jù)需求塑造出適應(yīng)各類場景的微型版模型,并支持精細(xì)調(diào)整以及后預(yù)訓(xùn)練。相較于直接使用開源模型
    的頭像 發(fā)表于 04-16 14:37 ?458次閱讀

    谷歌模型訓(xùn)練軟件有哪些?谷歌模型訓(xùn)練軟件哪個好?

    谷歌模型訓(xùn)練方面提供了一些強(qiáng)大的軟件工具和平臺。以下是幾個常用的谷歌模型訓(xùn)練軟件及其特點(diǎn)。
    的頭像 發(fā)表于 03-01 16:24 ?949次閱讀

    谷歌模型訓(xùn)練軟件有哪些功能和作用

    谷歌模型訓(xùn)練軟件主要是指ELECTRA,這是一種新的預(yù)訓(xùn)練方法,源自谷歌AI。ELECTRA不僅
    的頭像 發(fā)表于 02-29 17:37 ?841次閱讀

    谷歌發(fā)布開源AI模型Gemma

    近日,谷歌發(fā)布了全新AI模型Gemma,這款模型為各種規(guī)模的組織提供了前所未有的機(jī)會,以負(fù)責(zé)任的方式在商業(yè)應(yīng)用中進(jìn)行分發(fā)。
    的頭像 發(fā)表于 02-28 17:38 ?886次閱讀