發(fā)布人:Google Research 軟件工程師 Candice Schumann 和 Susanna Ricco
2016 年,我們推出了 Open Images。此協(xié)作版本包含約 900 萬張含有標簽的圖像,涵蓋數(shù)千個對象類別和 600 個類的邊界框注釋。從那之后,我們進行了多次更新,如將眾包數(shù)據(jù)發(fā)布到 Open Images Extended 合集,以此提高對象注釋的多樣性。
更新
https://ai.googleblog.com/2019/05/announcing-open-images-v5-and-iccv-2019.html
Open Images Extended
https://storage.googleapis.com/openimages/web/extended.html
雖然這些數(shù)據(jù)集提供的標簽擴展性很強,但此類標簽并沒有關(guān)注人物的敏感屬性,這些屬性對于許多機器學習 (ML) 公平性任務(wù)(例如公平性評估和偏見緩解)至關(guān)重要。事實上,找到包含徹底標記此類敏感屬性的數(shù)據(jù)集是很困難的,尤其是在計算機視覺領(lǐng)域。
公平性任務(wù)
https://developers.google.com/machine-learning/crash-course/fairness/video-lecture
今天,我們在 Open Images Extended 合集中引入了更具包容性的人物注釋 (MIAP) 數(shù)據(jù)集。此合集包含更多完整的邊界框注釋,用于包含 10 萬張人物圖像中的的人物類層級結(jié)構(gòu)。每個注釋還帶有可感知到的性別呈現(xiàn)和年齡范圍等公平相關(guān)屬性的標簽。作為 Responsible AI 研究的一部分,越來越多的人開始關(guān)注如何減少不公平偏見,我們希望這些注釋能夠激勵已經(jīng)在使用 Open Images 的研究者,將公平分析納入他們的研究中。
Responsible AI 研究
https://ai.google/principles/
交叉描述通過為現(xiàn)有圖像-描述對和輔助描述添加語義相似度人工評分來擴展 MS-COCO 評估集(實線),并通過為新的圖像-描述、描述-描述和圖像-圖像對添加人工評分來提高評分密度(虛線)*
Open Images 中的注釋
原始 Open Images 數(shù)據(jù)集中的每個圖像都包含圖像級注釋(寬泛地描述圖像)和包圍特定對象的邊界框。為了避免對同一個對象繪制多個邊界框,我們從標簽候選集中臨時刪減了具體性較弱的類,我們將這一過程稱為層級去重。舉個例子,若一個圖像的標簽包括動物、 貓,和洗衣機則該圖像的注釋邊界框為貓和洗衣機,而不會注釋多余的類 ——動物。
圖像級注釋
https://cloud.google.com/vision/docs/labels
邊界框
https://cloud.google.com/vision/docs/object-localizer
MIAP 數(shù)據(jù)集可用于原始 Open Images 數(shù)據(jù),集中人物 層級包含的五個類:人物、男人、女人、男孩、女孩。由于這些標簽的存在,Open Images 數(shù)據(jù)集對于推進 Responsible AI 的研究具有獨特的價值,能夠幫助開發(fā)者訓練通用的人物檢測器,訪問性別和年齡范圍特定的標簽,以實現(xiàn)公平分析和偏見緩解。
Responsible AI
https://ai.google/responsibilities/responsible-ai-practices/
人物檢測器
https://cloud.google.com/video-intelligence/docs/people-detection
然而,我們發(fā)現(xiàn)結(jié)合了層級去重和女人/女孩與男人/男孩之間的社會性區(qū)別后,原始注釋會受到限制。舉個例子,如果要求注釋器針對女孩這一分類繪制邊界框,它們便不會在圖像中的男孩周圍繪制邊界框。注釋器可能會也可能不會在某位女性周圍繪制邊界框,這取決于其對個人年齡的評估以及對女孩這一概念的文化性理解。此類判斷在不同圖像中可能會存在不一致,這取決于單獨的注釋器的文化背景、圖像人物的外表和場景的上下文。因此,某些圖像中的邊界框注釋會不完整,一些較為顯眼的人物沒有得到注釋。
MIAP 中的注釋
新的 MIAP 注釋旨在解決這些限制,實現(xiàn)讓 Open Images 成為推動機器學習公平性研究取得新進展的數(shù)據(jù)集的保障。我們不要求注釋器為層級結(jié)構(gòu)中最具體的類(例如,女孩)繪制邊界框,而是將此程序反過來,要求它們?yōu)樾詣e和年齡未知的人物分類繪制邊界框。
所有人物邊界框?qū)脮r都將獲得感知到的性別呈現(xiàn)(很大可能是女性、很大可能是男性,或未知)以及年齡呈現(xiàn)(青年、中年、老年,或未知)等標簽。我們認識到性別不是二元的,個人的性別認同可能與其感知或預(yù)期的性別呈現(xiàn)不符,為了緩解無意識偏見對注釋的影響,這里提示:注釋器,與性別呈現(xiàn)相關(guān)的規(guī)范因文化而異,且會隨時間的推移而變化。
這個過程添加了大量先前丟失的邊界框。
在包含人物的 10 萬張圖像中,人物邊界框的數(shù)量從 35.8 萬左右增加到 45.4 萬左右。各個感知性別呈現(xiàn)和感知年齡呈現(xiàn)的邊界框數(shù)量持續(xù)增加。這些新注釋為人物檢測器的訓練提供了更完整的基本事實,并提供了更準確的子組標簽,以將公平性納入計算機視覺研究。
預(yù)期用例
我們?yōu)槿宋镞吔缈虻母兄挲g范圍和性別呈現(xiàn)納入了注釋,因為我們認為有必要添加此類注釋,以便提高能力,實現(xiàn)更好的理解以及努力緩解并消除圖像理解領(lǐng)域,受保護子組之間的不公平偏見或不同性能。
我們注意到,標簽捕獲的性別和年齡范圍是第三方僅根據(jù)視覺線索,而不是個人的自我認知性別或?qū)嶋H年齡評估出來的。我們不支持也不容忍構(gòu)建或部署根據(jù)這些注釋訓練的性別或年齡呈現(xiàn)分類器,因為我們認為在公平性研究之外使用這些技術(shù)的相關(guān)風險大于任何潛在好處。
風險
https://dl.acm.org/doi/10.1145/3173574.3173582
致謝
這項研究背后的核心團隊成員包括 Utsav Prabhu、Vittorio Ferrari 和 Caroline Pantofaru。同時,我們還要感謝 Alex Hanna、Reena Jana、Alina Kuznetsova、Matteo Malloci、Stefano Pellegrini、Jordi Pont-Tuset 和 Mahima Pushkarna 對本項目的貢獻。
編輯:jq
-
AI
+關(guān)注
關(guān)注
87文章
33415瀏覽量
273940 -
計算機視覺
+關(guān)注
關(guān)注
8文章
1704瀏覽量
46446 -
機器學習
+關(guān)注
關(guān)注
66文章
8477瀏覽量
133793 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1220瀏覽量
25181
原文標題:最新進展:將包容性人物注釋納入 Open Image Extended 數(shù)據(jù)集
文章出處:【微信號:yingjiansanrenxing,微信公眾號:硬件三人行】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
貿(mào)澤電子田吉平榮膺產(chǎn)業(yè)特別貢獻人物獎

如何使用POT準確性檢查器?
無法將自定義COCO數(shù)據(jù)集導(dǎo)入到OpenVINO? DL Workbench怎么解決?
領(lǐng)克汽車成都工廠引入優(yōu)必選無人物流方案
Open-E JovianDSS Up31增強的功能和新特性
Arm與阿斯頓·馬丁沙特阿美一級方程式賽車車隊達成合作
AMC1200BDUBR在工作時引入了112MHz和132MHz的EMC噪聲,怎么消除?
沙特阿拉伯發(fā)布《利雅得宣言》 共筑包容性、創(chuàng)新性和有影響力的人工智能未來
宏集Cogent DataHub: 高效實現(xiàn)風電場數(shù)據(jù)集中管理與自動化

TIDP.SAA接口怎么實現(xiàn)I2C Read Extended功能?
求助,為什么噪聲很小的信號通過一階有源低通濾波器后反而引入了高頻噪聲?
DP83TC811:Open Alliance規(guī)范合規(guī)性測試所用的配置

評論