當(dāng)臨床醫(yī)生將AI應(yīng)用于女性患者時(shí),主要接受男性X射線訓(xùn)練的AI將表現(xiàn)不佳。如果患者皮膚黝黑并且大多數(shù)訓(xùn)練圖像來(lái)自皮膚白皙的患者,則用于皮膚病學(xué)照片診斷皮膚癌的算法將使這項(xiàng)工作陷入困境。等等。這種偏見(jiàn)的例子在醫(yī)療保健AI的裝甲中積蓄了不可忽視的缺點(diǎn)。
當(dāng)然,即使可行,也很難從各種各樣的患者群體中收集適合AI的培訓(xùn)數(shù)據(jù)。但是,如果醫(yī)療保健中的AI無(wú)法幫助某些最脆弱的患者人群,那么它如何幫助改善美國(guó)在人口水平上的健康的事業(yè)呢?
11月17日發(fā)表在《科學(xué)美國(guó)人》上的一篇觀點(diǎn)文章中,三位斯坦福大學(xué)的醫(yī)學(xué)博士/博士對(duì)該主題提出了最好的想法。
“人工智能的偏見(jiàn)是一個(gè)復(fù)雜的問(wèn)題;僅提供各種培訓(xùn)數(shù)據(jù)并不能保證消除偏見(jiàn)。” Kaushal,Altman和Langlotz寫(xiě)道?!斑€提出了其他一些問(wèn)題,例如,人工智能工具的開(kāi)發(fā)商和出資者之間缺乏多樣性;從多數(shù)群體的角度看待問(wèn)題的框架;關(guān)于數(shù)據(jù)的隱含偏見(jiàn)假設(shè);以及使用AI工具的輸出來(lái)無(wú)意或無(wú)意地使偏差永久化?!?/p>
他們指出,研究人員正在嘗試通過(guò)構(gòu)建可從有限輸入中推斷出廣泛輸出的算法來(lái)解決數(shù)據(jù)不一致的問(wèn)題。
作者寫(xiě)道:“通過(guò)這些創(chuàng)新,可能會(huì)出現(xiàn)減少AI對(duì)海量數(shù)據(jù)集需求的新方法。”“但是目前,確保用于訓(xùn)練算法的數(shù)據(jù)的多樣性對(duì)于我們理解和緩解AI偏差的能力至關(guān)重要?!?/p>
為此,他們呼吁建立所需的技術(shù),法規(guī),經(jīng)濟(jì)和隱私基礎(chǔ)架構(gòu),以收集不僅大而且足夠多樣化的數(shù)據(jù),以培訓(xùn)醫(yī)學(xué)AI,使世界各地的所有患者受益。
責(zé)任編輯:lq
-
醫(yī)療保健
+關(guān)注
關(guān)注
4文章
315瀏覽量
30744 -
AI
+關(guān)注
關(guān)注
87文章
31294瀏覽量
269647 -
人工智能
+關(guān)注
關(guān)注
1792文章
47514瀏覽量
239236
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論