- +1
MIT、哈佛新研究:AI看X光片就能識種族,工作原理成謎
醫(yī)生無法僅通過X光片來判斷某人是黑人、亞洲人還是白人。但是,根據(jù)麻省理工學(xué)院(MIT)和哈佛醫(yī)學(xué)院等的科學(xué)家團(tuán)隊的最新研究發(fā)現(xiàn),計算機(jī)可以做到。

研究發(fā)現(xiàn),受過訓(xùn)練的AI模型可以以90%的準(zhǔn)確率預(yù)測一個人的種族。但進(jìn)行這項研究的科學(xué)家表示,他們不知道AI是如何做到的。該論文于近日發(fā)表在醫(yī)學(xué)雜志《柳葉刀數(shù)字健康》上。
“當(dāng)我的研究生向我展示這篇論文中的一些結(jié)果時,我實際上認(rèn)為這一定是一個錯誤,”麻省理工學(xué)院電氣工程和計算機(jī)科學(xué)助理教授、該論文的合著者M(jìn)arzyeh Ghassemi說,“當(dāng)他們告訴我的時候,我真的以為我的學(xué)生瘋了?!?/p>
AI診斷模型在醫(yī)學(xué)影像讀片中的表現(xiàn)優(yōu)異并不是令人驚訝的事,但這個識別種族的本領(lǐng)之所以引人關(guān)注,一方面是其工作原理仍是謎團(tuán),另一方面,人們不得不擔(dān)憂人工智能可能會放大醫(yī)療領(lǐng)域現(xiàn)有的種族差距。
如2019年在《科學(xué)》發(fā)表的研究(Dissecting racial bias in an algorithm used to manage the health of populations)發(fā)現(xiàn),美國一個每年管理約2億人醫(yī)療的算法,建議為黑人患者提供額外護(hù)理的概率只有白人患者的一半。因為黑人通常比患有相同病癥的白人獲得更低的風(fēng)險評分,所以黑人必須比白人的病更重,才能獲得幫助。
《波士頓環(huán)球報》稱,在人工智能軟件越來越多地用于幫助醫(yī)生做出診斷決定的時候,這項研究提出了一個令人不安的前景,即基于人工智能的診斷系統(tǒng)可能會無意中產(chǎn)生帶有種族偏見的結(jié)果。例如,人工智能(可以使用X射線)可以自動為所有黑人患者推薦特定的治療方案,無論它是否最適合特定的人。同時,病人的人類醫(yī)生不會知道人工智能的診斷是基于種族數(shù)據(jù)的。
“我們問自己,如果計算機(jī)不能分辨一個人的種族,那怎么可能?”另一位合著者、哈佛醫(yī)學(xué)院副教授Leo Anthony Celi說。這項研究工作即開始于,科學(xué)家注意到檢查胸部X光片的AI有更可能錯過黑人患者疾病的跡象。
該研究團(tuán)隊首先使用X射線和CT掃描的標(biāo)準(zhǔn)數(shù)據(jù)集訓(xùn)練了一個人工智能系統(tǒng),其中每張圖像都標(biāo)有人的種族。這些圖像來自身體的不同部位,包括胸部、手部和脊柱。計算機(jī)檢查的診斷圖像不包含明顯的種族標(biāo)記,如膚色或頭發(fā)質(zhì)地。該程序通常能以遠(yuǎn)高于90%的驚人準(zhǔn)確率識別出圖像中人的種族。
工作原理是什么?
對這個問題,Ghassemi及其同事們?nèi)愿欣Щ螅龖岩蛇@與黑色素有關(guān),黑色素是決定膚色的色素。也許X射線和CT掃描儀檢測到深色皮膚中較高的黑色素含量,并以人類用戶以前從未注意到的某種方式將這些信息嵌入數(shù)字圖像中。這還需要更多的研究才能確定。
那么,這樣的測試結(jié)果是否證明了不同種族之間的先天差異?在接受《波士頓環(huán)球報》采訪時,漢普郡學(xué)院生物人類學(xué)教授、《種族主義不是種族》一書的合著者艾倫·古德曼(Alan Goodman)不這么認(rèn)為。古德曼對論文的結(jié)論表示懷疑,并表示他懷疑其他研究人員能否重現(xiàn)這些結(jié)果。但即使能重現(xiàn),他認(rèn)為這一切都是與地理有關(guān),而不是種族。
古德曼說,遺傳學(xué)家沒有發(fā)現(xiàn)人類基因組存在重大種族差異的證據(jù)。但他們確實根據(jù)祖先居住的地方發(fā)現(xiàn)了人與人之間的重大差異。
“如果他們不使用種族,而是查看某人的地理坐標(biāo),機(jī)器也會這樣做嗎?”古德曼答道,“我的感覺是機(jī)器也能做到?!?/p>
換句話說,人工智能可能能夠通過X射線確定一個人的祖先來自北歐,另一個人來自中非,第三個人來自日本。古德曼說,“你稱這是種族,我稱之為地理差異。” 即便如此,他承認(rèn)目前尚不清楚人工智能如何僅通過X射線檢測到這種地理差異。
Celi認(rèn)為,醫(yī)生應(yīng)該會不愿意使用可能會自動產(chǎn)生偏見結(jié)果的AI診斷工具。他說道,“我們需要暫停一下。在我們確定其沒有做出種族主義決定或性別歧視決定之前,我們不能急于將算法帶到醫(yī)院和診所?!?/p>





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司




