每日最新頭條.有趣資訊

人工智慧可能會加劇醫療健康差距,並將不平等偏見自動化和無形化

人工智慧開始在各種臨床情況下達到(有時甚至超過)醫生的評估。人工智慧現在可以像皮膚科醫生那樣診斷皮膚癌,像神經科醫生那樣診斷癲癇,像眼科醫生那樣診斷糖尿病性視網膜病變。目前正在開發一種演算法來預測哪些病人會腹瀉或最終需要進入重症監護室。美國食品藥品管理局最近批準了第一種機器學習演算法,用於測量流經心臟的血液流量。

上述情況這會讓很多醫學生提出這樣的疑問,為什麼我們還要花十年時間在醫學培訓上學習診斷和治療的藝術。

關於人工智慧是否真的在醫學上起作用,以及它在哪裡起作用,還有很多問題:它能發現肺炎、發現癌症、預測死亡嗎?但這些問題集中在技術層面,而非道德層面。在一個充滿不平等的衛生系統中,我們不得不問:在醫學中使用人工智慧是否會加劇醫療健康差距?

至少有三個理由相信這種可能性。

第一個是數據訓練問題。人工智慧必須學會在大數據集上診斷疾病,如果這些數據沒有包括來自特定背景的足夠多的患者,它們就不那麼可靠。來自其他領域的證據表明,這不僅僅是理論上的擔憂。最近的一項研究發現,一些面部識別程式對淺膚色男性的錯誤分類不到1%,而對深膚色女性的錯誤分類超過了三分之一。當我們依靠這樣的演算法來診斷淺膚色人種以及深膚色的黑色素瘤時會發生什麼?

儘管知道女性和少數族裔有不同的疾病危險因素和表現,但長期以來,醫學一直在努力增加研究中的女性和少數族裔代表。許多基因研究缺乏黑人患者,導致錯誤的結論。女性心臟病發作時通常會出現不同的癥狀,導致治療延誤。或許,使用最廣泛的心血管風險評分法(使用的數據主要來自白人患者)對少數族裔來說可能不那麼精確。

人工智慧將告訴我們可能會中風的人群,或者哪些患者會在臨床試驗中受益,是否會將這些擔憂編入演算法,證明對代表性不足的群體沒有那麼有效?

其次,因為人工智慧是基於真實數據進行訓練的,它有可能將導致醫療健康差異的經濟和社會偏見整合、固化和永久化。同樣,來自其他領域的證據具有指導意義。用於幫助法官預測哪些罪犯最有可能再次犯罪的人工智慧程式顯示出令人不安的種族偏見,那些旨在幫助保護兒童的服務機構決定哪些電話需要進一步調查的程式也是如此。

在醫學上,未經檢查的人工智慧可能會製造出自我實現的預言,證實我們之前的偏見,尤其是在面對複雜的權衡和高度不確定性的情況時。例如,如果較窮的患者在器官移植或接受晚期癌症化療後病情惡化,機器學習演算法可能會得出結論,認為這些患者不太可能從進一步治療中獲益——並建議不要這樣做。

最後,如果人工智慧的實施對某些群體產生了不成比例的影響,即便是表面上是公平、中立的人工智慧也有可能加劇這種差距。這是考慮到一個幫助醫生決定患者在膝蓋手術後是回家還是去康復中心的項目得出的。這是一個充滿不確定性的決定,但卻會產生真實的後果:有證據表明,被送到一家康復機構的費用更高,再入院的風險也更高。如果一種演算法將居住在低收入社區作為無法獲得良好康復支持的標誌,它可能會建議少數族裔患者去護理機構,而不是接受家庭物理治療。更糟糕的是,一項旨在提高效率或降低醫療成本的計劃可能會完全完全不支持上述操作。

在某種程度上,這些問題在醫學上已經存在。美國的醫療保健一直在與收入和種族不平等作鬥爭,這種不平等源於各種形式的偏見。人工智慧的風險在於,這些偏見將變得自動化和無形化——我們開始接受機器的智慧,而不是我們自己的臨床和道德直覺的智慧。許多人工智慧程式都是黑盒子:我們不知道裡面到底發生了什麼,也不知道它們為什麼會產生這樣的輸出。但我們可能會越來越多地被期望尊重他們的建議。

不過,人工智慧在改善醫學方面仍有巨大潛力。它很可能使醫療保健工作更有效、更準確,如果得到適當部署,還可能更公平。但要實現這一承諾,就需要意識到存在偏見的可能性,並加以防範。這意味著定期監控演算法的輸出和下遊結果。在某些情況下,這將需要反偏見演算法來尋找和糾正微妙的、系統的歧視。

但最根本的是,這意味著要認識到,照顧病人的仍然是人,而不是機器。我們有責任確保將人工智慧作為一種可使用的工具——而不是人類成為人工智慧的附屬品。

獲得更多的PTT最新消息
按讚加入粉絲團