當前位置:
首頁 > 新聞 > 當醫療技術逐步向前發展,是誰正被漸漸遺忘?| 矽谷洞察

當醫療技術逐步向前發展,是誰正被漸漸遺忘?| 矽谷洞察

更多精彩,敬請關注矽谷洞察官方網站(http://www.svinsight.com)

醫療產業科技的飛速發展與迭代在今天已經不是什麼新聞了。但是很多人開始產生疑問,「這些技術的發展真的能惠及每個人嗎?」業內人士提醒,很多患者群體被科技發展甩在了身後——這些群體包括非白人群體、少數團體、LGBTQ群體以及女性群體。

當醫療技術逐步向前發展,是誰正被漸漸遺忘?| 矽谷洞察

問題與機遇

健康平權研究所(Institute for eHealth Equility)的首席執行官Silas Buchanan告訴健康新聞報(MobiHealthNews):「我認為有色人種群體以及其他所有少數群體(不論種族),都正在被產業的變化以及科技的更新迭代拋在身後。」

但希望還是有的。Buchanan說,健康產業內新湧現的越來越重要的環境與社會因素已經使得滿足每一個群體的需求成為新的關注點。

「人們越來越關注健康領域中的社會因素,因此這些群體也會相應得到更多的關注。提出新想法的人和創新者也許會更多地考慮到這些群體」,Buchanan這樣說道。

為這些之前一度被忽略的患者發展技術同樣也有它的商業價值。比如,受醫療援助制度(Medicaid)扶持的人們其實數量眾多。

「醫療援助制度覆蓋面很廣,受其援助的美國人多達1700萬,根據衡量的標準不同,這個數據會有不同。但很明顯,這部分人都屬於低收入狀態,而且他們中的很多人還是孩子」,未來研究所(Institute for the Future)的研究主任Vanessa Mason這樣告訴健康新聞報,「想想看目前健康需求的廣泛性,以及目前受醫療援助制度扶持的患者們所面臨的各種社會性、行為性以及環境方面的挑戰,我認為我們在這些方面仍然缺少足夠的研究,這些問題的重要性在醫療科技領域也缺少關注。」

既然這樣,為什麼鮮有企業關注到這些人群呢?Mason說自己聽過一籮筐人們為什麼不願意在醫療援助制度這個領域投資創新的借口。

「關於『受醫療援助的患者不願意用新科技』的說法我聽了太多了」,Mason說,「從市場的角度來說,我也看到了『沒人願意在這塊地方花錢』的現實」。

然而Mason表示,醫療科技在受醫療援助患者方面的投入其實是存在很多成功範例的。她舉出Wildflower這個幫助患者權衡利弊並尋找醫療資源的醫療科技信息分享平台,作為在醫療援助制度領域的成功例子。

除了懷孕之外還有什麼?

Wildflower公司意在解決女性健康領域的問題,但技術發展在這個領域當中仍然存在缺口。總體來看針對女性健康的醫療技術產業確實有所發展,但目前市場上60%的技術針對的都是女性生育能力、月經以及孕期健康。Mason說,看到越來越多的公司進入女性健康領域她很受鼓舞,但同時也希望看到更多公司能全方位地關注女性人生各個階段的健康需求。

「目前國內關於懷孕的定義和理解模式還非常局限,根據這個定義,很難把女同性戀以及跨性別女性考慮在內」,Mason說,「因此我想讓你們思考的問題是,為全體女性的身心健康考慮而作的開發設計應該是什麼樣的?說得具體一點,除了孕期健康之外,女性健康還包括哪些方面?」

她說,目前有越來越多針對更年期的產品進入市場。比如說,12月份的時候VRHealth推出了它們針對女性潮熱而研發的名為Luna的最新產品。

Mason還提到了一項幫助查明慢性疲勞綜合症(一種對女性影響尤其明顯的病症)的生物標記的技術,她認為這是在正確的軌道上又向前邁進了一步。

「我認為這確實是女性面臨的諸多病症中很具有代表性的一個,診斷這些隱性存在的病症障礙要花費的時間簡直久到離譜,而它們造成的困擾和生活質量的降低又尤為明顯」,Mason說道,「我認為診斷費時如此之久的其中一部分原因在於,醫生會對女性患者瞎扯,說你的病你自己比誰都清楚之類的話,或者乾脆就沒有嚴肅對待患者的病情。女性在自己的健康領域得不到嚴肅對待已是常事,因此我非常期待看到能夠改變這一點的契機出現。」

科技能改變醫療領域的偏向嗎?

偏向性不止存在於研發與投入階段,縱觀整個醫療職業領域,臨床醫師的偏向性已然是一個令人擔憂的問題。

事實上,《急救醫學》(Academic Emergency Medicine Journal)2017年 發表了一篇關於醫生的種族偏向對於醫療決定的影響的系統性研究。研究發現在醫療服務提供者心中,普遍存在對於白人患者的隱性種族偏向,並且所有科室的醫生都是如此(但要注意的是,這項研究同時也發現醫生的隱性種族偏向和他們做出的醫療決定關係不大)。

「在藥學學科,基本上你學到的就是各種刻板印象。而這就是問題所在」,Damon Tweedy醫生在波士頓的大西洋會議上這樣說道。他的自傳《醫生白袍下的黑人》(Black Man in a White Coat)講述了他作為一名非洲裔美國人的男性醫生的故事。他說,「你會拿到一些片段性的信息,然後根據這些信息找出病症所在。在藥學學科里,你一開始要學的就是關於種族、年齡以及性別的問題。舉個例子,給你一個30歲的黑人女性,你要學的就是這些信息背後所有人們默認存在的東西。藥學就是用這種極具偏向性的方法教授的。而這一點真的非常、非常有問題,並且我覺得人們經常會看不到這個問題的存在」。

技術可以消除一些偏向,但同樣也可能增強這些偏見。而這些偏向究竟是能夠消除還是被增強,最終取決於科技的發展方式。她舉了一個醫療決定輔助工具作為例子。

Mason說,「醫療決定輔助工具是基於已知的醫療方案和可能的臨床決策設計的。從另一個角度來看,基於具體事實情況的藥方使得我們能根據具體情況提供不同的處方或看護,並且能夠考慮到一些特殊的情況。如果這些特殊的情況能被納入參考範圍之內,那麼它們背後所代表的人群也會被注意到。這樣的話,我們的偏向性就會因為數據技術和醫療工具的加入而減弱」。

但是技術是人設計的、是人開發的,其數據也來源於人,因此它也肯定會有自身的問題。

「所以如果我們使用的是過去的例子來訓練AI機器學習,那麼就意味著我們將偏向性植入到了這些工具中,而這些工具的使用又會使得偏向更加嚴重」,她說道。「問題的關鍵在於回頭去審視我們已有的數據、了解這些數據當時是如何被分析的、數據中包含了哪些人的情況、充分地包含了哪些人的情況,然後再切實地審視基於這些數據產生的結果。」

偏向性在AI和機器學習領域是很熱門的一個話題。就在本周,谷歌首席執行官Sundar Pichai表示其公司正在尋求這一問題的解決方法。

「早在機器學習產生的很久以前,偏向性就已經是一個令人擔憂的問題了」,Pichai在活動中介紹說, 「很明顯,對於AI來說這個問題則更加嚴重。光知道模型能夠運作還遠遠不夠,我們得了解它是如何運作的。要確保我們開發的AI模型不會增強現實生活中的偏向,而要克服這個問題不算容易。這也是為什麼我們正在進行很多基礎性的電腦科學研究,以提高機器學習系統的透明度。」

事實上,在皮膚科的應用程序方面對於AI偏向性的討論顯得尤為普遍。雖然自動掃描診斷的好處顯而易見,但去年八月在JAMA Dermatology 上發表的一篇文章顯示,這些演算法的訓練方式並不能確保對有色人種患者的診療準確性。

在Pichai的講話中,他始終聚焦這一問題以及公司對於未來解決該問題的企望。

「現在想像一個幫助檢測皮膚癌的AI系統。這個系統要想有效運作,就必須得能夠識別所有人種的不同膚色色調」,他說,「雖然要做的事還很多,但我們堅持致力於打造公平的、適用於每一個人的AI系統。這包括發現並解決存在於我們機器學習系統中的偏向性、分享技術工具以及公開數據以幫助患者。」

從何開始?

Buchanan認為,打破技術研發者與患者群體之間的障礙是問題的關鍵所在。他的團體與宗教性及世俗性組織一道合作,以建立起這種聯繫。

「我認為之所以會有人被技術的發展拋在身後,就是因為目前還沒有針對有色人種的清晰的引導方案。」Buchanan這樣說道。

他說,對於醫療從業者和技術研發者來說,了解不同的患者群體的關鍵方法就是:僱用一支多背景的團隊來幫助你。「通過生活經驗中我們能了解到很多」,他說,「比如人們的所思所想以及他們的內心感受,你甚至還可以建立一個自己的重點關注對象組。但我覺得最有效的方式還是從你正研發的健康技術所關注的文化、種族或民族群體中,挑選一名成員納入團隊之中。沒有什麼能代替這一點。」

原文作者:Laura Lovett

原文鏈接:https://www.mobihealthnews.com/content/health-tech-innovation-moves-forward-who-being-left-out

更多精彩,敬請關注矽谷洞察官方網站(http://www.svinsight.com)

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 矽谷密探 的精彩文章:

UCSF和醫生合作開發人工智慧驅動的患者安全項目 | 矽谷洞察
人工智慧應用於醫療保健黑暗面的警告—矽谷洞察

TAG:矽谷密探 |