醫療保健中的 AI 有比看病還麻煩的難題

編譯/夏洛特

隨著人工智慧(AI)技術在全球範圍內的迅速發展,醫療保健領域也開始積極探索AI應用的潛力,根據預測,到2025年,全球AI醫療保健軟硬體市場將超過340億美元,AI在醫療保健中的應用包括機器人護士協助外科手術、可穿戴設備進行實時健康監測、增強自我護理的醫療AI聊天機器人,及基於現有健康症狀進行的預測診斷等,然而,這些應用也面臨著一系列複雜的挑戰

隨著人工智慧(AI)技術在全球範圍內的迅速發展,醫療保健領域也開始積極探索AI應用的潛力。
隨著人工智慧(AI)技術在全球範圍內的迅速發展,醫療保健領域也開始積極探索AI應用的潛力。(圖/123RF)

人力資源取代風險

隨著AI逐漸融入醫療保健工作流程,許多人擔心這可能會取代醫療專業人員的工作,導致技能過時和心理與財務上的困難,這種潛在的轉變可能會使醫療團體對採用AI心存顧慮,從而放棄許多可能的益處,基於同理心和批判性思考是無法替代的,因此挑戰在於如何平衡AI在日常任務中的應用,同時保留人類專業知識來處理複雜的患者治療。

更多新聞:物聯網支援醫療保健的三大好處與一個缺點

道德和隱私問題

在使用AI系統時,取得患者對其數據使用的知情同意可能會很複雜,尤其是在公眾對AI運作邏輯尚未完全理解的情況下,此外,有偏見的訓練數據可能會導致不平等的治療建議或誤診,這種偏差尤其可能影響弱勢群體,如有些演算法可能基於醫療成本而非實際病情來預測需要更多強化護理的患者,可能會錯誤地低估某些族群的疾病負擔,同時,AI在處理大量基因數據時,即使移除了個人身份資訊,也可能透過分析識別出個人,對患者的隱私構成風險。

數位培訓不足和採用障礙

目前,許多醫學學生在學習期間缺乏對AI工具和理論的充分培訓,導致他們在實習和工作期間難以適應AI技術的應用,而部分人對數位技術的接受度不高,也是一大障礙,許多人仍然更喜歡傳統的面對面診療,原因包括人際互動的親切感、AI忽視個體差異的問題,及人們對人類醫生的較高信任感等,基於人們對AI和其潛在益處的了解相對不足,這種抗拒情緒在發展中國家尤為明顯。

專業責任問題

AI系統在決策中的應用引入了新的專業責任問題,尤其是當AI做出的決策無效時,誰應該承擔責任成為了新問題,如醫生可能把治療計畫委託給AI,而不對失敗的患者檢查承擔責任,此外,雖然機器學習(ML)演算法可以提供個性化的治療建議,但這些演算法的透明度不足,難以確定個人的責任,依賴AI還可能導致醫療專業人員過度依賴電腦的決策,而忽視自己的臨床判斷。

互操作性問題和數據品質問題

來自不同來源的數據往往難以無縫整合,系統間數據格式的不一致性也使得資訊難以高效獲取和處理,從而導致資訊孤島問題,不只如此,數據品質差,如記錄不完整或不準確,也會導致AI分析出現偏差,最終影響患者的治療,成為待解決的問題。

參考資料:unite

※探索職場,透視薪資行情,請參考【科技類-職缺百科】幫助你找到最適合的舞台!

瀏覽 457 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button