醫師問診未來能由AI代勞? 美研究它可以比對資料但無力推理

AI生成式人工智慧可以做的事愈來愈多,組織裡因為AI應用而重新配置人力,甚至有些人力直接因為有了AI而被取代,那醫師的工作呢?人工智慧在臨床呈現的推理能力,能不能取代醫師問診呢?美研究指出,這再再挑戰傳統醫療思維和醫病關係!
大哉問在70年前即冒出來
根據外電報導,生成式人工智慧技術應用愈來深度、愈高端,一個備受關注的問題即浮上檯面:人工智慧是否具備與人類醫師相當的臨床推理能力?這個問題困擾著從事臨床推理人工智慧研究的專家已有70多年之久!儘管早期的研究者對此持懷疑態度,但隨著認知心理學的進展以及大型語言模型的出現,人工智慧在臨床推理領域展現出驚人的潛力。
看更多:他打嗝帶苦味竟是胰臟癌!醫:「打嗝3味道」身體拉警報 這氣味恐胃癌
認知心理學揭示臨床推理奧秘
《刺胳針》(The Lancet)醫學期刊官網揭露生成式人工智慧目前在醫學應用的歷程與現況。在1970年代,認知心理學開始探索人類臨床醫師以「直覺」行醫,背後的奧秘是什麼?專家將這種直覺視為由多年養成之醫師專業知識,磨練出的捷徑。有了這層認知,醫師們開發了從規則性建立起來的一套專家系統,而這些系統應用在選擇抗生素、解釋心電圖,甚至做出臨床診斷方面,出乎意料之外的是,人造的專家系統表現常常優於人類專家!
然而,直到2022年底ChatGPT的問世,人工智慧在臨床推理領域的進展又有了極大跨度、前所未有的進展。
看更多:限時現場體驗!中醫把脈、看舌頭顏色診斷心脾 竟然也用「這工具」
大型語言模型模擬醫師問診 表現過人!
專家指出,ChatGPT作為第一個提供強大互動能力的大型語言模型,在訪問、分析和生成醫療資訊方面展現出卓越的能力。初期觀察這類模型能夠解決複雜病例、在急診室將不同病症的患者分派不同科別、預測診斷,並在不確定情況下做出複雜的醫療決策,甚至能直接從患者那裡獲取病史。這些能力過去一直被認為是人類醫師才能做到的事,現在答案可能要改寫修訂。
語言模型與專家認知相似
大型語言模型的推理能力透過認知心理學的角度來看,似乎已提供了合理解釋。許多醫師做的臨床推理,被理解為是「資訊處理和檢索的過程」,只要把專家知識儲存在語言模型的腳本和模式中,在遇到臨床問題時便會被拿出來應用。
語言模型仍未完備
但是,這些模型有時會產生幻覺,或是「腦補」現象,會生成錯誤內容或是偏見。目前,它們的能力似乎僅限於處理文本資訊,而人類醫師則能透過多種感官體驗世界,在人的層面上與患者產生聯結。此外,研究也發現,人類醫師在進行臨床推理時,經常會轉向更結構化的推理方式,運用形式邏輯、病理生理學或統計概率等知識,這些都是目前生成式人工智慧還達不到的境界,因此,醫師這一工作,尚無法被取代。
看更多:不覺胸悶胸痛 42歲男心肌梗塞+中風!醫揭3警訊「血管從心堵到腦」
◎ 圖片來源/達志影像/shutterstock提供
◎ 資料來源/刺胳針醫學期刊





