醫生用 ChatGPT 幫你看病,越來越有必要

最新AI资讯1年前 (2023)发布 Aibot114
5,650 0
广告也精彩
醫生用 ChatGPT 幫你看病,越來越有必要

如果你向 ChatGPT 傾訴過煩惱,開頭它大概會說,很遺憾聽見你難過。

當公式重複,你會見怪不怪,甚至覺得它只是應付你。這也是醫生無法取代的原因,因能和患者建立真實有效的醫病關係。但這不代表 AI 無法對醫療業有幫助,ChatGPT 以意想不到的方式,幫醫生打開新世界的大門。

不僅懂得多,還比醫生貼心

加州大學聖地亞哥分校進行有趣研究,研究員在社群網站找到 195 個醫病問答,餵給 ChatGPT 再交給專家盲測,比較人類和 AI 高下。這些問題各式各樣,從「怎麼治療長期咳嗽」到「吞下一根牙籤,朋友說我要死了」。

結果讓人吃驚到掉下巴。ChatGPT 資訊品質和同理心都打敗人類。但專家偏好影響評比結果,ChatGPT 同理心通常顯現在對患者的不適感覺抱歉,也不同於人類簡短省時風格,回答更長更親切。

簡單例子為問「漂白劑弄到眼睛是否會失明」,ChatGPT 先表達同情,然後說明清潔眼睛步驟。人類醫生只說「聽起來沒什麼事」,建議對方沖洗眼睛即可。你可能覺得醫生的答案更讓你安心,不過這研究無意討論 ChatGPT 能否取代醫生,只是提出一種可能性:ChatGPT 可於遠距醫療等擔任助手,節省醫生問診的時間。

因 ChatGPT 有胡說八道的毛病,必須由醫生最後把關。研究員設想一下醫生和 AI 合作的未來:

如果更多患者問題能有快速、高品質和富同理心的回答,可能會減少不必要的臨床問診,為需要的人挪出資源。

不難想像,除了效率,人類與 AI 合作也賦權弱勢群體。行動不便、工時長、負擔不了費用的患者,可能更需要這種服務。這產品也已出現。5 月紐約健康技術公司 Belong.Life 推出 Dave:世界第一個癌症患者對話式 AI。它只關注癌症,基於兩個大語言模型,訓練數據包括公司旗下 App 七年數十億數據。

24 小時待命的 AI,Dave 好就好在全天候回答問題,幫助患者了解病況,方便與醫生討論。

醫生用 ChatGPT 幫你看病,越來越有必要

(Source:Belong.Life)

另外,安慰患者、表現同理心,也是 Dave 的「職業操守」。Belong.Life 聯合創辦人受訪時說:

Dave 減輕病患壓力,也減少醫生教育病患的時間。

Dave 每條訊息都聲明由 AI 產生,不是百分百準確,病患真正決定前,必須諮詢醫生。所以 AI 不能取代醫生,但成了醫病間的橋。AI 對醫生的作用,也像顯影照片漸漸清晰。外媒採訪幾位使用 ChatGPT 的醫生,方法五花八門,但或多或少和同理心有關。有的醫生透過 ChatGPT 解釋醫囑、通知壞消息時,更能整理出好理解的說法,他們半開玩笑說自己用語有時「太高級」:

即使我們認為很容易理解的詞,其實常不是那樣。

有的醫生需定期和酗酒族群溝通,請 ChatGPT 幫忙列出談話重點,如果病患沒有足夠醫學知識,就讓 AI 以小學生閱讀水準改寫。某醫生十分滿意 AI 的開場白,這句話乍看平平無奇,但非常真誠:

如果你認為喝了太多酒,你並不孤單。很多人都有這個問題,但有些藥物可幫助你感覺更好,讓生活更健康、更幸福。

其實很多醫生不是不想表達同理心,而是工作壓力太大,光應付門診、遠距看診等就分身乏術,自己也陷入倦怠和疲憊。因此有醫生請 ChatGPT 幫忙寫信給保險公司,請對方承保自己的病患。這其實是繁重的重複性勞動,甚至要花幾小時,但交給 AI 後微調,只需幾分鐘即可完成,讓醫生有更多時間做正事。

話說回來,醫生對同理心的定義可能和大眾不同,且更細節。

醫生用 ChatGPT 幫你看病,越來越有必要

(Source:Unsplash)

「認知同理心」是指醫生辨識病患情緒,做決定時考慮這些情緒的能力;相對的「情感同理心」,更接近一般人理解的「感同身受」。

《擺脫共情》一書提到類似觀點,作者布盧姆大致將共情分為兩種:「認知共情」與「情緒共情」。他認為做更佳行為和道德決策,應依賴認知而非情緒共情。同理心微妙複雜,很難劃分成楚河漢界,往往同時需要認知和情感同理心。醫生這職業既要感性同理病患感受、又要理性展現專業素養,壓力難為外人道。如何把握共情程度,對他們來說是件難事。

AI 無法真正感同身受,但給部分病患共情感,或許真能幫醫生分擔重負。

小心機械共情的陷阱

AI 的「同理心」不全是陳腔濫調,病患也能感覺到。《Wired》報導提到,部分自閉症患者認為,和 AI 交流是很好的體驗,因更接近他們的說話和行為模式。自閉症患者病狀各不相同,但社交障礙普遍。有些患者和別人爭執時,請 AI 建議,努力表達自己的情緒,而不像以前保持沉默。AI 變成新的寶貴獨立資源,隨時隨地可用,不按小時計費。

然而這只是個例,如何用 ChatGPT 幫助特殊族群,還未經過嚴格研究,沒人知道風險有多大。所以 Hugging Face 首席倫理科學家 Margaret Mitchell 建議,有嚴重情緒困擾的人,應該限制使用 AI。

我們無法完全控制它會說什麼,這是個大問題。

不過聊天機器人療法有跡可循,可追溯到幾十年前概念。第一個允許人機對話的程序 ELIZA,誕生於 1960 年代的麻省理工學院,以現在眼光審視,它其實非常粗糙,通常以問題重複用戶說的內容,讓用戶覺得自己好像有被聽到,參透人類本質只是讀稿機。事實證明,不管如何簡單粗暴,人們都需要機器「同理心」,哪怕只是錯覺。推出 ELIZA 的目的,是為了證明電腦對人類語言的理解多麼膚淺,但它反而吸引大量用戶,人們關在房間幾個小時,就為了和它說悄悄話。

如今,基於大語言模型的生成式 AI 可更多樣性回答,比 ELIZA 聰明多少倍,但也有問題。偏見、假資訊、隱私洩露之外,「ChatGPT」可能讓人掉進「機器共情」陷阱,也就是回答某類問題時,只出現重複標準化模式。

心理治療師 Daniela Marin 試用 ChatGPT 時發現,當和它說「想自殺」,它的答案幾乎和教科書一模一樣。ChatGPT 知道標準答案,但這畢竟不是考試,Daniela Marin 覺得還不夠好。如果是和治療師聊天,會得到更有意義的回答。

重症監護室醫生 Wael Haddara 也認為,同理心有豐富表現方式,不該只有 AI 產生的文字。他每週平均和 30 個家庭打交道,發現當至親去世,開誠布公的溝通更能減少創傷。同理心不僅是言語,有時候只是沉默遞出面紙。不過 ChatGPT 這類聊天機器人,本就是為了通用性設計,OpenAI 也強調,ChatGPT 不該成為心理治療的替代品。

對人類來說,同理心也很困難

從 ELIZA 到 ChatGPT,機器共情哪怕虛假,仍讓人類趨之若鶩。不只醫生和病患,需要 AI「同理心」也存在於更廣泛的情感和社交關係。透過非人的 AI,人們才能學會怎麼和同類溝通。可見人與人無礙交流確實很難。

醫生用 ChatGPT 幫你看病,越來越有必要

(Source:Blush)

製作 AI 聊天應用 Replika 公司最近推出新 AI 約會應用「Blush」,受眾很明確:希望好好處理親密關係的人。Blush 像戀愛模擬遊戲,用戶可和 AI 為基礎的不同性格背景 NPC 聊天,和它們建立關係,加強溝通和戀愛技巧。Blush 不僅讓你聊到牽手和約會,更會分歧和誤解,就像現實生活。

Replika 首席產品長 Rita Popova 強調,Blush 不是取代親密關係,反而讓你提前演練,能安全進入現實世界。

與人交談,深入了解他們,真的很難,我覺得解決問題的最好方法就是練習。

Blush 提醒人際交往的尷尬之處。很多用戶下載,就是因為不知道怎麼和人交談。幫忙預演的 AI 像是鏡子,讓用戶看到自己及別人的交流方式。和 Blush 類似的還有 Tinder 等交友應用軟體幫忙出計的 AI 約會助理,如 Rizz 可基於你的語氣、對方資料,建議你怎麼聊天以給對方留下好印象。如果對方也是用 AI,那可能就是 AI 互相搭訕,你和對方成替身了。

或許有些悲哀,當手機讓人忘記怎麼寫字後,如何透過螢幕和人交流,竟然也像寫論文無從下手。這可能是因為,技術既是成因也是解藥。雪莉·特克爾《群體性孤獨》談到,訊息過載的社群媒體,既給我們有人陪伴的幻覺,又削弱對彼此的期待,無須像現實付出友誼,結果是讓人更孤獨。

看似更有同理心的 AI 呢?讓人鍛鍊共情和溝通能力,還是徹底依賴它,無心地虛與委蛇?情況複雜又微妙:之前我們認為,需要情感和社交技能的職業,AI 不容易介入,但它正在建立新關係。需要 AI 的領域,恰好顯示人類的不足,然後提供解決辦法。更廣泛來說,AI 和時代共鳴,展現社會資訊豐富、但時間和人際關係匱乏的一面。

同樣拿社群媒體比喻,緩解短期孤獨,但過度依賴只會加劇現實疏離。AI 也類似,應將 AI 當成手段,人才是目的,最終還是要回歸人與人的關係。文本交流工具 Keys AI 創辦人相信,人們承認自己是藉 AI 交流時,代表努力成為更好的溝通者。我們需要 AI 的「同理心」,不是脫離人與人互動,而是重新想像如何與人互動。

當 AI 將詞語以統計規律串起,人類負責賦予這些概念意義,職場和生活與他人建立聯繫,並關注更重要的事。技術發展以來皆如此,總要在不斷變化的社會關係和情感體驗,探索如何與他人相連。

© 版权声明

相关文章

暂无评论

暂无评论...