業務

針對特定產業的 AI 應用程式:符合您業務需求的垂直解決方案?Microsoft Dragon Copilot 的承諾與挑戰

醫療保健 AI 準備好用於診所還是只用於行銷?Microsoft Dragon Copilot 承諾每次就診僅需 5 分鐘,且倦怠率僅為 70%,但測試人員卻發現它的筆記過於冗長、出現「幻覺」以及難以處理複雜病例。只有三分之一的醫師會在一年後繼續使用。教訓:區分「真垂直」(與醫學專家共同設計)與「假垂直」(具有客製化層級的一般 LLM)。AI 必須支援臨床判斷,而非取代臨床判斷。

醫療照護中的人工智慧:微軟 Dragon Copilot 的承諾與挑戰

醫療保健領域的人工智慧有望超越行政工作的自動化,成為臨床和卓越營運不可或缺的一部分。一般的人工智慧解決方案固然有其價值,但最具轉變性的成果應該來自針對醫療照護產業獨特的挑戰、工作流程與機會而特別設計的應用程式。

Microsoft Dragon Copilot:介於承諾與現實之間

微軟最近宣佈計畫於 2025 年 5 月推出用於臨床工作流程的 AI 助理Dragon Copilot,突顯出該公司透過人工智慧推動醫療照護轉型的決心。此解決方案結合了 Dragon Medical One 的語音功能與 DAX Copilot 的環境 AI 技術,並整合至一個專為解決臨床倦怠與工作流程效率低下問題而設計的平台。

背景:對部門挑戰的回應

Dragon Copilot 適逢醫療保健產業的關鍵時刻。2023 年至 2024 年間,臨床人員的倦怠感從 53% 輕微下降至 48%,但持續的人員短缺仍是主要的挑戰。Microsoft 的解決方案旨在

  • 簡化臨床文件
  • 提供上下文資訊存取
  • 重複性臨床任務自動化

初步結果:官方資料與實際經驗之間

根據微軟的資料顯示,光是在上個月,DAX Copilot 已協助 600 家醫療保健機構處理超過 300 萬個病患個案。醫療保健提供者表示,每次會面可節省 5 分鐘,70% 的提供者體驗到倦怠症狀減少,93% 的病患注意到體驗改善。

然而,beta 測試者的經驗揭示了更複雜的現實

產生臨床筆記的限制

許多測試過 Dragon Copilot 的醫生表示,即使啟用了所有自訂功能,對大多數醫療記錄而言,所產生的筆記往往過於冗長。正如一位 beta 測試者所說的:「您會收到超長的筆記,而且很難分辨出「小麥和糠秕」

醫療對話傾向於按時間順序跳轉,Dragon Copilot 很難以連貫的方式組織這些資訊,通常會強迫醫生檢視和編輯筆記,這在某種程度上有違該工具的初衷。

優點與缺點

Beta 測試者指出一些特定的優缺點:

優勢:

  • 即使病人念錯藥名,也能清楚辨認
  • 可作為記錄對話的工具,並在撰寫筆記時加以參考
  • 對於簡單病例和短期探訪有效

弱點:

  • 出現「幻覺」(虛構的資料),雖然一般而言是輕微的(性別、年齡方面的錯誤)。
  • 難以區分資訊的相對重要性 (將所有資訊視為同等重要)
  • 體檢資料的組織問題
  • 注意修訂時間減少承諾的效率效益

一位 beta 測試者醫生總結了他的經驗:「對於簡單的診斷,他在記錄評估和計劃方面做得相當好,這可能是因為所有簡單的診斷都在訓練集中。然而,對於較複雜的診斷,則必須完全由醫師口述"

健康 AI 的功能與潛力

臨床決策支援

醫療保健專用的人工智慧模型,例如 Dragon Copilot 的基礎模型,是在數百萬份匿名醫療記錄和醫學文獻上訓練出來的,目的是:

  • 識別病人資料中可能顯示新狀況的模式
  • 根據症狀和病史建議適當的診斷途徑
  • 報告潛在的藥物交互作用和禁忌症
  • 強調特定簡報的相關臨床研究

一位使用者醫師強調,這些系統的一大潛力就是能夠「根據病人的醫療記錄內容,向醫師呈現關鍵資訊,否則這些資訊就會被當今大多數電子醫療記錄的龐大雜亂所忽略」。

優化病患通路

醫療保健專用的 AI 有可能透過以下方式改變病患的體驗:

  • 預測規劃以縮短輪候時間
  • 產生客製化的照護計畫
  • 主動識別高風險病患的介入措施
  • 虛擬分流將病患導向最適當的照護環境

合規性與隱私權考量

AI 工具(例如 Dragon Copilot)的整合提出了重要的合規性問題:

  • 醫生必須在注意事項中包含免責聲明,說明儀器的用途
  • 必須事先告知患者談話內容會被錄音
  • 保險公司可能存取資料的疑慮浮現

實際挑戰和對未來的影響

委託推理」及其風險

從業人員強調的一個特別微妙的層面是,推理可能會從醫師「轉移」到 AI 工具。正如一位同時也是電腦科學專家的駐院醫生所言:「危險可能在於這會偷偷摸摸地發生,由這些工具決定什麼是重要的,什麼是不重要的」。

這提出了人類臨床判斷在日益以 AI 為媒介的生態系統中所扮演角色的基本問題。

成本效益與替代方案

多份證詞中強調的一個關鍵因素是,與其他替代方案相比,Dragon Copilot 的成本過高:

一位參與測試的使用者表示,一年之後,他的診所只有三分之一的醫師仍在使用。

有幾位 beta 測試者提到 Nudge AI、Lucas AI 及其他工具等替代品,這些工具提供類似的功能,但成本卻低得多,而且在某些情況下,在特定情境下效能還更好。

實施健康 AI:主要考慮因素

在評估醫療保健領域的人工智慧解決方案時,考慮以下因素至關重要:

  1. 自動化與臨床判斷之間的平衡
    解決方案應支援而非取代醫師的臨床推理。
  2. 針對特定專科與工作流程的客製化
    正如一家醫療 AI 公司的創辦人所觀察到的:「每位專科醫師都有自己的偏好,認為哪些內容應該包含在筆記中,哪些內容不應該包含在筆記中,而且這種偏好會隨著疾病的不同而改變 - 神經科醫師在癲癇筆記中想要的內容,與他在癡呆症筆記中需要的內容是完全不同的」。
  3. 易於修正和人為監督
    人為干預必須保持簡單和有效率,以確保筆記的準確性。
  4. 全面性與綜合性之間的平衡
    所產生的說明既不應過於冗長,也不應過於簡略。
  5. 對病患的透明度
    病患必須被告知這些儀器的使用及其在治療過程中的角色。

結論:邁向均衡整合

Microsoft 的 Dragon Copilot 等創新代表著人工智慧整合醫療照護的重要一步,但 beta 測試者的經驗顯示,我們仍處於早期階段,有許多挑戰需要克服。

人工智能在醫療保健領域的未來需要在行政效率與臨床判斷、自動化與醫患關係之間取得微妙的平衡。Dragon Copilot 等工具有可能減輕臨床醫師的行政負擔,但其成功與否取決於能否有機地融入實際的臨床工作流程,尊重醫療實務的複雜性與細微差異。

真正的垂直與虛假的垂直:醫療保健 AI 成功的關鍵

在醫療保健 AI 和一般人工智慧領域中,必須經常考慮「真正的垂直領域」和「虛假的垂直領域」之間的差異。真正的垂直領域」是從底層開始設計的解決方案,深入瞭解特定的臨床流程、專科工作流程以及不同醫療環境的特殊需求。這些系統不僅在表面層級,也在其架構和資料模型中納入了領域知識。

相反地,「虛假的縱向系統」基本上是橫向的解決方案 (例如一般的轉錄系統或通用的 LLM),並在其上塗上一層薄薄的醫療照護個人化。這些系統往往會在最複雜、最細微的臨床實踐領域失敗,其無法區分資訊的相對重要性或充分組織複雜的醫療資料就是明證。

正如 beta 測試者的回饋顯示,將通用語言模型應用於醫療文件,即使是在醫療資料上進行訓練,也不足以創造出真正的垂直解決方案。最有效的解決方案可能是那些在設計的每個階段都有醫療專家直接參與、能解決特定醫療專業問題,並能整合至現有工作流程的解決方案。

正如一位 beta 測試者醫師所言:「醫學的藝術就是重新引導病患提供最重要/最相關的資訊」。至少就目前而言,這種辨別能力仍是一個純粹的人類領域,這意味著最佳的未來可能是人工智慧與人類臨床專業知識之間的協同合作,真正的垂直解決方案是尊重並擴大醫療專業知識,而不是試圖取代或過度標準化。

促進業務成長的資源