在當代醫學教育的宏大敘事中,一個令人不安的悖論正逐漸浮現:醫療技術的每一次飛躍性突破,似乎都在無意中削弱了新手醫師獲取核心技能的傳統路徑。
正是在這種背景下,組織社會學家Matthew Beane於2019年提出了「影子學習法」(Shadow Learning)這一概念,描述了學員如何在制度的夾縫中,通過非正規、甚至邊緣化的手段來重構技能[1]。時至今日,隨著ChatGPT、Claude、Gemini等生成式AI技術的爆發,影子學習法不僅沒有消失,反而演化出了全新的數位形態。在LLM發展日趨突破的年代,影子學習已不再僅僅是物理空間中的「偷師」,而是轉向了虛擬空間中的「認知增強」與「數位孿生演練」。
以下會從外科醫師如何利用LLM的多模態能力(Multimodal Capabilities)、思維鏈推理(Chain-of-Thought Reasoning)以及蘇格拉底式對話(Socratic Dialogue)來構建個性化的虛擬導師,並檢視這一非正統路徑背後的風險——從AI幻覺(Hallucination)到技能退化(Deskilling),以及隨之而來的倫理與隱私挑戰。
在Beane的定義中,影子學習法是指「一套相互關聯的、挑戰規範與政策的實踐活動,學員們在相對孤立的環境中,機會主義地、廣泛地執行這些活動,以在正規途徑失效時獲得能力」。
在機器人手術的語境下,這種「影子學習」具體表現為三種核心實踐:
1. 過早專業化(Premature Specialization):傳統醫學教育強調通才基礎,但影子學習者會違背這一規範,在住院醫師早期就極端專注於某一特定術式或設備,透過成為該領域的「技術專家」來博取資深醫師的依賴,從而換取上台操作的機會。
2. 抽象演練(Abstract Rehearsal):當臨床實踐機會被剝奪,學員轉向高強度的非臨床演練。在2019年的背景下,這主要指反覆觀看YouTube手術錄影、使用物理模擬器進行「無人指導」的練習。這種演練往往發生在值班室、深夜或家中,遠離了導師的視線。
在技術轉型的陣痛期,那些循規蹈矩、僅依賴正規培訓的學員往往無法達到勝任標準,而那些敢於在「陰影」中冒險的學員反而成為了精英。這種「劣幣驅逐良幣」的現象,是對現代醫學教育體系的嚴厲警示。
這一新形態的影子學習具有以下顯著特徵,使其區別於舊時代的模式:
1. 從「單向觀察」到「雙向對話」:舊時代的抽象演練依賴於被動觀看影片,而LLM賦予了學習者與知識交互的能力。醫師可以向AI提問、質疑、要求解釋,甚至進行辯論,這種雙向性極大地提升了認知參與度。
2. 從「物理模擬」到「邏輯模擬」:外科不僅是手藝,更是決策。LLM擅長模擬複雜的臨床推理過程(Clinical Reasoning),讓醫師在虛擬空間中經歷無數次「如果……會怎樣」的思維實驗,這是物理模擬器無法企及的[2]。
3. 隱密性與灰色地帶:許多住院醫師私下使用ChatGPT撰寫病歷、查詢文獻甚至輔助診斷,但這些行為往往未被納入醫院的標準作業程序(SOP),甚至處於合規及違法的灰色地帶。[3]
利用LLM的序列預測能力,醫師可以進行「下一步預測」訓練。
醫學教育的核心是「蘇格拉底式提問」(Socratic Method),即透過不斷追問來引導學生思考。然而,臨床導師的時間極其寶貴,無法隨時提供這種指導。LLM 完美地填補了這一空白,成為一個隨叫隨到的「影子導師」。
為了最大化學習效果,醫師需要掌握高階的提示工程(Prompt Engineering)技巧,將LLM設定為嚴格的導師角色。
儘管LLM為外科教育帶來了革命性的效率提升,但影子學習本質上是一種在制度邊緣的「冒險」。Beane曾警告,影子學習雖然有效,但充滿了風險。在AI時代,這些風險被放大並呈現出新的形態(編按:老師也不全然是對的)。
從十九世紀末威廉·霍爾斯特德(William Halsted)建立的「看一次,做一次,教一次」(See one, do one, teach one)經典住院醫師培訓模式,到二十一世紀初手術機器人(Robotic Surgery)的廣泛應用,外科教育的根基:「合法的周邊參與」(Legitimate Peripheral Participation, LPP),正受到前所未有的衝擊。
然而,科技的進步,如今的大型語言模型(Large Language Models, LLMs)或許可以帶來教學的解方。
技術加速主義下的學徒制危機
在傳統的開放式手術時代,資深外科醫師與住院醫師在物理空間上緊密協作,住院醫師透過拉鉤、止血等輔助性工作,自然地、合法地進入手術的核心領域,這種「手把手」的隱性知識傳遞構成了外科醫師成長的基石。
然而,隨著達文西手術系統(Da Vinci Surgical System)等高科技設備的介入,主刀醫師與病患在物理上分離,獨自操作控制台,住院醫師則被邊緣化為旁觀者,失去了直接觸摸組織、感知張力與回饋的機會。這種「脫鉤」(Decoupling)現象導致了實踐機會的稀缺,迫使新一代外科醫師必須在正規培訓體系之外尋找生存之道。
正是在這種背景下,組織社會學家Matthew Beane於2019年提出了「影子學習法」(Shadow Learning)這一概念,描述了學員如何在制度的夾縫中,通過非正規、甚至邊緣化的手段來重構技能[1]。時至今日,隨著ChatGPT、Claude、Gemini等生成式AI技術的爆發,影子學習法不僅沒有消失,反而演化出了全新的數位形態。在LLM發展日趨突破的年代,影子學習已不再僅僅是物理空間中的「偷師」,而是轉向了虛擬空間中的「認知增強」與「數位孿生演練」。
以下會從外科醫師如何利用LLM的多模態能力(Multimodal Capabilities)、思維鏈推理(Chain-of-Thought Reasoning)以及蘇格拉底式對話(Socratic Dialogue)來構建個性化的虛擬導師,並檢視這一非正統路徑背後的風險——從AI幻覺(Hallucination)到技能退化(Deskilling),以及隨之而來的倫理與隱私挑戰。
影子學習法(Shadow Learning):從物理邊緣到數位深潛
理論溯源:機器人手術時代的生存策略
Matthew Beane在其發表於《Administrative Science Quarterly》的里程碑式研究《Shadow Learning: Building Robotic Surgical Skill When Approved Means Fail》[1]中,通過對美國多家頂尖教學醫院的觀察發現,當新技術(如手術機器人)徹底改變了工作流程,導致傳統的「邊做中學」(Learning by Doing)路徑失效時,學員們並不會坐以待斃,而是會發展出一套地下的應對策略。在Beane的定義中,影子學習法是指「一套相互關聯的、挑戰規範與政策的實踐活動,學員們在相對孤立的環境中,機會主義地、廣泛地執行這些活動,以在正規途徑失效時獲得能力」。
在機器人手術的語境下,這種「影子學習」具體表現為三種核心實踐:
1. 過早專業化(Premature Specialization):傳統醫學教育強調通才基礎,但影子學習者會違背這一規範,在住院醫師早期就極端專注於某一特定術式或設備,透過成為該領域的「技術專家」來博取資深醫師的依賴,從而換取上台操作的機會。
2. 抽象演練(Abstract Rehearsal):當臨床實踐機會被剝奪,學員轉向高強度的非臨床演練。在2019年的背景下,這主要指反覆觀看YouTube手術錄影、使用物理模擬器進行「無人指導」的練習。這種演練往往發生在值班室、深夜或家中,遠離了導師的視線。
3. 監管不足的掙扎(Undersupervised Struggle):這是最具風險的一環。當學員終於獲得操作機會時,往往是在資深醫師放鬆監管或不在場的片刻。學員必須在自身能力的邊緣進行操作,獨自面對不確定性。這種「掙扎」雖然是技能突破的關鍵,但也隱含了巨大的病人安全風險。
在技術轉型的陣痛期,那些循規蹈矩、僅依賴正規培訓的學員往往無法達到勝任標準,而那些敢於在「陰影」中冒險的學員反而成為了精英。這種「劣幣驅逐良幣」的現象,是對現代醫學教育體系的嚴厲警示。
LLM 時代的定義演變:數位陰影中的認知學徒
2017年後,LLM論文橫空出世[2],2023年技術成熟,ChatGPT、Gemini、Claude、Grok技術迭代更新,外科醫師的影子學習法可以重新定義為:「利用大型語言模型及其多模態感知能力,在正規醫學教育體系之外,主動構建個性化的、互動式的虛擬認知環境。透過與AI的高頻博弈(如模擬決策、合成病例演練),在臨床實踐匱乏的間隙中,進行高密度的認知學徒制訓練,以彌補實體操作經驗的不足。」這一新形態的影子學習具有以下顯著特徵,使其區別於舊時代的模式:
1. 從「單向觀察」到「雙向對話」:舊時代的抽象演練依賴於被動觀看影片,而LLM賦予了學習者與知識交互的能力。醫師可以向AI提問、質疑、要求解釋,甚至進行辯論,這種雙向性極大地提升了認知參與度。
2. 從「物理模擬」到「邏輯模擬」:外科不僅是手藝,更是決策。LLM擅長模擬複雜的臨床推理過程(Clinical Reasoning),讓醫師在虛擬空間中經歷無數次「如果……會怎樣」的思維實驗,這是物理模擬器無法企及的[2]。
3. 隱密性與灰色地帶:許多住院醫師私下使用ChatGPT撰寫病歷、查詢文獻甚至輔助診斷,但這些行為往往未被納入醫院的標準作業程序(SOP),甚至處於合規及違法的灰色地帶。[3]
效率的槓桿:外科醫師如何透過LLM實施影子學習
在LLM發展日趨突破的年代,外科醫師面臨的挑戰與Beane研究時期相似:知識總量以指數級增長,但接觸核心操作的機會卻因專科化分工和病人安全規範而日益稀缺。
LLM驅動的影子學習法,透過以下四種機制,為外科醫師提供了一種「降維打擊」式的學習效率提升路徑。
機制一:超抽象演練(Hyper-Abstract Rehearsal)與多模態場景理解
傳統的抽象演練受限於素材的靜態性,而多模態大型語言模型(Multimodal LLMs,如GPT-5.1、 Gemini 3 Pro)的出現,將「抽象演練」升級為「超抽象演練」。
互動式手術影片分析(Interactive Surgical Video Analysis)
外科醫師現在可以將手術錄影的截圖或片段上傳給支援視覺的LLM(VLM),將被動的「觀看」轉化為主动的「解構」。實踐方法:醫師在上傳一張腹腔鏡膽囊切除術(Laparoscopic Cholecystectomy)的關鍵視野(Critical View of Safety)截圖後,不僅詢問「這是什麼?」,更可以進行深度追問:「在這個解剖變異中,膽囊管與肝總管的夾角有何異常?如果此時使用電燒,潛在的熱傷害風險區域在哪裡?請標示出安全三角(Triangle of Calot)的邊界。」[5]。
效率提升:VLM能夠識別手術器械、解剖結構甚至手術階段(Phase Recognition),其準確度已接近資深醫師[6]。透過這種即時的視覺反饋,醫師可以在沒有導師在場的情況下,獲得類似於「術中指導」的認知體驗,大幅縮短了對解剖結構的空間認知曲線。
預測性思維訓練(Predictive Thinking Training)
利用LLM的序列預測能力,醫師可以進行「下一步預測」訓練。實踐方法:播放手術影片至關鍵決策點暫停,向LLM描述當前狀況,詢問:「基於目前的術野出血情況和解剖暴露程度,下一步最佳的操作是什麼?備選方案有哪些?」隨後繼續播放影片,將LLM的建議、自己的判斷與影片中主刀醫師的實際操作進行「三方對照」[5]。
效率提升:這種訓練強化了醫師的「前瞻性態勢感知」(Anticipatory Situational Awareness),使其在真實手術中能更快地預判風險,減少反應時間。
機制二:蘇格拉底式影子導師(The Socratic Shadow Mentor)
醫學教育的核心是「蘇格拉底式提問」(Socratic Method),即透過不斷追問來引導學生思考。然而,臨床導師的時間極其寶貴,無法隨時提供這種指導。LLM 完美地填補了這一空白,成為一個隨叫隨到的「影子導師」。
提示工程中的「角色扮演」與「逆向提問」
為了最大化學習效果,醫師需要掌握高階的提示工程(Prompt Engineering)技巧,將LLM設定為嚴格的導師角色。
Prompt 策略:「你現在是一位擁有30年經驗的胰臟外科教授,以嚴謹、批判性的風格與我對話。不要直接給我答案,而是針對我提出的治療計畫進行蘇格拉底式提問,指出其中的邏輯漏洞和缺乏證據之處。」[6]
效率提升:這種對話模式迫使醫師進行深度的認知加工(Cognitive Processing),而非膚淺的知識檢索。增進臨床推理和批判性思維的表現。(目前的研究都是preprint,而尚未有peer-reivew的study)
虛擬巡房與隨機提問
住院醫師最恐懼也最獲益的環節是主治醫師在巡房時的隨機提問。透過影子學習,醫師可以預演這一過程。實踐方法:輸入病人的去識別化數據(如生命徵象、檢驗數值),要求LLM:「模擬最刁鑽的主治醫師,針對這個低血鈉症(Hyponatremia)病人的體液狀態評估進行提問,並根據我的回答給予評分和反饋。」
效率提升:這消除了真實巡房中的社交恐懼與心理壓力,創造了一個心理安全的失敗環境(Psychologically Safe Environment for Failure),讓醫師敢於嘗試錯誤並從中學習 。
機制三:合成經驗與稀有病例模擬(Synthetic Experience Generation)
外科醫師的成長往往受限於病例的隨機性——你可能在三年住院醫師期間從未遇過「主動脈十二指腸廔管」(Aorto-enteric Fistula)大出血。LLM 的生成能力打破了這一限制。虛擬病人與併發症生成
LLM 可以基於醫學文獻,合成出無數個具有特定併發症的「虛擬病人」劇本。實踐方法:要求LLM:「生成五個不同情境的甲狀腺切除術後低鈣血症病例,分別包含不同的合併症(如腎衰竭、維生素D缺乏),並演繹其臨床表現的微小差異。」。
效率提升:這種「合成經驗」(Synthetic Experience)讓醫師在短時間內經歷了現實中需要數十年才能累積的罕見病例庫,極大提升了對極端情況的應變能力。
認知學徒制的數位化(Digital Cognitive Apprenticeship)
傳統學徒制依賴「示範」、「指導」、「鷹架」與「淡出」。LLM 可以在虛擬環境中完整複製這一過程。實踐方法:對於一個複雜的診斷(如不明原因腹痛),LLM先進行「示範」(Model)其推理過程(思維鏈),然後讓醫師嘗試診斷並提供「指導」(Coach),隨著醫師能力的提升,逐漸減少提示(Fade),最終讓醫師獨立完成 。[7](待補充)
機制四:認知卸載與隱性知識顯性化
外科學習不僅是學習如何開刀,更是學習如何管理資訊與溝通。行政減負:利用LLM自動生成手術紀錄初稿、出院摘要或文獻綜述,釋放了大量原本用於低價值文書工作的時間,讓醫師能將寶貴的認知資源集中在核心技能的學習上。這種「認知卸載」(Cognitive Offloading)是提升學習效率的間接但關鍵的手段。
隱性知識(Tacit Knowledge)的挖掘:資深醫師的許多經驗是「只可意會不可言傳」的。透過將資深醫師的手術筆記或口述錄音輸入LLM進行分析,可以提煉出隱藏在字裡行間的決策模式與風格,將隱性知識顯性化。
陰影中的風險:幻覺、依賴與倫理挑戰
儘管LLM為外科教育帶來了革命性的效率提升,但影子學習本質上是一種在制度邊緣的「冒險」。Beane曾警告,影子學習雖然有效,但充滿了風險。在AI時代,這些風險被放大並呈現出新的形態(編按:老師也不全然是對的)。
AI 幻覺(Hallucination):致命的錯誤自信
這是外科醫師使用LLM進行影子學習時面臨的最大威脅。LLM本質上是概率模型,而非真理庫。它們在生成醫療建議時,可能會以極度自信的語氣一本正經地胡說八道。證據與案例:
錯誤的術式建議:有研究指出,在眼科領域,LLM曾錯誤地將某種雷射治療建議用於不適合的角膜病變,甚至混淆了眼瞼整形術(Blepharoplasty)與其他眼部手術的適應症 [8]。
虛構的解剖結構:在複雜的神經外科解剖問答中,AI可能編造不存在的血管分支或錯誤的神經走行路徑 [9]。
「不存在」的參考文獻:當醫師要求AI提供證據時,它可能會捏造看起來非常權威但實際上根本不存在的期刊論文與作者。
風險影響:對於缺乏判斷力的初學者,這些「幻覺」可能被內化為錯誤的知識結構(Mental Models)。一旦這些錯誤在真實手術中被執行,後果將是災難性的——這就是為什麼影子學習需要極高的批判性思維門檻 。
4.2 技能退化(Deskilling)與「認知外包」的代價
自動化帶來的「去技能化」是工業社會的老問題,但在外科領域尤為敏感。認知肌肉的萎縮:如果醫師過度依賴AI來生成鑑別診斷或手術計畫,他們的大腦將失去進行「認知掙扎」(Cognitive Struggle)的機會。Beane的研究強調,「掙扎」是技能習得的關鍵。省略了痛苦的思考過程,直接獲取答案,可能導致醫師在面對AI無法處理的突發狀況時,大腦一片空白。
依賴障礙:研究顯示,長期使用AI輔助診斷的醫師,在移除AI輔助後,其診斷準確率甚至低於從未使用過AI的對照組。這表明AI可能成為一種「數位拐杖」,削弱了人類的獨立判斷能力。
隱私洩露黑洞
影子學習往往發生在官方監管的視線之外,這使得數據隱私成為一顆定時炸彈。未經授權的數據上傳:為了獲得更精準的建議,住院醫師可能會將含有病人敏感資訊(PHI)的手術筆記或影像,直接複製貼上到像ChatGPT這樣的公共LLM中[3]。
數據洩露風險:這些數據可能會被用於模型的再訓練,導致病人的隱私在未來某個時刻被模型「記憶」並洩露給其他用戶。這嚴重違反了HIPAA、GDPR等數據保護法規,不僅可能導致醫師面臨訴訟,更可能摧毀醫患之間的信任基石[9]。
隱性偏見與「隱藏課程」(The Hidden Curriculum)
AI模型是在網際網路海量數據上訓練的,這些數據本身就包含了社會與醫療體系的偏見。偏見的放大:如果訓練數據中包含了對特定種族、性別或社會經濟地位群體的醫療歧視(例如低估女性的心臟病症狀),LLM在生成虛擬病人或診療建議時,可能會無意識地複製甚至放大這些偏見。
隱藏課程:影子學習者在與AI互動的過程中,可能會潛移默化地習得這些偏見,形成扭曲的職業價值觀。例如,AI可能過度強調效率與技術,而忽視了對病人的同理心與人文關懷,這構成了數位時代的「隱藏課程」。
構建高效率的影子學習策略
為了在利用LLM提升效率的同時規避上述風險,外科醫師需要採取一套系統化的實施策略。這不僅僅是關於如何使用工具,更是關於如何管理自己的學習過程。提示工程(Prompt Engineering)的高階應用
外科醫師應將提示工程視為與縫合、打結同等重要的核心技能。
思維鏈(Chain-of-Thought, CoT)提示
原理:強迫模型展示其推理步驟,而非直接給出結論。這有助於醫師檢查AI的邏輯是否合理,並模仿其推理過程[10,11]。
範例:「針對這個懷疑腸缺血的病例,請使用『思維鏈』模式,一步步分析病史、理學檢查、實驗室數據和影像學發現。在每一步中,解釋你的推論依據,並列出支持與反對手術探查的理由。」
批判性影子(Critique Shadowing)
原理:利用AI作為反對者(Devil's Advocate),挑戰醫師自己的決策。
範例:「我計畫對這個病人進行腹腔鏡右半結腸切除術。這是我的手術計畫步驟……請扮演一位極其挑剔的資深考官,找出我計畫中可能導致吻合口滲漏(Anastomotic Leak)的三個風險點,並狠狠地批評我的疏忽。」
角色翻轉(Role Reversal)
原理:讓醫師扮演老師,AI扮演學生。教學是最好的學習(Feynman Technique)。
範例:「我現在要向你解釋胰十二指腸切除術(Whipple Procedure)的重建步驟。請你扮演一個大三醫學生,隨時打斷我並提出不懂的問題,直到我能用最通俗的語言解釋清楚為止。」
建立「驗證」的學習協議
三方驗證法(Triangulation):絕對不要只依賴LLM的一個回答。應將LLM的建議與權威教科書(如Sabiston, Schwartz)、最新的臨床指引(如NCCN Guidelines)以及真實導師的意見進行交叉比對 。(可以透過將這些教科書,置入NotebookLM進行有限範圍內搜尋)
源頭追溯:對於LLM提供的任何關鍵數據或文獻,必須人工查證其原始出處,確保其真實存在且未被曲解 。
機構層面的介入:從「影子」走向「光明」
醫療機構不應對影子學習視而不見或單純禁止,而應主動引導。儘管這個區塊可能會進展得很慢。部署私有化醫療LLM:醫院應構建符合HIPAA標準的、在高品質醫療數據上微調的私有LLM環境(如使用Llama 3或Mistral微調版),讓醫師能在保障隱私的前提下進行學習 。
正式化AI輔助課程:將提示工程、AI倫理與幻覺識別納入住院醫師的正式課程,教導他們如何安全地與AI協作,而非將其視為不可告人的秘密 。
結論
在LLM發展日趨突破的年代,影子學習法已不再是Matthew Beane筆下那種單純為了獲取手術機器人操作機會而進行的物理博弈,它已經演化為一場發生在認知層面的數位革命。
對於當代外科醫師而言,影子學習法絕對是增加學習效率的強大工具。它通過數位孿生、合成經驗與蘇格拉底式對話,突破了時間、空間與病例數量的物理限制,為醫師提供了一個無限寬廣的虛擬演練場。
然而,這把手術刀同樣鋒利且危險。AI幻覺、技能退化與隱私風險如同陰影般如影隨形。外科醫師必須清醒地認識到,LLM是用來增強(Augment)而非替代(Replace)人類智慧的。真正的效率提升,來自於醫師能夠在與AI的博弈中,保持獨立思考的火花,並始終堅持對病人安全的最終承諾。
參考資料
- Beane, M. (2018). Shadow Learning: Building Robotic Surgical Skill When Approved Means Fail. Administrative Science Quarterly, 64(1), 87-123. https://doi.org/10.1177/0001839217751692Vaswani, Ashish, et al. "Attention is all you need." Advances in neural information processing systems 30 (2017).
- Moëll B, Sand Aronsson F, Akbar S. Medical reasoning in LLMs: an in-depth analysis of DeepSeek R1. Front Artif Intell. 2025 Jun 18;8:1616145. doi: 10.3389/frai.2025.1616145. PMID: 40607450; PMCID: PMC12213874.
- Gritsiuta AI, Su S, Petrov RV. Navigating the challenges of artificial intelligence integration in thoracic surgery. Curr Chall Thorac Surg. 2025 Aug 30;7:31. doi: 10.21037/ccts-25-23. Epub 2025 Aug 28. PMID: 40980153; PMCID: PMC12445733.
- Xu, Mengya, et al. "Surgical action planning with large language models." International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham: Springer Nature Switzerland, 2025
- King A, Fowler GE, Macefield RC, Walker H, Thomas C, Markar S, Higgins E, Blazeby JM, Blencowe NS. Use of artificial intelligence in the analysis of digital videos of invasive surgical procedures: scoping review. BJS Open. 2025 Jul 1;9(4):zraf073. doi: 10.1093/bjsopen/zraf073. PMID: 40673467; PMCID: PMC12268333.
- Prompt Engineering for Students of Medicine and Their Teachers - Center For Teaching and Learning
- Pinelli NR, McLaughlin JE, Khanova J, Eckel SF, Vu MB, Weinberger M, Roth MT. Identifying the Presence of Cognitive Apprenticeship in the Layered Learning Practice Model. Am J Pharm Educ. 2018 Feb;82(1):6155. doi: 10.5688/ajpe6155. PMID: 29491496; PMCID: PMC5822939.
- Tailor PD, Xu TT, Fortes BH, Iezzi R, Olsen TW, Starr MR, Bakri SJ, Scruggs BA, Barkmeier AJ, Patel SV, Baratz KH, Bernhisel AA, Wagner LH, Tooley AA, Roddy GW, Sit AJ, Wu KY, Bothun ED, Mansukhani SA, Mohney BG, Chen JJ, Brodsky MC, Tajfirouz DA, Chodnicki KD, Smith WM, Dalvin LA. Appropriateness of Ophthalmology Recommendations From an Online Chat-Based Artificial Intelligence Model. Mayo Clin Proc Digit Health. 2024 Mar;2(1):119-128. doi: 10.1016/j.mcpdig.2024.01.003. Epub 2024 Feb 15. PMID: 38577703; PMCID: PMC10994056.
- Nicole A. Wilson. AI Transforms the OR as Surgeons Navigate Complex Challenges. Sep. 2025
- Wang J, Redelmeier DA. Artificial intelligence chain-of-thought reasoning in nuanced medical scenarios: mitigation of cognitive biases through model intransigence. BMJ Quality & Safety Published Online First: 24 November 2025. doi: 10.1136/bmjqs-2025-019299
- Shao, Zhimin, et al. "Think step by step: Chain-of-gesture prompting for error detection in robotic surgical videos." IEEE Robotics and Automation Letters (2024)
留言
張貼留言
歡迎提供您的想法或建議,感謝