这听起来有点像科幻小说里的情节——一个擅长聊天的AI,现在居然能帮你看眼睛了?没错,我说的就是那个我们熟悉又陌生的ChatGPT。最近,从顶级医学期刊到普通患者的讨论,关于它在眼科领域能做什么、不能做什么的争论,正变得越来越热闹。它究竟是缓解医疗资源紧张的“及时雨”,还是一个充满不确定性的“潘多拉魔盒”?今天,我们就来聊聊这个话题。
ChatGPT本质上是一个大型语言模型,你可以把它理解为一个阅读了海量互联网文本、学会了人类语言规律的超级学生。它的核心能力是理解和生成文本。那么,这个能力怎么用到眼科上呢?
其实,医生的工作流程中,有大量环节是基于文本的:问诊、写病历、阅读检查报告、查阅文献、向患者解释病情。ChatGPT恰好可以在这里大显身手。比如,它可以扮演一个“知识渊博的助手”角色。
想想看,一位基层医生遇到一个复杂的病例,他可以把患者的症状和检查结果(比如视野报告上那些密密麻麻的数字和图形描述)输入给AI。ChatGPT能够快速梳理这些信息,结合它学习过的海量医学知识,生成一份初步的鉴别诊断列表,甚至给出下一步检查或治疗的建议思路。这对于经验尚浅或非专科的医生来说,无疑是一个强大的辅助工具。
更有意思的是,它还能直接把晦涩的医学术语“翻译”成大白话。一位老大爷被诊断为“青光眼”,焦虑地想知道这病严不严重。医生可能没那么多时间详细解释,这时候,让ChatGPT生成一段通俗易懂、充满同理心的解释,告诉患者什么是眼压、视神经怎么了、日常生活要注意什么,就能有效缓解患者的恐慌,提升医患沟通的效率。
那么,这位“AI医学生”在眼科考试中,到底能拿多少分?最近的一些研究给出了参差不齐的答案。
先看亮眼成绩:
一项2026年初发表在《美国眼科杂志》上的研究让人印象深刻。研究人员让ChatGPT的一个高级版本(o1 Pro)仅凭青光眼患者的视野检查报告文本和OCT(光学相干断层扫描)的数值数据(注意,不是看图像本身),来判断是否患有青光眼。结果,它的诊断准确率达到了85.2%,灵敏度(找出真病人的能力)高达96%。这意味着,在基层医院,当专家资源匮乏时,AI或许能提供一个接近专家水平的参考意见,帮助减少漏诊。更关键的是,这个AI还能像医生一样写出自己的“诊断思路”,比如“视野平均偏差为-5.2dB,提示功能损伤;结合神经纤维层厚度变薄,符合早期青光眼表现”。这种可解释性,让医生能理解它的判断逻辑,而不是面对一个“黑箱”。
再看尴尬时刻:
然而,AI的“知识”来源有时也让它闹出大笑话。2026年4月,《自然》杂志报道了一个堪称行为艺术的实验:瑞典的研究人员虚构了一种根本不存在的眼病,取名“Bixonimania”(直译“蓝光狂躁症”),还煞有介事地写了一篇包含虚假数据和致谢(甚至感谢了《星际迷航》)的“论文”发布在网上。几周后,当用户向多个主流AI模型询问这个病时,它们竟然都一本正经地开始科普,描述其症状、患病率,甚至建议患者去看医生。
这个实验像一盆冷水,精准地泼在了AI的“软肋”上:它缺乏真正的理解和判断能力,只是在模仿它见过的文本模式。只要“包装”得像一篇学术文章,它就可能信以为真并传播。这种“一本正经地胡说八道”,在医学领域是极其危险的。
此外,在需要视觉分析的任务上,ChatGPT也显露出短板。一项2025年的研究测试了GPT-4 Vision(具备图像识别能力的版本)解读神经眼科常用的Hess屏检查图和视野灰度图的能力。结果正确率分别只有40%和60%,而且还会犯一些低级错误,比如把正常的生理盲点当成病变。这说明,在需要深度空间理解和专业图像判读的领域,目前的AI还远不能替代医生的眼睛和经验。
为了更直观地对比,我们来看看它在不同任务上的表现差异:
| 应用场景 | 主要能力体现 | 当前表现/局限性 | 对医生的价值 |
|---|---|---|---|
| :--- | :--- | :--- | :--- |
| 患者教育与咨询 | 将专业术语转化为通俗解释,提供基础护理建议。 | 回答基础问题准确率较高,但无法替代面诊,可能给出笼统或错误建议。 | 高效补充,节省医生重复性解释时间,提升患者认知。 |
| 辅助诊断与决策 | 分析文本描述的检查数据(如视野报告数值),生成鉴别诊断。 | 在结构化数据(如青光眼诊断)上表现亮眼;在综合、复杂病例中易出错。 | 参考助手,尤其在基层或初筛场景,提供第二意见思路。 |
| 医学文献与知识管理 | 快速总结研究进展,回答医学考试问题。 | GPT-4回答眼科委员会考试题综合准确率约73%,但图像题准确率骤降。 | 研究助理,帮助医生快速获取和梳理前沿信息。 |
| 医学图像解读 | 识别和分析眼底照片、OCT图像等。 | 能力很不稳定,错误率高,存在误判解剖结构等根本性问题。 | 目前价值有限,仅可作为最初步的筛选工具,必须由医生复核。 |
所以,我们该如何看待ChatGPT在眼科中的角色?我想,最恰当的比喻或许是“副驾驶”。
这位“副驾驶”的优势很明显:
它不知疲倦,能瞬间调用全球最新的医学文献;它客观冷静,不会被情绪和疲劳影响;它能处理海量数据,从成千上万的相似病例中寻找模式。在病历文书自动化、患者随访管理、医学知识问答、基层医疗辅助筛查等方面,它能极大地解放医生的生产力,让医生把最宝贵的时间和精力集中在与患者的深度沟通、实施精细手术等核心价值工作上。
但我们必须清醒,方向盘和最终决定权,必须牢牢掌握在人类医生手中。
AI的局限性同样突出:它可能产生“幻觉”,捏造不存在的信息;它的知识有截止日期,无法跟进最新(发布后)的临床发现;它缺乏人类的共情、伦理判断和基于多年临床经验的“直觉”。更重要的是,医疗决策关乎生命健康,任何责任都必须由具备资质的医生来承担。
眼科诊疗,尤其是手术,是一门极其精细的艺术。诊断青光眼,不仅看报告数字,还要在裂隙灯下观察杯盘比的神态;治疗白内障,不仅要计算人工晶体度数,还要考虑患者的生活习惯和用眼需求。这些需要观察、触碰、沟通和综合判断的环节,是AI目前无法触及的领域。
技术的浪潮无可阻挡。ChatGPT为代表的大语言模型进入眼科,已是正在进行时。我们不必恐慌于“AI取代医生”的论调,但也绝不能对其潜在风险视而不见。
未来的方向,是人机协同。医生需要学习如何与AI共事,学会向它提出精准的问题,批判性地审视它给出的答案,将它强大的信息处理能力化为己用。同时,行业也需要建立相关的使用规范、数据隐私保护机制和审核标准,确保这项技术是在安全、合规的轨道上助力医疗,而不是添乱。
说到底,AI再强大,也只是工具。医学的温度、对个体复杂性的尊重、在不确定性中做出抉择的勇气,这些人类医生最珍贵的品质,是任何算法都无法复制的。当我们谈论ChatGPT“看”眼睛时,我们真正期待的,是它能帮助人类医生看得更清、想得更深、有更多时间去关怀。这场眼科领域的AI革命,主角永远是人,而工具的意义,在于让人变得更强大。
