切换到宽版
  • 8阅读
  • 1回复

[智能应用]张文宏:反对将AI系统性地引入医院日常诊疗流程,恐影响年轻医生鉴别诊断正误能力 [1P] [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
117693
金币
8838
道行
19524
原创
29590
奖券
18354
斑龄
204
道券
10565
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 25478(小时)
注册时间: 2007-11-29
最后登录: 2026-01-18
只看楼主 倒序阅读 使用道具 楼主  发表于: 3小时前
— 本帖被 兵马大元帅 执行加亮操作(2026-01-18) —

据深圳卫视《科创最前沿》消息,1月10日于香港举行的高山书院十周年论坛上,国家传染病医学中心(上海)主任张文宏教授就AI在医疗领域的应用分享了见解。他明确反对将其系统性地引入医院的日常诊疗流程。

据界面新闻报道,张文宏在分享中明确表示,反对将AI系统地引入医院日常诊疗流程。他以自身使用AI的经验为例,说明他通常让AI先对病例进行初步分析,之后再凭借专业经验快速识别并纠正其中的错误。
张文宏指出,真正的隐患在于,如果一名医生从实习阶段就依赖AI直接得出结论,而没有经过完整的临床思维训练,未来将难以具备鉴别AI诊断正误的能力。
张文宏强调,年轻医生必须通过系统性的训练,才能掌握两大关键能力:一是判断AI诊断的准确性,二是诊治AI无法应对的复杂疑难病症。他认为,这是技术便捷背后不可或缺的专业根基。
当然,张文宏也不是完全否定AI在医疗领域的作用。他觉得AI可以在一些辅助性的工作上发挥作用,比如帮助医生快速查找相关的医学文献、提供一些参考的治疗方案等。
1条评分金币+15
兵马大元帅 金币 +15 优秀文章,支持!n神马都是浮云 27分钟前
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
  




    
在线jjybzxw

UID: 551814


发帖
219773
金币
676308
道行
2006
原创
2446
奖券
3340
斑龄
42
道券
1233
获奖
0
座驾
设备
摄影级
在线时间: 47834(小时)
注册时间: 2008-10-01
最后登录: 2026-01-18
只看该作者 沙发  发表于: 13分钟前
张文宏谈AI医疗应用:反对系统引入诊疗流程,强调“人机协同”需守住专业底线  
——年轻医生临床思维训练不可替代,AI应定位为“辅助工具”而非“决策主体”  
一、核心观点:AI可辅助,但不可替代医生临床决策  
1. 反对系统性引入诊疗流程  
场景:1月10日香港高山书院十周年论坛上,国家传染病医学中心主任张文宏明确表示,反对将AI作为“标准配置”直接参与医院日常诊断。  
依据:他以自身使用AI的经验为例,指出AI分析病例后仍需医生凭借专业经验“纠错”,否则可能因数据偏差或算法局限导致误诊。  

2. 担忧核心:年轻医生能力退化  
临床思维断层:若医生从实习阶段就依赖AI结论,将缺乏对症状、病史、检查结果的独立分析训练,未来难以鉴别AI诊断的对错。  
复杂病例失能:AI擅长处理标准化问题,但面对罕见病、多器官并发症等复杂场景时,医生若未经过系统训练,将丧失独立诊治能力。  
二、张文宏的“人机协同”边界论  
1. AI的合理角色:辅助而非主导  
信息检索:快速查找医学文献、指南、药物相互作用等,节省医生时间。  
方案参考:基于大数据提供治疗建议(如用药剂量、手术方案),但需医生结合患者个体情况调整。  
流程优化:自动化处理病历录入、预约安排等行政工作,让医生专注核心诊疗。  

2. 医生的“不可替代性”  
专业纠错能力:AI可能因训练数据偏差(如种族、地域差异)或算法黑箱产生错误,需医生凭借经验识别。  
伦理决策权:在临终关怀、资源分配等场景中,医生需综合医学、伦理、社会因素做出判断,AI无法承担。  
复杂问题解决:如新冠疫情中,张文宏团队需结合流行病学、病毒学、临床数据制定诊疗方案,远超AI当前能力范围。  
三、行业争议:AI医疗是“颠覆”还是“赋能”?  
1. 支持派:AI将重塑医疗生态  
效率提升:IBM Watson Health曾宣称可在数秒内分析海量文献,辅助癌症诊断。  
基层赋能:AI可弥补偏远地区医生资源不足,如腾讯觅影辅助基层医生筛查食管癌。  
成本降低:麦肯锡报告预测,AI每年可为全球医疗行业节省超3600亿美元。  

2. 反对派:警惕“技术至上”陷阱  
数据偏见:2020年《科学》杂志研究显示,某AI皮肤癌诊断工具对深色皮肤人群准确率低30%。  
责任模糊:若AI误诊导致医疗事故,责任归属(开发者、医院、医生)尚无明确法律界定。  
过度依赖:英国《柳叶刀》曾报道,部分医生因过度依赖AI辅助诊断,导致自身临床技能退化。  

3. 中间路线:张文宏的“平衡论”  
阶段定位:当前AI应作为“第二意见”工具,而非直接决策系统。  
教育改革:医学院需加强“AI素养”课程,培养医生与AI协作的能力,而非被AI替代。  
监管框架:建立AI医疗产品的审批标准(如FDA的“数字健康预认证计划”),确保安全可控。  
四、未来展望:AI医疗的“进化方向”  
1. 技术突破点  
多模态融合:结合影像、基因、可穿戴设备数据,提升诊断全面性。  
可解释性AI:开发能解释决策逻辑的算法(如LIME、SHAP),增强医生信任。  
联邦学习:在不共享原始数据前提下,实现跨医院模型训练,保护患者隐私。  

2. 应用场景拓展  
预防医学:通过分析人口健康数据,预测疾病爆发趋势(如流感、新冠变异株)。  
慢性病管理:AI助手可实时监测糖尿病患者血糖,调整用药方案。  
药物研发:AlphaFold预测蛋白质结构已加速新药开发进程。  

3. 张文宏的终极判断  
短期(5年内):AI将主要承担辅助角色,医生需保持“最终决策权”。  
长期(20年以上):若脑机接口等技术突破,AI可能参与更复杂的认知任务,但医生仍需主导伦理与人文关怀。  

结语:  
张文宏的警告,本质是对“技术狂欢”的理性刹车。在AI医疗浪潮中,守住医生的临床思维训练底线,不仅是保护患者安全,更是维护医学作为“人学”的本质——当机器能处理数据时,医生的价值将更体现在对生命的共情、对复杂的敬畏、对不确定性的担当。  

(数据来源:深圳卫视《科创最前沿》、界面新闻、《科学》《柳叶刀》期刊报道)  
技术可以辅助医生,但无法替代医生成为“人”的守护者。

如何不发帖就快速得到金币道行
 
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个