DeepSeek医疗建议可信度探讨:辅助而非取代医生
AI导读:
DeepSeek给出的医疗建议可信度如何?公众应如何利用DeepSeek了解医疗知识?多名医生指出,AI可用于获取入门知识,但在治疗、用药决策时仍需遵循医生建议。AI模型尚不具备真正的思维能力,作用在于辅助而非取代医生。
Deepseek给出的医疗建议到底有几分可信?和医生给出的建议有何不同?公众应如何正确使用DeepSeek处理健康问题?近日,南都健闻记者采访了多名医生、药师及医工从业者。
他们认为,公众可以借助DeepSeek了解医疗科普知识,但在治疗、用药决策时仍需遵循医生的建议。目前,通用AI模型主要依赖“从一个词预测下一个词”的语料运用能力,缺乏医生的专业思维,且缺失医患交流环节,过于依赖患者信息,存在误诊风险。
AI可用于获取入门知识
近日,北京某医院神经外科主任医师在视频中实测DeepSeek:该医生描述了一位25岁男性患者的病情,DeepSeek在18秒后给出了处理方案。医生评价其“水平相当于一个三甲医院医生”,并建议患者就诊前使用DeepSeek搜索,全面了解疾病,增强信心。
然而,网友对此反应不一。部分网友表示赞叹,但也有不少声音提醒公众谨慎对待AI内容。医生能分辨AI内容的真伪,但普通网友难以辨别,因此不宜过度依赖AI。
中山三院耳鼻喉科医生罗新也同意谨慎使用的观点,指出AI可用于粗略了解新知识,但深入了解和健康决策时不能依赖AI。
AI不可用于治疗、用药决策
罗新建议,公众在使用DeepSeek、ChatGPT等通用大模型时,应将目标设定为了解疾病基础知识。涉及治疗、用药信息时,应听取专业医生的建议,如治疗方法、治疗时机、病情严重性及药物选择等,均需以医生建议为准。
中山一院药学部副主任陈攀教授指出,诊疗是医生与患者互动的过程,需综合分析患者信息后做出诊断并制定个性化治疗方案。而AI仅依赖患者提供的信息,两者存在显著差异。
此外,AI建议基于数据模型和知识库,若模型或知识库不准确或更新不及时,可能导致药物相互作用识别错误或重复用药等问题。
为何不宜过度依赖AI?
DeepSeek在用户协议中明确:“本服务提供的所有输出均为AI模型答复,可能存在错误或遗漏,仅供参考。对于医疗、法律、金融等专业问题,本服务不构成任何建议或承诺。”
医疗行为依赖医生与患者沟通,AI仅在部分环节发挥作用。医疗科普博主“白衣山猫”指出,医生最难在于诊断病情,需采集病史、体检、开出检查和化验等,而病史采集和体格检查仍需人工完成。AI擅长搜索治疗方案,但这两步仍需人工。
中山三院已将DeepSeek引入医院内部系统,开发不同应用。大数据中心主任刘子锋认为,DeepSeek能将问题分解成子问题,评估答案后继续推理,答案可信度较高。但目前AI模型尚不具备真正的“思维能力”,其算法模式本质上是语言能力,不懂逻辑关系和思维过程。
陈攀也认为,AI能提升医生诊断和药品开具效率,辅助药师审核处方,但AI的作用是辅助而非取代,单纯依赖AI诊疗存在误诊和用药不当风险。
(文章来源:南方都市报)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。