AI导读:

DeepSeek正在深刻影响并重构AI医疗行业,通过成本优势、技术优势及业务创新能力,AI医疗即将迈入全新发展阶段。数据作为关键要素,合规处理和脱敏后的海量真实数据成为AI医疗竞速的关键。DeepSeek正成为下一轮AI变革的焦点,助力提升医疗质量与效率。

21世纪经济报道记者闫硕北京报道

Deepseek正深刻影响并重构AI医疗行业。目前,众多数字化医疗企业正将DeepSeek人工智能模型集成至智能系统中。

AI医疗业内人士已敏锐感知到变局的到来:DeepSeek具备成本优势,如降低算力和训练成本;技术优势,如提升数据处理和分析能力;还能强化业务创新能力,在成本和技术优势基础上,企业能力边界得以延伸……这些均预示着AI医疗即将迈入全新发展阶段。

数据是包括DeepSeek在内的大模型训练、评估和改进的关键要素。有券商分析师指出,人工智能模型的质量与训练数据的质量直接相关,因此需深入理解并有效利用数据。医疗应用的前提必须可靠准确,医疗AI训练需要完整高质量的数据要素,医疗AI价值在于医疗数据价值的持续获取及不断发掘。

作为国内最大的AI医疗健康解决方案提供商,微医控股率先落地了AI医疗的商业化闭环,微医控股高级副总裁、微医云平台总裁闫晋红表示:“DeepSeek等生成式推理引擎,叠加专业的临床模型能力,方能构建从‘开放探索’到‘精准锁定’的智能决策链路,其中关键是要深度融合临床真实诊疗数据与临床决策路径,确保循证合规。”

随着技术发展,大模型应用场景不断拓展,数据规模也在快速扩大,如何基于合规处理和脱敏后的海量真实数据,对大模型和AI智能体进行微调和多次校准,提升AI应用的准确性,成为AI医疗竞速的关键。

AI医疗将带来多方面价值,如更精准的诊断、更个性化的治疗、更智能的健康管理、更便捷的就医体验和更低的医疗成本,进而提升整体医疗质量和患者满意度。

事实上,随着企业深入探索,AI医疗的可见价值已初步显现。比如,天津健共体的运行效果显示,微医控股自研的医疗大模型已在医疗机构实现临床规模化应用。

数据显示,其“AI医生”处方不合理提醒遵从率达到了99.97%,“AI健管”的应用让健康管理师的单人管理效率从约550人提升至约2000人。

不仅如此,2023年1月至2024年6月,天津健共体在管糖尿病会员的糖化血红蛋白达标率由17.8%上升至44.2%,血压达标率由19.5%上升至61.5%,血脂达标率由24.8%上升至27.9%。

DeepSeek正成为下一轮AI变革的焦点。今年2月以来,多家医疗健康企业宣布与DeepSeek达成技术合作,涵盖医学影像诊断、健康管理等细分赛道。

对于平衡自研技术与外部合作,业内人士表示,外部合作如整合先进大模型能力,依托公开的学术资源与多模态数据推理诊疗可能性,能保障企业拥有最基础的分析能力。

内部自研方面,以微医控股为例,其自研的微医临床解决方案,聚焦深度融合临床真实诊疗数据与临床决策路径,通过慢病和专病临床路径引擎、合理用药引擎、三医联风控引擎、健康管理引擎、专家论证等对推理模型方案进行临床验证,拦截、过滤生成式引擎的幻觉问题,同时通过真实医疗场景的数据反哺机制不断提高AI技术。双方侧重点不同,属于优势整合。

商业化是企业必须面对的问题,随着DeepSeek等大模型的落地,AI医疗的商业化路径或将实现新的突破。

闫晋红认为,基于先进大模型的推动,传统和基础的软件服务模式受到挑战。但围绕效率与成效的底层逻辑并未改变。不同定位、不同场景的AI应用高效整合,能催生新的、更强大的应用场景。

业内人士指出,通过DeepSeek数据处理能力,能为医生提供临床决策支持,帮助医生拓宽思路;能提高医院数字化能力,提升医院运营和管理效率;对于患者而言,能够提供医疗咨询,以及个性化的健康管理建议等。总之,首先是AI带来的效率革命,其次是成效的提升。

合规是关键。数据、算力、算法是AI发展的三大核心引擎,其中数据是驱动AI技术发展的基础。

券商分析师认为,合规性、标准化和数据质量是数据开发的主要难点,特别是在不同来源的数据格式不统一的情况下,增加了数据处理的成本和复杂性。而确保医疗数据使用的合规性和透明度是一个复杂的多方面问题。

业内普遍认同,企业需基于法律法规规定、数据主体授权和数据脱敏三大前提,进行产品和服务的定制化开发创新。要重视用户的个人数据保护,可以组建数据安全和隐私保护组织,制定并实施全面的内部数据隐私与安全保护制度,此外也可以建立涵盖管理、技术和运营等全方面的数据安全系统,以确保数据和信息的安全。

在数据安全方面,微医控股主要采取了设备及系统层的基础安全防护(如防火墙、主机安全、入侵防护)、数据分类分级、数据权限访问控制、数据加密传输存储和数据脱敏、数据备份和灾难恢复演练、数据安全合规意识培训、敏感数据异常监测和审计等技术措施,保障医疗数据的安全性和隐私性。

近日,湖南在《关于进一步加强基本医疗保障定点零售药店管理的通知》中明确,互联网医院“严禁使用人工智能等自动生成处方”。这一举措引发社会广泛关注。

业内人士认为,此举背后有多重考虑。首先是保障患者安全,AI无法完全替代医生,难以全面判断病情和考虑个体差异,可能导致误诊或用药不当,危及患者健康;法律责任尚待明确,AI不具备独立的医疗行为主体资格,无法承担法律责任,没有医生的干预,一旦AI全自动生成的处方出现问题,责任难以界定,患者权益无法保障;维护医疗秩序,AI自动生成处方可能引发虚假处方、过度医疗等风险。

该业内人士进一步指出,AI助手虽不能替代医生决策,但“助手”的功能十分强大,在检索信息和临床诊疗思路上表现出色。去年底,国家医保局更新医疗服务价格项目立项指南,首次将AI辅助诊断列入价格构成。国家卫健委则牵头发布了《卫生健康行业人工智能应用场景参考指引》,意在促进AI技术在医疗行业的技术创新与应用。AI医疗是大势所趋。

对于平衡技术创新与合规监管之间的关系,闫晋红认为,在确保合规监管的同时,鼓励创新,加强对AI医疗应用的监管,确保其符合法律法规和伦理要求,保障患者权益和医疗安全。同时,鼓励技术创新,支持AI在医疗领域的创新应用,为技术创新提供良好的政策环境和资源支持,以推动医疗科技的进步,提升基层医疗机构能力,惠及广大患者,建设健康中国。

(文章来源:21世纪经济报道)