财联社
财经通讯社
打开APP
AI医疗应用步入深水区:直面商业化“无米之炊” 破解基层诊疗“难点堵点” | AI重塑医疗
①基层机构的承接条件、患者的认知鸿沟,以及数据与监管的响应速度,正共同决定着AI医疗技术的生命力;
                ②科大讯飞董事长刘庆峰向财联社记者指出,AI健康画像、智能随访等服务应纳入国家基本公共卫生服务体系;
                ③京东集团技术委员会主席曹鹏建议推广AI驱动的“医-检-诊-药”闭环模式。

财联社3月11日讯(记者 王俊仙 卢阿峰)当人工智能逐渐走出实验室、进入真实诊疗场景,其角色正从单一的辅助工具逐渐演变为医疗服务体系的基础设施,医疗体系的运行逻辑也随之悄然重构。

随着应用走入深水区,行业逐渐意识到,真正的挑战远在算法之外——基层机构的承接条件、患者的认知鸿沟,以及医疗数据与监管体系的响应速度,正共同决定着AI医疗技术的生命力。

2026年全国两会期间,医疗界代表委员提交的密集建议,标志着该领域正从“技术探索期”迈向“应用落地期”。全国人大代表、科大讯飞(002230.SZ)董事长刘庆峰向财联社记者指出,基层医疗面临人力有限、慢病管理精准度不足等现实挑战。他明确建议将AI健康画像、智能随访等服务逐步纳入国家基本公共卫生服务体系;全国政协委员、京东集团(JD.O)技术委员会主席曹鹏则进一步提出建议推广AI驱动的“医-检-诊-药”闭环模式;全国人大代表、圣湘生物(688289.SH)董事长戴立忠针对AI医疗商业化落地的核心瓶颈提出了自己的见解和建议。

AI医疗下沉基层需求迫切

在我国医疗体系中,慢性病管理长期由基层医疗机构承担核心职责。然而,随着人口老龄化加快,慢病防控压力也持续上升。

国家卫健委及相关流行病学研究数据显示,目前我国高血压患者人数已超过3亿,糖尿病患者人数约1.4亿。与此同时,根据国家统计局数据,截至2025年末,我国60岁及以上人口规模已达约3.23亿,慢病管理需求仍在持续增长。

在这一背景下,基层医疗机构不仅要承担基本诊疗,还需兼顾慢病随访、健康管理等多重职责,人力有限与精准度不足的问题日益凸显。

“面对人口老龄化、慢性病负担加重等新形势,基层仍存在人力有限、慢病管理精准度不足、健康宣教个性化欠缺等问题。多地实践已充分证明,AI技术可有效助力家庭医生优化履约管理、实现慢病精准管理、为居民提供个性化健康服务。”全国人大代表刘庆峰向记者表示。

为此,他明确建议把AI健康画像、智能随访、健康咨询、风险评估等服务纳入全国基本公共卫生服务目录,明确服务标准与对象;推动AI应用情况与基层绩效评价衔接,引导基层积极推广应用,提升服务质量。

为了将这种辅助能力转化为系统性的服务能效,曹鹏提出了更具实操性的“医-检-诊-药”闭环模式,他建议鼓励互联网医疗平台打造AI驱动的全流程医疗服务闭环,支持“AI导诊-线上问诊-上门检验-药品配送-康复管理”一体化模式创新,将符合标准的AI慢病管理、健康管理服务纳入家庭医生签约服务范围,开展医保支付试点。同时,实施基层医疗AI普惠提升专项行动,为社区医生、乡村医生打造定制化AI智能体,推广“AI数字医生”模式,全面提升基层诊疗服务能力。

然而,技术的落地仍需制度的激励,戴立忠敏锐地发现,由于AI医疗尚未充分纳入绩效考核与薪酬分配体系,激励机制缺失,导致基层医疗机构与医务人员参与积极性不足。他建议将AI医疗服务纳入医疗机构绩效考核体系,明确服务量化指标,引导医疗机构优化服务流程、提升服务质量。

以数据破解AI医疗商业化核心瓶颈

AI医疗要实现规模化应用,高质量的数据供给是核心动力。

然而,戴立忠指出,医疗数据具有隐私性、分散性特点,目前我国医疗数据开放共享机制不完善,多数医疗脱敏数据未能有效向AI医疗企业开放,导致企业缺乏高质量、规模化的训练数据,无法研发出适配我国医疗场景、精准度高的AI大模型,技术创新陷入“无米之炊”的困境,成为AI医疗商业化落地的核心瓶颈。

针对这一症结,他建议加快医疗脱敏数据开放,夯实AI“数字底座”,以“安全可控、开放共享”为核心破解数据瓶颈。首先依托“十五五”全民健康数据平台建设,整合全国电子健康档案、电子病历、公卫数据等资源,建立统一的医疗脱敏数据开放平台。在此基础上,还需建立数据开放激励机制,鼓励医疗机构、科研院所主动向平台上传脱敏数据,建立数据使用全程追溯机制,实现“隐私不裸奔,数据不沉睡”。与此同时,推动跨区域、跨机构数据共享,打破数据孤岛,打造全国一体化健康数据市场,推动AI技术在药物研发、精准诊断等领域的创新迭代。

这种对数据治理和共享平台的思考在产业界引发了共鸣,曹鹏同样表示应由国家卫健委牵头,建设国家级医疗健康数据共享平台,依托隐私计算、区块链等技术,推动医疗数据“可用不可见”的安全共享,打破医疗机构间的数据孤岛,为医疗AI模型训练与优化提供高质量、合规化的数据支撑。

AI医疗需要怎样的技术和制度边界?

尽管AI医疗展现出广阔的前景,但其潜在风险与定位问题依然是行业关注的焦点。

全国政协委员、复旦大学附属华山医院感染科主任张文宏在今年两会期间表示,患者利用人工智能进行自我诊断虽然能够获得一定健康提示,但也存在明显风险。

“AI可以作为医生的‘超级助手’,但不能替代医生。”张文宏表示。

在他看来,普通患者缺乏医学专业训练,一旦盲从AI系统给出的诊断建议,可能导致误诊甚至延误治疗。

因此,人工智能在医疗体系中的合理定位,应当是医生的“能力放大器”。例如,AI可以承担疾病初筛、风险提示以及数据分析等工作,但最终诊断决策仍应由医生完成。

在讨论技术边界的同时,AI医疗在数据安全与算法透明度方面面临的挑战同样不容忽视。全国政协委员、中国科学院院士、浙江大学医学院附属第二医院院长王建安强调,医疗领域具有高度专业性和风险性,人工智能应用必须以安全为底线。

“医疗关乎生命,AI赋能医疗必须以安全为底线。”王建安表示。

为了将这一“底线”转化为可执行的行业规范,刘庆峰向记者提出,应建立基本公共卫生领域AI应用准入与监管体系,制定AI家庭医生、健康助手类产品准入标准,明确数据安全、算法准确性要求;建立产品质量评价体系,持续监测应用效果,并制定应用规范,明确场景、流程和责任,严格落实隐私保护与数据安全要求。

与刘庆峰的准入建议相呼应,戴立忠则从完善配套政策的角度指出,应加快制定行业标准,明确AI医疗产品的技术准入标准、质量评估标准、临床应用规范,界定AI诊断结果的法律效力、责任划分,并创新监管模式,建立“事前准入、事中监测、事后追责”的全流程监管体系,利用AI技术实现对AI医疗产品应用的动态监管;而除了制度约束与技术监管,人的因素同样是安全闭环中的关键,曹鹏建议将医疗AI应用能力纳入医生执业能力评价体系,开展医生AI应用规范化培训,推动人机协同诊疗模式的普及。

人工智能 医药
财联社声明:文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。
商务合作
热门解锁
相关阅读
评论
发送
复制
取消
垃圾广告
政治激进内容
色情低俗内容
取消