本文围绕AI医疗展开,先通过“95后”新手家长用AI问诊致孩子病情延误的案例引出AI医疗在实际应用中存在的问题,接着探讨了AI医疗是否会影响医生地位等舆论追问,分析了AI医疗只能作为辅助手段的原因,介绍了相关部门对AI医疗持谨慎态度并划定红线的情况,最后提出了平衡创新与加强监管以促进AI医疗更好发展的建议。
在今年3月,一位“95后”新手家长遭遇了一件令人揪心的事情。当时,孩子反复出现咳嗽发热的症状,这位家长便在手机端借助AI问诊。AI判定孩子为“普通呼吸道感染”,家长又参考网络建议让孩子居家用药。然而,这却导致孩子病情延误,最终被医院确诊为病毒感染肺炎。医生明确指出,AI问诊存在一定风险,在医疗诊断方面,还是应以专业医疗意见为准。
此事件在网络上引发了广泛热议。近年来,AI技术在医疗领域的应用可谓无处不在。像AI癌症早筛、AI肺结核诊断、AI手术机器人、AI导诊机器人等,已经在门诊导诊、临床辅助诊断、疾病管理等多个环节广泛应用。尤其是今年年初DeepSeek的问世,更是让“生病了问AI”成为一股热潮。不过,不少人反映,AI医疗实际并没有想象中那么靠谱,看错病、看不出病的情况时有发生。
随着AI医疗的不断发展,舆论场也涌现出了更多的追问。比如,AI医疗是否会影响到医生的地位?如果AI诊断错误,责任该由谁来承担?普通人的医疗数据隐私又该如何保护?怎样才能让AI医疗发展得更快、应用得更广?
漫画:李晓军
AI医疗只是辅助手段
由于AI医疗彰显出诸多优势和巨大潜力,在最近关于AI医疗的网络讨论中,“AI会不会抢医生饭碗?”“AI医生看病爆火”“AI看病比三甲医院医生还准”等相关话题频繁出圈。在医患对话中,也出现了“当DeepSeek给出了和主任医师一样的诊断,以后是否还有必要去医院?”这样的疑问。
记者采访了多位一线医务工作者,他们并不反对患者使用“AI问诊”。但对于“‘AI问诊’的结果是否靠谱”“能否作为诊疗依据”等问题,受访医生都持谨慎态度。他们普遍认为,“AI问诊”存在局限,只能作为一种辅助手段,并不能替代医生。
北京市某社区卫生服务中心的全科大夫周医生表示,在基层医疗机构,平日里遇到疑难杂症的情况相对较少,更多的是高血压、糖尿病、心脏病等慢性病的老年患者。而AI在慢性病随访、慢性病管理上还缺少些“人情味儿”。
周医生举例说:“以预问诊AI为例,有老年患者反映,他有几个晚上睡不好觉导致头疼、心慌,AI就有可能把所有有头疼症状的病都列给医生,其中绝大多数是无效信息。”疾病的诊断是一个复杂的模糊决策过程,尤其是在社区这种基层医疗机构,看病的基本都是“老熟人”,往往需要医生综合病史、症状等多种信息,并根据经验缩小范围后才能做出诊断,而AI目前在这方面还不够成熟。
郑雪倩指出:“AI问诊缺乏人文情感交流,AI开方无人审核,还可能出现误诊、误治和AI医疗的法律主体不明确等问题。因此,AI医疗应当始终定位于医生的辅助工具。”
持谨慎态度划定红线
随着AI医疗在全国逐步落地,一场医疗领域的巨大变革正在悄然发生。仅今年2月以来,就有不少医院发布了其在AI医疗方面的最新应用成果。
尽管有多项成果问世,但对于AI医疗,不仅医生保持谨慎态度,相关部门也同样如此。记者梳理公开资料发现,目前针对AI医疗已出台多项限制性措施。湖南省医保局发布通知,禁止使用AI自动生成处方,以维护医保基金安全和患者权益;北京禁用AI自动生成处方,并成立了互联网诊疗监管平台;国家卫健委和国家中医药局联合发布的《互联网诊疗监管细则(试行)》明确规定,人工智能不得替代医师本人提供诊疗服务。
郑雪倩表示:“这些政策和规定表明,我国在AI医疗领域已经开始划定红线,以确保技术应用的安全性和伦理性。”医疗安全底线主要包括:处方红线,即AI不得自动生成处方,医生必须对诊疗行为负责;伦理红线,即AI应用需遵循医学伦理,确保患者隐私保护、数据安全和公平性;技术红线,即AI技术需经过严格的临床验证,确保其在实际医疗环境中的有效性和安全性。
受访专家明确指出,即便有AI的辅助,医生仍是最后把关人。如果医生利用AI诊疗出现误诊、漏诊等医疗事故,最终还是由医生承担责任。
邓利强认为,由于AI医疗存在较多法律风险和合规挑战,这才使得相关部门对AI医疗的态度如此谨慎。
邓利强进一步解释说:“医疗数据涉及患者的个人隐私,哪些数据可以向研发AI医疗的企业开放并未有明确规定,而且直接针对医疗数据开放的法律法规尚未出台,无法对数据按照统一技术标准进行清洗处理;对AI误诊的责任界定和相应法律纠纷的处理办法同样存在争议;目前国内医疗数据共享不足且缺乏标准规范,制约着AI医疗产业的发展。正因有诸多问题亟待解决,所以医疗保守绝不是落后,恰恰是对生命的负责。”
应平衡创新加强监管
那么,AI医疗今后如何才能更好地发展呢?
邓利强提出,应平衡AI医疗技术创新与合规监管关系。要强化全流程的资质审查机制,即针对AI医疗和AI处方各个环节的主体都必须有诊疗的资质,这是不能突破的底线。同时,应强化企业的自律与诚信机制的建立,开发和使用AI医疗的企业都必须依法合规。还需要明确AI医疗产品的注册、审批、使用和退出流程,并加强对算法透明度、公平性、隐私保护等关键维度的评估与监管。
郑雪倩建议,应建立伦理审查机制,确保AI技术在医疗领域的应用符合伦理道德要求。还要鼓励社会各界对AI医疗技术进行监督和评价,形成全社会共同参与的监管格局。加大处罚力度,提高违法成本,构建更有效的法律威慑体系。加大正向宣传引导,提高医生和患者对AI技术的接受度是实现技术普及的关键。
在2025中关村论坛年会期间,AI医疗成为与会专家热议的话题。与会专家建议,加强监管与伦理指导,制定严格的数据安全和隐私保护政策,设立医疗AI伦理委员会。同时,提高模型透明度,发展可解释AI技术,使大语言模型在医疗决策时能够提供推理过程。例如在肿瘤诊断中,AI需指出影像特征依据,而不是只给结论,还要设定合理的使用范围。大语言模型适用于医学教育、辅助决策和信息检索,但不应直接用于关键诊断或治疗决策,最终决策仍需由专业医生作出。
邓利强最后表示:“医疗从业人员的确应该积极拥抱发达的技术,但技术对行业本身的冲击以及它是否能实现有温度的医疗,也是我们行业的引领者所需要思考的。我们期待的是,行业参与者冷静思考的心和职业情怀,可以让技术成为帮手,而不是让患者的医疗安全受到影响。”
本文通过“95后”家长用AI问诊致孩子病情延误的案例,引出AI医疗在实际应用中存在的问题,如误诊、缺乏人文关怀等。分析了AI医疗只能作为辅助手段的原因,相关部门也因AI医疗存在法律风险和合规挑战等问题而持谨慎态度并划定红线。最后提出应平衡AI医疗技术创新与合规监管关系,建立伦理审查机制,鼓励社会监督,加强正向宣传引导等建议,以促进AI医疗更好地发展,保障患者医疗安全。
原创文章,作者:江月浔,如若转载,请注明出处:https://www.kqbond.com/archives/9690.html