发布时间:2024-12-23 07:02:28 来源: sp20241223
本报记者 文丽娟
本报实习生 张广龙
早上8点,四川省绵阳市游仙区忠兴镇兴合村村医宋文卓来到卫生室,第一件事就是打开电脑登录AI(人工智能)辅助诊疗系统,这是他近段时间养成的一个新习惯。
“宋医生,我心跳有点快,感觉上不来气,偶尔还会咳嗽几声。”卫生室刚开门,年近九旬的村民涂婆婆便在老伴的陪同下前来看诊。宋文卓一边询问症状,一边将病情输入系统,然后点击AI辅诊按钮,系统迅速与拥有海量多发病、常见病等病例的国家核心知识库对接,通过提取和分析患者的历史病历信息,给出“急性上呼吸道感染”等诊断建议。宋文卓结合自己的临床经验进行综合评估,最终确定涂婆婆是急性上呼吸道感染。
随后,系统根据医生的选择,给出了推荐用药,列出推荐依据、检查建议等。宋文卓参考选定治疗药物,让老人先吃药观察。
在宋文卓看来,AI辅诊系统的应用,不仅提高了诊断的准确性和效率,还能帮助医生更好地应对复杂病例,降低误诊漏诊风险,看病用药也更加安全放心。
AI辅助诊疗系统在绵阳市游仙区基层医疗机构的应用,是我国推进“AI+医疗”的一个生动缩影。《“十四五”医疗装备产业发展规划》明确提出加快智能医疗装备发展;《关于进一步完善医疗卫生服务体系的意见》提出发展“互联网+医疗健康”,加快推进互联网、人工智能等在医疗卫生领域中的应用……近年来,我国不断加强顶层设计,推进“AI+医疗”的发展。
多名业内人士和专家在接受《法治日报》记者采访时指出,医疗领域已经成为探索AI应用的重要场所,目前在一些医院主要应用于分导诊、预问诊、病历生成等场景,助力患者就医更加便捷,提升了医疗服务质量,未来AI辅助诊疗将会成为一种趋势,但也需要警惕背后隐藏的法律风险,这些风险不仅涉及患者个人隐私保护,还关系到算法透明度和公平性等问题。
多地上线AI辅诊
提升患者就诊体验
近日,记者来到北京大学人民医院进行甲状腺和瘢痕检查,检查项目包括B超、血液检查等。缴费完成后,医生提醒可在系统预约检查时间。记者打开手机,像“自助值机”一样,在可选时间段,把检查项目约在相对集中的时间,这样就可以“一次跑完”,在最短的时间内完成所有检查,避免了因现场排队改约和检查时间不同而带来的反复奔波。
这只是AI辅助医疗的一个缩影。记者梳理公开资料发现,“AI+医疗”目前已在多个医院落地。
在华中科技大学同济医学院附属协和医院,如果患者不知道挂哪个科室,AI可以来帮忙。
该院今年5月推出了“AI智慧门诊”,涵盖智能分导诊、智能加号等功能。以彼时的“智能加号”功能为例:患者可点击“挂号服务”“在线挂号”,进入需要预约的科室,如果选择的专家号“满诊”,则可点击下方的“申请加号”,在跳转页面选择该专家的加号日期。确定免费预约后,AI会自动发起对话,询问病情等相关情况,然后生成“病情卡片”,再综合评估病情严重程度,判断加号资格,最后发送给专家确定是否通过。
此外,该院还推出“智能候诊室”功能。患者挂号后,由“医生数字人”与患者先进行沟通,提前了解患者症状、病程等,为医生面诊做准备。
在浙江省人民医院,数字健康人“安诊儿”可以陪伴患者就诊。
据了解,“安诊儿”可以为患者提供覆盖就医前、中、后的AI陪诊服务。诊前,患者可以向其描述自己的症状,“安诊儿”根据症状为患者匹配科室和医生,帮助患者预约挂号;诊中,“安诊儿”可合理安排就诊流程,全程提供AR智能导航,还可以让患者在线上直接取号,并提供叫号提醒,甚至能在支付宝上完成医保缴费,节约患者的就医时间;诊后,患者离开医院,其还会继续提供电子病历、处方和报告查询等服务。
在北京友谊医院,AI能帮医生写病历。
今年5月,云知声门诊病历生成系统在北京友谊医院应用。该系统能在复杂的医院环境中识别医患对话,精准捕捉关键信息,分离医患角色,并从中剔除与病情无关的内容,生成专业术语表达的信息摘要,以及符合病历书写规范要求的门诊电子病历。数据显示,在门诊病历生成系统的帮助下,北京友谊医院相关科室门诊病例录入效率大幅提升,医生问诊时间大幅缩短。
法律风险不容忽视
警惕算法歧视问题
多名受访的业内人士指出,人工智能在医疗领域的广泛应用,能为患者提供更便捷的服务,提高了医疗服务的效率和精准度,让优质医疗资源更普惠,但其背后的法律风险也不容忽视。
在山西大学法学院讲师陈川看来,传统医疗诊断过程强调医生对患者人格尊严和自主权的尊重与保护,医生在作出医疗决策时,需综合考虑患者的既往病史和当前症状,并依照相关法律法规与伦理规范,制定适宜的治疗方案。然而,医疗人工智能存在“自动化偏见”风险,即医生在诊断过程中可能会过度依赖人工智能技术,从而忽略自身专业判断和对患者个体需求的考虑。这种过度依赖可能导致医生将困难的医疗决策不恰当地交给人工智能处理。当医生过度依赖人工智能时,患者的治疗决策可能被剥夺,转而交由机器进行处理,导致患者失去对自身健康管理的自主权。
此外,算法透明度不足和算法歧视问题也不容忽视。“虽然2023年7月国家网信办联合国家发展改革委等部门公布的《生成式人工智能服务管理暂行办法》提出了算法透明性要求,但在具体实施过程中,算法的实际工作原理和决策过程往往难以被外界理解和监督。由于算法透明度不足,患者无法了解医疗人工智能是如何得出诊断结论的,导致其知情权和选择权无法得到充分保障,可能会侵犯患者的知情同意权和自主决定权。”陈川说。
她提出,算法歧视问题还会导致不同地区在医疗资源上的不平等现象。不同开发者在训练算法时可能无意间引入偏见,导致生成式人工智能在面对不同群体患者时作出歧视性决策。例如,某些医疗人工智能系统在筛查病人时,诊断结果不准确或存在系统性低估。再比如,算法模型的训练数据如果主要来自某些特定群体,可能会导致其面对特殊群体时产生偏见。
陈川认为,目前,人工智能在医疗领域的应用仍处于探索阶段,易因误诊、数据泄露等行为引发问责和归责问题。我国民法典规定医疗损害责任适用过错责任原则,也考虑到医疗器械所致损害的责任承担问题。但人工智能能够独立生成医疗诊断结果或建议,因此在现行法律框架下,对医疗人工智能应用的追责十分复杂,传统的责任形式难以简单套用到医疗人工智能上。
线上购药本末倒置
审核环节形同虚设
除了“AI+医疗”作为一种新兴模式在实际应用过程中可能存在一定法律风险外,一些线上医疗问诊、线上购药平台在引入AI辅助后,虽然给患者带来便捷,但也暴露出不少问题。
记者在调查中发现,一些互联网医疗平台采用“先选购药品,再因药配方,甚至由人工智能软件自动生成处方”这样本末倒置的操作方式。
记者前不久在某购药平台下单处方药骨化三醇软胶囊后,平台提示“请选择线下已确诊疾病”。记者在“疾病栏”随机勾选了几项,“处方/病历/检查报告栏”空着,并确认“已确诊此疾病并使用过该药,且无过敏史、无相关禁忌证和不良反应”,很快便通过了验证,提交清单后,系统跳至问诊版块。
紧接着,有“医师”接诊,连续发来数条信息,其中第一条强调“互联网医院只对复诊用户提供医疗服务”,后续几条信息均为确认有无过敏史或处于特殊时期。在记者没有回复的情况下,对方就发来一张处方单和购买链接。
北京市民杨木(化名)也有过类似经历,他怀疑屏幕背后接诊的不是真的执业医师:“在××平台购买处方药时,感觉对方跟机器人没有差别,只要打字过去,对方就会在几秒钟内迅速同意,根本没有给出任何专业意见。”有一次,他故意描述一些不是欲购药品适应病症的情况,结果对方仍然很快开了处方。
多名业内人士认为,“隔空”诊疗并不适合所有患者,常见病、慢性病的复诊,是较长时间以来互联网诊疗的定位。不过,对于何为复诊,业内一直缺少具体标准,导致出现一些监管真空。
“假如是正规互联网医院,有执业资格的医生开具的电子处方,应该有医生的签名、互联网医院电子章。不排除有些小型互联网医疗平台存在用人工智能、机器人等工具自动生成处方,一些大平台会用AI等来辅助医生问诊,比如问病人几岁、哪里不舒服等,但是处方必须要求医生来开。”北京某三甲医院一刘姓医生说。
他还注意到,不少平台为谋取利益,采用“AI开处方,客户直接取药”的模式,处方开具、审核环节形同虚设,要么直接跳过开具处方这一流程,要么对用户上传的处方并不实际审核,这类行为严重违反了我国药品管理制度,也给患者用药安全埋下风险隐患。
在线上健康平台咨询问诊会不会泄露个人信息,也是多名受访患者提出的疑问。
有一次,杨木的后背上起了不少红疹子,便在某健康平台进行问诊,结果没过几天,他就陆续接到多个广告电话和短信,有询问是否需要植发的、有推销护肤产品的,甚至还有借贷公司打来的推销电话。
“问诊时,平台采集的个人信息和健康情况能不能保存好,这些信息会不会流向第三方?”杨木很是担心。
此前,工信部曾通报过多个互联网医疗App在个人信息收集及使用方面存在严重问题,包括超范围采集个人隐私信息、未经本人同意向他人提供个人信息、收集与医疗服务无关的个人信息等。
“与其他类型App相比,医疗类App泄露个人信息可能会导致更严重的法律问题。如果个人健康信息被泄露,不法分子可能利用这些信息实施精准诈骗,比如利用‘病急乱投医’的心理向患者非法售卖或推广药品。”前述刘医生说。
完善相关法律框架
切实保障患者权益
受访专家指出,为了有效应对“AI+医疗”在实际应用中潜在的法律风险,需要从法律和政策两个层面进行系统化完善。只有建立健全法律框架和监管机制,明确医疗大模型的责任归属和数据使用规范,才能在推动医疗人工智能发展的同时,切实保障患者的合法权益。
“首先要建立完善医疗人工智能法律框架。目前,《生成式人工智能服务管理暂行办法》未涉及医疗领域人工智能规定,需要在其基础上结合医疗领域的特点制定相关法律法规,突出强调医疗人工智能的辅助作用。”陈川说,为了帮助医疗工作人员、患者更好地使用人工智能系统、了解人工智能得出诊断结果的运行机制,我国可以配套制定医疗人工智能使用指南,以增强医疗人工智能系统及其结果的可解释性;还需完善其他法律规定,数据安全法、《涉及人的生命科学和医学研究伦理审查办法》等为制定医疗人工智能管理办法提供了基础,应依据人工智能发展现状出台适用医疗人工智能的管理办法。
陈川还提到,强化医疗人工智能算法监管刻不容缓。一方面,为确保医疗人工智能的安全性和可靠性,应成立算法审查专门机构,对医疗人工智能进行严格的安全性、透明性、伦理性审查;另一方面,基于数据的动态性和人工智能技术的不断迭代升级,应要求研发者提前研判算法应用过程中产生的安全风险并提出针对性应对措施,在算法生命周期内定期开展算法风险监测工作,针对算法的数据使用、应用场景、影响效果等进行自我安全评估。此外,可开启公众监督举报、监管部门巡查等多种措施。
北京中医药大学法律系教授邓勇也认为,随着医疗大模型的发展,这一产业合规运营与监管显得越发重要,需要确定自身的产品定位并获取对应的资质,避免无资质开展相应活动。“合规方面,首要应当确定自身的产品定位,如属于互联网诊疗产品的,需要联系或建立对应的实体医疗机构并申请设置相应的互联网医院,并在医师资源、病历管理、药品配送、处方开具上满足相应要求,如仅作健康管理,不涉及诊疗活动的,必须明确自身产品不具有‘医疗目的’,仅‘预期用于健康管理、目标人群为健康人群、记录统计健康信息’用。”
他提出,还应当采取数据清洗等方式确保去除公开数据中的违法和不良信息及个人信息,保证训练数据合法合规。医疗大模型收集用户数据的要求,需要遵循合法、正当、必要的原则,不收集与所提供服务无关的个人信息。
“医疗大模型收集用户数据的红线行为包括:未公开收集使用规则;未明示收集使用个人信息的目的、方式和范围;未经用户同意收集使用个人信息;违反必要原则,收集与其提供的服务无关的个人信息;未经同意向他人提供个人信息;未按法律规定提供删除或更正个人信息功能或未公布投诉、举报方式等信息。”邓勇说,收集互联网公开数据时,为确保其合法合规,还需要履行告知同意程序、匿名化程序、提供拒绝渠道等操作。此外,应当注重数据标注机制,通过标注防止生成色情暴力、歧视性信息等违法和不良内容,实现内容安全。
针对线上医疗问诊暴露出的问题,陈川认为,亟须明确人工智能的法律责任,建立科学合理的责任分配机制,强化医务人员的主体责任,明确AI处于辅助性地位,细化各领域参与者的责任,不能将医疗诊断彻底交给AI,应遵循“事前预防—事中监控—事后问责”的原则。“医务人员在行医过程中须履行注意义务,即医务人员须注意识别和鉴定AI诊断结果,否则应当承担责任。” 【编辑:曹子健】