作者:邹臻杰
AI大模型或将面临技术成熟度,医学数据质量与安全,和医疗服务公平性方面的风险。
(资料图)
当前,在“AI大模型”与医疗健康的结合下,疾病诊疗、新药开发、临床研究等领域随之产生一系列变革。
“AI大模型在医疗健康的七大领域已有部分探索性应用,这七大领域包括:医疗服务、运营管理、患者服务以及科教研、药品供应、传统医学与公共卫生。”中国信通院云大所副所长闵栋在日前举办的2023世界人工智能大会上表示,但目前上述应用大多处于按科室或单病种的个案研究状态,尚未进行大范围推广,并且,不同领域AI大模型的应用机会、产生影响程度和成熟速度上的差异仍然较大。
闵栋举例,比如,医疗服务上,AI大模型可根据医疗信息生成诊断决策(这需要AI大模型针对聊天、网页、开源文献等大量自然语言处理数据训练,并自动补偿桌重点和关键信息,不断进化);再如,运营管理上,AI大模型可以产生结构化的医疗纹文书并实现内容质控(对ChatGPT下达指令,即可以生产排版的出院小结),以及可产生管理用表单并辅助决策;此外,患者管理上,AI大模型可以用通俗的语言为患者用药进行答疑和导诊。
除此之外,之前很长一段时期内,AI大模型也通过靶点发现、复杂分子结构和序列的筛选、药物安全性评估等来加速药物研发进程;而在公共卫生方明,AI大模型也被爱丁堡大学亚瑟人口健康科学学院一项分析用来对“新冠疫苗阻断疫情人群传播的有效性”进行模拟分析。
事实上,由于患者需求使然,AI大模型率先落地的场景仍然是“医院”,但仍有其局限性,“AI大模型可以覆盖患者预问诊、分诊、导诊,以及导航推送、科普教育等功能,“不过我们仍然要考虑,是否针对AI大模型有一个评价、监管的工具,大量的个人诊疗隐私如何做到合理、安全使用。”复旦大学附属中山医院党委书记顾建英表示。
而AI大模型在科教研层面产生了诸多业内争议。闵栋称,在临床科研过程中,尽管AI大模型能在选题立项上生成综述和参考文献,在研究方案设计时生成新视角和新思路,并且自动生成同行评议结果,“但AI大模型对科研的风险在于,一方面可能会被认为伪造了参考文献,另一方面,由此产出的科研贡献难以甄别,也无法对生成的内容负责。”
但其仍然面临不少风险与挑战。业内人士告诉记者,医疗健康领域存在特殊性,对医疗数据质量与安全,患者隐私保护要求很高,为此,AI大模型或将面临技术成熟度风险,医学数据质量与安全风险,和医疗服务公平性风险。
详细来说,技术成熟度的风险在于AI大模型的算法可能会局限并导致内容失真,算力不足导致效率过低;医学数据质量与安全风险在于模型训练的数据质量不高,存在隐私风险;医疗服务公平性风险在于模型生成的内容存在虚假、错误,以及算法偏见导致的不公平。
为此,闵栋建议,可以从三个方面给予解决方案。第一,推动算法平台建设及算力设施部署,来形成适配医疗健康AI大模型的算力资源服务模式。第二,是构建规范化、标注化的训练用专病数据库,来保障AI大模型的可靠、真实性及安全。第三,是推动人工智能医疗应用合规,包括支持建设一批相关检测机制、合规审核、应用规范等。
“下一步,应该要研制出符合医疗健康行业应用特色的AI大模型标准框架。我们的初步设计是:基础设施层,包括数据准备、模型开发、开发平台;模型层,包括语言大模型、图像大模型、音频大模型等;应用层,包括生成文本、生成图像、生成音频等。” 闵栋补充。
关键词: