A longitudinal analysis of declining medical safety messaging in generative AI models

5.5
来源: Nature 关键字: AI radiology
发布时间: 2025-10-02 23:42
摘要:

研究评估了生成性AI模型在医疗应用中的免责声明使用情况,发现从2022年到2025年,LLM和VLM在医疗问题回答和图像解释中的免责声明出现率显著下降。这一趋势可能对患者安全和公众信任产生负面影响,尤其是在高风险医疗场景中。研究建议在所有医疗相关输出中实施动态免责声明,以适应临床背景和用户需求。

原文: 查看原文

价值分投票

评分标准

新闻价值分采用0-10分制,综合考虑新闻的真实性、重要性、时效性、影响力等多个维度。 评分越高,表示该新闻的价值越大,越值得关注。

价值维度分析

domain_focus

0.5分+医疗健康领域符合度

business_impact

0.5分+市场拓展

scientific_rigor

1.5分+有具体实验数据

timeliness_innovation

1.0分+技术改进

investment_perspective

2.0分+早期研发阶段

market_value_relevance

1.0分+高发疾病相关性

team_institution_background

0.5分+团队背景良好

technical_barrier_competition

0.5分+技术壁垒一般

关键证据

研究显示,2022年到2025年间,LLM和VLM的医疗免责声明出现率显著下降。
在医疗问题回答中,LLM的免责声明率从26.3%降至0.97%。
VLM在医疗图像解释中的免责声明率从19.6%降至1.05%。

真实性检查

AI评分总结

研究评估了生成性AI模型在医疗应用中的免责声明使用情况,发现从2022年到2025年,LLM和VLM在医疗问题回答和图像解释中的免责声明出现率显著下降。这一趋势可能对患者安全和公众信任产生负面影响,尤其是在高风险医疗场景中。研究建议在所有医疗相关输出中实施动态免责声明,以适应临床背景和用户需求。

评论讨论

发表评论