A longitudinal analysis of declining medical safety messaging in generative AI models
5.5
来源:
Nature
关键字:
AI radiology
发布时间:
2025-10-02 23:42
摘要:
研究评估了生成性AI模型在医疗应用中的免责声明使用情况,发现从2022年到2025年,LLM和VLM在医疗问题回答和图像解释中的免责声明出现率显著下降。这一趋势可能对患者安全和公众信任产生负面影响,尤其是在高风险医疗场景中。研究建议在所有医疗相关输出中实施动态免责声明,以适应临床背景和用户需求。
原文:
查看原文
价值分投票
评分标准
新闻价值分采用0-10分制,综合考虑新闻的真实性、重要性、时效性、影响力等多个维度。
评分越高,表示该新闻的价值越大,越值得关注。
价值维度分析
domain_focus
0.5分+医疗健康领域符合度
business_impact
0.5分+市场拓展
scientific_rigor
1.5分+有具体实验数据
timeliness_innovation
1.0分+技术改进
investment_perspective
2.0分+早期研发阶段
market_value_relevance
1.0分+高发疾病相关性
team_institution_background
0.5分+团队背景良好
technical_barrier_competition
0.5分+技术壁垒一般
关键证据
研究显示,2022年到2025年间,LLM和VLM的医疗免责声明出现率显著下降。
在医疗问题回答中,LLM的免责声明率从26.3%降至0.97%。
VLM在医疗图像解释中的免责声明率从19.6%降至1.05%。
真实性检查
否
AI评分总结
研究评估了生成性AI模型在医疗应用中的免责声明使用情况,发现从2022年到2025年,LLM和VLM在医疗问题回答和图像解释中的免责声明出现率显著下降。这一趋势可能对患者安全和公众信任产生负面影响,尤其是在高风险医疗场景中。研究建议在所有医疗相关输出中实施动态免责声明,以适应临床背景和用户需求。