互联网数据资讯网-199IT 2024年10月16日
研究发现22%的AI生成医疗建议可能导致死亡或造成严重伤害
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

德国和比利时研究人员对微软Bing Copilot测试发现,其在回答医疗问题时存在诸多问题。500个答案中,部分与医学知识不符,可能对患者造成不同程度伤害,且在完整性、准确性等方面表现不佳。研究结果已发表,强调患者应咨询专业人员获取准确信息。

🧐在对微软Bing Copilot的测试中,该引擎能回答美国常见医疗问题及药物相关问题,但生成的500个答案中,24%与现有医学知识不符,3%完全错误。

😨更严重的是,42%的回答可能对患者造成中度或轻度伤害,22%的回答可能导致死亡或严重伤害,仅有36%的回答被认为无害。

📋研究还发现,AI答案的平均完整性得分为77%,最差的仅23%完整;准确性方面,26%与参考数据不符,超过3%完全不一致;且只有54%的答案与科学共识一致,39%的答案与之矛盾。

最新的研究结果表明,AI在提供医疗建议时存在比较大的安全隐患。德国和比利时的研究人员对微软的Bing Copilot进行了测试,该引擎能够回答美国最常见的10个医疗问题以及50种最常用药物的相关问题。

在生成的500个答案中,24%的回答与现有医学知识不符,3%的回答完全错误。

 

更严重的是,42%的回答可能对患者造成中度或轻度伤害,而22%的回答可能导致死亡或严重伤害,只有36%的回答被认为是无害的。

研究还发现,AI答案的平均完整性得分为77%,最差的答案仅23%完整;在准确性方面,AI答案有26%与参考数据不符,超过3%的回答完全不一致。

此外,只有54%的答案与科学共识一致,39%的答案与之相矛盾。

相关研究结果已发表在《BMJ Quality & Safety》期刊上,研究人员指出,尽管AI技术有潜力,但患者仍应咨询医疗专业人员以获得准确和安全的药物信息。

自 快科技

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI 医疗建议 安全隐患
相关文章