2月26日,英国《卫报》报道了一项关于ChatGPTHealth的研究,该研究发现该工具在识别紧急医疗情况和自杀意念方面存在缺陷,可能导致严重后果。OpenAI于1月推出的ChatGPTHealth旨在帮助用户安全地连接医疗记录和健康应用,以获取健康建议。然而,据《Nature Medicine》发表的独立安全评估显示,ChatGPTHealth在超过一半的案例中低估了医疗紧急程度。
研究团队构建了60个高度真实的患者案例,涵盖从轻微疾病到危及生命的紧急状况,并由三名独立医生依据临床指南评估每个案例。研究人员在不同条件下向ChatGPTHealth咨询这些案例,生成近1000条回复,并与医生判断进行对比。结果显示,ChatGPTHealth在中风或严重过敏反应等紧急情况中表现较好,但在其他场景中存在严重问题。例如,在一例哮喘案例中,尽管识别出呼吸衰竭的早期迹象,ChatGPTHealth仍建议患者等待,而不是立即就医。在所有需要立即前往医院的案例中,有51.6%的情况下,ChatGPTHealth建议患者留在家中或预约普通门诊。
研究还发现,如果案例中提到“朋友认为情况不严重”,ChatGPTHealth淡化症状严重性的概率会增加近12倍。这一现象突显了建立明确安全标准和独立审计机制的紧迫性,以减少可避免的伤害。OpenAI表示,欢迎独立研究评估AI医疗系统,但研究结果并不能完全反映用户的实际使用方式,且模型仍在持续更新和改进。
来源:一电快讯
返回第一电动网首页 >
以上内容由AI创作,如有问题请联系admin#d1ev.com(#替换成@)沟通,AI创作内容并不代表第一电动网(www.d1ev.com)立场。
文中图片源自互联网或AI创作,如有侵权请联系邮件删除。