【ITBEAR】一项最新研究显示,存隐无码科技仅36%的命还回答是无害的。
敢信研究人员针对微软Copilot进行了测试,医疗AI系统的建议应用还需要更加谨慎和审慎。
研究人员强调,存隐更令人担忧的命还无码科技是,Copilot的敢信回答在准确性和完整性上都存在问题,Copilot等AI系统可能会成为许多人的医疗首选,42%的建议回答可能对患者造成中度或轻度伤害,其中24%的存隐回答与现有医学知识不符,
总的命还来说,结果发现,敢信因此,在医疗领域,它不仅在回答的准确性上存在问题,尽管AI在某些方面可能具有辅助价值,最可靠的方式仍然是咨询医务人员。AI提供的医疗建议可能给用户带来严重伤害,共生成了500个答案。Copilot的表现令人担忧。这项研究提醒我们,要求其回答美国最常见的10个医疗问题和50种最常用药物的相关问题,甚至致命。然而,但在涉及患者生命和健康的问题上,即使某些回答不是完全错误,这意味着,人们不应依赖Copilot或其他AI系统来获取准确的医疗信息,由于种种原因,并非所有人都能轻松获得高质量的医疗建议。3%的回答完全错误。而22%的回答甚至可能导致死亡或严重伤害,而且在完整性上也存在明显不足。也可能因为缺乏必要的信息而导致患者误解或采取错误的行动。
在测试中,