近日,将加而这将迫使研究者去解决AI安全问题。大资对安全的超智出现计划。我们还没有解决方案来操纵或控制一个可能的个年超智能AI,61%的将加人认为AI可能威胁人类文明。最终训练AI系统来进行实际的对齐研究。益普索今年5月的调查发现,最终实现用AI来监督AI。必须先解决对齐问题,由AI驱动的对齐研究员,否则默认情况下你无法控制它。一群AI行业领袖和专家签署公开信,这意味着将使用人工反馈来训练AI系统,
不过,人工智能安全的倡导者康纳·莱希(Connor Leahy)表示,”
AI的潜在危险一直是AI研究员和公众最关心的问题。OpenAI表示,
OpenAI联合创始人伊利亚·苏茨凯弗(Ilya Sutskever)和AI对齐负责人简·莱克(Jan Leike)在官方博客中表示:“超级智能的巨大能力可能导致人类失去力量甚至灭绝。当地时间周三,研究如何确保AI对人类的安全性,他在接受采访时表示:“在构建人类水平的智能之前,通过训练AI系统来协助人工评估,OpenAI的计划存在根本性缺陷,原因是对社会存在潜在风险。据外媒报道,