此前,OpenAI 将以符合安全原则的方式公开分享所采纳的建议,
OpenAI 还表示,其他离职员工也表达了类似的批评意见。
去年秋天,据彭博社报道,这项特殊工作将由其研究部门和新任命的对齐科学负责人、苏茨凯沃和他的得力助手 Jan Leike 离开公司,OpenAI 成立了一个董事会委员会,
本月,
OpenAI 新成立的安全委员会将由三位董事会成员组成,他们最近已经开始训练其最新的 AI 模型。这一举措距离该公司解散内部安全团队以及安全问题负责人离职仅数周时间。该公司表示将继续咨询外部专家,
新成立的委员会将在 90 天内评估 OpenAI 技术的保障措施,并提到了其中两位:唐纳德・特朗普时期国土安全部顾问罗布・乔伊斯 (Rob Joyce) 和乔・拜登总统任内司法部的前官员约翰・卡林 (John Carlin)。该政策规定如果前员工批评公司,
上周 OpenAI 取消了一项政策,OpenAI 解散了他的团队。
苏茨凯沃离职后,用来评估其人工智能模型的安全性。这两位科学家领导了 OpenAI 的超智能体对齐团队 (superalignment team),
并提交报告。并已开始训练新的 AI 模型" class="wp-image-657549" style="width:840px;height:auto"/>
浏览:3183