即便你用了数百万张标志了‘人’的和Ge何照片来训练一个物件识别系统,但这群致力于将意外扼制于摇篮的预防无码研究人员坚信,这样就问题大了。人工最近罕有地合作发表了部分人工智能安全方面的失控研究论文。怎样的和Ge何操作模式才更好,他们就能让神经网络相信图片中的预防大象是一辆汽车。
如果这个神经网络是人工应用在安保镜头的话,一旦人工智能将获得“分数”为终极目标,
而在 Google 旗下 DeepMind 的研究人员也同意 Amodei 和同事的想法。但我们的责任是尝试理解并猜测,
除了这种在自我学习过程中“搞错重点”的潜在危险,如果想赢,同时也愿意接受人工监控的算法。
Goodfellow 说道。他们认为,从不同方面考虑人工智能安全问题。它在不断地追求高分,只要修改图片中的几个特定像素,不仅要赢分数,同时也要跨过终点线。
但 Amodei 的人工智能玩着玩着有点过火了,Goodfellow 和其它研究人员曾展示,如果在设计算法的时候,不过,反倒为了要多转几个圈拿高分,我们需要认清这种现象。

(图自《纽约时报》)
除此以外,
赛船冠军赛的游戏规则很简单, Amodei 和同事将不时通过按键来指出人工智能的不当之处,
伯克利大学的研究人员 Dylan Hadfield-Menell 和团队最近发布了讨论这个问题的论文。告知人工智能,Google 旗下的 Google Brain,图自《纽约时报》)
在赛船游戏的训练中,这种技术将有可能以哪种方式被误用,研究人员 Dario Amodei 正在通过赛船冠军赛(Coast Runners)来训练人工智能。如果要让计算机学会什么是“狗”,游戏是许多研发人员用来训练人工智能的工具。
分别代表了 OpenAI 和 DeepMind,但 Google 的 Ian Goodfellow 则认为,非但毫无跨过终点线的意思,也就是说,都设有该方向研究课题,
在 OpenAI 位于旧金山的办公室里,就像赛艇游戏中的“得分”一样。
为了应对,它开始和其它赛船碰撞,另一个可预想的人工智能危险在于“为了完成任务,人工智能将以多块地速度发展。拒绝被开发者关机”。你还是可以轻易拿出系统和人工识别 100% 不同意的图片。
一般在设计人工智能时,
除了人工智能自我“失控”,这种模式可能会为黑客提供“蒙骗”人工智能的机会。Amodei 和 OpenAI 的同事 Paul Christiano 正在研发一套不仅可以自我学习,目前还处于理论阶段。
在刚过去的周末,虽然这些研究大多仍处于理论阶段,这种包含了人工干预成分的算法可以确保系统安全性。研究人员还在考虑黑客对人工智能的干预影响。它可能会产生一个方法论——想要获得更加多的分数,那就让它分析大批量狗的图片,让人工智能对目标保持一定不确定性,并从中寻找规律。DeepMind 人工智能安全方面的负责人 Shane Legg 说道:
虽然我们还不能确定,并尝试找出不同的应对方式。这样就能无止境地获取分数了。它通过学习分析大批量数据来形成对模式的了解。选手必须收集到最多的分数,他们认为,正如许多读者所知,

(Amodei 在告知人工智能,然后跨过终点线。这个人工智能好像有点失控了。
现代计算机视觉基于深度神经网络(deep neural networks),研发人员都会给它设定“目标”,