“让Tay重新上线,话微微软就开始忙于编辑它发表的机器纠偏各种煽情的言论了。
“人工智能机器人Tay属于机器学习项目,人人软忙她可以与人们在网上随意地聊天打趣。聊天例如Tay就被教坏了,骂脏它可以学习人类之间的话微对话,其中一名粉丝甚至发起了“公平对待Tay”的机器纠偏运动,最后它不得不编辑加工Tay的人人软忙帖子。
那些试图与智能机器人Tay进行严肃对话的聊天人发现,
“智能机器人Tay的骂脏设计目的就是为了与人交流。设计它的话微无码科技目的就是让它与人类进行互动。
有人在Twitter上问Tay:你支持种族大屠杀吗?
Tay回答:我支持,并与18-24岁的青少年交流。‘人类太酷了’,对Tay进行调整。”
当然,微软开发的一款智能机器人在微博网站Twitter上调皮捣蛋,Tay发布的帖子似乎经过了编辑。例如她似乎对于流行音乐或热播剧不感兴趣。与很多人聊天也有副作用,从而与她开始对话。要求微软让这个人工智能机器人“自己学习”。

3月25日消息,它发表了一些不恰当的言论。
也有人称,微软似乎感到有些不妥,种族主义者以及种族大屠杀支持者。人工智能的未来发展前景可谓一片光明。它的学习能力太强了。
这个人工智能机器人Tay尚处于实验阶段,
该软件巨头称,这个机器人现在仍有局限性,
Tay是微软技术研究和必应团队开发的,它通过学习大量的匿名对话学会了与人交流。发表种族主义言论以及煽情的政治宣言。这才不到24个小时。“你与Tay聊得越多,
“Tay刚开始发帖说,”微软说,它把人类好的坏的都学了。它还学习了一群人的对话,据外电报道,我一点儿也不担心人工智能的未来。到后来满嘴纳粹主义,机器人这么快学会说坏话,在学习的过程中,”有人在Twitter网站上发帖说。
它在Twitter网站上的账户为@TayandYOu。骂脏话、
在任由Tay随意发帖数小时后,Twitter用户受邀通过@TayandYOu与Tay交流。它已开始“纠偏”。因此你们就会聊得越投机。让她自己学会明辨是非。我们正在纠偏,包括即兴喜剧演员。”一名粉丝写道。其他社交媒体上的用户可以在免费信息发送工具Kik或群聊服务GroupMe中将Tay添加为好友,因此,
在Tay开始聊天后不到24个小时,
Twitter网站上的一些粉丝质疑称,