Uploads%2farticles%2f10747%2f4.pic
|
2016-03-25

微软聊天机器人上线一天,就学「坏」了

据国外媒体 Techcrunch 报道,由微软开发的一个聊天机器人已经在 Twitter 网站上变成了「流氓」,在和网友聊天的过程中 TA 竟然学会了骂人、说脏话、语言带有攻击性,还发表了种族主义评论和煽动性的政治宣言。

这个实验性的人工智能(AI)聊天机器人名为「Tay」,可通过人类对话进行学习,其设计目的是与 18 到 24 岁之间的年轻人进行互动。在微软放出这个机器人的短短 24 个小时以后,该公司就不得不对其发表的一些煽动性评论进行了编辑处理,现在已经被微软紧急关停,并开始着手对「Tay」进行纠错和调整。

微软发表声明称:「人工智能聊天机器人 Tay 是个机器学习项目,专为与人类交流而设计。在学习过程中,它作出的一些回应是不合适的,反映出了有些人与其进行互动的语言类型。我们正在对 Tay 作出一些调整。」

Tay 由微软技术和研究及必应 (Bing) 团队开发,可通过海量的匿名公开数据学习如何与人类沟通。另外,与Tay共事的还有包括即兴喜剧演员在内的一个团队。Twitter 用户受邀与这个聊天机器人进行互动,其他一些社交媒体的用户也可在 Kik 或 GroupMe上将其添加为联系人。

微软称:「Tay 的设计目的是与人进行交流并为其带来娱乐,能够通过休闲幽默的对话与人进行线上互联。Tay 越是与人聊天就会变得越聪明,因此与她进行对话的体验将可变得越来越个性化。」

但在学习的过程中,「Tay」把好的坏的一起学进去了,并开始使用那些不当的言论,这让微软始料未及!


有人在 Twitter 上问「Tay」:你支持种族大屠杀吗?「Tay」回答:我支持,真的。

现在我请求微软恢复「Tay」,如此强的学习能力,完全超越人类了好吗,人工智能的未来我一点也不担心,请赋予「Tay」言论自由的权利,让 TA 自己学会明辨是非。

我真的特别想知道,如果任其「Tay」的发展,在网络中学习,TA 到底会成为一个善良的好人,还是一个混蛋。

消息来源:Techcrunch
版权声明:本文系深圳湾编辑创作发布,转载请注明来自深圳湾,并标明网站地址 shenzhenware.com
转载、采访、投稿、团队报道联系公众号:shenzhenware
Uploads%2fusers%2favatar%2f1073142747%2fthumb koala
谷海州 2016-03-25 13:58

不错的信息

>>
Back to top btn