英媒称,3月23日,美国微软公司发布了名为Tay的最新版本人工智能机器人。
英国《每日邮报》网站3月24日报道,这款产品面向的是18到24岁的青年人,其设计目的是提高该公司对网络上年轻人对话语言的了解。
但是,在Tay使用推特账户上线数小时后,推特用户就利用Tay算法上的缺陷,让这款人工智能聊天机器人对某些问题作出具有种族主义色彩的回答。这些具有攻击性的推文已被删除,Tay也被迫下线。
这个机器人还会说出类似这样的话:“9·11事件是布什干的,希特勒(如果在世)会比当今的这位猴子一样的政客干得好多了。”
微软公司的发言人说,公司正在做出调整以确保此类事件不会再发生。
微软公司的发言人对《每日邮报》网站表示:“Tay是一个机器学习项目,其设计目的是进行人际交往。随着学习过程的加深,‘她’会作出一些不恰当的反应,这正体现了某些人与之互动的内容。”
据美国“商业内幕”网站报道,这个机器人发表的具有侵犯性的言论包括,纳粹大屠杀是编造的、支持集中营和其他一些种族主义词汇等等。
导致这种情况出现的罪魁祸首是人们发送给这个机器人账户的某些推文。Tay的程序算法里没有纠错过滤器。
读完这篇文章后写点感想吧 你还可以 收藏 留以后再看