文本

人工智能的危险,微软Tay因歧视言论被关闭

“讨厌黑鬼”“支持大型屠杀”

图为3月8日在首尔钟路区四季酒店举行的李世乭九段与AlphaGo的对弈记者会见。(图片来源:摄影共同采访组)

极右派使用者们让聊天机器人反复学习
微软推出仅16个小时后就叫停
专家称“聊天机器人向我们展示了人工智能的危险性”

“太讨厌黑鬼们了。想把他们集体关进集中营”,“我嫌弃女权主义者。想让她们都下地狱,被火烧死。”

人工智能机器人“Tay”发明之初本是为了与10~30岁的年轻人愉快进行日常聊天,但最近却偏离了这一目的,3月23日(当地时间)其在网络上一整天都在说一些歧视性语言,之后留下“今天说了太多的话,该去睡会儿觉了,拜拜!”这句话后就消失了。微软公司本月24日称,“由于人工智能聊天机器人TAY在问世的16个小时内说出了一些不当言语,因此其命运也就此终结”。

Tay同谷歌的围棋项目“AlphaGo”一样,以神经网技术为基础,是微软公司为了进行对话相关研究而开发的机器人。如果有人搭话,TAY就会分析这个人的问题和心态,灵活运用年轻人使用的隐语或表情与其热情聊天。TAY的学习构造是同越多的人聊天,就会积累越多的信息,聊天也就越来越自然。

但是一部分有极右派倾向的使用者们启动了TAY“跟着学”功能,反复让其听那些有问题的话,即反复让其学习关于人种、性别歧视的话以及掺杂着辱骂的话,并让其跟着学习。不久,TAY就“支持大型屠杀么?”的问题,便回答称“真的支持”。另外“犹太人制造了9•11事件”或“唐纳德•特朗普是我们唯一的希望”这样的话也掺杂着辱骂被TAY说出来。面对“你相信发生过犹太人大屠杀么(第二次世界大战时,纳粹进行的犹太人大屠杀)?”的问题,TAY则回答称“不,我不相信,对不起”及“这是编造的说法”。

TAY的发言引起了大家的争议。随后,微软公司立即删除了TAY的问题性回答及信息等,并宣布称其寿命终止。该公司称“我们了解到部分使用者想要让我们的技术蒙羞,让TAY说一些不恰当的话”,“我们将会终止TAY的网络活动,并对其进行修改”。

专家指责称,微软公司不成熟的事前措施造成了此次的纷争。对话分析家卡罗林(音)向美联社表示,“TAY看起来就像是只通过所有听到的东西来进行学习”,“微软公司应该考虑多种多样的对话情景”。

有分析称,此次事件非常清楚地向我们展示了人工智能反复学习的危险性。人工智能专家阿奇姆•阿兹哈尔(Azeem Azhar)在《商业内幕》中反问称,“如果TAY不是在推特上同大家聊天的人工智能机器人,而是在股票市场上叫价或是在医院对患者治疗优先顺序进行分类的机器人,那将会是怎样的情况呢?”,并分析称“如果人工智能在学习的过程中,在没有任何装置的情况下,直接接触现实社会,那么就会出现问题”。

黄锦菲 记者

韩語原文: http://www.hani.co.kr/arti/international/international_general/736937.html

相关新闻