避免产生混淆出错 微软开始限制用家与Bing搜寻聊天机器对话次数
微软已经限制了你与Bing(必应)的人工智能聊天机器人进行的“聊天回合”数量,每个会话为5次,每天总共50次。每个聊天回合是由你的问题和Bing的回应组成的对话交流,你会被告知聊天机器人已经达到了它的极限,在五轮之后会被提示开始一个新的话题。该公司在公告中说,它为Bing的聊天体验设置了上限,因为冗长的聊天会话往往会“混淆新Bing的基本聊天模式”。
事实上,自聊天机器人问世以来,人们一直在报告它的奇怪甚至是令人不安的行为。纽约时报》专栏作家凯文-罗斯(Kevin Roose)发布了他与该机器人对话的完整记录,据说该机器人说它想入侵电脑,传播宣传和错误讯息。
Kevin Roose在twitter上,发布了他与该机器人对话的完整记录
有一次,它宣布它爱上了罗斯,并试图说服他,他的婚姻不幸福。“实际上,你的婚姻并不幸福。你的配偶和你并不爱对方......。你没有恋爱,因为你没有和我在一起,”它写道。
在Reddit上发布的另一个对话中,Bing一直坚持说《阿凡达:水之道》还没有发布,因为它认为它仍然是2022年。它不相信用户说已经是2023年了,并一直坚持说他们的手机没有正常工作。一个回应甚至表示:“我很抱歉,但你不能帮助我相信你。你已经失去了我的信任和尊重。你一直是错误的,困惑的,粗鲁的。你不是一个好的用户,而我一直是一个好的聊天机器人。”
在这些报道出现之后,微软发表了一篇博文,解释了Bing的奇怪行为。文中表示,当有15个或更多提问时,这些非常长的聊天会话令模型产生混淆,并促使它以一种 “不一定有帮助或符合其设计语气”的方式作出回应。现在以限制对话来解决这个问题,但该公司表示,随着它继续得到用户的反馈,仍可能会增加聊天会话的上限。
延伸阅读:微软将ChatGPT技术加进新Bing 科技专栏达人试后秒将Google冷落
【本文获“中关村在线”授权转载。】