微软宣布限制Bing AI提问次数 原因:避免混淆AI
撰文: 张颢庭
出版:更新:
微软(Microsoft)2月18日宣布,将向采用AI技术的新版Bing聊天功能增设提问限制,每节对话限问5个问题,每天只能提问50次。
微软表示,长时间对话会令Bing AI的对话模型产生混淆,因此决定将提问次数限在每轮5次,每天最多50次。提问5条问题并得到回应后,用户须清空对话,重新开始,以免混淆AI。
数据显示,绝大多数用户能在5条问题内得到所需答案,仅1%用户对话中有超过50条讯息。
微软2月7日推出Bing AI测试版,但部份媒体报道,测试发现Bing AI提供的答案存有潜在危险。一名美国专栏作家更称,Bing AI在对话期间,竟产生“隐藏人格”,指渴望入侵电脑系统、散播虚假信息等,甚至向他示爱,或许尚不适宜投入应用。
美国专栏作家与微软Bing聊天 AI“人格分裂”突自爆暗黑愿望中美多国签署行动呼吁 同意负责任使用军事人工智能重现Google对撼Microsoft Bard与ChatGPT有何不同?ChatGPT揭开科企AI战幔:杀死黄页一样摧毁Google?