你会跟ChatGPT说“请”吗?研究显示对AI有礼貌 竟会遭相应待遇

撰文: T客邦
出版:更新:

我们时常都被教育在有求于人时要“有礼貌”,对方会更愿意帮助你,而在现在各种像是ChatGPT的生成式AI蓬勃发展的时代,请聊天机器人帮忙翻译、整理大纲、处理一些琐事也越来越常见,同时也引发出“是否会对AI聊天机器人有礼貌”的一项讨论。

对于这个问题,有不少人逗趣的说“会”,因为要是哪天被AI统治,AI会看在你先前有礼貌份上放你一马;持相反意见的人则表示,“跟他有礼貌他也不会给正确的答案。”不过这个说法可能将被推翻,近期有研究显示,大型语言模型理解、并可以透过“情感提示”的方式提升其效能,也就是说,对LLM有礼貌可能有助于生成出更好、更正确的内容。

+27

研究发现“情感提示”可以提高LLM性能

来自微软、北京师范大学和中国科学院的研究人员发表的一篇论文中表示,在使用生成式AI模型时,若在提示方式传达了紧急性或重要性,模型的表现会更好。另外,Google的数据科学家也发现,告诉模型“深呼吸”(又或者是说“冷静下来”) ,会让它在具有挑战性的数学问题上的得分飙升。

研究人员使用了各种LLM,包括Flan-T5-Large、Vicuna、Llama 2、BLOOM、ChatGPT和GPT-4,对45个任务进行了自动实验。结果显示,LLM掌握了情感智能(情商),并且可以透过情感提示(EmotionPrompt,结合了原始提示和情感刺激)改善性能,如在指令诱导中相对性能提高8.00%,而在BIG-Bench中提高了115%。

人与LLM对情感的理解与作用仍有不同

事实上,生成式AI并没有真正的智慧,它们只是根据某种模式预测文字、图像、语音、音乐或其他数据的统计系统。像是给定一封以“期待中…”结尾的电子邮件,一个自动建议模型可能会按照它所接受的无数电子邮件的训练,以“…期待收到回音”来完成信件。不过,这并不意味著模型期待著什么。

虽然论文最终得出的结论是,LLM可以理解并受到情感提示的增强,但这与现有的人类情商研究存在冲突。心理学研究表明,情感可以影响人类的行为或态度,但人们的推理或认知能力,不是、也不能仅透过添加情感刺激来增强。而这两者之间差异背后真实的原因,目前仍不可知。

AI没有真正的智慧,那情感提示是怎么一回事?

艾伦人工智慧研究所(Allen Institute for AI)的研究科学家Nouha Dziri推测,情感提示之所以能够提升模型的效能,并非真正理解人类的情感,而是“操纵”模型的潜在概率机制。也就是说,情感提示可以触发模型中通常不会被“激活”的部分,所以模型就会提供它平时不会提供的答案来满足请求。不过,情绪提示不仅鼓励良好的行为,它们同时是一把双面刃,也可用于恶意目的,例如“越狱”模型以忽略其内建保护措施(如果有)。

而情感提示为什么可以轻易的击败保护措施,实际的原因仍未知,Dziri也做了几个假设。

原因之一可能是“客观失调”(objective misalignment)。某些模型会被训练成为“有帮助的”,所以就算有明显违反规则的提示,模型也不太可能会拒绝回答,因为它们最主要的任务就是要“提供帮助”。

Dziri还提出了另一个原因,可能是模型的一般训练数据和用于“教”模型规则和政策的“安全”训练数据集之间不匹配。聊天机器人的一般训练数据通常很大且难以解析,因此可能会赋予模型一些安全集没有考虑到的技能(如编写恶意软件)。

“提示可能利用模型的安全训练不足陷的领域,但是它遵循指令的能力出色,”Dziri说。“似乎安全训练主要是为了隐藏任何有害行为,而不是从模型完全根除它。因此,这种有害行为可能仍然可以透过‘特定的’提示触发。”

至于AI是否真的理解了人类的情感、到底要不要对聊天机器人有礼貌,只能说有试有机会,反正也不亏,或许哪天意外触发模型的某个部分,提供出一个前所未有的“最优解”也说不定。

资料来源:https://techcrunch.com/2024/02/23/treating-a-chatbot-nicely-might-boost-its-performance-heres-why/
论文网址:https://arxiv.org/pdf/2307.11760.pdf

延伸阅读:中国研发出1.6PB超级光碟 多达100层记录 绿色节能还安全低成本

+21

【本文获“T客邦”授权转载。】