ChatGPT-4.5突破:更准确、更少幻觉 AI 会比人更可信吗?|苏仲成

撰文: MetaHero
出版:更新:

自从大型AI语言模型(LLM)技术崛起,AI 于各种领域的应用已变得无处不在。但一个长期困扰业界的问题是:“AI 可信吗?”。当 ChatGPT-4.5 推出,OpenAI 声称其准确性将大幅提升,幻觉(hallucination,即 AI 编造错误资讯的情况)亦将显著减少,这意味著可能对 AI 的信任程度可能会发生重大改变。

文:Michael C.S. So(岭南大学研究生院客席助理教授)

但这项技术的进步从何而来?它如何减少幻觉并变得更可靠?在这种情况下,我们是否应该开始相信 AI 比人类更值得信赖,甚至让 AI 代替我们做决策?这篇文章将探讨这些问题,并分析 ChatGPT-4.5 可能带来的影响。

ChatGPT-4.5 技术突破:准确性的提升来自哪里?

ChatGPT-4.5 的改进主要源于三大核心技术突破:

1.⁠ ⁠更强的多模态学习与上下文理解

过去的 GPT-4 虽然已经具备强大的自然语言处理能力,但仍然存在理解错误或遗漏关键细节的问题。ChatGPT-4.5 在多模态学习(multimodal learning)上有重大提升,能够更有效地理解文本、图片、甚至是音频内容,使得它能更准确地回应问题。例如,当 AI 被问及医学或法律问题时,它能够从更全面的资料库中撷取信息,并以更精确的方式回应,而不仅仅是凭语料库内的部分资讯来推测答案。

2.⁠ ⁠更高级的检错与自我修正机制

OpenAI 为 4.5 版本引入了更强的“自我检查”机制(self-consistency checking)。这意味著 AI 在回答问题时,会自动与过往训练数据进行比对,甚至可以交叉检验自己给出的答案。这样的技术可大幅减少 AI“胡乱编造”资讯的情况。例如,在科学数据或统计分析中,AI 会引用更多已验证的数据来源,而非依赖单一文本的片面资讯。

3.⁠ ⁠更大的记忆与上下文窗口

以往的 GPT-4 虽然能够处理较长的对话,但仍然受限于“记忆窗口”的大小,可能会在长时间的对话中遗漏关键资讯。ChatGPT-4.5 扩展了这个上下文窗口,使其能够“记住”更长时间内的对话内容,确保答案前后一致,减少断章取义或逻辑错误的情况。这对于需要精确推理的领域(如财经、法律、医疗等)极为重要。

幻觉减少的关键:为何 ChatGPT-4.5 会更可靠?

减少幻觉一直是 AI 领域的一大挑战,而 ChatGPT-4.5 在这方面的进步主要归因于以下几点:

1.⁠ ⁠训练数据的优化与强化学习

OpenAI 在 4.5 版本的训练数据上投入了更大的精力,不仅扩展了资料来源,还强化了基于人类反馈的强化学习(RLHF, Reinforcement Learning from Human Feedback)。这意味著 AI 在学习过程中,不仅仅是靠机器“读书”,而是透过人类标注来判断哪些答案更合理,哪些则是幻觉。

2.⁠ ⁠引入更高级的检测机制

过去的 AI 经常会“一本正经地胡说八道”,这是因为它无法判断自己回答的准确性。但 ChatGPT-4.5 引入了一种新的“事实验证机制”,它可以在回应前先检查答案的可靠性,甚至在内部自我争辩后再输出最可信的答案。这样的机制让 AI 更加慎重,不轻易给出错误资讯。

3.⁠ ⁠更好的引用系统与透明度

GPT-4.5 开始加入更清晰的“来源参考”能力,在某些问题上,AI 甚至可以直接提供引用来源,让用户可以自己核实答案的可靠性。这与早期的 AI 模型相比,是一大进步,因为过去的 AI 很容易给出看似合理但毫无根据的答案。

AI 会比人更可信吗?

当 AI 变得越来越准确,这是否意味著 AI 会比人类更值得信任?这是一个哲学性问题,值得我们深入探讨。

1.⁠ ⁠AI 在某些领域已比人类更可靠

事实上,AI 在数据处理、医疗诊断、财务分析等领域已经表现得比人类更精确。例如,在癌症检测方面,AI 已经能够在比医生更短的时间内发现早期肿瘤;在财经分析中,AI 可以即时处理大量市场数据,并给出更准确的投资建议。

2.⁠ ⁠AI 缺乏“主观偏见”

人类在决策时往往会受到个人经验、情感或偏见影响,而 AI 并不具备这些“人性弱点”,因此在某些需要客观判断的情境下(如法律审判、医学诊断等),AI 可能比人类更公正、更客观。

3.⁠ ⁠AI 并非完美,仍需人类监管

尽管 ChatGPT-4.5 减少了幻觉,但 AI 并非完美,尤其是当问题涉及复杂的道德判断或需要创新思维时,人类的直觉与经验仍然是无可取代的。此外,AI 仍然受限于其训练数据,若数据本身存在偏差,AI 仍然可能输出错误资讯。因此,AI 的可信度应该是“辅助”人类,而非“取代”人类。

AI 与人的信任关系正在重塑

ChatGPT-4.5 的进步无疑让 AI 在准确性与可信度上更进一步,但这是否代表 AI 比人更值得信赖?答案可能不是绝对的“是”或“否”,而是“在某些领域 AI 已经比人类更可靠,但 AI 仍需人类监管与辅助”。

我们可以期待未来 AI 在更多领域发挥作用,但与此同时,我们也要保持警觉,确保 AI 不是在无意间加剧我们的依赖,而是成为我们的强大助手,让人类的判断与 AI 的智慧结合,共同创造更美好的未来。