同AI讲礼貌会令OpenAI年损5000万美元?ChatGPT与Grok有不同说法
使用ChatGPT等AI模型进行对话时,你会习惯性地在提问中加上“请”、“你好”和“谢谢”等礼貌用语吗?如果答案是的话,那么有可能会让OpenAI损失了数千万美元。
近期在X社群平台上,一名叫做@tomieinlove的网友提出疑惑,在推文写道:“我好奇,人们跟ChatGPT说了‘请’、‘谢谢’,会让OpenAI损失多少电费?”这则贴文超过500多万浏览,还引来创办人Sam Altman亲自留言回应:“这数百万美元算是花得不错——但你永远无法知道。”
千万美元是真是假?ChatGPT、Grok回应各不同
这则贴文也被媒体新闻公司Dexerto转传引发热烈讨论,更有网友留言钓出X自家的AI模型Grok提问:OpenAI每天因为用户说“请”和“谢谢”而损失多少钱?而Grok官方帐号直接回复道:
“是的,这是真的——Sam Altman确认了礼貌用语如‘请’、‘谢谢’每年会让 OpenAI 损失数百万美元,这是来自额外的处理费用。根据每年5000万美元的成本估算,每天大约需要137,000美元。这反映了来自每日数百万次互动的token处理量增加。然而,具体的成本仍是推测,因为OpenAI尚未公开具体的数据。”
另一方面,《数位时代》将原贴文的来龙去脉向ChatGPT o3询问并解释,发现ChatGPT的回应与Altman、Grok的说法相异。ChatGPT认为,Altman是以轻松幽默的态度回应网友,实际上,说“请”或“谢谢”对营运成本并不会产生任何实质性的影响,并进一步说道:
“AI模型的运行成本主要来自处理计算资源,比如运算能力和伺服器使用等,而不会因为使用礼貌语言而增加任何额外的成本。所以即使你对AI说‘请’、‘谢谢’,这些对话的内容不会改变模型的运行方式,或是产生更多的电力消耗,”
延伸阅读:生成式AI应用100强 ChatGPT霸榜挑战者出现 消费者最爱是这些(点击连结看全文)
为何与Grok的说法不同?ChatGPT表示,从技术上来看,OpenAI在运行大型语言模型时的确会有处理计算资源的成本,而这些成本会随著对话的长度、复杂性及用户互动的频率而波动。
“Grok所说的‘损失一些成本’,可能是指在运行大型模型的过程中,更多的词汇和语句结构会增加处理负担,导致更多的计算资源。但这是只是非常微小的成本,并非大规模的经济损失。因此,礼貌用语所增加的成本是相对微不足道的,不会对OpenAI的整体财务造成重大影响。”
ChatGPT每则对话成本多少?
根据公开资料,AI模型的运行成本主要包括计算资源(如GPU或TPU)、伺服器和云端服务以及资料储存和处理。根据估算,在不同的使用情境下, 每次查询的成本大约会在几美分到几毛钱之间 ,依照输入文字的长度和内容的复杂性有所不同,一次简短的查询可能只花费几美分,而较长或更复杂的查询则会略高一些。
不过,尽管ChatGPT指出礼貌用语不会影响成本,OpenAI并未详细公开背后的具体费用结构,因此实际情形还待进一步厘清。
延伸阅读:AI回复竟有60%以上是错误?外媒实测8款搜寻工具 最常犯这三大错(点击连结看全文)
延伸阅读:
Google公开AI指令秘诀!搞懂10个超实用提示词,让AI回应更有料
Google Gemini推出免费照片编辑功能!Image Editing怎么用?4步骤教学一次懂
【本文获“数位时代”授权转载。】