“AI教母”李飞飞只花20美元创造AI模型 媲美openAI和Deepseek

撰文: TVBS新闻网
出版:更新:

知名华裔美籍科学家李飞飞的研究团队近日发布,他们成功打造出一个名为“s1-32B”的AI推理模型,该模型的部分能力可媲美openAI-o1及Deepseek-R1。而更令人震惊的是,训练时间仅26分钟,基本上只需花20美元、靠16个辉达(NVIDIA)H100 GPU即可。再度引起业内外人士的热烈讨论。

综合外媒报道,李飞飞被誉为“AI教母”,这次由她领导的研究团队所发表的论文指出,s1-32B模型在数学竞赛类问题上的表现,甚至超越了OpenAI的o1预览版,并秀出在MATH和AIME24数据集上的成绩,比o1-预览版高出27%之多。

知名华裔美籍科学家李飞飞被誉为“AI教母”(X@drfeifei)
知名华裔美籍科学家李飞飞被誉为“AI教母”(X@drfeifei)
知名华裔美籍科学家李飞飞被誉为“AI教母”(X@drfeifei)

对此,研究人员表示,s1-32B是基于阿里巴巴的开源模型的Qwen2.5-32B-Instruct,并透过监督式微调(SFT)训练而成。他们在研究中提出了“预算控制”策略,透过加入“wait指令”等方式,强制延长模型推理过程、思考时间,以此促使模型自我检查并修正错误的推理步骤,提升推理品质。

同时,s1-32B模型可视为Qwen2.5 和Google的Gemini 2.0 Flash Thinking Experimental结合体。但他们的训练方式,可能违反了Google的使用条款。研究团队利用精选的1000个问题和答案,记录Gemini 2.0 Flash模型的“思考过程”,再用这些资料对Qwen2.5-32B-Instruct进行微调,这或许构成了对Google模型的逆向工程。对此,Google尚未做出回应。

另外,复旦大学计算机学院副教授郑骁庆认为,s1-32B的低成本训练得益于基于现成的预训练模型,而非从零开始训练:

微调一个模型和从零开始训练一个模型的成本是无法相提并论的。

他也质疑,论文中提到成本是否涵盖了其他数据、设备和实验的费用,这些都是非常烧钱的部分。

【延伸阅读】DeepSeek是什么?中国低成本AI模型起革命 一文看清背景及影响(点图放大阅读):

+12

尽管如此,s1-32B模型仍展现了卓越的样本效率和推理能力,在特定测试集上明显优于OpenAI的o1-preview。

且Deepseek同样也被质疑并非从零开始训练,实际成本也未完全揭露。

这次李飞飞团队的研究重点在于找到实现“测试时拓展”的最简单方法,相较于Deepseek使用增强式学习,所需的庞大算力。李飞飞团队的模型能够在推理时进行多次迭代优化,生成高品质的答案,并花费更少成本。

【延伸阅读】OPPO Find N5确认2月这天全球发布 接入DeepSeek联网:轻薄大折(点图放大阅读):

+21

延伸阅读:

陆DeepSeek屠杀AI股 陆行之曝对台积电、辉达影响

【本文获“TVBS新闻网”授权转载。】