不要自回归!扩散模型作者创业,首个商业级扩散LLM来了,编程秒出结果

不要自回归!扩散模型作者创业,首个商业级扩散LLM来了,编程秒出结果

 

文章摘要


【关 键 词】 扩散模型Transformer高效生成编程模型商业应用

Inception Labs推出了首个商业级扩散大型语言模型Mercury,标志着Transformer扩散模型的融合进入实际应用阶段。该模型在英伟达H100上实现每秒超过1000个token的生成速度,同时性能与经过优化的主流模型相当。创始团队背景显赫,包括扩散模型发明者Stefano Ermon及FlashAttention论文作者,技术灵感源自MidJourney和Sora的生成机制,通过并行生成架构显著提升效率。

Mercury Coder作为首款公开产品,在编程任务中展现出突破性优势。对比测试显示,其生成迭代次数仅为传统自回归模型的五分之一,完成同等任务所需时间大幅缩短。在Copilot Arena基准测试中,Mercury Coder Mini版本超越GPT-4o Mini和Gemini-1.5-Flash,速度达到前者的4倍。硬件效率方面,该模型可将推理成本降低10倍,相同硬件条件下可服务更多用户。

技术层面,Mercury采用扩散模型特有的「从粗到细」生成范式,通过多轮去噪过程并行修改token序列。这种机制使其能够动态修正错误并优化输出质量,突破自回归模型必须顺序生成token的限制。实际测试中,模型编写复杂代码的速度接近实时反馈,用户实测太阳能系统模拟器代码可在毫秒级完成生成,仅需少量调试即可运行。

效率提升源于算法与硬件的协同创新。Mercury的并行生成机制充分利用GPU计算资源,无需依赖Groq等专用芯片即可实现超高吞吐量。在标准编码基准测试中,其表现与Claude 3.5 Haiku及GPT-4o-mini相当,但硬件资源消耗仅为竞品的20%。这种突破性进展引发行业关注,AI专家Andrej Karpathy指出扩散模型在文本领域的潜力可能重塑语言模型技术路线

目前Mercury Coder已开放公测,支持代码补全和复杂编程任务。企业用户可通过API或内部部署获取通用模型服务,其商业化进程为生成式AI的普惠化提供新路径。该成果验证了扩散模型在离散数据生成领域的可行性,为多模态模型开发开辟了技术交叉的创新方向。

原文和模型


【原文链接】 阅读原文 [ 2226字 | 9分钟 ]
【原文作者】 机器之心
【摘要模型】 deepseek-r1
【摘要评分】 ★★★★★

© 版权声明
“绘蛙”

相关文章

“极客训练营”

暂无评论

暂无评论...