百度李彦宏:如果没有应用,AI 模型和芯片都没有价值|钛媒体AGI

百度李彦宏:如果没有应用,AI 模型和芯片都没有价值|钛媒体AGI

 

文章摘要


【关 键 词】 AI模型开发者开源成本应用

在2024年4月25日武汉举行的百度Create开发者大会上,百度创始人、董事长兼CEO李彦宏正式发布了文心大模型4.5 Turbo和文心大模型X1 Turbo。这两款新模型的推出旨在解决当前部分模型存在的模态单一、幻觉率高、速度慢和价格昂贵等问题。李彦宏指出,尽管以DeepSeek为代表的模型在市场上取得了显著进展,但其局限性仍然明显,尤其是在多模态理解和生成能力方面。

李彦宏强调,AI应用才是真正创造价值的核心。他认为,没有实际应用的支撑,任何模型或芯片都无法体现其价值。当前,大模型技术的快速迭代给开发者带来了巨大的挑战和机遇。一方面,开发者需要紧跟技术发展趋势,避免被模型迭代所淘汰;另一方面,日益强大的模型能力也为开发者提供了更多选择和可能性,关键在于找到合适的应用场景和基础模型。

李彦宏还提到,大模型行业的竞争异常激烈,仅2023年第四季度就有49个大模型更新发布,而2024年第一季度更是达到了55个。这种快速迭代的现象让开发者感到无所适从,担心自己开发的应用很快会被新模型覆盖,导致前功尽弃。对此,李彦宏认为,开发者需要在大模型的发展中找到自己的定位,避免盲目跟随。

李彦宏直言,开源模型在商业领域并不具备优势。他指出,开源模型虽然在教学和科研领域有其价值,但在追求效率、效果和最低成本的商业场景中,闭源模型更具竞争力。他以ChatGPT和文心一言为例,说明闭源模型在推理成本和性能上优于开源模型。此外,李彦宏还批评了当前中国市场上存在的“百模大战”现象,认为这是对社会资源的极大浪费,更多资源应投入到超级应用的开发中。

在技术层面,百度此次发布的新模型在速度和成本上均有显著提升。文心大模型4.5 Turbo的速度更快,价格下降了80%,每百万tokens的输入价格仅为0.8元,输出价格为3.2元,仅为DeepSeek-V3的40%。文心大模型X1 Turbo的价格更是仅为DeepSeek R1调用价格的25%。此外,百度还公布了基于昆仑芯三代P800的中国首个全自研3万卡集群,能够同时承载多个千亿参数大模型的全量训练,并支持1000个客户进行百亿参数大模型的精调。

李彦宏在演讲结尾表示,百度为中国开发者提供了强大的技术支持,开发者应坚信应用创造未来。他呼吁开发者充分利用百度提供的技术资源,开发出更多有价值的AI应用,推动行业的进一步发展。

原文和模型


【原文链接】 阅读原文 [ 1274字 | 6分钟 ]
【原文作者】 钛媒体AGI
【摘要模型】 deepseek-v3
【摘要评分】 ★★★☆☆

© 版权声明
“绘蛙”

相关文章

“极客训练营”

暂无评论

暂无评论...