本文作者:真实自我

百度Q3财报:总营收336亿 李彦宏:明年发布新版大模型

真实自我 11-22 31
百度Q3财报:总营收336亿 李彦宏:明年发布新版大模型摘要: 王楚钦进强月日消息发布年第三季度财务报告显示季度亿元核心营收亿元归属核心的净利润亿元同比增长超出市场预期财报显示月文心大模型日均调用量达亿次相比去年披露的万次一年内增长倍不久前的世...

王楚钦进8强

百度Q3财报:总营收336亿 李彦宏:明年发布新版大模型

11月21日消息, 发布2024年第三季度财务报告,显示季度336亿元,核心营收265亿元,归属 核心的净利润75.4亿元,同比增长17%,超出市场预期。财报显示,11月,文心大模型日均调用量达15亿次。相比去年Q4披露的5000万次,一年内增长30倍。

不久前的 世界上,以“应用来了”为演讲主题的李彦宏再次强调AI应用的重要性,并提出“不是要推出一个 应用,而是要打造数百万个 有用”。

在Q3财报中,说“ 有用”的 ,交出了一份“应用成绩单“,与单纯的财务数字相比,这些数字更能看出 的现在和未来,比如文心15亿的日调用量;文心一言用户达4.3亿; App的生成式AI内容已覆盖近七成月活用户;超过20%的搜索结果页面涵盖AI生成内容;文心智能体 上已经有15万家企业和80万开发者;飞桨文心生态开发者数量已达1808万; 智能云千帆大模型 已经帮助客户精调了3.3万个模型、开发了77万个企业应用..

“文心大模型日益增长的调用量,证明我们强大的人工智能能力,正在获得更广泛的市场认可。” 创始人、董事长兼首席执行官表示。

为什么强调“ 有用”

李彦宏在近期访谈中揭露了原因:不是说AI行业没有 应用,而是时机未到。

而对 来说,当前更重要的是打造数百万“ 有用”的应用生态。只有先做好 有用,未来才有可能诞生 应用。

从15亿调用量可以看到,当应用生态开始出现爆发,首先被陡峭拉升的就是 大模型的调用量。本季度, 的营收呈现双位数增长,AI收入占比持续提升。

据 2024年第三季度财报电话会透露,三季度, 智能云营收达49亿元,同比增长11 %,Non-GAAP 经营利润率同比提升。其中,AI相关收入占比持续提升至超11%。

智能云业务方面,据IDC在8月发布的《中国人工智能公有云服务市场份额,2023》报告, 智能云连续五年排名 。公开数据显示, 智能云千帆大模型 已帮助客户精调了3.3万个模型、开发了77万个企业应用; 智能云已拥有中国最大的大模型产业落地规模,超60%央企和大量民营企业,正在联合 智能云进行AI创新。

要如何做好“ 有用“?

财报显示,三季度内, 推出ERNIE Speed Pro和ERNIE Lite Pro两款增强的轻量级模型,进一步扩展文心系列模型的丰富性。截至11月,飞桨文心生态开发者数量已达1808万。

在赋能应用的AI技术创新方面,不久前在 世界亮相的检索增强的文生图技术文心 iRAG,目的是 大模型在生成图像的幻觉问题,极大提高AI生成图片应用的可用性。

iRAG的商业价值体现在:无幻觉、超真实、没成本,立等可取。在几乎所有的创作场景,iRAG都 有价值。

不仅如此,今年三季度升级的百舸AI异构计算平4.0已具备成熟的10万卡集群部署和管理能力,且在万卡集群上实现了99.5%以上的有效训练时长,能够将两种芯片混合训练大模型的效率折损控制在5%以内。

打造智能体生态方面,文心智能体 上已经有15万家企业和80万开发者,覆盖各类型的智能体;智能体是AI应用的主流形态,也是最主流的“ 有用”生态;

还有无代码工具“秒哒”,每个普通人都能开发应用,是应用爆发 的助推器。通过秒哒一个人通过自然语言交互,就可以完成一整套系统的搭建。可以做任意场景下的各种应用,应用的复杂度也会随着我们技术的提升不断提升。这意味着,不需要去招募项目经理、设计人员、开发人员、 人员等等,自己就可以指挥多个智能体来协同完成任务。也就是说,只要有想法,你就可以心想事成,我们将迎来一个前所未有的只靠想法就能赚钱的时代。

在下一盘怎样的棋?

是最早提出要把所有产品都用AI重做一遍的公司,我们看到,AI搜索、智能云、 文库等业务板块,已经逐步找到了自己的方向。

据财报,9月, App月活用户达7.04亿,同比增长6%。 正在持续推进大模型对搜索的重构,并通过智能体等内容丰富搜索体验。当前, App的AI功能已覆盖近七成月活用户,与AI互动的用户使用时长更高,每日总互动次数可达数千万。

正如李彦宏所说,AI时代一定会有 应用,只是时机未到,不仅仅是核心业务,在“ 有用”的指引下, 也在持续重构自己的应用。一个显著的案例是 文库,不久前, 文库和 网盘联合发布了工具类智能体自由画布,一天的用户预约量达到20万。

据介绍,强大的基座模型是应用爆发的基础。为给 有用的应用生态不断打牢基础, 不断迭代基础大模型的能力。在财报电话会上,李彦宏表示,基于自研的四层人工智能技术栈优化,旗舰模型文心4.0 T bo的推理效率显著提升,自6月发布以来,模型性能提升48%。

而且为了满足企业在各应用场景应用模型的细分需求,本季度, 推出了ERNIE Speed Pro和ERNIE Lite Pro两款增强的轻量级模型,具有更低延迟、更高吞吐量、更好的稳定性和更高的准确性。

值得一提地是,在电话会尾声,李彦宏还透露, 将于2025年初推出文心大模型的新版本,以巩固在基础模型上的领先优势。(定西)

本文来自 科技报道,更多资讯和深度内容,关注我们。

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享