新闻资讯

关注百度智能云最新动态,了解产业智能化最新成果

大模型走进产业,生产力跃迁正当时

2024-09-27 10:17:43

9月25日,2024百度云智大会在北京举办。百度集团执行副总裁、百度智能云事业群总裁沈抖发表了题为“产业活力,智能跃迁”的主题演讲。


沈抖认为,大模型和云计算紧密结合,在过去几年内正迅速成为新一代基础设施。回溯人类历史来看,大范围的基础设施升级虽然并不多,但都会带来生产力的巨大跃迁,而且速度也越来越快。大模型也正从技术变革走向产业变革,而百度智能云则在算力、模型、应用等层面全面升级,携手合作伙伴,共同服务用户、帮助用户抓住机遇、引领潮流。


百舸4.0重磅发布,极致满足客户全旅程算力需求


从CPU集群到GPU集群,开启了新的计算时代。沈抖认为,GPU集群有三个特征,“极致规模、极致高度、极致互联”,并由此带来了两个严峻挑战:巨额的建设和运营成本、以及运维的复杂性大幅提升。



为了能让用户更容易管理、并低成本地用好GPU算力,百度智能云打造了算力平台“百舸”,并不断升级。今天,大会上正式发布了百舸AI异构计算平台4.0(简称百舸4.0)。


百舸4.0极致满足客户全旅程算力需求。创造集群是训练大模型的第一步,传统流程需要几周时间,而基于百舸4.0,只需要1小时就可以让业务跑起来;在开发实验阶段,百舸4.0可以为用户提供直观的决策依据;在大模型训练阶段,百舸4.0可以保障万卡任务上有效训练时长占比达到99.5%,端到端性能提升30%;在推理阶段,百舸4.0在成本下降的前提下,让长文本推理效率提升了100%。例如,生数科技,就在百舸的支持下,以最高效率、最低成本训练了Vidu多模态大模型。


百舸4.0也解决了自建智算中心客户的痛点。这些客户通常会面临大规模、分布式算力资源,以及不同芯片混合使用而带来的管理挑战。升级后的百舸4.0,不仅支持全面适配、多芯混训,还可以在控制台轻松管理。在万卡规模上,百舸4.0将两种芯片混合训练下的效率折损控制在了5%以内,业界领先。


例如,中国邮政储蓄银行和百舸合作,完成了GPU、CPU算力的规划重组,提升了其混合芯片集群利用率。


生数科技作为国内领先的多模态大模型厂商,在百舸的支持下,生数以最高效率、最低成本训练了Vidu多模态大模型。生数科技联合创始人兼CEO唐家渝表示:“我们选择了与百度百舸AI异构计算平台合作,百舸强大的平台调度和机器管理能力,包括高性能算力集群的任务分发、队列调度和训练加速等功能,显著提升了Vidu的训练效率,并且在少数异常事件发生时能迅速响应和恢复,大大缩短了Vidu的研发周期。”



长安汽车和百舸合作,建设了领先的智算中心。重庆长安汽车股份有限公司执行副总裁张晓宇表示:“我们将与以百度为代表的行业领军AI企业通力合作,积极拥抱大模型对汽车产品智能体验和企业生产力效率提升的历史机遇,用大数据+大模型+大算力的AI技术促进公司向智能低碳出行科技公司转型,最终实现引领汽车文明,造福人类生活的使命愿景。”



百舸4.0也是面向未来的。沈抖判断“Scaling Laws尺度定律仍在继续”,十万卡集群时代也会到来。而用户面临的管理难度,和万卡集群相比,更是天壤之别。为此百舸4.0走在用户需求之前,突破新挑战,已经具备了成熟的十万卡集群部署和管理能力。


全新升级的千帆3.0,“企业级”平台,支持客户做好真实应用


为了促进大模型应用爆发,全新升级的千帆3.0也正式发布。这是支持客户做好真实应用的“企业级”平台,为企业提供生产级的服务,进入到企业的业务流里。



千帆3.0对应了大模型落地中,因着不同客户的开发能力不同、诉求不同而产生的三大类需求:应用开发、模型服务、模型开发。


>>在应用开发层,升级了企业级RAG、企业级Agent(智能体)。企业级RAG既可以发挥大模型的理解、生成等能力,又有着严格的指令遵循能力,减少大模型幻觉、让用户放心地把大模型用在生产环节里。例如,澎湃新闻就是典型客户,它使用千帆平台的企业级RAG,高效管理成立十年以来、包括2700万篇文档、超过350亿文字的所有媒资信息。企业级Agent增加了业务自主编排、人工编排,也提供了百度搜索等80多个官方组件支持,提高实用性。为了进一步降低应用开发的门槛,提高了开发效率,千帆3.0用大模型升级了爱速搭,实现了基于对话的应用开发,甚至可以一句话创建企业应用。


三星电子是全球智能终端领域的领军企业,百度智能云正在和三星共同探索智能体的前沿应用。三星电子大中华区总裁崔胜植先生分享了三星在智能终端场景的创新和展望:“在中国我们和百度达成战略合作,同步带来了国际领先水平的Galaxy AI本地化功能。除了目前在智能手机上的合作外,未来我们还计划将智能体扩展到智能电视、家电产品上。为用户提供跨设备的无缝体验。相信在不久的将来,智能终端设备将化身为人类的私人助理,成为连接世界的坚固桥梁。”



>>在模型服务层,文心大模型产品不断丰富,模型调用成本也持续降低,比如ERNIE 3.5已经降价了92%,两款主力模型免费供客户使用。客户可以根据场景,合理搭配大小模型,降低试错成本。


>>在模型开发层,千帆3.0除了支持大模型开发,也支持CV、NLP、语音等传统模型的开发,为企业提供一站式的大、小模型开发体验。


千帆不仅提供了便捷高效的开发工具,更重要的是,当模型用起来以后,企业可以把应用中产生的宝贵数据反馈给模型,让模型越用越好,形成“数据飞轮”,从而让企业在该场景下的优势,像雪球一样“越滚越大”。


针对不同行业的特定需求,千帆也发布了行业增强版,并发布了成熟的八大行业解决方案。例如南方电网,作为国内电网的领军企业,就基于千帆平台,开发了行业垂直领域首个自主可控大模型“大瓦特”,推动新型电力系统和新型能源体系建设。南方电网数字电网研究院股份有限公司党委委员、副总经理胡荣表达了美好愿景:“展望未来,南方电网将积极将自身打造成为电力AI数据供给方,AI算力整合方,创新平台运营方、行业模型底座提供方、AI场景建设主导方,并联合百度等生态伙伴持续深化电力与算力技术的融通创新。通过持续的努力与创新,‘电力+算力’新型基础设施将实现安全、稳定、高效、绿色的运行,为推动新型电力系统和新型能源体系建设、加速构建新质生产力、促进数字经济发展贡献南网力量。”



AI原生应用样板间,全新升级、直接使用、轻松集成


好的基础设施和平台,都是为了应用的爆发而生。沈抖认为,“只有亲自走过用户要走的路,才能设计出更懂用户的产品”。因此,百度智能云也基于千帆平台搭建了一些成熟应用,供用户直接使用、轻松集成。大会发布了在大模型支持下全新升级的曦灵数字人平台4.0、百度智能云客悦、以及文心快码。


在全新的曦灵数字人平台4.0上,用户只需要一段文字,就可以生成不同行业特色的3D数字人的形象和视频。不仅解决了2D数字人动作僵硬的问题,在生成效率提升了100%的同时,成本反而仅为原有的1%。


智能云客悦,作为智能客服,不但能够精准地理解用户模糊复杂的需求,还能够支持图片、文字、视频等等多种模态的交流。以智能客服领域最关键的考核指标“问题自助解决率”来看,当前业内平均水平是80%,而升级后的客悦,则将该指标提升到了92%,实现了更聪明、更拟人、更懂用户。


文心快码,聚焦研发全生命周期的业务流,实现了编码开发效率与质量的双提升。而且面向业界首发了两个能力:企业级代码架构解释和企业级代码审查。前者可以在项目接手初期,实现工程架构的智能解读,帮工程师快速理解业务逻辑;后者则可以传承资深工程师的编码经验,智能辅助程序员查缺补漏。同时发布的企业级代码辅助能力,可以确保生成的代码更贴近企业的要求。


联合生态、加速应用,让大模型提升客户的竞争优势


任何产业创新,都离不开生态的力量。百度智能云联合行业里最专业的生态伙伴,做最后一公里的交付、培训和服务,加速产业应用创新,推进大模型在千行百业快速落地。



过去一年,尽管充满不确定性,但也有确定的未来。这就是,大模型正在加速深入生产力场景,成为企业获得竞争优势的关键要素。百度智能云愿和客户、伙伴一起,携手并进,共同探索。让智能,生成无限可能!