3 月 31 日,在联想集团 2025/2026 财年誓师大会上,联想集团首席技术官 Tolga Kurtoglu 表示,未来以用户为中心的 AI 不会局限于单一模型、芯片、设备或者形态,而是多种模型和多种智能体的协作。联想新建模型工厂,能够把新模型部署时间从几个月缩短到几周。基于模型工厂快速模型部署、模型编排技术、智能体开发框架,联想就拥有了交付超级 AI 智能体的能力。
尽管 AI 应用的颠覆性变革正在发生,但当前所经历的并非真正能为用户创造价值的成熟 AI 应用,而是一系列快速迭代的技术演示。要释放 AI 的潜力,必须将技术能力转化为以用户为中心的 AI 解决方案,打造联想的差异化优势。
Tolga 对联想技术路线进行了详细的拆解:首先,必须利用一流的模型,为联想的用户快速提供服务。模型开发者正在以前所未有的速度不断推出性能更高的新模型。但是,为联想的生态系统优化几十亿,有时甚至几万亿个参数是一个复杂的过程,可能需要耗费几个月的时间。通过联想新建的模型工厂,联想能够把部署时间从几个月缩短到几周。这支专门的全球工程师团队将快速完成常见的模型优化任务,并将优化后的模型交付给不同的研发团队,确保联想新模型部署的速度领先业界。当联想的模型工厂建成后,联想的 AI 生态体系将成为获取最新模型成果的最佳途径。
其次,必须通过模型编排,为联想的用户实现模型选择的自动化。一个高效的模型编排器,在接收到一项用户查询或任务后,会将其进行拆解,然后调用最适合完成这项任务的那些模型,无论这些模型是位于设备端、服务器,还是在公有云上。以 “联想小天” 为例,当前,一项查询什么时候需要保持私密状态、何时可以公开,都需要用户来判断。但有了模型编排器,端侧设备上的 AI 智能体能够做出这种区分。它会将查询发送到符合特定需求的模型网络中,无论查询是关于复杂的企业编码任务,还是午餐吃什么。在边缘设备上部署复杂的模型编排时,联想会把 AI 智能体无缝连接到用户最需要的公有模型和私有模型上。这样,用户能够掌握的信息将实现指数级增长,同时用户体验也得到了简化。
这些能力共同通过联想智能体开发框架,实现 AI 智能体的加速部署。当联想能够为用户提供最佳的模型,以及拥有无需用户介入就能让模型运行的编排技术,联想就可以将各种各样的模型以及模型网络,与高价值任务相连接,从而创建任何 AI 智能体所需的基础构件,其中包括通用基础构件,也就是每个智能体或多个智能体所需的核心智能体能力,比如安全,从这些模型编排能力、自我学习能力、多智能体协作和任务管理能力等,此外还包括专用基础构件,也就是那些为特定人群、特定企业或特定任务定制智能体而额外需要增加的能力。联想的研发团队无需每次都从零开始,而是可以直接使用这些 AI 智能体基础构件框架。他们可以将这些构件进行连接、调整,并能够在此基础上,打造满足任何客户需求的任何智能体。
基于模型工厂快速的模型部署、领先业界的模型编排技术,还有一个智能体开发框架,有了这些技术,联想就拥有了向用户交付超级 AI 智能体的能力。很快,这些超级智能体不仅能够在用户的 AI 设备生态系统中贴身服务用户,还能够代表用户管理、指挥其他 AI 智能体,而每个智能体都专注于自己的任务,都拥有属于自己的模型网络。这就是联想所规划的混合人工智能未来愿景。
[此处可插入一张联想集团 2025/26 财年誓师大会的现场图片,图片中突出 Tolga Kurtoglu 讲话的场景,或者插入一张联想 “模型工厂” 概念图(如果有相关概念图的话),以增加文章的直观性]
还没有评论,来说两句吧...