HASH GAME - Online Skill Game GET 300

她指出,纵观大模型进化之路,呈现一个非常清晰的底层脉络:ChatGPT引发产业“大模型是变革性技术”的普遍共识,Llama2开源加速生态繁荣,此后是向多模态和推理扩展,DeepSeek推动智能普惠。今年则是智能体和具身智能加速数实融合。崔丽表示,如此高速迭代,正证明了大模型依然处于发展初期,更需要深耕夯实根基,敏捷应对变化。同时,由于AGI定义的宽泛,大家也相对认可ASI将是终极王座,而高效、稳定且目标可控的自我进化机制,将是通往超级智能的关键挑战。
基础设施决定上层智能。在算力层面,中兴通讯推出涵盖超节点、系列化智算服务器/通算服务器/高性能存储及智算一体机等全栈全域智算解决方案,精准契合不同场景下的建设需求。在网络层面,支持多种开放标准的高速无损互联,以网强算,持续提升智算中心性能与效率;同时,AI时代流量的趋势变化也会驱动网络架构演进。例如上行流量占比提升、东西向流量增速高于南北向等,无论是5G-A还是全光网,都将为云边端协同和泛在智能体互联奠定基础。在能源层面,基于模块化、预制化理念,中兴通讯提供液冷整机柜、智算微模块等多形态产品,弹性适配不同算力规模需求,打造高效、绿色、安全的能源基座。
智力普惠层面,中兴通讯支持软硬解耦、模型解耦和训推解耦,聚焦工程能力工具化,提升AI生产效率并提高易用性:智算资源管理平台支持分布式异构及秒级弹性容错,同时实现能耗、算效、服务质量感知的作业调度;导航式训推加速平台全面适配200+模型,支持软硬件深度协同优化,支持模型构建、部署和应用等全生命周期优化加速,一键部署,无感迁移;应用开发服务平台涵盖多个产品包,分别支持高质量数据合成、一键快速精调、知识图谱智能生成和隐性知识挖掘、智能体分钟级构建和自主工具进化。
崔丽重点分享了中兴通讯在AI领域的创新实践。她着重介绍了公司在软硬协同与深度优化方面的成果,并以中兴通讯的训推加速平台AI Booster为例展开说明:围绕训前压测、训中优化和训后复盘进行全流程工程优化,支撑月度长稳训练;针对推理框架实施多维优化,通过PD分离、KV Pool、算子融合等,提升推理吞吐量3-10倍;构建一站式迁移工具,提供模型压缩、精度对齐和性能优化,支持模型在不同硬件及软件生态迁移,实现1-5天可用,15天好用。现场展示的图表佐证了这些成效:左侧图显示某合作GPU单机和集群优化后,推理性能显著提升;右侧图则展示了中兴通讯将代码大模型自NV迁移到BR的实例。
应用开发服务方面,崔丽重点介绍了公司已经开源的Co-Sight智能体工厂。她指出,结合深度思考和反思,以及DAG(Directed Acyclic Graph)和COA(Chain of Agents)规划协同,实现推理能力跃迁,增强脑力,同时通过信息密度聚焦、工具封装等,支持分钟级智能体构建。在近期的权威测评中,Co-Sight获GAIA(General AI Assistants)开源框架榜首,以及HLE(Hunmanity’s Last Exam)智能体榜首。崔丽同时强调,公司不以打榜为目标,而是更加专注产品化和实效。
近三年时间,中兴通讯三万多研发人员使用Nebula coder研发大模型,对比去年,Token数翻了四倍,编码效率、测试效率和整体研发效率也在持续攀升,模型获得SuperCLUE推理模型金牌;通信大模型从去年以ChatBot为主的八个智能体应用,已经扩展至Agentic AI的20个助手和21个专家,通过图谱检索、强推理、MCP-T等创新,并结合数字孪生,进一步提升专业性、准确性和自主性;工业大模型在南京滨江等智能工厂持续迭代和扩展,正在从单向响应、静态适配和人工干预的仿生体,向强交互、自主适应、自主进化的智能体演进。中兴通讯代码大模型Nebula-coder以及终端大模型Nebula-GUI也分别获得SuperCLUE的推理模型金牌和GUI Agent金牌。







