近几年,人工智能一直都是全球性的技术热点、世界主要国家布局的重点。在2024年,全球AI产业继续呈现快速发展的态势。相关数据显示,无论是AI支出规模,还是在AI算力、AI大模型等关键领域的投入都将创下新高。其中,在AI支出规模方面,2024年全球人工智能相关支出将达到1100多亿美元 ;在AI算力方面,2024年全球AI服务器将超160万台,年成长率达40% ;在AI大模型方面,2024年全球市场规模将突破280亿美元 。

日前,全球通信行业顶级盛会——2024 MWC 上海举办,人工智能再次成为焦点,国内外众多知名的通信运营商和科技巨头齐聚一堂,展示其AI领域的前沿科技。

中兴通讯发布全新一代智算方案

在大会上,作为全球领先的综合通信信息解决方案提供商,中兴通讯发布全栈全场景智算解决方案,涵盖了算力、网络、能力、智力到应用,以全新的智算解决方案为人工智能产业发展注入新活力,引发业内关注。

据悉,在人工智能领域,中兴通讯一直以实力派代表著称。早在2016年,中兴通讯就已经在人工智能领域开始总体规划和研发,并在2018年发布了uSmartNet网络智能化整体解决方案和统一AI平台,构筑了强大的AI基础能力。同时,在AI产业基石——算力领域,中兴通讯的布局由来已久,特别是自2018年以来,服务器和存储产品的需求量持续增长。

此次发布的全栈全场景智算解决方案,在算力上,中兴通讯以全系列服务器、高性能存储、无损网络和绿色数据中心为多样化智算中心构筑强劲引擎。中兴通讯提供的开放智算硬件基座,能够兼容多厂家多型号的CPU和GPU,实现换芯不换座,而且,与国内外AI芯片企业广泛合作,为客户提供多样化的选择,并针对战略合作的产品,做端到端的性能优化,以发挥硬件的极致性能。中兴通讯自研的定海芯片支持RDMA标卡、智能网卡、DPU卡等多种形态,为用户提供高性能、多样化的算力内核和加速硬件。

在网络上,中兴通讯不仅打造了星云智算网络方案以及独创的ENCC端网协同拥塞流控、IGLB智能全局负载均衡等技术,为智算提供高速的算内、算间连接。而且,中兴通讯还与产业伙伴共同建立了开放的GPU互联标准Olink(Openlink)高速总线互联标准,兼容现有RDMA协议,实现服务器内和服务器间统一互联技术。重点推动服务器内通信从点对点全网状互联转向交换互联的转变,从而支持单服务器更多的GPU,提升服务器单机算力密度;在服务器间通过演进大容量交换芯片能力,提供基于标准RoCE v2协议的交换机框盒互联方案,满足超大规模算力的灵活组网需求。

在能力上,中兴通讯为数据中心提供从咨询规划到集成交付的端到端全生命周期服务能力。依托风液融合、弹性配电等节能技术,打造PUE低于1.1、机柜功率密度最高达60kW的新型智算中心,为大规模集群的建设提供了坚实的基础。

在智力上,中兴通讯凭借其泛在内生智能,打造了系列化星云大模型,为千行百业构建了一个稳固而强大的数字底座。

在应用上,中兴通讯还通过自身实践,以滨江智能工厂为样板点,将机器人、数字孪生、AI、工业元宇宙等技术应用于实际生产场景,逐步实现从数字化到智能化到高度柔性自治的未来工厂,在降本增效的同时大幅提升产品质量。

AI大模型领域实力派

特别值得关注的是,在AI竞争的关键领域——AI大模型上,中兴通讯也是绝对的实力派。

今天,AI大模型已成为AI产业最大的热点,它被业内称为“超级大脑”,由于有望实现从感知到认知的跃迁,是通向强人工智能的重要方向之一,也是全球AI产业新的制高点,中国、美国、英国、日本等世界主要国家都在积极推动大模型的布局。

在AI大模型领域,中兴通讯早已围绕Transformer这一核心技术进行布局,并利用大模型技术加速企业数字化转型进程。中兴通讯秉持“先自用、再外溢”的原则,以大模型为中心,赋能研发和运营环节,推动企业从通用向专用的数智化转型。在这一过程中,中兴通讯基于自主研发的基座模型,通过专业团队对领域知识的深入理解,进一步训练出针对特定行业的大模型,从而支持了多样化的应用场景,形成了以“1(基座模型)+N(领域大模型)+X(应用场景)”为核心的大模型发展策略。

如今,中兴通讯大模型已经在实际应用中发挥作用。如,代码大模型已经在公司研发发挥重要作用,编码效率提升30%;通信大模型结合数字孪生和大小模型协同,在网络保障、跨域问题闭环、问题感知处理、加密短视频感知评估、智能反诈等领域已经落地实践。

相信面对全球AI产业加速发展的浪潮,中兴通讯等头部科技企业在AI领域的持续创新,不仅带来科技企业竞争力的大幅提升,也将助力中国AI产业继续位居前列!

友情提示

本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!

联系邮箱:1042463605@qq.com