算力网:A股2024关键词

新闻资讯2023-12-28 08:22:28橙橘网

算力网:A股2024关键词

本文系基于公开资料撰写,仅作为信息交流之用,不构成任何投资建议。

12月26日,国家发改委、国家数据局等五部门联合印发《深入实施“东数西算”工程,加快构建全国一体化算力网的实施意见》。

《实施意见》一方面明确了全国一体化算力网的基建地位,并指明到2025年底综合算力基础设施体系需要初步形成,另一方面,意见提出了具体的量化指标,再次强化了国家队的地位,并重点提及能耗管控、传输成本管控和安全性问题。

国盛证券表示,未来全国算力网的建设将形成以国家队为主的核心力量。

年内算力催化轮番发布

稍早前10月28日,国家超算互联网核心节点在河南郑州正式启动建设。

国盛证券表示,随着超算中心部署加快,运维调优越发重要,尤其大模型训练需要规模化并发计算效能。同时,基于算网大脑,进行全网算力资源的智能编排、弹性调度,让算力像水、电一样流动,供有需要的企业按需取用,达到算力调度的理想状况。

除此之外,年内还有多条算力催化。

4月17日,科技部高新司在天津组织召开国家超算互联网工作启动会。会上,科技部高新技术司负责同志表示,科技部将通过超算互联网建设,打造国家算力底座,促进超算算力的一体化运营,助力科技创新和经济社会高质量发展。

11月7日,上海市经济和信息化委员会等多部门近日发布关于印发《上海市推动人工智能大模型创新发展若干措施(2023-2025年)》的通知,将实施大模型智能算力加速计划,打造市级智能算力统筹调度平台,构建规模化先进算力调度和供给能力。

12月16日,中国算力网(西部)调度平台发布,中国算力网西部运营中心正式成立。20日,第二届算力网络与数字经济发展论坛上,“上海算力交易平台2.0”正式发布,12家企业现场被授牌接入平台节点。

国内超算云服务市场规模或达700亿

浙商证券复盘了超算、通用算力的发展历史,认为国产AI算力有望复刻发展历程,从“可用”迈向“好用”,并且在当前国际局势下,AI算力国产化进程有望加速,具体看2024年将为“客户初选适配年”,2025年将为“客户主动采购年”,2026年国产AI芯片有望成为主导。

通用算力方面,预计2024年国产服务器CPU市场规模有望达到198亿,2027年有望达到333亿;2024年国产服务器市场规模有望达到594亿,2027年有望达到1000亿(24-27年CAGR+19%);

超算方面,我国超算CPU已在8年前受限并开启了自强之路,预计2021-2025年CAGR为24.1%,2025年中国超算服务市场规模将达到466亿元,为了促进国产超算算力的上架率,2023年科技部启动了超算互联网建设工作,预计中国超算云服务市场规模远期有望达到700亿,其中630亿为企业主导,未来商用企业市场潜力巨大。

其还指出,美国从2022年开始针对我国高端AI芯片生产制造、人员、供应等多环节持续加码,我国算力新基建等支持政策不断推出,预计2024年国内AI算力总需求有望达到211.50EFlops,其中国产算力需求为98.24EFlops,国产化比例为46.45%,对应需要昇腾910为30.70万张,市场规模307亿,AI服务器3.84万台,市场规模409.33亿。


华为算力或成最大看点?

浙商证券认为,华为或成为英伟达后的算力第二级。

GPU方面,昇腾处理器是全球首个覆盖全场景AI芯片,基于统一的达芬奇架构,可以支持端边云不同场景的差异化算力需求,并具备从几十毫瓦IP到几百瓦芯片的平滑扩展,覆盖了端边云全场景部署的能力。

据悉,昇腾910集成了CPU Core、DVPP和任务调度器(Task Scheduler),可以减少和Host CPU的交互,充分发挥其高算力的优势;还集成了HCCS、PCle 4.0和ROCE v2接口,为构建横向扩展(Scale Out)和纵向扩展(Scale Up)系统提供了灵活高效的方法,单颗昇腾910可以独立完成整个AI的训练流程,最小化与Host的交互,从而充分发挥其算力。

科大讯飞创始人、董事长刘庆峰表示华为的GPU能力可以对标英伟达A100。


同时,浙商证券也指出,目前昇腾迭代的瓶颈在于生态,以英伟达CUDA为核心的AI算力生态是当今世界大模型的主流。

10月18日华为作为Premier最高级别会员正式加入全球AI开源框架PyTorch社区,PyTorch 2.1版本已同步支持昇腾NPU,开发者可直接在PyTorch 2.1上基于昇腾进行模型开发,基于PyTorch,昇腾已经适配了BLOOM、GPT-3、LLaMA等业界主流大模型,深度优化后性能可持平业界。

浙商证券预计,未来昇腾迭代速度有望加快,并复刻鲲鹏计算生态发展历程,在各行业遍地开花。(作者:王帅,华尔街见闻)


相关推荐

猜你喜欢

大家正在看