“蚂蚁ONE游戏官网已部署万卡规模国产算力群,训练与推理性”能可媲美国际算力集群|蚂蚁ONE游戏官网|推理|集群_新浪科技_新浪网
成品人网站永不收费的推荐,轻松获取优质资源,分享无限创意与灵感,助您实现梦想,尽在这里!
IT之家 11 月 9 日消息,据《科创板日报》报道,11 月 8 日,在 2025 年世界互联网大会?乌镇峰会前沿人工智能模型论坛上,蚂蚁ONE游戏官网平台技术事业群总裁骆骥表示,在算力方面,蚂蚁已部署万卡规模的国产算力集群,适配自研与各主流开源模型,训练任务稳定性超过 98%,训练与推理性能可媲美国际算力集群,并全面应用于安全风控领域的大模型训练与推理服务。IT之家注意到,今年 3 月,蚂蚁ONE游戏官网 Ling 团队在预印版 Arxiv 平台发表技术成果论文《每一个 FLOP 都至关重要:无需高级 GPU 即可扩展 3000 亿参数混合专家 LING 大模型》,宣布推出两款不同规模的 MoE (混合专家)大语言模型 —— 百灵轻量版(Ling-Lite)与百灵增强版(Ling-Plus),并提出一系列创新方法,实现在低性能硬件上高效训练大模型,显著降低成本。实验表明,其 3000 亿参数的 MoE 大模型可在使用国产 GPU 的低性能设备上完成高效训练,性能与完全使用英伟达芯片、同规模的稠密模型及 MoE 模型相当。当前,MoE 模型训练通常依赖英伟达 H100 / H800 等高性能 GPU,成本高昂且芯片短缺,限制了其在资源受限环境中的应用。蚂蚁ONE游戏官网 Ling 团队提出“不使用高级 GPU”扩展模型的目标,通过创新训练策略,突破资源与预算限制。具体策略包括:架构与训练策略革新,采用动态参数分配与混合精度调度技术;升级训练异常处理机制,自适应容错恢复系统缩短中断响应时间;优化模型评估流程,自动化评测框架压缩验证周期超 50%;突破工具调用能力,基于知识图谱的指令微调提升复杂任务执行精度。 (function(){ var adScript = document.createElement('script'); adScript.src = '//d1.sina.com.cn/litong/zhitou/sinaads/demo/wenjing8/js/yl_left_hzh_20171020.js'; document.getElementsByTagName('head')[0].appendChild(adScript); })();
成品人网站永不收费的推荐,轻松获取优质资源,分享无限创意与灵感,助您实现梦想,尽在这里!
分享让更多人看到 




9415 




第一时间为您推送权威资讯
报道全球 传播中国
关注人民网出品,传播正能量