主题: 计算成本低于DeepSeek?蚂蚁集团回应自研大模型用国产AI芯片训练
2025-03-24 19:38:36          
功能: [发表文章] [回复] [快速回复] [进入实时在线交流平台 #1
 
 
头衔:金融岛总管理员
昵称:花脸
发帖数:70830
回帖数:2174
可用积分数:17637161
注册日期:2011-01-06
最后登陆:2025-07-09
主题:计算成本低于DeepSeek?蚂蚁集团回应自研大模型用国产AI芯片训练


2025年03月24日 16:58 来源: 界面新闻
  3月24日,针对媒体对蚂蚁百灵大模型训练成本的报道,蚂蚁集团方面回应界面新闻称,蚂蚁针对不同芯片持续调优,以降低AI应用成本,目前取得了一定的进展,也会逐步通过开源分享。

  此前有报道称,蚂蚁集团正使用中国制造的半导体来开发AI模型训练技术,这将使成本降低20%。知情人士称,蚂蚁集团使用了包括来自阿里巴巴和华为的芯片,采用混合专家(MoE)机器学习方式来训练模型。他们表示,蚂蚁集团获得了与采用英伟达H800等芯片训练相似的结果。

  其中一位知情人士称,蚂蚁集团仍在使用英伟达的产品进行人工智能开发,但目前其最新模型主要依赖于包括AMD产品和中国芯片在内的替代产品。

  另据钛媒体报道,近日,蚂蚁集团CTO、平台技术事业群总裁何征宇带领Ling Team团队,利用AI Infra技术,开发了两个百灵系列开源MoE模型Ling-Lite 和 Ling-Plus,前者参数规模168亿,Plus基座模型参数规模高达2900亿,相比之下,AI行业估计GPT-4.5参数量1.8万亿,DeepSeek-R1参数规模达6710亿。

  该技术成果论文《每一个FLOP都至关重要:无需高级GPU即可扩展3000亿参数混合专家LING大模型》已在预印版Arxiv平台上发表。

  除了自研性能领先的大模型以外,该技术论文最大的突破在于提出了一系列创新方法,以提升资源受限环境下AI开发的效率与可及性。实验表明,其3000亿参数的MoE大模型可在使用国产GPU的低性能设备上完成高效训练,性能与完全使用英伟达芯片、同规模的稠密模型及MoE模型相当。

  作为国内较早布局AI大模型的厂商,蚂蚁自研的百灵大模型2023年已通过备案,重点布局在生活服务、金融服务、医疗健康等场景的应用。

【免责声明】上海大牛网络科技有限公司仅合法经营金融岛网络平台,从未开展任何咨询、委托理财业务。任何人的文章、言论仅代表其本人观点,与金融岛无关。金融岛对任何陈述、观点、判断保持中立,不对其准确性、可靠性或完整性提供任何明确或暗示的保证。股市有风险,请读者仅作参考,并请自行承担相应责任。
 

结构注释

 
 提示:可按 Ctrl + 回车键(ENTER) 快速提交
当前 1/1 页: 1 上一页 下一页 [最后一页]