AI 摘要
前往原文
测试结果显示,相比前代英伟达Hopper GPU,GB200 NVL72服务器能帮助Cohere在1000亿参数模型的训练实现高达3倍的性能提升,此外,IBM和Mistral AI也已成为CoreWeave GB200云服务的首批用户。
相关资讯
AI 摘要
测试结果显示,相比前代英伟达Hopper GPU,GB200 NVL72服务器能帮助Cohere在1000亿参数模型的训练实现高达3倍的性能提升,此外,IBM和Mistral AI也已成为CoreWeave GB200云服务的首批用户。
AI 摘要
摩根大通预计,鸿海精密将成为英伟达GB200服务器机架(DGX配置)的唯一供应商。这将推动鸿海精密AI服务器业务收入显著增长,到2025年AI服务器收入有望占到鸿海总收入和毛利润的27%,此外iPhone升级周期也将给鸿海带来增长机遇。
AI 摘要
英伟达GB200 AI服务器机架的过热及液冷泄漏等关键技术难题已解决,富士康等合作伙伴确认,GB200机架已于第一季度末开始出货,目前产能正快速爬升。该突破缓解了市场担忧,为周三财报注入信心。
AI 摘要
2023年初,英伟达承诺在四年内向CoreWeave支付13亿美元,租回自己生产的芯片,英伟达由此成为CoreWeave第二大客户,仅次于微软,去年为其贡献了15%的营收。同期,英伟达还向其投资了1亿美元,并优先供应数十万台高端GPU,随着CoreWeave上市,这笔投资的价值将超10亿美元。
AI 摘要
大摩预计,在2024年第四季度,英伟达的Blackwell GPU及相关服务器组件的发货计划不会有变化。GB200服务器机架系统的推出时间可能会推迟约1-2个月至11月,并在2025年第一季度开始批量出货。
AI 摘要
本轮测量推理吞吐量的MLPerf Inference v5.0测试中,CoreWeave、英伟达和IBM使用2496块GB200 Blackwell芯片,构成MLPerf基准测试中规模最大的英伟达GB200 NVL72集群。在基准测试套件中最大、最复杂的Llama 3.1 405B基础模型训练中,该集群仅用27.3分钟就完成整个流程,相比相似规模集群测试提交结果,训练性能提升超过两倍。
AI 摘要
高盛表示,部分AI服务器生产计划将从2025年推迟到2026年。这主要是受到GB200、GB300产品迭代、DeepSeek等影响,导致了不同AI服务器预算的重新分配以及生产基地调整。
AI 摘要
摩根大通认为,散热和高电压等问题在新产品引入过程中较为常见,预计不会对大规模生产计划造成实质性影响,2025年一季度Blackwell 系列GPU将占上游GPU生产的半数以上。
相关榜单
热点推荐
换一批