AI 摘要
前往原文
分析指出,相比传统的堆砌计算能力和数据的训练方法,被称为“测试时计算”(Test-time Compute)的新方法更有助于提高AI模型的预测能力,这种方法能够让AI模型在回答问题前,有更多时间和计算资源进行“思考”。专家指出,如果测试时计算成为扩展AI系统的下一步,对专注于高速推理的AI芯片的需求可能会大幅增加。
相关资讯
AI 摘要
分析指出,相比传统的堆砌计算能力和数据的训练方法,被称为“测试时计算”(Test-time Compute)的新方法更有助于提高AI模型的预测能力,这种方法能够让AI模型在回答问题前,有更多时间和计算资源进行“思考”。专家指出,如果测试时计算成为扩展AI系统的下一步,对专注于高速推理的AI芯片的需求可能会大幅增加。
AI 摘要
Kevin Scott表示,过去20年里,人工智能领域最重要的进步都与“规模”有关;OpenAI的潜力在于未来可能成为构建AI平台的基础;数据的质量比数量更重要。
AI 摘要
天风宏观认为,从长远看,不管中国企业出海的动机是主动还是被动,最后都汇集到了国际化这条必经之路上。它们通过出海变成了一张更大的网,把产业链、供应链、利益链分散了到更多国家和地区,这也是中国的scaling law。
AI 摘要
大模型的问题不是 Scaling Law 失效,而是缺少足够多的数据。
0W
·
·
·
2024年12月13日
·
AI 摘要
"如果把参数规模扩大x倍,模型能力就会得到y倍的提升" ——这条支撑着AI领域几年狂飙突进的Scaling Law,似乎正在走向尽头。 从GPT-3到GPT-4,从BERT到PaLM,AI的进化史几乎就是一部算力竞赛史。但最近的发展却给这个故事带来了转折:Claude 3在维持3.2B上下文的同时显著压缩了参数规模;Anthropic的研究人员公开表示"更大的模型未必更好";DeepMind在近期论文中更是直指Scaling Law在逼......
热度累计中
·
·
·
2025年1月10日
·
AI 摘要
目前可以提高模型效果的Scaling方法,按照性价比由高到低排序的话:Test time Scaling Law RL Scaling Law预训练阶段Scaling Law。如果哪天RL Scaling Law和Test Time Scaling Law到了天花板,又没有找到新的性价比更合算的Scaling Law,仍然可以回归预训练阶段的Scaling Law。
相关榜单
热点推荐
换一批