AI 摘要
前往原文
阿里推出了基础模型Qwen2.5、专用于编码Qwen2.5-Coder和数学的Qwen2.5-Math,三大类模型共有10多个版本,Qwen2.5在多个基准测试中击败了Llama-3.1指令微调模型,该系列预训练数据大幅度增长达18万亿tokens。
相关资讯
AI 摘要
阿里推出了基础模型Qwen2.5、专用于编码Qwen2.5-Coder和数学的Qwen2.5-Math,三大类模型共有10多个版本,Qwen2.5在多个基准测试中击败了Llama-3.1指令微调模型,该系列预训练数据大幅度增长达18万亿tokens。
AI 摘要
Llama 3.1-405B版本性能极强、参数巨大,普通的GPU无法带动,因此个人开发者可能无法担负。有网友“泼冷水”,认为该模型推理成本提升了3倍,但编码的性能却要差很多。
AI 摘要
IT之家 7 月 23 日消息,网友在 LocalLLaMA 子 Reddit 板块中发帖,分享了 4050 亿参数的 Meta Llama 3.1 信息,从该 AI 模型在几个关键 AI 基准测试的结果来看,其性能超越目前的领先者(OpenAI 的 GPT-4o)。 这是开源人工智能社区的一个重要里程碑,标志着开源模型可能首次击败目前最先进的闭源 LLM 模型。 如基准测试所示,Meta Llama 3.1 在 GSM8K、Hella......
42万热度
·
·
·
2024年10月24日
·
AI 摘要
分析认为,Llama 3 405B不仅仅是人工智能能力的又一次提升,对于开源 AI 来说,“这是一个潜在的 ChatGPT 时刻”。在基准测试中,Meta Llama 3.1 在GSM8K、Hellaswag等多项测试中均优于 GPT-4o。
AI 摘要
Nemotron击败了GPT-4o等140多个开闭源模型,仅次于OpenAI的最新模型o1。英伟达采用混合训练方法,把Nemotron的训练数据集也开源了,还在RewardBench评测中达94.1分,超过了同期几乎所有其他模型的表现。
相关榜单
热点推荐
换一批