AI 摘要
前往原文
Llama 3.1-405B版本性能极强、参数巨大,普通的GPU无法带动,因此个人开发者可能无法担负。有网友“泼冷水”,认为该模型推理成本提升了3倍,但编码的性能却要差很多。
相关资讯
AI 摘要
Llama 3.1-405B版本性能极强、参数巨大,普通的GPU无法带动,因此个人开发者可能无法担负。有网友“泼冷水”,认为该模型推理成本提升了3倍,但编码的性能却要差很多。
AI 摘要
IT之家 7 月 23 日消息,网友在 LocalLLaMA 子 Reddit 板块中发帖,分享了 4050 亿参数的 Meta Llama 3.1 信息,从该 AI 模型在几个关键 AI 基准测试的结果来看,其性能超越目前的领先者(OpenAI 的 GPT-4o)。 这是开源人工智能社区的一个重要里程碑,标志着开源模型可能首次击败目前最先进的闭源 LLM 模型。 如基准测试所示,Meta Llama 3.1 在 GSM8K、Hella......
42万热度
·
·
·
2024年10月24日
·
AI 摘要
阿里推出了基础模型Qwen2.5、专用于编码Qwen2.5-Coder和数学的Qwen2.5-Math,三大类模型共有10多个版本,Qwen2.5在多个基准测试中击败了Llama-3.1指令微调模型,该系列预训练数据大幅度增长达18万亿tokens。
AI 摘要
分析认为,Llama 3 405B不仅仅是人工智能能力的又一次提升,对于开源 AI 来说,“这是一个潜在的 ChatGPT 时刻”。在基准测试中,Meta Llama 3.1 在GSM8K、Hellaswag等多项测试中均优于 GPT-4o。
AI 摘要
Joe表示,Llama 3.1 405B 真正关注的是推动规模化(它使用16000个GPU在15万亿个token上进行训练),他对它将实现的零样本工具使用以及它在提炼和生成合成数据以教授较小模型方面的作用感到兴奋。
AI 摘要
Mistral Large 2拥有1230亿参数。在多个基准测试中(特别是在代码生成和数学领域),表现优异,甚至与Llama 3.1 4050亿参数相媲美。像Mistral NeMo一样,它经过大量源代码和多语言数据的训练,提供高级函数调用功能。
AI 摘要
本次共发布三款Llama 3.1模型,其中Llama 3.1 405B包含4050亿个参数,这是Meta迄今为止最大的模型。扎克伯格称Llama 3.1为“艺术的起点”,将对标OpenAI和谷歌公司的大模型。同时,Meta和英伟达实现强强联手,英伟达AI Foundry将为全球企业提供Llama 3.1模型的定制服务。
相关榜单
热点推荐
换一批