0W
·
·
·
2024/07/29 16:52:08
·
AI 摘要
前往原文
扎克伯格:期待 Llama 3.1 成为「老师」,用来微调小模型。
相关资讯
AI 摘要
扎克伯格:期待 Llama 3.1 成为「老师」,用来微调小模型。
0W
·
·
·
2024年7月29日
·
AI 摘要
本次共发布三款Llama 3.1模型,其中Llama 3.1 405B包含4050亿个参数,这是Meta迄今为止最大的模型。扎克伯格称Llama 3.1为“艺术的起点”,将对标OpenAI和谷歌公司的大模型。同时,Meta和英伟达实现强强联手,英伟达AI Foundry将为全球企业提供Llama 3.1模型的定制服务。
AI 摘要
IT之家 7 月 23 日消息,网友在 LocalLLaMA 子 Reddit 板块中发帖,分享了 4050 亿参数的 Meta Llama 3.1 信息,从该 AI 模型在几个关键 AI 基准测试的结果来看,其性能超越目前的领先者(OpenAI 的 GPT-4o)。 这是开源人工智能社区的一个重要里程碑,标志着开源模型可能首次击败目前最先进的闭源 LLM 模型。 如基准测试所示,Meta Llama 3.1 在 GSM8K、Hella......
42万热度
·
·
·
2024年7月24日
·
AI 摘要
Llama 3.1-405B版本性能极强、参数巨大,普通的GPU无法带动,因此个人开发者可能无法担负。有网友“泼冷水”,认为该模型推理成本提升了3倍,但编码的性能却要差很多。
相关榜单
热点推荐
换一批