Meta震撼开源Llama 4:千亿参数+1000万超长上下文,单卡即可运行!

今天早上 Meta 出人意料地宣布了 Llama 4 的开源发布,引起了 AI 社区的广泛关注。这是 Meta 在开源 AI 模型领域的又一重大突破,为开发者带来了令人兴奋的新功能。

 

Llama 4 模型系列令人印象深刻的特点是其超长的上下文窗口,能够处理高达 1000 万 token,这使得它可以分析和理解大量的文本内容。此外,它还首次原生支持多模态功能,可以直接处理文本、图像、视频和音频,无需额外的插件或扩展。

 

在架构方面,Llama 4 引入了混合专家(MoE)技术,这种设计将模型分成多个专业子模块,大幅提高了推理效率。据报道,这使得处理速度提升了约 3 倍。Meta 推出了几个不同规模的版本:Scout 版拥有 17 亿活跃参数和 16 个专家模块,总计约 1090 亿参数;Maverick 版同样有 17 亿活跃参数,但包含 128 个专家模块,总参数量达到惊人的 4000 亿;还有一个仍在训练中的 Behemoth 版本,据说将拥有 2880 亿活跃参数和高达 2 万亿的总参数量。

 

性能方面,Llama 4 在评测平台上表现出色,特别是 Maverick 版本在 lmarena.ai 上获得了 1417 分的高分,超过了许多闭源商业模型。更令人惊讶的是,Scout 版本可以在单张 H100 GPU 上运行,处理成本大幅降低,每百万 token 仅需 0.19 美元。

 

Meta 已经在 Hugging Face 上发布了模型,开发者可以通过官方博客和 Hugging Face 集合页面获取更多信息和访问模型。

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索