非Transformer架构站起来了!首个纯无注意力大模型,超越开源巨头Llama 3.1


Mamba 架构的大模型又一次向 Transformer 发起了挑战。

Mamba 架构模型这次终于要「站」起来了?自 2025 年 12 月首次推出以来,Mamba 便成为了 Transformer 的强有力竞争对手。

此后,采用 Mamba 架构的模型不断出现,比如 Mistral 发布的首个基于 Mamba 架构的开源大模型 Codestral 7B。

今天,阿布扎比技术创新研究所(TII)发布了一个新的开源 Mamba 模型 ——Falcon Mamba 7B

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

非transformer架构站起来了!首个纯无注意力大模型,超越开源巨头llama 3.1

先来总结一波 Falcon Mamba 7B 的亮点:无需增加内存存储,就可以处理任意长度的序列,并且能够在单个 24GB A10 GPU 上运行。

目前可以在 Hugging Face 上查看并使用 Falcon Mamba 7B,这个仅用因果解码器的模型采用了新颖的 Mamba 状态空间语言模型(State Space Language Model, SSLM)架构来处理各种文本生成任务。

从结果来看,Falcon Mamba 7B 在一些基准上超越同尺寸级别的领先模型,包括 Meta 的 Llama 3 8B、Llama 3.1 8B 和 Mistral 7B。

非Transformer架构站起来了!首个纯无注意力大模型,超越开源巨头Llama 3.1

Falcon Mamba 7B 分为四个变体模型,分别是基础版本、指令微调版本、4bit 版本和指令微调 4bit 版本。

非Transformer架构站起来了!首个纯无注意力大模型,超越开源巨头Llama 3.1

作为一个开源模型, Falcon Mamba 7B 采用了基于 Apache 2.0 的许可证「Falcon License 2.0」,支持研究和应用目的。

非Transformer架构站起来了!首个纯无注意力大模型,超越开源巨头Llama 3.1

Hugging Face 地址:https://huggingface.co/tiiuae/falcon-mamba-7b

Falcon Mamba 7B 也成为了继 Falcon 180B、Falcon 40B 和 Falcon 2 之后,TII 开源的第四个模型,并且是首个 Mamba SSLM 架构模型

非Transformer架构站起来了!首个纯无注意力大模型,超越开源巨头Llama 3.1

首个通用的大型纯 Mamba 模型

一直以来,基于 Transformer 的模型一直占据着生成式 AI 的统治地位,然而,研究人员注意到,Transformer 架构在处理较长的文本信息时可能会遇到困难。

本质上,Transformer 中的注意力机制通过将每个单词(或 token)与文本中的每个单词进行比较来理解上下文,它需要更多的计算能力和内存需求来处理不断增长的上下文窗口。

但是如果不相应地扩展计算资源,模型推理速度就会变慢,超过一定长度的文本就没法处理了。为了克服这些障碍,状态空间语言模型 (SSLM) 架构应运而生,该架构通过在处理单词时不断更新状态来工作,已成为一种有前途的替代方案,包括 TII 在内的很多机构都在部署这种架构。

Falcon Mamba 7B 采用了卡内基梅隆大学和普林斯顿大学研究人员最初在 2025 年 12 月的一篇论文中提出的 Mamba SSM 架构。

该架构使用一种选择机制,允许模型根据输入动态调整其参数。这样,模型可以关注或忽略特定输入,类似于注意力机制在 Transformer 中的工作方式,同时提供处理长文本序列(例如整本书)的能力,而无需额外的内存或计算资源。

TII 指出,该方法使模型适用于企业级机器翻译、文本摘要、计算机视觉和音频处理任务以及估计和预测等任务。

训练数据

Falcon Mamba 7B 训练数据高达 5500GT ,主要由 RefinedWeb 数据集组成,并添加了来自公共源的高质量技术数据、代码数据和数学数据。所有数据通过 Falcon-7B/11B 标记器进行 tokenized 操作。

与其他 Falcon 系列模型类似,Falcon Mamba 7B 采用多阶段训练策略进行训练,上下文长度从 2048 增加到了 8192。此外,受到课程学习概念的启发,TII 在整个训练阶段精心选择了混合数据,充分考虑了数据的多样性和复杂性。

在最后的训练阶段,TII 使用了一小部分高质量精选数据(即来自 Fineweb-edu 的样本),以进一步提升性能。

训练过程、超参数

Falcon Mamba 7B 的大部分训练是在 256 个 H100 80GB GPU 上完成的,采用了 3D 并行(TP=1、PP=1、DP=256)与 ZeRO 相结合的策略。下图为模型超参数细节,包括精度、优化器、最大学习率、权重衰减和 batch 大小。

非Transformer架构站起来了!首个纯无注意力大模型,超越开源巨头Llama 3.1

Remover Remover

几秒钟去除图中不需要的元素

Remover 304 查看详情 Remover
具体而言,Falcon Mamba 7B 经过了 AdamW 优化器、WSD(预热 - 稳定 - 衰减)学习率计划的训练, 并且在前 50 GT 的训练过程中,batch 大小从 b_min=128 增加到了 b_max=2048。

在稳定阶段,TII 使用了最大学习率 η_max=6.4×10^−4,然后使用超过 500GT 的指数计划将其衰减到最小值非Transformer架构站起来了!首个纯无注意力大模型,超越开源巨头Llama 3.1。同时,TII 在加速阶段采用了 BatchScaling 以重新调整学习率 η,使得 Adam 噪声温度非Transformer架构站起来了!首个纯无注意力大模型,超越开源巨头Llama 3.1保持恒定。

整个模型训练花费了大约两个月时间

模型评估

为了了解 Falcon Mamba 7B 与同尺寸级别领先的 Transformer 模型相比如何,该研究进行了一项测试,以确定使用单个 24GB A10GPU 时模型可以处理的最大上下文长度。

结果显示,Falcon Mamba 能够比当前的 Transformer 模型适应更大的序列,同时理论上能够适应无限的上下文长度。 

非Transformer架构站起来了!首个纯无注意力大模型,超越开源巨头Llama 3.1

接下来,研究者使用批处理大小为 1 ,硬件采用 H100 GPU 的设置中测量模型生成吞吐量。结果如下图所示,Falcon Mamba 以恒定的吞吐量生成所有 token,并且 CUDA 峰值内存没有任何增加。对于 Transformer 模型,峰值内存会增加,生成速度会随着生成的 token 数量的增加而减慢。

非Transformer架构站起来了!首个纯无注意力大模型,超越开源巨头Llama 3.1

即使在标准的行业基准测试中,新模型的性能也优于或接近于流行的 transformer 模型以及纯状态空间模型和混合状态空间模型。

例如,在 Arc、TruthfulQA 和 GSM8K 基准测试中,Falcon Mamba 7B 的得分分别为 62.03%,53.42% 和 52.54%,超过了 Llama 3 8 B, Llama 3.1 8B, Gemma 7B 和 Mistral 7B。然而,在 MMLU 和 Hellaswag 基准测试中,Falcon Mamba 7B 远远落后于这些模型。

非Transformer架构站起来了!首个纯无注意力大模型,超越开源巨头Llama 3.1

非Transformer架构站起来了!首个纯无注意力大模型,超越开源巨头Llama 3.1

TII 首席研究员 Hakim Hacid 在一份声明中表示:Falcon Mamba 7B 的发布代表着该机构向前迈出的重大一步,它激发了新的观点,并进一步推动了对智能系统的探索。在 TII,他们正在突破 SSLM 和 transformer 模型的界限,以激发生成式 AI 的进一步创新。

目前,TII 的 Falcon 系列语言模型下载量已超过 4500 万次 —— 成为阿联酋最成功的 LLM 版本之一。

Falcon Mamba 7B 论文即将放出,大家可以等一等。

参考链接:
https://huggingface.co/blog/falconmamba
https://venturebeat.com/ai/falcon-mamba-7bs-powerful-new-ai-architecture-offers-alternative-to-transformer-models/

以上就是非Transformer架构站起来了!首个纯无注意力大模型,超越开源巨头Llama 3.1的详细内容,更多请关注其它相关文章!


# mamba  # 产业  # 力大  # 站起  # 首个  # 开源  # 来了  # type  # follow  # llama  # hugging face  # apache  # 网站seo推广方案怎么写的好  # 阿布扎比  # 怎么筛查关键词优化排名  # 灌云短视频seo  # 江北seo关键词  # 湘潭营销推广服务公司  # 微商群营销推广文案模板  # 中国对外战略关键词排名  # spam和seo的区别  # 一键  # 普林斯顿  # 高质量  # 采用了  # 汽车营销怎么引流推广  # 怎么去做全网营销推广 


相关栏目: 【 Google疑问12 】 【 Facebook疑问10 】 【 优化推广96088 】 【 技术知识133117 】 【 IDC资讯59369 】 【 网络运营7196 】 【 IT资讯61894


相关推荐: 时间、空间可控的视频生成走进现实,阿里大模型新作VideoComposer火了  腾讯TRS之元学习与跨域推荐的工业实战  世界人工智能大会机器人同台炫技!梳理A股相关业务营收占比超50%的个股名单  面向AI大模型,腾讯云首次完整披露自研星脉高性能计算网络  消息称苹果 iPhone 15 系列健康应用将深度融合 AI 技术  优化J*a与MySQL合作:分享批处理操作的技巧  数据科学,解码智能未来——Altair首次提出“Frictionless AI”概念  即将到来:AI婚纱设计软件实际测试,人工智能即将开创婚纱设计新纪元  AI大模型紫东太初已被注册商标 中科院已注册紫东太初大模型商标  亚马逊确认今年不会举办 re:MARS 机器人和人工智能大会  食品分销跨国企业Sysco CIDO:我们的增长秘诀是以IT为中心  AI 大模型重塑软件开发,有哪些落地前景和痛点?| ArchSummit  深剖Apple Vision Pro中暗藏的“AI”  将上下文长度扩展到256k,无限上下文版本的LongLLaMA来了?  微幼科技推出全自动晨检机器人,助力幼儿园校园健康检测  Dubbo负载均衡策略之 一致性哈希  人工智能如何与智能家居集成  电力人工智能数据集目录首次发布  OpenAI CEO 阿尔特曼到访日本,对全球 AI 协调合作表示乐观  WHEE使用教程  应对算力挑战,亚马逊云科技发力AI基础设施建设  AI和ML推动联网设备的增长  Win11 的画图应用将包含 Windows Copilot 的 AI 工具整合  【搞事】时隔4年 谷歌更新安卓logo 机器人头更饱满了  “可用”“有用”的讯飞星火认知大模型将亮相世界人工智能大会  首个算网生态体!中国移动元宇宙产业联盟正式成立  微软必应聊天现已在Chrome和Safari浏览器上可用,但仍有许多限制存在  AI大模型时代,数据存储新基座助推教科研数智化跃迁  万魔推出AI主攻的运动耳机,开启十年研发新纪元  你们的开机第一屏画面要变了!安卓机器人首次3D化  网易加速行业AI大模型应用,将覆盖100多个应用场景  人工智能大胆预测:银河系至少有2万个地球,36种外星文明  ChatGPT会成为你家新的语音助手吗?  最大助力35公斤 外骨骼机器人或在养老、医疗领域“大展身手”  360发布数字安全和人工智能的强大结合:360安全大模型  重磅! 捷通华声灵云AICC荣获第二届光合组织AI解决方案大赛二等奖  赋能金融新生态,多家银行创新应用成果亮相世界人工智能大会  首届亚太网络法实务大会召开 九位大咖探讨元宇宙与人工智能发展  调查显示:实际上没有那么多人在用 ChatGPT  Meta 发布 Voicebox AI 模型:可生成音频信息,用于 NPC 对话等  爱设计PPT发布第二代AI一键生成PPT产品:智能、个性化、自动化  上海发布“元宇宙关键技术攻关行动方案”,加快 AIGC 等突破  郭帆谈ChatGPT:电影行业需要创新,否则人工智能将让电影变得平庸  全球首款AI裸眼3D平板 国产的售价破万  扎克·施奈德新片《月球叛军》曝剧照 机器人首度现身  以分布式网络串联闲置GPU,这家创企称可将AI模型训练成本降低90%  曝索尼在开发新头显设备:游戏中使用AR技术  图灵奖得主Hinton:我已经老了,如何控制比人类更聪明的AI交给你们了  IBM和NASA合作发布可追踪碳排放的开源AI基础模型  马斯克“揭秘”人工智能真面目 

 2024-08-14

了解您产品搜索量及市场趋势,制定营销计划

同行竞争及网站分析保障您的广告效果

点击免费数据支持

提交您的需求,1小时内享受我们的专业解答。

运城市盐湖区信雨科技有限公司


运城市盐湖区信雨科技有限公司

运城市盐湖区信雨科技有限公司是一家深耕海外推广领域十年的专业服务商,作为谷歌推广与Facebook广告全球合作伙伴,聚焦外贸企业出海痛点,以数字化营销为核心,提供一站式海外营销解决方案。公司凭借十年行业沉淀与平台官方资源加持,打破传统外贸获客壁垒,助力企业高效开拓全球市场,成为中小企业出海的可靠合作伙伴。

 8156699

 13765294890

 8156699@qq.com

Notice

We and selected third parties use cookies or similar technologies for technical purposes and, with your consent, for other purposes as specified in the cookie policy.
You can consent to the use of such technologies by closing this notice, by interacting with any link or button outside of this notice or by continuing to browse otherwise.