网站如何做前后端分离百度贴吧官网app下载

张小明 2026/1/9 16:08:10
网站如何做前后端分离,百度贴吧官网app下载,如何做直播网站,wordpress cookie伪造Abstract检索增强生成#xff08;Retrieval-Augmented Generation#xff0c;RAG#xff09;被广泛用于将外部知识引入大语言模型#xff0c;从而提升问答#xff08;QA#xff09;任务中的事实性并减少幻觉。一个标准的 RAG 流水线通常由多个组件组成#xff0c;例如查…Abstract检索增强生成Retrieval-Augmented GenerationRAG被广泛用于将外部知识引入大语言模型从而提升问答QA任务中的事实性并减少幻觉。一个标准的 RAG 流水线通常由多个组件组成例如查询重写、文档检索、文档过滤以及答案生成。然而这些组件通常通过监督微调分别进行优化这可能导致各个组件的局部目标与“生成准确答案”这一整体目标之间产生不一致。尽管近期已有工作尝试利用强化学习RL来优化 RAG 中的特定组件但这些方法往往只关注包含两个组件的简单流水线或未能充分刻画各模块之间复杂的相互依赖关系与协同交互。为了解决这些问题我们提出将包含多个组件的复杂 RAG 流水线视为一个多智能体协作任务其中每个组件都可以被看作一个强化学习智能体。具体而言我们提出了MMOA-RAG²Multi-Module joint Optimization Algorithm for RAG多模块联合优化算法该方法采用多智能体强化学习将所有智能体的目标统一到一个全局奖励上例如最终答案的 F1 分数。我们在多个问答基准上的实验结果表明MMOA-RAG 能够显著提升整个 RAG 流水线的整体性能并优于现有的基线方法。此外系统性的消融实验验证了各个组件的贡献并表明 MMOA-RAG 能够适配不同的 RAG 流水线结构和评测基准。1 Introduction将 MMOA-RAG 应用于一个包含四个关键模块的 RAG 流水线查询重写器、固定的文档检索器、文档选择器以及答案生成器。我们的核心目标是通过将最终奖励定义为生成答案相对于真实答案的正确性以 F1 分数衡量来联合优化这些模块。为此我们采用了多智能体 PPOMulti-Agent PPOMAPPO算法 [53]该算法能够在完全协作的设置下实现高效的联合优化。这意味着所有模块以协作方式工作其优化目标统一指向生成高质量答案。与依赖 DPO [60, 59] 或 PPO [29, 22] 的先前方法相比MMOA-RAG 在不同流水线设计上具有更高的灵活性并且更擅长促进多模块之间的协作。这种端到端的优化方式确保了每个模块的目标始终与生成准确答案这一整体目标保持一致。为了验证 MMOA-RAG 建模与优化方法的有效性我们基于Llama-3-8B-Instruct [7]在三个公开的问答数据集——HotpotQA [51]、2WikiMultihopQA [14] 和 AmbigQA [30] 上进行了实验。实验结果表明MMOA-RAG 的性能优于一系列现有的 RAG 优化方法。此外我们还进行了大量消融实验以进一步分析在 RAG 系统中对多个模块进行联合优化的有效性与优势以及 MMOA-RAG 在不同 RAG 流水线结构上的泛化能力。本文的主要贡献如下我们创新性地将 RAG 建模为一个多智能体协作任务将 RAG 流水线中的多个模块视为独立的智能体。我们采用多智能体强化学习算法对包含四个关键模块查询重写器、固定文档检索器、文档选择器和答案生成器的复杂 RAG 系统进行联合优化。我们通过大量实验验证并展示了所提出框架的有效性和泛化能力。2 Related Works3 Method3.1 将 RAG 建模为协作式多智能体强化学习Co-MARL将 RAG 过程概念化为一个**协作式多智能体强化学习Cooperative Multi-Agent Reinforcement Learning, Co-MARL**框架。在该框架中RAG 流水线中的每一个模块都被视为一个独立的强化学习RL智能体。该多智能体系统的总体目标是生成高质量的答案这一目标与各个模块的个体优化目标是一致的。我们定义一个四元组⟨G,O,A,R⟩其中G 表示 Co-MARL 系统中的智能体集合O 表示每个智能体可观测到的状态信息A 表示每个智能体可执行的动作空间R表示由所有智能体共享的奖励函数。整个系统的最终目标是最大化该共享奖励从而提升评测指标并增强 RAG 系统的整体性能。在本文中我们采用Multi-Agent PPOMAPPO[53] 对 Co-MARL 框架中各智能体的策略进行优化。MAPPO 是对 PPO 算法 [38] 在多智能体环境下的扩展。在完全协作的场景中与仅针对单智能体并使用个体奖励的 PPO 不同MAPPO 使用全局共享奖励来促进所有智能体之间的协同优化。3.2 MMOA-RAG 的整体架构RAG 系统通常采用由多个相互连接模块组成的模块化架构。图 1 展示了我们提出的MMOA-RAG框架的整体结构该框架由四个核心模块组成Query Rewriter查询重写器将初始问题 qqq可能过于复杂或存在歧义难以通过一次检索直接解决重写为一组子问题记为 subq\text{subq}subq。Retriever检索器针对每个子问题分别从语料库中检索相关文档并输出候选文档集合 D。Selector文档选择器对候选文档集合 D 进行进一步筛选得到对回答初始问题 q有用的文档子集 Dselected。Generator生成器基于 Dselected生成对初始问题的预测答案 Anspredict​。由于Query Rewriter、Selector 和 Generator均可以基于大语言模型LLM实现因此可以将它们视为 RL 智能体 [31]并通过奖励信号进行参数更新。为了提高计算效率这三个模块可以共享同一个 LLM。另一方面由于将 Retriever 建模为 RL 智能体较为困难我们采用一个固定的检索器并将其视为环境的一部分。MMOA-RAG 框架的核心目标在于对多个模块进行协同优化使各模块的个体目标与最终生成高质量答案这一全局目标保持一致。我们使用 Generator 输出的预测答案 Anspredict\text{Ans}_{\text{predict}}Anspredict​ 所对应的评测指标如F1 分数作为共享奖励Rshared鉴于 RAG 系统中各模块之间是完全协作关系Rshared可用于训练所有智能体这也是多智能体强化学习文献中的常见做法 [34, 53, 4]。此外为了提升多智能体训练的稳定性并加速收敛我们为每个智能体设计了对应的惩罚项 PQR​、PS 和 PG​。下面是3.3 Detailed Configuration for Each Agent的中文学术翻译风格与前文保持一致可直接接在你已有的第 3 节之后使用。3.3 各智能体的详细配置在本节中我们将对第 3.1 节中定义的四元组G, O, A, R 中的各个要素进行详细说明。其中表示系统中的全部智能体集合。接下来我们将分别介绍每个智能体 (i \in G) 的关键组成要素包括观测信息 (O_i )动作空间 (A_i )奖励函数 (R_i)。这些要素共同定义了各个模块在协作式多智能体强化学习框架中的行为方式与优化目标。3.3.1 Query Rewriter 的要素观测ObservationQuery Rewriter 的观测定义如公式 (1) 所示由 Query Rewriter 的提示词 PromptQR见表 3以及初始问题 q 组成动作空间Action SpaceQuery Rewriter 的动作空间对应于大语言模型的词表记为 V。这是因为我们通过提示 LLM 根据初始问题 q 生成一个或多个子问题奖励函数Reward FunctionQuery Rewriter 的奖励函数定义如公式 (3) 所示。其中Rshared表示最终答案的评价指标对应图 1 中的黄色部分。本文使用生成答案 Anspredict 的F1 分数作为共享奖励。项 PQRP_{QR}PQR​ 是一个惩罚项用于防止 Query Rewriter 在训练过程中生成过多的子问题。具体而言当子问题数量超过 4 个时PQR−0.5当子问题数量不超过 4 个时PQR0。3.3.2 Selector 的要素观测ObservationSelector 的观测定义如公式 (4) 所示包含 Selector 的提示词 PromptS见表 4、初始问题 q以及包含 K 篇候选文档的文档集合 D动作空间Action SpaceSelector 的动作空间仅由一组有限的词构成如公式 (5) 所示。由于 Selector 的功能是输出对回答初始问题 q 有帮助的候选文档 ID其动作空间被约束在这一有限集合中。该约束显著缩小了 Selector 的探索空间并有助于提升训练过程的稳定性奖励函数Reward FunctionSelector 的奖励函数同样由两部分组成共享奖励 Rshared和惩罚项 PS​。PSP_SPS​ 用于防止 Selector 生成重复的文档 ID或输出不符合指定格式如Document0,Document3,Document9的结果。当 Selector 输出重复文档 ID 或格式错误时PS−1否则PS03.3.3 Generator 的要素观测ObservationGenerator 的观测定义如公式 (7) 所示由 Generator 的提示词 PromptG见表 5、初始问题 q以及 Selector 输出的文档子集 Dselected​ 组成动作空间Action SpaceGenerator 的动作空间与 Query Rewriter 相同奖励函数Reward FunctionGenerator 的奖励函数包含共享奖励 RsharedR_{\text{shared}}Rshared​ 以及惩罚项 PG​其中 PGP_GPG​ 用于限制模型生成过长的答案。当生成答案超过预设长度阈值时PG−0.5P_G -0.5PG​−0.5否则 PG0。实际上各智能体的惩罚项 Pi(i∈G)在大多数情况下为 0仅当输出不满足约束条件时才取负值3.4 MMOA-RAG 的训练过程3.4.1 基于 SFT 的热启动Warm Start在使用 Multi-Agent PPO 对多个模块进行联合优化之前有必要对每个可训练模块进行热启动。热启动可以使模型更好地遵循任务指令并在多智能体强化学习MARL的联合训练阶段有效缩小探索空间从而提升探索与利用的效率。在 MMOA-RAG 框架中共有三个可训练模块Query Rewriter、Selector 和 Generator。因此我们分别为这三个任务构建监督微调SFT训练数据并对其进行 SFT以获得各模块的初始参数检查点。训练数据构建的具体细节见附录 B。3.4.2 多智能体联合优化经过 SFT 之后LLM 在执行 Query Rewriter、Selector 和 Generator 功能时具备了更强的指令遵循能力RAG 系统也获得了较为理想的初始性能。为了进一步提升整体表现有必要对建模为完全协作多智能体系统的 RAG 框架进行联合训练以强化各模块之间的协作。我们采用与 StarCraft II 中 Multi-Agent PPOMAPPO[53] 类似的训练设置多个智能体共享全局奖励 Rshared共同优化G{QR,S,G}为降低计算开销我们在智能体之间采用参数共享机制使 QR、S 和 G 共用同一个 LLM。在多智能体优化过程中涉及三个模型Actor 模型、Critic 模型以及 SFT 模型其参数分别记为 θ、ϕ 和 θSF。Actor 模型根据每个智能体的观测 Oi 生成输出 Answeri_i​Critic 模型用于估计状态值函数 Vi,tϕV这是强化学习中经典的 Actor–Critic 架构SFT 模型作为 Actor 的基线模型其作用与 InstructGPT [31] 类似。训练目标是同时更新 Actor 和 Critic 模型参数。总体损失函数定义为Actor 损失函数如公式 (11) 所示与单智能体 PPO [38] 类似不同之处在于此处同时优化多个智能体其中重要性采样比率定义为优势函数采用 GAE [37] 估计时序差分误差定义为最终奖励函数如公式 (15) 所示。与 InstructGPT 不同的是我们无需训练额外的奖励模型而是直接使用 Generator 生成答案 Anspredict 的 F1 分数作为所有智能体共享的奖励 RsharedCritic 模型的损失函数定义如下基于 MAPPO 的多智能体优化伪代码见附录 C 的算法 1对应于图 1 所示的 MMOA-RAG 整体框架。最终我们得到一个训练完成的 Actor 模型用于后续推理与评估。4.1 Experimental Settings实验主要围绕以下三个研究问题展开RQ1与现有的 RAG 优化方法相比MMOA-RAG 的性能如何RQ2RAG 流水线中各个模块的联合优化如何促进 MMOA-RAG 框架的整体效果RQ3MMOA-RAG 是否能够在不同的 RAG 系统中展现良好的泛化能力4.1 实验设置数据集与评估指标我们在三个开放域问答Open-Domain QA数据集上将 MMOA-RAG 与多种基线方法进行了对比实验具体包括HotpotQA[51]、2WikiMultihopQA[14] 以及AmbigQA[30]。对于这三个数据集候选文档均从Wikipedia 段落中进行检索。表 1不同方法在各数据集上的性能对比。表中所有结果均使用Contriever[16] 作为检索模型获得。在每个数据集中性能最优的基线方法用下划线标出。符号∆表示 MMOA-RAG 相对于最佳基线方法的性能提升幅度。我们采用三种关键评估指标——Accuracy准确率、Exact MatchEM完全匹配率和F1 分数——来评估各类 RAG 方法的性能。实现细节在大多数实验中我们使用Contriever[16] 作为检索器Retriever。Selector 模块的输入始终为固定数量的候选文档设定为K 10。此外所有基线方法以及 MMOA-RAG 均采用Llama-3-8B-Instruct[7]作为基础大语言模型。我们将 MMOA-RAG 与多种基线方法进行了对比包括不使用 RAG 的 LLMLLM w/o RAG、未训练的原始 RAGVanilla RAG w/o train、经监督微调的原始 RAGVanilla RAG w SFT、SELF-RAG[1]、RetRobust[52]、Rewrite-Retrieve-Read[29]、BGM[22] 以及RAG-DDR[27]。关于实验设置和各基线方法的更详细介绍详见附录 D。4.2 与其他方法的比较我们将MMOA-RAG与多种基线方法进行了对比分析实验结果如表 1 所示。为确保对比的公平性所有方法均采用Llama-3-8B-Instruct作为骨干大语言模型并且所有基线方法均按照附录 D.2 中描述的实验设置重新实现。首先如表 1 所示MMOA-RAG 在所有数据集和所有评估指标上均表现出最优性能充分验证了其有效性。此外可以观察到Vanilla RAG w/o train在多个指标上的表现与LLM w/o RAG相当。这一现象表明预训练的 Llama-3-8B-Instruct 难以有效利用外部知识进行答案生成其原因可能在于预训练阶段未包含与 RAG 相关的任务从而限制了模型对外部知识的利用能力。相比之下Vanilla RAG w SFT在所有评估指标上均显著优于 Vanilla RAG w/o train说明经过监督微调SFT后的 Llama-3-8B-Instruct 能够更有效地利用外部知识从噪声较大的候选文档中提取关键信息从而提升生成答案的质量。Rewrite-Retrieve-Read和BGM方法分别通过引入查询重写模块和桥接模块对 Vanilla RAG 进行了增强这两个模块均采用 PPO 算法进行训练。如表 1 所示在多跳数据集HotpotQA和2WikiMultihopQA上Rewrite-Retrieve-Read 的性能优于 BGM表明在多跳问答场景中引入查询重写模块比增加桥接模块更为有效。而在单跳数据集AmbigQA上Rewrite-Retrieve-Read 与 BGM 的性能则较为接近。从方法设计角度来看MMOA-RAG 可以被视为在 Vanilla RAG 的基础上同时引入了Query Rewriter和Selector两个模块其功能分别对应于 Rewrite-Retrieve-Read 中的查询重写模块以及 BGM 中的桥接模块。MMOA-RAG 的核心优势在于通过MAPPO对 Query Rewriter、Selector 和 Generator 三个模块进行联合优化使各模块的优化目标与生成高质量答案这一整体目标保持一致。表 1 中的实验结果进一步表明MMOA-RAG 在性能上显著超越了 Rewrite-Retrieve-Read、BGM 以及其他基线方法。此外我们还基于其他检索器BGE[48] 和E5[46] 对多种方法进行了实验对应结果见附录 E 中的表 7。同时我们还开展了跨域out-of-domain实验其结果见附录 F 中的表 8。综合表 1、表 7、表 8 以及本节 4.2 中的分析可以全面回答研究问题RQ1。此外附录 I 中提供了案例分析从直观层面展示了多模块联合优化方法的优势。图 2不同 Agent 优化的消融实验。在该图中MMOA-RAG w/o ii ∈ {QR, S, G}表示在多智能体联合优化过程中去除第 i 个智能体的变体模型其中 QR、S、G 分别代表 Query Rewriter、Selector 和 Generator。4.3 不同 Agent 优化的消融实验为证明在 RAG 系统中进行多智能体联合优化的必要性我们在本节中开展了消融实验。如图 1 所示MMOA-RAG 框架由三个智能体组成i ∈ {查询重写器Query RewriterQR、选择器SelectorS、生成器GeneratorG}。在图 2 中MMOA-RAG w/o i表示在多智能体联合优化过程中将第 i 个智能体从完整优化流程中移除的变体模型。如图 2 所示完整版本的 MMOA-RAG即对三个模块进行联合优化取得了最高的性能。这一结果充分表明多智能体联合优化在 RAG 系统中是行之有效的也验证了同时优化多个模块的重要性。此外在三种消融配置中MMOA-RAG w/o S的性能表现最好。Selector 的主要作用是对候选文档集合 (D) 进行进一步筛选得到质量更高的子集 (D_{\text{selected}})从而提升 Generator 生成高质量答案 (Ans_{\text{predict}}) 的能力。然而在 MAPPO 的联合优化过程中Generator 在一定程度上学会了去噪能力因此即使在联合优化阶段未对 Selector 进行优化系统仍然能够取得较为理想的效果。我们还基于 AmbigQA 数据集的消融实验展示了训练过程中共享奖励 (R_{\text{shared}}) 的变化轨迹如图 3 所示。从图 3 可以看出MMOA-RAG 的奖励曲线收敛速度最快且最终收敛值最高这进一步说明了跨多个模块进行联合优化能够显著且高效地提升 RAG 系统的整体性能。同时图 3 中MMOA-RAG w/o G的训练曲线明显慢于其他方法而其在 AmbigQA 数据集上的测试结果如图 2 所示也是最差的。这一现象表明在单跳问答任务的 AmbigQA 数据集上Generator 模块是最为关键的组成部分。综上所述图 2 和图 3 的实验结果共同回答了RQ2在 RAG 系统中同时优化多个模块比仅优化单个模块更加有效。图 3AmbigQA 数据集上的消融实验结果。横轴表示训练样本数量纵轴表示训练过程中得到的共享奖励 RsharedR_{\text{shared}}Rshared​即 F1 分数4.4 不同模块配置下 RAG 系统的通用性实验在本节中我们评估了 MMOA-RAG 在优化具有不同智能体数量的 RAG 系统时的性能具体结果如表 2 所示。在表 2 中QRSG 表示由查询重写器Query RewriterQR、选择器SelectorS和生成器GeneratorG组成的 RAG 系统配置。表 2不同模块配置下 RAG 系统的通用性实验结果。表中第二列的SFT和MAPPO分别表示在热启动训练阶段第 3.4.1 节和 MAPPO 联合训练阶段第 3.4.2 节下的对应模块配置结果。符号∆表示相较于 SFT 阶段在 MAPPO 阶段所取得的性能提升。5 结论与未来工作本文将 RAG 系统建模为一个多智能体协作任务其中将查询重写器Query Rewriter、选择器Selector和生成器Generator模块视为可学习的强化学习RL智能体。我们采用多智能体强化学习算法对这些智能体进行联合优化使多个模块的优化目标与生成高质量答案这一最终目标保持一致。实验结果表明我们的建模方式和联合优化方法是有效的。全面的消融实验进一步验证了多模块联合优化的必要性与通用性确立了 MMOA-RAG 作为一种优化 RAG 系统的有效方法。在未来工作中我们计划将 MMOA-RAG 应用于更加复杂的工作流场景中。这包括将 RAG 工作流组织为有向无环图DAG的情形以及涉及 agentic RAG 中动态工作流的情况。此外评估 RAG 系统中各个模块的成本与时延也同样重要。在这方面奖励函数的设计不应仅依赖于评测指标例如本文中使用的 F1 分数而应在部分协作的 RAG 场景中力求在效果与成本之间取得合理平衡。
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

做什么网站赚钱最快石做视频网站需要牌照

Source Han Serif思源宋体:免费商用开源中文字体深度解析与应用指南 【免费下载链接】source-han-serif-ttf Source Han Serif TTF 项目地址: https://gitcode.com/gh_mirrors/so/source-han-serif-ttf 还在为专业中文字体的版权限制而困扰?想要找…

张小明 2026/1/5 16:15:47 网站建设

app门户网站长沙推广网络营销公司

宏任务 / 微任务执行顺序(经典面试题详解)你关注的宏任务、微任务执行顺序是前端面试的核心考点,尤其围绕 setTimeout、Promise.then、async/await 的执行逻辑,我会从概念定义、执行机制到经典例题,帮你彻底理清。一、…

张小明 2026/1/5 20:21:23 网站建设

网站域名费用交给谁网站建设佰首选金手指七

深入了解Windows Phone应用的国际化开发 在当今全球化的时代,移动应用的国际化开发变得越来越重要。随着Windows Phone操作系统的更新,对显示语言的支持从最初的5种增加到了22种,这为开发者带来了更广阔的市场和更多的潜在收益。然而,要让应用在全球范围内取得成功,就必须…

张小明 2026/1/9 3:22:29 网站建设

在网盘上怎么做自己的网站wordpress orm

简介 文章详细介绍了FP8(8位浮点数)在大模型训练中的应用,包括E4M3和E5M2两种格式及其优势:加速计算、节约显存和加速通信。重点讨论了Per-tensor scaling、Blockwise scaling和MXFP8等不同recipe,以及在Hopper和Blackwell平台上的实现差异。…

张小明 2026/1/5 7:22:56 网站建设

珠海网站建设解决方案怎么联系做网站公司

如何在8GB显存设备上运行专业级视频生成:万相2.2 ComfyUI完整指南 【免费下载链接】WanVideo_comfy 项目地址: https://ai.gitcode.com/hf_mirrors/Kijai/WanVideo_comfy 当前视频生成面临的核心挑战 随着AI视频生成技术的快速发展,越来越多的创…

张小明 2026/1/6 5:07:47 网站建设