One More Question is Enough, Expert Question Decomposition (EQD) Model for Domain Quantitative Reasoning
创建于 更新于
摘要
本文提出了Expert Question Decomposition(EQD)模型,针对领域专属的复杂量化推理任务设计了一种两步微调框架,通过生成简洁的支持性子问题提升大模型在金融领域问答中的表现,有效提升了多个金融问答数据集的准确率达0.6%至10.5%,且训练资源需求低、推理时开销极小,优于多种先进提示方法,表明单一关键子问题往往胜过冗长步骤指导 [page::0][page::1][page::2][page::5][page::8]。
速读内容
EQD模型两步训练框架与原理 [page::2][page::3]

- 第一步基于ConvFinQA金融对话问答数据,微调LLama3.1-8B模型以学习领域特定的“分解问题”能力。
- 第二步采用基于答案改进奖励的PPO强化学习,进一步优化分解问题对QA模型回答准确率的提升作用。
- 设计奖励函数包括四档:+2(原答错分解答对)、+1(均正确)、-1(均错误)和-2(原答对分解答错),强调改善答题效果并避免误导。
EQD模型在多模型多数据集上的问答表现提升 [page::5][page::6]
| 模型 | FinQA直接QA(%) | FinQA+EQD(%) | TAT-QA直接QA(%) | TAT-QA+EQD(%) | ECTQA直接QA(%) | ECTQA+EQD(%) | EDTQA直接QA(%) | EDTQA+EQD(%) | 平均直接QA(%) | 平均EQD(%) |
|----------------|--------------|-------------|--------------|------------|--------------|------------|--------------|------------|----------|---------|
| Llama3.1-8B | 47.2 | 54.0 | 51.2 | 54.9 | 61.8 | 64.0 | 52.2 | 55.1 | 53.1 | 57.0 |
| GPT-3.5-turbo | 28.4 | 55.1 | 47.2 | 52.7 | 64.7 | 65.4 | 56.0 | 57.3 | 47.1 | 57.6 |
| GPT-4o | 58.2 | 62.4 | 59.1 | 63.2 | 68.1 | 72.5 | 64.9 | 63.4 | 62.5 | 65.4 |
| Claude3.5-sonnet| 72.9 | 73.7 | 63.3 | 64.4 | 74.8 | 75.2 | 60.8 | 61.2 | 67.9 | 68.5 |
| Average | 51.7 | 61.2 | 55.2 | 58.8 | 67.4 | 69.3 | 58.5 | 59.3 | 58.2 | 62.1 |
- EQD对较弱模型提升更显著(GPT-3.5最高+10.5%),对强模型提升较小(Claude3.5-sonnet+0.6%)。
- 对于推理难度大(FinQA)的问题,提升最明显,体现EQD在复杂定量推理中的优势。
EQD 相较其他提示和分解方法的优势 [page::6][page::7]
| QA模型 | 数据集 | 直答 | 0-CoT | DP1 | DP2 | QD-CoT | R-CoT | N-shot | EQD | Manual |
|----------------|-------|-----|-------|------|------|--------|-------|--------|------|--------|
| Llama3.1-8B | FinQA |47.2 | 52.0 |47.6 |50.0 | 50.0 | 48.0 | 45.1 | 54.0 | 51.5 |
| GPT-3.5-turbo | TAT-QA |51.2 | 57.4 |49.7 |51.4 | 51.8 | 49.9 | 53.9 | 54.9 | 51.6 |
| GPT-4o | FinQA |58.2 | 53.1 |55.8 |49.8 | 60.3 | 49.7 | 42.6 | 62.4 | 52.5 |
- EQD显著领先全体其它提示方法,均表现稳定且效果优异。
- 手动设计简洁分步骤示例虽有效果但不及EQD自动优化策略。
两步训练对生成分解问题效果的影响 [page::7]

- 不训练模型:QA准确率44.6%,分解问题冗长(平均171词)
- 仅第一步微调:准确率52.1%,问题更简洁(118词)
- 同时微调两步(EQD):最高54%,问题最简洁(14词),且生成问题数量由15降至1.2
- 仅第二步微调无效果,领域知识基础必要。
推理效率与额外输入长度对比 [page::8]

- EQD推理时间远低于传统分解提示DP2和多示例N-shot,额外输入长度仅13.8词,远短于DP2和N-shot。
- 产生平均仅1.2个关键支持子问题,远少于DP2的7.3个。
量化因子/策略类内容
- 该论文不涉及特定量化因子构建或量化交易策略设计,焦点是问答分解模型的训练及其提升效果,属于自然语言处理模型研究。
深度阅读
详尽分析报告:《One More Question is Enough, Expert Question Decomposition (EQD) Model for Domain Quantitative Reasoning》
---
1. 元数据与概览
- 标题:《One More Question is Enough, Expert Question Decomposition (EQD) Model for Domain Quantitative Reasoning》
- 作者:Mengyu Wang, Sotirios Sabanis, Miguel de Carvalho, Shay B. Cohen, Tiejun Ma
- 机构:爱丁堡大学(英国)、雅典国立理工大学(希腊)、Archimedes/Athena研究中心(希腊)、Aveiro大学(葡萄牙)
- 时间:2024年(文献引用最晚2025年,项目进行时间近期)
- 主题领域:大语言模型(LLMs)在财务领域中的定量推理与问题回答,重点开发了专家问题拆解(Expert Question Decomposition, EQD)模型以提升领域特定定量问答效果。
报告核心论点:
- LLM在领域特定定量推理任务中表现欠佳,特别是财务领域,因其涉及复杂领域知识和定量计算。
- EQD模型基于两阶段微调(领域微调+QA专家对齐),通过生成简洁且关键的支持性子问题,引导LLM有效推理,提升回答准确率。
- EQD只需小规模训练样本及单块GPU训练,推理时间与零样本提示相当,性能超越现有最优领域调优模型以及复杂提示设计。
- 在财务领域四个基准数据集上,EQD提升幅度在$0.6\%$至$10.5\%$,验证了“单一关键辅助问题”优于“详细分步推理”的新认识。
简言之,作者提出了一个高效且高性能的领域问题拆解框架,为大模型的领域定量问答带来新范式和实用路径。[page::0,1,8]
---
2. 逐节深度解读
2.1 引言(1节)
- 关键观点:
- LLM即使是最先进的(如GPT-4o、Llama3)也在专业领域问答中表现差距明显,尤其涉及到财务领域的量化推理。
- 这一性能瓶颈主要因预训练数据中缺少复杂领域术语、结构和推理模式所致。
- 传统解决策略有两条路径:
1. 领域微调:注入大量领域数据,昂贵且对闭源模型适用性差。
2. 基于提示的方法:无需训练但推理时间增加且受制于提示长度和信息限制。
- 现有大多数分步推理方法(如CoT)往往拆解过细,反而增加噪声。
- 举例说明:
- 图1展示了三种处理流程:无拆解、GPT细致拆解、多步骤问法与EQD单一辅助问题的对比,EQD以简洁的子问题引导更准确答案。
- 结论:现有细致拆解不一定最优,简洁关键支持问题的生成更有效。[page::0]
2.2 理论动因及方法概述(1节-2节)
- 作者洞见总结:
- 复杂领域知识能拆解成更简单的通用组成部分。
- LLM推理能力强,详细指引非但无帮助反而干扰。
- 因此,EQD旨在生成简明的关键子问题引导推理,防止过度拆解产生冗余。
- 开发流程:
- 步骤一:基础模型(Llama3.1-8B-Instruct)基于带有财务对话的问答拆解数据做领域微调,重点训练模型将复杂问题拆成简易子问。
- 步骤二:强化学习对齐QA专家反馈,通过设计对比奖励函数(比较含与不含拆解问题的QA结果)优化拆解子问题的实用性。
- 资源与效率:
- 训练所需数据量小,GPU资源低,适配多种开/闭源模型。
- 推理时只加一个支持问题,附加成本极低。
- 实验证明:
- 四个主流财务数据集验证,均显示明显性能提升。
- 贡献总结:
1. 两阶段训练框架兼顾知识注入和效率。
2. 新颖奖励函数驱动生成有效辅助问题。
3. 展现简洁支持问题胜于冗长推理链。
- 文献回顾:
- 财务问答领域已有多数据集(FinQA、TATQA等)和基于CoT的提示策略,但这些尚未解决细致步骤对模型推理的干扰问题。[page::1,2]
2.3 方法详解(3节)
- 训练结构(图2):
- 步骤1:领域知识微调,使用ConvFinQA数据(约3000条)专注问句→子问的数据,放弃答案部分,明确模型任务仅为问题拆解。
- 步骤2:QA专家对齐,基于对比奖励函数(具体计算见公式,奖励值区分:DQs使错误改正+2,保持正确+1,错误变错-2,保持错-1),强化学习使用PPO算法微调,从而优化拆解问题作为QA输入的辅助效果。
- 优势与创新点:
- 本质上为领域专属的“问题简化器”,避免了传统领域微调的庞大成本,且可泛化至多模型;
- 出色平衡领域知识融入与训练推理效率;
- 设计的新奖励机制紧扣实际问答表现,降低无效辅助风险。
- 资源消耗:
- 仅需一块NVIDIA A100 GPU,训练时间合计约6.5小时(步骤1 2.5h,步骤2 4h),利用低秩适配器(LoRA)微调参数占比仅0.27%。
- 训练过程流水线设计合理,实质上只占用一个全模型及两个LoRA,而非三模型并行,显著节省计算和内存资源。
- 技术细节:
- 使用“连续微调”策略,LoRA适配器持续训练保持联贯性。
- 推理实践:
- 生成单一关键辅助子问题,尽量简洁,跳脱了冗长CoT提示链条惯例。
- 评价指标:
- QA性能用“exact match accuracy (EmAcc)”指标衡量,数值答案的精准匹配。
- 训练数据:
- 步骤1用ConvFinQA(3,073条金融对话分问),步骤2用FinQA(6,250条QA对)。
- 泛化测试:
- 测试用FinQA、TAT-QA、ECTQA、EDTQA四财经数据集,数据涵盖文本及表格信息,验证泛用性。[page::2,3,4]
2.4 实验设计与基线比较(4节)
- 使用模型:
- Llama3.1-8B-Instruct为主,同时评估其他三款LLM(Llama 1B、3B、DeepSeek-Qwen 7B)体现方法扩展能力。
- 也包括GPT-3.5-turbo、GPT-4o、Claude3.5-sonnet、FinMA、o3-mini等业内著名开源/闭源及领域专用模型。
- 基线方法:
- 零样本Chain-of-Thought (0-CoT)
- Decomposed prompting (DP1/DP2 使用GPT-3.5/4o生成子问)
- Question decomposition CoT (QD-CoT)
- Retrieval CoT (R-CoT)
- Few-shot in-context learning (N-shot)
- 手动设计的简短子问题案例(Manual)
- 实验细节:
- 实施方案详见附录,包括训练参数、推理设备及API调用成本。
- 奖励配置的选择验证:平衡奖励设置(+2,+1,-1,-2)优于其他分值设定。
- 评测注意点:
- 很多先前工作在数值提取方案上存在偏差,本工作统一实现并开源源码以保证结果公允性。[page::4,5,11,12]
2.5 结果分析(5节)
一般性QA性能提升(5.1节)
- 表1关键数据解读:
| 模型 | FinQA 直答 | FinQA+EQD | TAT-QA 直答 | TAT-QA+EQD | ECTQA 直答 | ECTQA+EQD | EDTQA 直答 | EDTQA+EQD | 平均直答 | 平均EQD |
|----------------------|----------|----------|------------|------------|----------|----------|----------|----------|--------|--------|
| Llama3.1-8B | 47.2 | 54.0 | 51.2 | 54.9 | 61.8 | 64.0 | 52.2 | 55.1 | 53.1 | 57.0 |
| GPT-3.5-turbo | 28.4 | 55.1 | 47.2 | 52.7 | 64.7 | 65.4 | 56.0 | 57.3 | 47.1 | 57.6 |
| GPT-4o | 58.2 | 62.4 | 59.1 | 63.2 | 68.1 | 72.5 | 64.9 | 63.4 | 62.5 | 65.4 |
| Claude3.5-sonnet | 72.9 | 73.7 | 63.3 | 64.4 | 74.8 | 75.2 | 60.8 | 61.2 | 67.9 | 68.5 |
| 平均 | 51.7 | 61.2 | 55.2 | 58.8 | 67.4 | 69.3 | 58.5 | 59.3 | 58.2 | 62.1 |
| FinMA | 11.3 | 10.5 | 19.1 | 18.2 | 1.9 | 1.8 | 37.4 | 35.1 | 17.4 | 16.4 |
| o3-mini | 70.0 | 67.6 | 62.5 | 57.3 | 74.4 | 70.2 | 64.7 | 41.3 | 67.9 | 59.1 |
- 解读:
- 一般开源模型(Llama3、GPT系列等)均显著从EQD受益,提升幅度最大达10.5%(GPT-3.5)。
- 域专用模型FinMA和推理优化模型o3-mini反而因架构/策略限制,未能有效利用辅助问题,表现下降。
- 越弱的模型获益越多,越复杂的数据集(FinQA)提升更明显,表明EQD缓解了复杂定量推理难点。
- 在三个主要数据集上(FinQA、TAT-QA、ECTQA),EQD支持下各模型均创最高分。
- 结论:EQD为弱及中等能力模型增强专业推理能力,凸显辅助拆解的价值,但对最强模型边际效用下降。
- 关联文本强调:支持结论“简洁关键问题胜过冗长详细”[page::5,6]
算法对比分析(5.2节)
- 表2展示了Llama3.1、GPT-3.5、GPT-4o在FinQA与TAT-QA上的多方法表现,方法按效果排序:
| 方法 | 平均性能(FinQA、TAT-QA多个模型) |
|------------|-------------------------|
| EQD | 57.1%(最高) |
| 0-CoT | 48.6% |
| QD-CoT等 | 50.4%左右 |
| 手工设计 | 51.8%左右 |
| DP(分解基线)| 47.5%左右 |
- 说明:
- 基于EQD训练策略的模型拆解品质明显优于通用GPT分解(DP1/DP2)。
- “手动”方法也比多数传统提示优,但不及EQD,凸显训练驱动生成子问题优于人工设计。
- 试验验证:
- 作者强调EQD的训练专注于对子问题“有效性”的优化,从而带来稳健性能提升。
- 论点:
- 仅靠提示注入域知识能力有限,真正的性能提升需专门训练优化生成子问题。[page::6,7]
消融研究(5.3节)
- 测试不同训练阶段组合:
- 无微调
- 仅阶段一(领域微调)
- 两阶段(完整)
- 仅阶段二(QA对齐)
- 结果(见图3)显示:
- 双阶段微调的模型性能最高(EmAcc约54%),生成的拆解问题平均字数最少(13.8字),数量极少(约1.2个)。
- 仅阶段一微调生成拆解较多(平均6个,约117词),性能尚可(52.1%)。
- 仅阶段二训练效率低,生成拆解多且累赘,性能不及阶段一。
- 无微调逻辑冗长且效果最差(44.6%)。
- 解读:
- 领域微调奠定模型能力基础,保障生成子问题的专业和相关。
- QA对齐强化阶段引导模型以更简洁有力的方式生成问题,优化辅助效果。
- 体现训练协同促进:两步缺一不可。
- 别样视角:简洁帮助答案正确率提升,冗长反增加误导风险。[page::7]
推理效率分析(5.4节)
- 图4展示EQD及三基线的推理时间与额外输入词数表现:
- EQD推理时间约110分钟,远优于DP2(517分钟)和N-shot(202分钟),仅略高于0-CoT(91分钟)。
- EQD额外词数仅14词,远少于DP2(223词)和N-shot(101词)。
- GPT-4o(DP2方法的子模型)平均生成7.3辅助问题,EQD仅生成1.2,更显紧凑高效。
- 结论:
- EQD兼顾效果与推理速度,适合实际应用。
- 冗长的辅助问题往往带来性能阻滞,而少量精确辅导提问更优。
- 与性能对比呼应:
- 单一关键问题的辅助比多步骤详问效果更佳,更符合LLM内在推理模型特性。
- 案例和图示:
- 图1和案例研究(7节)进一步佐证上述结论。[page::8]
---
3. 图表深度解读
图1:[page::0]
- 说明:
- 比较三种处理流程:
- 直接输入上下文+问题(C+Q)给LLM,无拆解,答案错误。
- 细致拆解多步骤子问题(DQ1),答案依然错误,且过程复杂。
- EQD生成单一关键子问题(DQ2),辅助LLM回答正确。
- 含义:
- 细致拆解不一定带来正效应,可能引入困惑。
- 简洁有效的关键问题更能有针对性帮助模型聚焦,提升答对率。
- 底层逻辑:
- 与报告主张精练拆解更有利于领域难题解答相呼应。
图2:[page::2]
- 说明:
- 展示EQD两阶段训练流程:
- 步骤1:领域微调,使用对话型问题拆解数据训练QD模型。
- 步骤2:QA专家对齐,采用奖励机制反馈(QA模型无/有子问回答结果对比),通过PPO算法强化QD模型输出的有效性。
- 细节:
- QD模型存储为LoRA适配器,参数高效管理。
- 对比奖励考虑是否答题正确与影响幅度,模型对应调整策略。
- 价值:
- 突出训练流程的巧妙设计,解决领域知识注入与推理优化的两难。
表1(多模型多数据集表现比较表)[page::6]
- LLM包括多主流开源及闭源模型,直接QA对比EQD-辅助QA。
- 结果突出EQD普适进步作用,尤其对弱模型和复杂数据集贡献最大。
- 显示EQD方法跨模型跨数据集的有效泛化能力。
表2(多方法对比)[page::7]
- 包含各类提示、分解、检索方法及手动设计。
- EQD优于所有基线,尤其在FinQA/TAT-QA两大复杂集上亮眼。
- 反映训练生成支持子问题比提示设计更科学,且能实现持续性能提升。
图3(消融实验效果与生成子问题字数)[page::7]
- 横轴四种微调组合,蓝条表示性能,红条表示生成问题字数。
- 证明结合两阶段微调达到最佳效果和最简洁子问题表达。
图4(推理时间与输入词数比较)[page::8]
- EQD相比最短推理时间0-CoT稍慢,但远快于DP2和N-shot。
- EQD生成的辅助内容最精简,节省模型执行资源。
- 强调本方法在性能与效率间取得了优良平衡。
---
4. 估值分析
报告定位为技术研究开发,非投资估值分析,故无普通金融估值模型(如DCF、P/E等)相关环节。
不过,论文中“价值”一词隐喻了“训练效果和资源投入产出比”的评估:
- EQD相比传统领域微调和复杂提示,投入小但提升显著。
- 使用LoRA适配器节省大量模型参数微调成本。
- 推理时间成本低,便于实际部署。
因此,本报告以“性能提升/资源消耗比”视角衡量EQD模型有效性,具备高价值的技术和应用潜力。
---
5. 风险因素评估
报告中虽未设专门“风险”章节,但暗藏风险点可推断分析:
- 数据依赖性风险:
- 训练依赖标注的领域问答拆解数据(ConvFinQA仅3,000条),数据规模小,标注质量直接决定模型拆解质量和QA效果。
- 新领域推广受限于类似数据可获得性。
- 泛化能力限制:
- 尽管多数据集测试显示良好泛化,但模型仍基于财务领域,不同领域知识体系差异可能影响效果。
- 转移至其他领域需要新的拆解数据,数据不够通用。
- 模型依赖风险:
- EQD模型作为辅助工具依赖基础QA模型性能,若QA模型本身局限,辅助作用有限。
- 业务场景适应性:
- 某些特别复杂业务场景可能需要更复杂推理拆解,EQD单一问题策略或不足。
- 误导风险:
- 若辅助子问题生成失准(奖励函数未覆盖边界情形),可能带来错误答案升级风险。
- 解决策略:
- 双阶段训练并设计平衡奖励,减少误导风险。
- 低资源消耗降低训练门槛,方便针对特定场景进行调整。
---
6. 审慎视角与细微差别
- 对比感知:
- 文章明确指出精简且关键子问题优于冗余详细拆解,这挑战了当前盛行的CoT细粒度链式推理范式。
- 这可能反映当前LLM已有较强推理能力,不需要过多外部指导,但该结论或受财务领域数据及QA模型能力的限制。
- 内部逻辑:
- 两阶段微调先强调领域知识注入,再强化实用性策略,结构合理且效用明显。
- 消融实验结果支持方法设计,内部无明显矛盾。
- 可能偏向:
- 强调简洁问题优越感,未充分讨论在何类复杂场景需更复杂分步骤拆解。
- FinMA与o3-mini的表现下降表述为模型本身特性限制,未深入剖析是否EQD设计尚不适合某些最新模型架构。
- 限制:
- 只在财务领域验证,其他行业适用性和数据依赖未充分展开。
- 公开可得的领域拆解数据匮乏,限制即刻普适推广。
---
7. 结论性综合
本报告系统提出并验证了一种新颖且高效的专家问题拆解模型——EQD,核心创新点和成果总结如下:
- 核心创新:
- 两步微调训练框架:领域微调赋予拆解领域专业能力,QA专家对齐强化拆解问题实用性。
- 引入四值奖励机制精准衡量拆解问题对问答准确性的影响,指导模型生成既精炼又关键的辅助子空间,改变了传统详尽分步拆解的惯例。
- 极高的计算、时间和数据效率:仅需数千训练样本和一块A100 GPU完成训练,推理时仅附加单个辅助问题,机动且实用。
- 实证结果:
- 在四个多样化财务定量推理问答数据库上,EQD提升了大多数主流LLM的准确率,最大提升达10.5%,平均提升约3.9+%。
- 对性能较弱的模型助益显著,说明EQD有效补足模型推理短板。
- 明显优于现有零样本、少样本提示与基于提示的分解技术,且自训练模型优于纯基于提示生成辅助问题的方法。
- 图表洞见:
- 图1、图2诠释EQD策略优于细致拆解的直观逻辑。
- 表1、表2揭示EQD强普适性及稳健优势。
- 图3、图4证明两阶段训练必须且有效,同时保证了推理效率不被牺牲。
- 案例验证:
- 表5-7详细阐释了模型训练过程中问题拆解策略由繁琐至简洁转变,及最终高效解答真实财务问询的全过程。
- 总体判断:
- EQD拓展了LLM在高复杂度领域量化推理中的技术进步边界。
- 该方法强调“少即是多”原则,以单个关键问题引导LLM精准推理,矫正了细粒度提示链存在的冗余与误导。
- 同时,模型设计注重实用性和可扩展性,为将来更多领域适用奠定基础。
报告在提出理论与实践创新的同时,也真实反映了数据依赖和领域限制,展示出良好的科研态度和严谨性。其成果对金融AI问答、专业领域LLM应用及Prompt设计均有重要参考价值。[page::0-8,13-14]
---
附录与资源
- 报告全文附带丰富附录,包括完整训练超参(LoRA参数、学习率、批次)、评价标准、API成本等实验详情。
- 作者已开放代码仓库,便于复现及后续改进。
- 数据集覆盖范畴广泛,包含表格、文本、对话等多格式财务内容,保证结果说服力。
- 详细提示范例、奖励策略及消融对照体系,辅助理解及实际应用部署。
---
总结
该报告通过系统设计与实验验证,成功展示了一种注重“单一关键支持问题”的领域问题拆解新范式,显著提升了LLM在专业财务定量推理问答任务上的表现,同时保持训练与推理的高效性,为未来专业领域多模态高难度问答奠定了坚实基础。其提出的设计理念和实证结论均具备重要的理论创新意义和实际应用价值。