`

An Interpretable Deep Learning Model for General Insurance Pricing

创建于 更新于

摘要

本文提出了可解释的精算神经加法模型(ANAM),结合深度学习与加法模型的优势,通过单变量子网络和二元交互作用子网络独立学习各因子影响,实现模型的透明解释。采用格点回归确保单调性,通过惩罚项促进平滑及稀疏性,并设计三阶段变量选择流程保障计算效率和模型简洁。实验结果表明,ANAM在合成及真实数据上均优于传统和黑箱模型,兼具高预测力和完整可解释性,满足精算定价领域特定需求 [page::0][page::1][page::3][page::5][page::13][page::17][page::21]

速读内容


研究背景及目标 [page::0][page::1]

  • 传统精算定价多采用GLM,具备解释性但预测能力有限。

- 深度学习提升预测性能,但缺乏解释性,难以为行业接受。
  • 目标:构建内生可解释且预测准确的深度学习定价模型,满足精算特定的解释需求和实用约束。


解释性框架建立 [page::2][page::3][page::4][page::5]

  • 结合文献定义,提出“具体因果透明且易理解”的行业可解释性定义。

- 数学表达为带有限制及惩罚项的损失优化问题,引入6项重点约束:主效应透明、交互效应透明、变量重要性量化、稀疏性、单调性、平滑性。
  • 解释性要求通过限定模型函数族和参数惩罚实现。


Actuarial NAM模型架构与方法创新 [page::6][page::7][page::8][page::9]

  • 每个主变量及二元交互分配独立神经子网络/格点回归子模型,输出加权叠加形成预测。

- 采用格点回归实现单调约束,使用针对神经网络的二阶差分罚项保证平滑。
  • 三阶段变量选择:集成多次训练筛选主效应,遵循强遗传约束筛选有意义交互,最终微调全模型。

- 采用边缘正交约束保证模型可辨识性。
  • 参数训练融合投影梯度下降、Dykstra算法保证单调条件。


合成数据实验与结果 [page::13][page::14][page::15][page::16][page::17]

  • 设计含复杂非线性主效应和三组交互效应的模拟样本,包含噪声变量验证稀疏选择有效性。

- 变量筛选准确剔除无效变量,交互选择定位真实交互关系。
  • 模型恢复真实函数形态良好,噪声高时平滑性和拟合略下降但因果关系依旧明显。

- 在多元性能指标(NLL、RMSE、MAE)上优于GLM、GAM及多种机器学习模型。

真实保险数据应用及评估 [page::18][page::19][page::20][page::21][page::22]

  • 应用比利时机动车保险理赔数据,目标为理赔率,应用Poisson分布及暴露调整。

- 变量选择排除低贡献特征,选定7个主效应及5个交互项,包含对奖励-惩罚等级的单调约束。
  • 模型各形状函数清晰解释变量作用,满足平滑和单调性要求。

- 预测准确度优于多种基准模型,表现出色兼顾性能与可解释性。

结论与展望 [page::21][page::23]

  • ANAM实现了深度学习模型的行业专属可解释框架,兼备优异表现与透明逻辑。

- 独特的三阶段变量选择和格点回归保证模型可用性与业务适用性。
  • 未来方向包括多输出分布建模、多任务联合学习以及非完全解释模型的提升探索。


关键图示参考

  • 模型架构示意图

- 合成数据交互效应展示
  • 变量选择子网络方差对比

- 交互部分效应验证
  • 低噪声情形下模型形状函数

- 真实数据形状函数及重要性量化

深度阅读

极其详尽全面分析报告——《An Interpretable Deep Learning Model for General Insurance Pricing》



---

1. 元数据与概览



报告标题: An Interpretable Deep Learning Model for General Insurance Pricing
作者: Patrick J. Lauba, Tu Phoa, Bernard Wong
机构: UNSW Sydney,风险与精算研究学院
日期: 未明确给出,最新引用2024年相关文献
主题: 采用可解释性深度学习模型应用于一般保险定价,结合精算领域需求,提出针对该领域的可解释模型设计与应用研究。

核心论点总结:


本报告针对传统保险定价中常用的广义线性模型(GLM)存在的预测能力有限以及深度学习模型难以解释的矛盾,提出一种兼具高预测精度与透明内在机制的深度学习模型,称之为Actuarial Neural Additive Model (ANAM)。该模型基于神经加性模型(Neural Additive Models, NAM)扩展,结合针对保险定价的特定可解释性约束(稀疏性、平滑性、单调性等),并通过数学框架明确定义了保险定价中的模型可解释性,实现可解释性和预测能力双重提升。模型在模拟以及实际保险数据分析中展示出优异的性能,优于传统模型及多种机器学习基线模型。

---

2. 逐节深度解读



2.1 引言与背景(Section 1)


  • 关键论点:

- GLM作为传统的保险理赔建模工具,具备易解释性,但预测能力有限。
- 深度学习近年来在保险赔付建模中显示出更强的预测能力(Noll等,2020; Wüthrich和Buser,2023),然而缺乏可解释性,且深度模型被认为是“黑盒”。
- 保险定价需要兼顾各方利益,透明度和伦理约束重要,因此“可解释性”成为模型能否被广泛采用的核心瓶颈。
- 现有文献多侧重于用神经网络改进传统可解释模型,但缺乏系统数学框架及保险领域专门定义的可解释方法。
  • 理由和假设:

- 强调各利益相关者(监管、客户、再保险人)对于透明公正的保险费率计算的需求。
- 认为“全黑盒”模型难得到这一认可。
- 指出现有定义可解释性的文献没有形成统一标准。

2.2 研究贡献(Section 1.2)


  • 建立保险定价可解释框架,明确数学定义、可解释要求。

- 提出ANAM模型,基于NAM结构,并加入稀疏、平滑和单调等约束,实现“本质可解释”的深度定价模型。

2.3 可解释性理论框架(Section 2)


  • 定义可解释性困难及现有定义的局限性(Section 2.1.1):

- 传统以“人类理解”为核心的定义过于主观。
- Thampi(2022)强调因果关系视角(预测稳定性、模型因果透明等)。
- Rudin等(2022)提出约束优化数学形式,将可解释性约束作为正则项或函数形式限制。
  • 内生可解释性与后验解释性区分(Section 2.1.2):

- 内生可解释性(模型自身结构透明,如GLM、GAM,或本报告的ANAM)。
- 后验解释性(对黑盒行为的解释,如SHAP、部分依赖图,可能不够忠实)。
- 报告强调高风险领域应优先采用内生可解释模型。
  • 报告自身定义(Section 2.2.1-2.2.3):

- 定义: 一个保险定价模型若能完整、透明、准确描述每个风险因子对输出的影响及其相互作用,则为可解释。无需“理解所有参数”的含义,而是“满足透明、因果解释”的可解释性要求。
- 数学框架: 以目标函数加入各类解释性约束(稀疏、单调、平滑等)实现,形成形式为惩罚与约束的最优化问题。
- 具体的六项可解释及实务关键要求:
1. 主效应透明表达
2. 交互效应透明表达
3. 可量化变量重要性
4. 稀疏性(仅包括重要变量)
5. 单调性(如保费随风险等级单调变化)
6. 平滑性(避免过于波动,符合精算经验)

---

2.4 ANAM模型及架构设计(Section 3)


  • 基础于NAM,每个主变量或变量对由单独子网络(subnetwork)或子模型(lattice regression)学习。

- 数学形式:
\[
g(\mu) = \beta + \alpha1 \sum si(Xi) + \alpha2 \sum h{jk}(Xj, Xk)
\]
其中\( s
i \)是一维主变量形状函数,\( h_{jk} \)是二维交互形状函数,\(\alpha\)是权重。
  • 子网结构:包含多层神经元,激活函数不限,分类变量采用one-hot编码。

- 交互效应限制:只考虑主效应的成对交互,符合解释难度限制。
  • 单调性通过Lattice回归实现:

- Lattice是带参数的多维格点模型,对参数施加单调约束保证单调性绝对满足(区别于常规惩罚法不保证严格单调)。
- 格点通过双线性插值实现平滑。
  • 平滑性通过对形状函数二阶导数加惩罚实现,计算上用有限差分数值近似。

- 稀疏性采用三阶段筛选流程:
1. 主效应筛选:训练多个随机初始化的ANAM模型,通过每个子网络输出形状函数方差衡量变量重要性,保留方差较大者。
2. 交互效应筛选:仅考虑两个主效应均被筛选的变量对,评估加上该交互后模型对验证集的损失变化,选取贡献最大的前若干交互项。
3. 重新训练包含选中主效应和交互效应的完整模型,加入所有正则项。
  • 可识别性约束保证模型各组件功能唯一不重叠,避免参数混淆。

- 训练时采用带有约束的投影梯度下降,迭代过程包括梯度下降更新及对Lattice模型参数的单调约束投影(Dykstra算法保证收敛)。

---

2.5 数据实证与性能(Section 4)



2.5.1 合成数据模拟(Section 4.3)


  • 数据建构:

- 10个均匀分布变量,定义响应均值为固定形式的非线性组合,包含主效应和3对交互效应,参考真实保险标的特征结构。
- 独立生成两套50,000样本数据,低噪声(\(\phi=1\))和高噪声(\(\phi=5\))。
  • 变量筛选表现:

- 通过形状函数方差成功甄别噪声变量(X9、X10)方差极小,8个真实因子得以保留。
- 交互项筛选正确识别真实性交互(X3:X4、X5:X6、X7:X8),高噪声下略微保守选择。
  • 预测与解释:

- 低噪数据下,ANAM能精准拟合主效应及交互热图,除X2过度平滑外大体贴合真值。
- 高噪情况下,模型捕捉统计关系但有轻微过拟合痕迹,形状函数存在波动。
- 通过可视化完整形状函数,实现模型因果解析和结果可信支持。
  • 预测性能对比(表1):

- ANAM在NLL和RMSE指标上均优于GLM、GAM、基于决策树的EBM、LocalGLMnet、GBM及神经网络等模型。
- GAM和EBM表现优于局部神经网络,可能因底层结构更贴近真值结构。
- Variable selection是模型优异性能的重要保障。

2.5.2 真实数据案例(Section 4.4)


  • 数据简介:

- 比利时机动车第三方责任险数据,163,212条,含12个自变量(6分类,6连续),目标是索赔率(nclaims),且含“BM(Bonus–Malus)”风险等级,要求单调性。
- 预处理后去除冗余变量,连续变量标准化,类别变量one-hot编码,考虑曝光量作为偏置项。
- 假设泊松分布,采用对数连接函数。
  • 变量筛选:

- BM变量用Lattice回归强制单调递增,其他变量用浅神经网。
- 通过方差指标剔除coverage,fleet,use,sex变量,保留余7个主效应。
- 筛选备择交互21个,最终选5个交互:long:agec、power:long、fuel:agec、lat:long、ageph:agec,兼顾重要性和计算复杂度。
  • 模型训练与解释:

- 7主 + 5交互,模型满足平滑及边际清晰约束。
- 7主效应均平滑且无异常波动,BM稳定单调递增。
- 交互函数字体清晰,可视化揭示变量之间的复杂关系。
- 部分主效应相较无交互模型地位下降,理由为与交互项共享信息。
  • 预测性能对比(表2):

- ANAM在NLL、RMSE、MAE指标全面领先。
- LocalGLMnet表现出中等竞争力,传统GLM和GAM相对较弱。
- 表明ANAM兼顾高预测性能与优秀可解释性的能力。

---

3. 图表深度解读



图1:ANAM模型架构示意图(Page 7)




  • 描述:

图中展示了模型结构,每个输入变量分别通过one-hot或连续输入转换成不同维度,传入对应子网络(隐层为白色圆点),通过输出节点形成单变量形状函数及二元交互函数,最终加权求和产生条件期望。
  • 解析:

该架构强调每个因子对应独立子网,便于分离解释;加法组合易于可视化。
子网层数和神经元数可调,支持复杂关系拟合。
该结构同时支持传统GAM和深度网络优势。

图2和图3:合成数据函数真值(Page 13-14)


  • 描述:

- 图2展示两个主要变量X1、X2的非线性曲线形状。
- 图3展示三对交互(X3:X4, X5:X6, X7:X8)的热力图,颜色变化代表响应的增减趋势和形态。
  • 解读:

- 主效应曲线包含平滑与振荡,考验模型平滑约束表现。
- 交互图中有平滑渐变(f56)、单调下降(f34)、和阶梯状大幅跳变(f78),以测试模型的多样交互捕捉能力。

图4和图5:变量重要性筛选(Page 15)





  • 描述:

- 图4显示10个模型包络输出子网方差排名,X9和X10的值趋近于0,确认剔除噪声。
- 图5为添加单个交互项后的验证损失降低量,前3高交互均为真值设定。
  • 意义:

- 安全有效的变量筛选机制,兼顾统计性能和计算效率。
- 验证交互识别准确性。

图6和图7:ANAM训练后形状函数(Page 17-18)





  • 描述:

对应低噪声和高噪声数据,展示模型拟合出的主效应和交互效应形态图。
  • 解读:

- 低噪声时拟合平滑,略有过度平滑问题。
- 高噪声时曲线较波动,仍基本捕获趋势,噪声干扰下表现合理。
- 模型保证了单调性约束(X3交互)严格执行。

表1:合成数据预测性能指标对比(Page 18)



| Model | NLL (Low) | RMSE (Low) | MAE (Low) | NLL (High) | RMSE (High) | MAE (High) |
|-------|-----------|------------|-----------|------------|-------------|------------|
| GLM | 2.64 | 2450.76 | 1097.36 | 5.17 | 4832.31 | 1380.31 |
| GAM | 1.69 | 2029.96 | 721.05 | 4.28 | 4648.41 | 1129.99 |
| EBM | 1.80 | 2189.64 | 780.22 | 4.45 | 4917.47 | 1255.79 |
| LocalGLMnet | 2.10 | 2327.84 | 966.57 | 4.72 | 4907.89 | 1466.25 |
| GBM | 1.72 | 2033.16 | 664.89 | 4.57 | 4686.33 | 1044.83 |
| Neural Nets | 2.16 | 2303.25 | 919.96 | 4.86 | 4794.13 | 1466.47 |
| Actuarial NAM (Best) | 1.65 | 2020.66 | 698.90 | 4.25 | 4632.97 | 1167.38 |
  • 评析:

ANAM在最大多数指标上领先,体现了可解释模型兼顾准确性的潜力。

图8和图9:真实数据变量筛选(Page 20)





  • 主效应筛选图中,bm、ageph、long、power等重要变量方差显著高。

- 交互效应筛选图表现选定5个交互显著降低验证损失。

图10和图11:真实数据模型解释及重要性量化(Page 21-22)





  • 重要交互项影响显著,部分主效应因交互解释而单独重要性下降。

- 各形状函数符合预期趋势,平滑且符合领域先验单调关系。

表2:真实数据预测性能对比(Page 23)



| Model | NLL | RMSE | MAE |
|----------------|-------|-------|-------|
| GLM | 38.03 | | |
| GAM | 38.40 | 37.29 | 23.88 |
| EBM | 38.01 | 36.91 | 22.50 |
| LocalGLMnet | 37.97 | 36.83 | 22.17 |
| GBM | 37.98 | 37.06 | 22.44 |
| Neural Nets | 37.95 | 36.81 | 21.72 |
| Actuarial NAM | 37.88 | 36.79 | 21.57 |
  • ANAM在所有指标中取得最好结果,表明其实际商业应用潜力。


---

4. 估值分析



本报告不聚焦估值方法(如DCF、市盈率),而聚焦模型开发与可解释性。在模型优化方面,采用约束优化(惩罚项+结构限制)训练深度神经网络体系,确保模型保留可解释性属性。尤其在实务应用中,模型架构的可解释设计实现了保险精算师可操作的透明度,而无需损失预测性能。

---

5. 风险因素评估


  • 主要风险源自模型可解释性和预测能力的平衡,若可解释限制过严,预测性能可能受限。

- 本模型通过设计的平滑、稀疏、单调约束,减轻过拟合与不合理行为风险,且提高对监管、客户透明度。
  • 算法优化中单调约束投影确保模型输出符合理赔业务预期,降低模型误差原因难知的风险。

- 采用三阶段选择降低高维特征空间中噪声引入风险。
  • 未来扩展灵活分布假设存在模型偏离风险,建议多任务学习框架并考虑数据充分性问题。


---

6. 审慎视角与细微差别


  • 虽然ANAM大幅提升了深度模型的可解释性,但因仍属神经网络,模型复杂度大,训练时间和调优负担重。

- 交互效应仅含二阶限制,未涵盖更高阶交互,可能忽略复杂多变量耦合。
  • 模型假设分布简单(Gamma或Poisson),当前版本未支持复杂异方差或多参数分布,存在建模局限。

- 平滑惩罚权重需合理调节,否则会过度平滑丢失局部信息;该权重目前依赖经验调优,未来可考虑自动化调节。
  • 变量筛选阈值及入选数量依赖研究者经验,缺少根据数据驱动的确定方案,可能引入人为偏差。

- Lattice回归需离散格点设计,若变量空间高维或连续变量过于稀疏,可能影响模型泛化表现。
  • 尚未涵盖更多类型数据(如时序、文本)的具体设计细节,虽理论可扩展,实操仍待探索。


---

7. 结论性综合



本报告开创性地将深度神经网络与保险定价的可解释性需求深度融合,提出了基于神经加性模型(NAM)架构的Actuarial Neural Additive Model (ANAM)。该模型利用独立子网络对每一输入维度和每对交互变量进行拟合,结合数学约束和正则项强制实现模型的透明主效应与交互效应表达、变量重要性量化稀疏性剔除冗余特征、单调性确保保险业务合理假设、以及平滑性维持输出曲线稳定,极大提升了传统深度模型的可解释性。

在合成数据上,ANAM成功恢复了精心设计的非线性关系形式,包括复杂的交互结构,同时准确剔除了无关变量,较传统方法如GLM、GAM及黑盒机器学习方法展现了优越的预测性能。真实保险案例显示,ANAM能够灵活处理真实复杂数据,稳健拟合且满足单调及平滑经济约束,预测过程中更优于多种有力模型。

模型解决了保险领域长期关于机器学习黑盒问题的瓶颈,实现在高风险、高透明度要求场景下的深度学习应用。同时,ANAM的设计兼顾了理论严谨(明确的可解释定义与数学框架)、实际操作(分阶段变量选择,投影优化算法)和应用价值(预测准确与解读易用)。

未来工作提出了多输出分布回归、联合频次和金额多任务学习以及与更灵活模型组合的探索路径,以进一步提升模型表达能力及适应性。

---

综述性结语



这份报告在保险定价领域为可解释深度学习模型的设计和应用提供了开创性框架与实证验证。通过巧妙结合神经加性模型结构和精算领域约束要求,生成的ANAM模型不仅突破了传统神经网络“黑盒”限制,更在合成和真实数据上凸显了其可解释性与预测性能的双重优势。报告内容严谨全面,既有理论创新也有实务指导价值,为保险及相关金融领域广泛采用深度学习模型指明了一条可行路径。

---

参考页码溯源示例


  • 引言及背景核心内容:[page::0,1]

- 可解释性定义与数学架构:[page::2,3,4,5]
  • 模型架构与训练方法:[page::6,7,8,9,10,11]

- 合成数据模拟与分析:[page::13,14,15,16,17,18]
  • 真实保险数据案例:[page::18,19,20,21,22,23]

- 结论及未来工作:[page::21,22,23,24]

---

附注


  1. 本分析已重点覆盖所有章节重要思想、方法及图表,完整展示了报告中深层金融与精算技术细节。

2. 对论文采用的数学符号与模型概念均做了金融专业化的解释,确保内容完整且易于领域理解。
3. 图表全部细致解析并连贯关联文本论点,体现作者设计思想的整体一致性与逻辑清晰度。

报告