Mixture-of-Personas Language Models for Population Simulation
Mixture-of-Personas Language Models for Population Simulation
论文概览
本文假设预训练大型语言模型(LLMs)难以捕捉目标人群的行为多样性且现有方法存在隐私隐患或效果局限,提出一种无需模型微调的概率提示框架Mixture of Personas(MoP),通过两级分层混合模型融合角色描述与上下文示例引导LLM生成,在多个数据集上实现FID分数提升58%、MAUVE分数提升28%的对齐与多样性优化,最终证明MoP可跨基础模型迁移,能高效生成符合目标人群特征的高质量合成数据。
核心问题
- LLM的可引导性不足:预训练LLM基于全局数据训练,难以对齐特定目标人群的行为、偏好与沟通风格,即使使用角色提示也易出现偏差。
- 生成内容多样性缺失:仅依赖温度调节等现有方法易导致生成内容语义趋同,难以体现人群内部的个体差异。
- 现有方案的局限性:prompt工程耗时耗力,基于个性化数据集的微调依赖稀缺个人数据,既存在隐私风险又限制实际应用。
主要贡献
- 提出MoP框架:构建两级分层混合模型,通过角色选择与示例加权的组合,同时解决LLM的对齐性与多样性问题,无需微调基础模型。
- 支持无监督角色合成:通过K-Means聚类与LLM总结,从目标数据集自动生成角色描述,无需预定义或个人数据配对。
- 具备跨模型迁移性:训练后的门控网络可直接应用于不同基础LLM(如Llama3-8B、Gemma9B、Mistral-7B),实现即插即用。
- 验证实用价值:在新闻生成、评论模拟等场景中表现优异,生成的合成数据用于下游分类任务时,F1分数接近真实数据训练效果。
研究方法
核心框架设计
MoP是一种上下文混合模型,核心是通过两级概率选择机制引导LLM生成,整体流程为“角色采样→示例采样→组合提示→生成响应”。
关键数学模型
- 人群响应概率分解
目标人群P对输入x的响应y的概率可分解为各角色响应概率的加权和:
$p(y | x)=\sum_{k=1}^{K} \pi_{k} p_{L M}\left(y | g_{k}, x\right)$,其中∑kπk = 1
- gk为第k个角色的描述,代表人群中第k个子群的特征;
- πk为角色k的混合权重,反映该子群在人群中的占比倾向。
角色门控网络
混合权重π由输入上下文x与角色gk的语义相似度决定,通过预训练句子编码器与softmax归一化计算:
π = softmax(x⊤g1, ..., x⊤gK) ∈ [0, 1]K
其中x = Wxh(x)、gk = Wgh(gk),h(⋅)为句子编码器,Wx、Wg为可学习参数。基于示例的扩展模型
为提升对齐性与多样性,引入示例加权层,最终概率模型为:
$p(y | x, \mathcal{D})=\sum_{k=1}^{K} \pi_{k} \sum_{j=1}^{N} \Omega_{k j} p_{L M}^{\tau_{k}}\left(y | g_{k}, x_{j}, y_{j}, x\right)$
- Ωkj为示例j对角色k的重要性权重,满足∑jΩkj = 1;
- τk为角色k的温度参数,控制该角色响应的多样性;
- 示例门控Ωk = softmax(x⊤e1 + gk⊤e1, ..., x⊤eN + gk⊤eN),ei为示例i的嵌入。
训练与生成策略
- 训练优化:采用最大对数似然估计优化门控网络参数,通过稀疏门控(仅计算Top-M个角色-示例对)降低计算成本,同时掩码目标示例避免过拟合。
- 角色合成:通过“句子编码→K-Means聚类→LLM总结”流程,从目标数据集自动生成角色描述,无需人工定义。
- 生成过程:先从角色分布Cat(π)采样角色c,再从示例分布Cat(Ωk:)采样示例h,最后结合角色c、示例h与输入x生成响应y。
论文各章节详解
1. 引言(Introduction)
- 背景:LLM在社会科学模拟、经济决策建模、合成训练数据生成等领域应用广泛,但需生成反映目标人群多样性的真实响应。
- 现有问题:角色提示仍存在多样性不足、偏差等问题;prompt工程与微调方案分别面临效率与隐私挑战;仅靠温度调节难以实现语义多样性。
- 研究目标:提出MoP框架,通过概率化角色与示例组合,在无需微调的前提下,提升LLM生成内容的对齐性与多样性。
2. 问题设定(Problem Setting)
- 人群定义:目标人群P包含K个子群,每个子群由角色gk表征,反映子群的行为特征与动机。
- 数据集:𝒟 = (xi, yi)N为人群P的记录数据,xi为输入上下文(如电影名),yi为人类响应(如影评)。
- 核心目标:基于LLM与数据集𝒟,生成符合人群P行为分布的合成响应,且无需角色与示例的直接配对(无监督设定)。
3. 方法(Methodology)
3.1 Mixture of Personas
- 核心思想:将人群响应建模为多个角色响应的混合,通过门控网络动态调整各角色的权重,适配不同输入上下文。
- 优势:利用LLM的先验知识,通过角色提示引导响应方向,无需修改LLM参数。
3.2 Exemplar-based Mixture of Personas
- 核心改进:引入匿名示例池,通过示例门控为每个角色匹配相关示例,既提升对齐性,又通过随机示例选择增强多样性。
- 与现有方法差异:无需角色-示例配对数据,示例选择依赖动态权重而非固定集合。
3.3 门控网络优化(Optimizing The Gating Networks)
- 优化目标:最大化数据集𝒟的对数似然$log (\theta ;\mathcal {D})=\sum_{i}^{N} log \left(\sum_{k}^{K} \sum_{j}^{N} \pi_{k} \Omega_{k j} p_{L M}^{\tau_{k}}\left(y_{i} | g_{k}, x_{j}, y_{j}, x_{i}\right)\right)$。
- 效率优化:稀疏门控(Top-M采样)与示例掩码策略,解决大规模数据下的计算成本与过拟合问题。
3.4 人群模拟(Population Simulation)
- 生成流程:通过两步采样(角色→示例)与LLM生成,实现高效的人群响应模拟,无需切换个性化模型。
3.5 角色合成(Persona Synthesis)
- 流程:使用“all-mpnet-base-v2”编码器嵌入数据→K-Means聚类划分子群→LLM总结每个聚类的角色描述。
- 优势:自动适配目标数据集,减少人工定义成本。
4. 实验(Experiments)
4.1 实验设置
- 数据集:AGNews(新闻分类)、Yelp Reviews(餐厅评论)、SST-2(电影情感短句)、IMDB Reviews(电影评论)。
- 基线方法:ZeroGen、AttrPrompt、ProGen、PICLe等主流提示方法。
- 评估指标:FID(对齐性,越低越好)、MAUVE(分布相似度,越高越好)、KL Cosine(多样性,越低越好)。
4.2 可引导性验证(RQ1)
- 结果:MoP在所有数据集上显著优于基线,平均FID提升58.8%,MAUVE提升27.9%,证明其能有效对齐目标人群分布。
4.3 合成数据质量(RQ2)
- 下游任务:用合成数据训练DistilBERT分类器,MoP生成的数据在AGNews上F1分数达0.871,接近真实数据(0.903),在其他数据集上也优于基线。
4.4 跨模型迁移性(RQ3)
- 结果:基于Llama3-8B训练的MoP可直接迁移至Gemma2-9B与Mistral-7B,迁移后FID进一步降低(Gemma2-9B达0.492),验证即插即用特性。
4.5 消融实验
- 关键组件:示例层是提升对齐性的核心(无示例时FID升至3.694);角色合成模块显著优化性能(无合成时FID=1.674)。
- 参数影响:角色数≥100、示例数≥2000时性能饱和,无需过度增加规模。
5. 相关工作(Related Work)
- LLM可引导性:现有方法分为prompt工程与微调,均存在效率或隐私问题,MoP无需微调且不依赖个人数据。
- 零样本合成数据:ProGen、FuseGen等依赖分类器反馈,MoP无需额外模型,流程更简洁。
- 采样多样性:温度调节、GAN等方法效果有限,MoP通过角色-示例组合实现语义多样性。
6. 结论(Conclusion)
- 核心结论:MoP通过概率化角色与示例组合,在无需微调的前提下,解决了LLM人群模拟中的对齐性与多样性问题。
- 核心价值:跨模型迁移性强,适用于新闻生成、评论模拟、分类任务数据增强等场景。
7. 局限性(Limitations)
- 依赖LLM的输出logits,难以应用于ChatGPT等闭源模型;
- 角色合成可能引入潜在偏差,需进一步优化隐私与公平性的平衡。