Enhancing user stance detection on social media using language models: A theoretically-informed research agenda
Enhancing user stance detection on social media using language models: A theoretically-informed research agenda
论文概览
本文假设基于跨学科视角明确立场的理论定义、融合用户深层心理属性并借助大型语言模型(LLMs)可突破现有立场检测局限,通过文献综述、框架构建与现有研究合成的方法,发现LLMs能有效推断用户属性并提升立场检测性能,最终得出“应转向理论驱动的用户层面立场检测,LLMs为其提供关键技术支撑”的结论,并提出四点研究议程。
核心问题
- 现有立场检测研究缺乏对“立场”的系统性理论概念化,未充分关联其跨学科本质与用户深层属性(如心理特征、价值观)。
- 多数研究聚焦消息层面立场检测,忽视立场本质上是用户层面的构念,且未有效利用LLMs推断用户属性的能力。
- 现有模型在零样本、跨目标立场检测中存在局限性,数据资源缺乏用户属性多样性与多语言、纵向代表性。
主要贡献
- 整合社会学、心理学、哲学等跨学科视角,明确立场的理论定义与分类框架,区分立场与情感、态度等相关概念。
- 系统梳理立场检测的计算模型演进(传统机器学习、深度学习、预训练语言模型),重点分析LLMs在立场检测中的应用场景与潜力。
- 提出融合用户深层属性(道德基础、价值观、情感)的LLM驱动立场检测路径,为解决用户层面立场检测难题提供方案。
- 构建四点理论驱动的研究议程,为未来立场检测研究的包容性与实用性指明方向。
研究方法
- 文献综述法:系统梳理19个学科28项研究中“立场”的定义,提炼核心主题;回顾23项LLM用于立场检测的相关研究,总结关键方法与效果。
- 框架构建法:基于跨学科分析,构建立场形成、表现与传递的多维度框架,明确用户属性与立场的关联路径。
- 研究合成法:整合现有计算模型的优势与不足,结合LLM的技术特性,提出融合用户属性的立场检测优化方案。
各章节详解
1. 引言(INTRODUCTION)
本章开篇点明社交媒体立场检测的广泛应用价值,涵盖虚假信息传播预测、社会政治现象分析、公共卫生应对等领域。基于社会语言学“立场三角”等理论,定义立场为“对特定目标的公开观点表达”,并区分立场与情感(立场具有目标特异性,需间接推断)。
核心指出现有研究的两大缺口:一是特征模态局限于消息层面,忽视用户深层属性;二是任务聚焦消息层面,未契合立场的用户层面本质。最后提出LLMs可通过推断用户心理属性、支持零样本学习等方式填补这些缺口,明确本文旨在构建理论驱动的用户层面立场检测研究框架。
2. 什么是立场?(WHAT IS A STANCE?)
本章通过跨学科文献分析,梳理立场的核心定义与维度: - 从定义本质看,立场是“对外部目标的公开态度、判断或世界观表达”,兼具认知(如确定性)与情感(如情绪倾向)维度,与态度的区别在于“公开表达”与“私人评估”的差异。 - 从表现形式看,立场可分为认知型(基于信念、可靠性判断)与情感型(基于情绪、感受),且具有人际互动性(如社交策略性表达)与社会规范性(如群体文化影响)。
基于此,构建立场形成-表现-传递框架:立场源于对目标的认知/情感反应,通过语言行为、互动风格、心理变化等多模态表现,最终在个人、人际或社会层面传递。
3. 在线立场推断的计算模型(COMPUTATIONAL MODELS OF ONLINE STANCE INFERENCE)
本章按模型演进脉络,分类介绍立场检测的计算方法: - 目标特异性分类:包括目标特定/多目标立场检测(局限于训练目标)与零样本立场检测(可处理未见过的目标,LLMs推动其普及)。 - 模型架构分类: 1. 传统机器学习(ML):以SVM、逻辑回归为代表,依赖n-gram、情感特征等手工设计特征,用户层面研究较少。 2. 深度学习(DL):基于LSTM、GRU、注意力机制等,可捕捉文本深层依赖,部分模型尝试融合社交网络特征,但仍缺乏用户深层属性利用。 3. 预训练语言模型(PLMs):如BERTweet、RoBERTa,在立场检测中实现state-of-the-art性能,部分研究开始尝试融合道德基础等用户属性。 4. 无监督学习(UL):通过聚类算法(如DBSCAN)处理无标签数据,依赖社交媒体活动模式,但未涉及深层用户属性。
4. 用大型语言模型增强立场检测(ENHANCING STANCE DETECTION USING LARGE LANGUAGE MODELS)
本章聚焦LLMs在立场检测中的应用与优化: - LLM的核心应用方式: 1. 增强建模管道:生成关键词、推理链等知识特征,辅助下游模型(如BART); 2. 提示策略:Chain-of-Thought(CoT)、逻辑一致CoT(LC-CoT)等提升零样本/少样本检测效果; 3. 微调优化:通过立场相关数据或价值注入微调LLMs,提升目标适配性; 4. 多智能体系统:分配语言专家、领域专家等角色,融合多视角分析。 - 用户属性融合路径: 1. 注入人类价值观与道德基础:通过微调或提示,将Schwartz价值观、道德基础理论(MFT)等融入LLMs; 2. 整合情感与情绪:通过角色提示分析文本情感基调,但需警惕情感-立场关联带来的偏差。 - 现存挑战:LLM存在领域知识缺口、固有偏差(如政治倾向),部分场景下性能不及非LLM基线模型。
5. 用户层面立场检测的整合研究议程(AN INTEGRATIVE AGENDA FOR FUTURE RESEARCH)
本章提出四点未来研究方向: 1. 挖掘立场形成的心理基础:系统探究道德基础、价值观等心理属性与用户立场的关联机制。 2. 优化数据资源:构建包含用户深层属性、多语言、纵向追踪的“厚数据集”,提升数据代表性。 3. 拓展新兴任务:重点研究零样本/跨目标立场预测、立场社群识别等实用任务。 4. 改进LLM模型设计:开发动态多智能体架构、偏差校准网络,增强模型可解释性与中立性。
6. 结论(CONCLUSION)
本章总结现有立场检测研究的核心局限,强调“理论驱动+用户层面+LLM赋能”的研究范式转型。指出LLMs为推断用户深层属性、突破消息层面检测局限提供了关键技术支撑,未来研究需结合跨学科理论与多样化数据,推动立场检测在社会治理、公共政策等领域的实际应用。同时,多语言数据集构建与模型偏差 mitigation 将是提升研究包容性的关键。