论文阅读——One for All: Towards Training One Graph Model for All Classification Tasks
论文概况
题目:One for All: Towards Training One Graph Model for All Classification Tasks
通讯作者:Muhan Zhang: muhan@pku.edu.cn
作者院校:华盛顿大学,南洋理工大学,北京大学
发表于:ICLR 2024
论文内容
概括总结
图学习领域有三大挑战:1 不同领域的图数据具有异质属性且服从不同分布;2 图任务可分为节点级、边级和图级任务,具有不同嵌入策略;3 适用于情境学习的图提示范式尚未明确。
文章提出OFA框架作为解决上述挑战的通用方案:OFA通过自然语言描述节点和边构建文本属性图,将异质图数据统一表征,并利用语言模型将跨领域的文本属性编码至同一嵌入空间。
OFA提出”目标节点”概念,用统一的任务表征范式标准化不同图任务,并针对图情境学习设计新型图提示范式。
OFA使用LLM将文本编码到同一嵌入空间以消除领域差异,然后定义兴趣节点来处理不同层级任务,兴趣节点与兴趣提示节点相连,兴趣提示节点与类别节点相连,形成 “输入图 + 提示子图” 的混合图,然后通过图模型输出类别节点的嵌入。
问题
目前仅支持分类任务,无法处理回归任务,且跨域知识迁移存在局限。
方法将原始图转换为了语言来描述,存在损失。