论文阅读——One for All: Towards Training One Graph Model for All Classification Tasks

论文概况

题目One for All: Towards Training One Graph Model for All Classification Tasks

通讯作者:Muhan Zhang: muhan@pku.edu.cn

作者院校:华盛顿大学,南洋理工大学,北京大学

发表于:ICLR 2024

代码仓库LechengKong/OneForAll: A fundational graph learning framework that solves cross-domain/cross-task classification problems using one model.

论文内容

概括总结

图学习领域有三大挑战:1 不同领域的图数据具有异质属性且服从不同分布;2 图任务可分为节点级、边级和图级任务,具有不同嵌入策略;3 适用于情境学习的图提示范式尚未明确。

文章提出OFA框架作为解决上述挑战的通用方案:OFA通过自然语言描述节点和边构建文本属性图,将异质图数据统一表征,并利用语言模型将跨领域的文本属性编码至同一嵌入空间。

OFA提出”目标节点”概念,用统一的任务表征范式标准化不同图任务,并针对图情境学习设计新型图提示范式。

image-20250805200733065

OFA使用LLM将文本编码到同一嵌入空间以消除领域差异,然后定义兴趣节点来处理不同层级任务,兴趣节点与兴趣提示节点相连,兴趣提示节点与类别节点相连,形成 “输入图 + 提示子图” 的混合图,然后通过图模型输出类别节点的嵌入。

问题

目前仅支持分类任务,无法处理回归任务,且跨域知识迁移存在局限。

方法将原始图转换为了语言来描述,存在损失。