KDD 2023:图神经网络的新前沿
作为2023年知识发现与数据挖掘会议(KDD)的大会主席,加州大学洛杉矶分校计算机科学副教授兼某机构学者指出,图学习仍是本届会议最热门的主题,但这并不意味着该领域停滞不前。
图神经网络(GNN)是一种机器学习模型,可生成图节点的嵌入或向量表示,捕获节点与其他节点关系的信息。它们不仅可用于预测边或标注节点等图相关任务,还能服务于任意下游处理任务,充分利用图结构编码的信息。
架构演进:突破长距离依赖限制
传统GNN通过消息传递机制生成嵌入:每个节点接收相邻节点的嵌入信息并整合更新,通常重复2-3次以捕获1-3跳邻域信息。但这种方式难以建模长距离依赖关系,特别是在软件分析或物理系统仿真等应用中尤为关键。
受Transformer架构启发,研究者开始探索全节点通信方案。虽然能解决长距离依赖问题,但面临两大挑战:
- 效率问题:对于包含数百万甚至数十亿节点的大规模图,全连接通信计算成本过高
- 语义稀释:过度连接会削弱图结构中有意义关系的表征能力
为解决这些问题,研究者尝试将文本和图像领域的位置编码技术迁移至图结构。例如通过随机游走或特征分解获取节点相对位置信息,但后者存在计算耗时的问题。
多层次效率优化策略
算法层面
- 采用采样技术减少计算操作量
- 设计图稀疏化算法,保留目标节点最相似的连接
- 在推理阶段使用知识蒸馏将复杂GNN压缩为简易模型(如多层感知机)
- 应用量化技术加速推理计算
系统与硬件层面
- 设计分布式系统加速训练和推理过程
- 通过多计算节点协同解决内存约束问题
- 开展软件-硬件协同设计实现底层加速
新兴应用与研究方向
因果推理
在图环境中开展因果分析,处理对象间相互干扰的问题,与传统独立假设(如药物研究中患者独立性)形成显著区别。
深度表示与因果推断融合
- 将治疗措施表示为连续向量而非二元变量
- 构建时间连续的动态治疗模型
- 将时间信息注入图结构
多领域交叉应用
- 用图结构描述多智能体动态系统
- 图生成技术在药物研发等领域的应用
- 大型语言模型与知识图谱的融合:结合LLM的泛化能力和KG的严谨推理
图神经网络持续涌现创新成果,图结构作为建模互联世界的基础数据结构,正在不断拓展其技术边界和应用场景。