图卷积的数学基础
图神经网络(GNN)通过提取图结构特征进行节点预测,相比孤立处理实体的模型具有显著优势。传统方法如随机游走和图核方法已被GNN取代,因其能更灵活地建模系统关系。
图计算的核心挑战
- 结构不一致性:分子图中原子数量、类型、连接方式和强度各不相同
- 节点顺序等变性:算法输出不应依赖节点排列顺序
- 可扩展性:社交网络等大规模稀疏图的效率处理
谱卷积方法
图拉普拉斯矩阵
定义拉普拉斯矩阵 $L = D - A$,其中$D$为度矩阵,$A$为邻接矩阵。其谱分解为:
$$L = U\Lambda U^T$$
特征向量对应图的振动模式,特征值反映平滑程度。
多项式滤波器
构建形式为 $p_w(L) = \sum_{i=0}^d w_i L^i$ 的滤波器,特点包括:
- 局部性:$d$阶多项式仅聚合$d$跳内邻居信息
- 等变性:与节点顺序无关
- ChebNet改进:使用切比雪夫多项式保证数值稳定性
现代图神经网络架构
消息传递范式
通过迭代的"聚合-组合"步骤计算节点表示:
-
GCN:标准化邻域特征均值 $$h_v^{(k)} = f(W^{(k)}\cdot\frac{\sum_{u\in N(v)}h_u}{N(v)} + B^{(k)}h_v)$$
-
GAT:注意力机制加权聚合 $$h_v^{(k)} = f(\sum_{u\in N(v)}\alpha_{vu}Wh_u)$$
-
GraphSAGE:支持多种聚合函数 $$h_v^{(k)} = f(\text{AGG}({h_u}) | W h_v)$$
-
GIN:通过可学习$\epsilon$增强表达能力 $$h_v^{(k)} = f(\sum_{u\in N(v)}h_u + (1+\epsilon)h_v)$$
应用与训练
典型任务
- 节点分类:使用交叉熵损失
- 链接预测:sigmoid处理节点对相似度
- 图分类:通过池化获取全局表示
自监督学习
通过预测局部图属性或最大化相邻节点表示相似性:
$$\mathcal{L} = \sum_v\sum_{u\in N_R(v)}\log\frac{\exp(z_v^Tz_u)}{\sum_{u’}\exp(z_{u’}^Tz_u)}$$
技术演进
- 计算优化:稀疏矩阵乘法实现高效GPU计算
- 正则化:DropEdge等图特定方法
- 扩展类型:有向图、时序图、异构图变体
谱卷积虽被局部卷积取代,但其数学原理仍为理解图信号处理提供重要视角。最新研究方向如Directional Graph Networks仍基于拉普拉斯特征分析。