基于直接高阶注意力和多尺度路由的图神经网络
信息技术与网络安全 6期
杨广乾,李金龙
(中国科学技术大学 计算机科学与技术学院,安徽 合肥230026)
摘要:图神经网络中的注意力机制在处理图结构化数据方面表现出优异的性能。传统的图注意力计算直接连接的节点之间的注意力,并通过堆叠层数隐式获取高阶信息。尽管在图注意力机制方面目前已有广泛的研究,但用于注意力计算的堆叠范式在建模远程依赖方面效果较差。为了提高表达能力,设计了一种新颖的直接注意力机制,这一机制通过K阶邻接矩阵直接计算高阶邻居之间的注意力。通过自适应路由聚合过程进一步传播高阶信息,这使得聚合过程更灵活地适应不同图的特性。在引文网络上的节点分类任务上进行了大量的实验。实验表明,该方法优于最先进的基线模型。
中图分类号:TP391
文献标识码:A
DOI:10.19358/j.issn.2096-5133.2022.06.011
引用格式: 杨广乾,李金龙. 基于直接高阶注意力和多尺度路由的图神经网络[J].信息技术与网络安全,2022,41(6):64-72.
文献标识码:A
DOI:10.19358/j.issn.2096-5133.2022.06.011
引用格式: 杨广乾,李金龙. 基于直接高阶注意力和多尺度路由的图神经网络[J].信息技术与网络安全,2022,41(6):64-72.
Direct high-order attention and multi-scale routing for graph neural networks
Yang Guangqian,Li Jinlong
(School of Computer Science and Technology,University of Science and Technology of China,Hefei 230026,China)
Abstract:Recently, the attention mechanism in Graph Neural Networks shows excellent performance in processing graph structured data. Traditional graph attention calculates the attention between directly connected nodes, and implicitly gets high-order information by stacking layers. Despite the extensive research about the graph attention mechanism, we argue that the stacking paradigm for attention calculation is less effective in modeling long-range dependency. To improve the expression ability, we design a novel direct attention mechanism, which directly calculates attention between higher-order neighbors via K-power adjacency matrix. We further propagate the higher-order information with an adaptive routing aggregation process, which makes the aggregation more flexible to adjust to the property of different graphs. We perform extensive experiments on node classifications on citation networks. Experiments shows that our method consistently outperforms the state-of-the-art baselines, which validates the effectiveness of our method.
Key words :graph neural networks;attention;dynamic routing
0 引言
图结构化数据广泛存在于现实世界中,图神经网络(GNN)已被证明可以有效地学习图结构化数据背后的知识[1-2]。图神经网络基于传播机制,通过聚合图中节点的邻居信息来学习潜在表示,可以用于下游任务,例如节点分类[2-3]、图分类[4-5]、连接预测等。
受自然语言处理和计算机视觉中注意力机制的启发,研究人员也开始探索图结构学习中的注意力机制。最广泛使用的注意力机制是图注意力网络,它已被证明具有出色的性能。图注意力在消息传递过程中计算每对邻居的注意力分数,以衡量节点的重要性,使得图中的归纳学习成为可能。基于这项工作,后续工作[9-11]又进行了许多对图注意力的研究。
本文详细内容请下载:http://www.chinaaet.com/resource/share/2000004537
作者信息:
杨广乾,李金龙
(中国科学技术大学 计算机科学与技术学院,安徽 合肥230026)
此内容为AET网站原创,未经授权禁止转载。