期刊专题

10.3778/j.issn.1002-8331.2205-0432

面向图嵌入的改进图注意机制模型

引用
针对图神经网络模型学习图嵌入节点表示过程中易丢失大量特征信息及其图拓扑保留不完整的问题,提出了一种改进的图注意力(graph attention)机制模型.该模型分为节点级双向注意力机制和图级自注意图池化两部分.在学习图节点新的特征向量表示过程中,采取计算双向图注意力权重的方式,为邻域节点的保留提供可靠选择的同时增强节点间的相似属性;在图的整体拓扑上结合自注意图池,使用节点特征向量作为输入,通过注意卷积层提供的自注意权重在池化层生成图嵌入表示;在Cora、Citeseer、Pubmed数据集上进行了测试,实验结果表明:相比于基准图注意力机制模型,改进模型能够充分考虑图的局部和整体结构特征,有效增强模型聚合邻域信息的能力,减少了图嵌入过程中原始特征的丢失,明显提升了模型在下游任务的表现性能.

图嵌入、双向图注意力机制、自注意图池、特征表示、图拓扑

59

TP391.4(计算技术、计算机技术)

国家自然科学基金;国家自然科学基金;陕西省自然科学基金;陕西省住房城乡建设科技计划项目

2023-09-18(万方平台首次上网日期,不代表论文的发表时间)

共7页

152-158

暂无封面信息
查看本期封面目录

计算机工程与应用

1002-8331

11-2127/TP

59

2023,59(17)

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn