1.GAN基本介绍
GAN在更新1号节点的信息时,根据其相邻节点的特征对其重要程度的大小,设置不同权重值,对1号节点进行更新。hi和hj先乘以W权重参数进行特征映射,然后将这两个节点进行相似度计算(相乘),在利用attention(函数)计算,得出j节点对节点的注意力值大小。 计算attention有不同的方法。
2.计算注意力机制的不同方法
先利用权重参数矩阵,将其进行特征映射,映射成(16*1)的向量,再乘以【16*1】的全连接层,将其变为一个权重值。
注意力机制本质是加在邻阶矩阵上的,对邻阶矩阵进行加权,masked attention用来只对对应位置上的邻阶矩阵进行加权操作,例如1-3 之间的注意力值加在邻阶矩阵中对应1-3位置上。
每个节点的权重值,都是将其相邻节点的加上权重值后,进行求和更新该节点的信息。
3.TCN(T-GNN)
图在 每时每刻发什么变化,包括每个节点和图的结构,因此必须考虑到不同时刻图之间的关联。
TGNN核心思想:首先通过GNN对图进行重构,在通过RNN将不同时刻的图进行关联。