魏晓东 发表于 2025-1-13 15:21:53

深度学习-图神经网络-超图概念及在Hyper-YOLO的应用(小白也看懂)

为什么需要超图?
在一个复杂系统中,某些节点(实体)之间的互动可能不是仅限于两个节点之间的关系,而是多个节点同时参与的更复杂的关系(超边)。简单说就是为了更好的形貌事物之间的关系,为了方便数学建模。
超图 表现为一个二元组:
G=(V,E)
此中 V 是有限顶点聚集,E是有限超边聚集。加权超图,增加了超边的权重:
G=(V,E,w)
https://latex.csdn.net/eq?w%28e%29表现超边e的权重,https://latex.csdn.net/eq?w%28e%29%5Cgeqslant%200 。超边的权重是给每个超边分配一个实数值,以表现其告急性或影响力。
顶点集的巨细被称为超图的阶数 order of the hypergraph,边集的巨细被称为超图的巨细 size of the hypergraph。
https://i-blog.csdnimg.cn/direct/5895ca9a652e49d2aa00888ef030d21b.png
https://i-blog.csdnimg.cn/direct/b9ded8d09bd94cf984453966caba61e9.png
告急概念:
顶点的度d(v),指包含该顶点的所有超边的权重之和。
https://i-blog.csdnimg.cn/direct/01bf3620125a484c9aa8b5d5adf589f1.png
超边的度https://latex.csdn.net/eq?%5Cdelta%20%28e%29,就是该边包含的顶点个数:https://latex.csdn.net/eq?%5Cdelta%20%28e%29%3D%20%5Cleft%20%7C%20e%20%5Cright%20%7C。
相邻、关联
1、相邻,点对点:如果存在包含两个顶点的超边,则超图中的两个顶点是相邻的(adjacent)。
就是说两个顶点在同一个超边上,就是相邻。
     边对边:如果{ x } 是超边,则 x与其自身相邻。
2、关联,边对边:两边相交关联的( incident),两超边的顶点交集非空。
     点对边:https://latex.csdn.net/eq?v%5Cin%20e, 称 v 与 e 关联。用于关联矩阵。

超图的关联矩阵表现法                        
超图 G 除了用二元组或三元组外,还可以用关联矩阵来表现。
关联矩阵 A,用于表征顶点和超边之间的关联关系,形式如下:


[*]行表现顶点,列表现超边,元素值为1表现顶点在该超边中,0表现不在。
[*]或者行表现边,列表现顶点,一样,两种方式。
https://i-blog.csdnimg.cn/direct/6a517364b3764d04a6c9ec7a650a165f.png
https://i-blog.csdnimg.cn/direct/7cbc44b888db4e8abc2578432b3720eb.png
利用关联矩阵H,顶点的度可表现为:
https://i-blog.csdnimg.cn/direct/1ecd7b3adc694eb6a95a8427cf390703.png
超边的度可表现为:
https://i-blog.csdnimg.cn/direct/c3c6b502a7de45ec9556f8559f003577.png
超图毗邻矩阵A:
https://i-blog.csdnimg.cn/direct/835dbc01226f4b3aa1bb66ca61a07f5d.png
此中,W表现权重对角矩阵,https://latex.csdn.net/eq?D_v表现顶点度对角矩阵,对角线元素为每个顶点的度。
具体例子:下面是一个 https://latex.csdn.net/eq?3%5Ctimes%205 关联矩阵,3边5点。
https://i-blog.csdnimg.cn/direct/6f61b5551ad0453b805327d281d1e1a9.png

对偶矩阵,即关联矩阵的转置(如下图就是上面矩阵转置)。也很容易看出,任何导出子超图的关联矩阵(H的子超图,部分超图)是H的关联矩阵的子矩阵。
https://i-blog.csdnimg.cn/direct/856a026d188e48b7bda45c28df854d1f.png
超图毗邻矩阵A:
定义:
https://i-blog.csdnimg.cn/direct/c39be1b587e74e9b9a1a11d4a86b2374.png
这个矩阵是对称方阵(维度等于超图顶点数),它也是多重图的矩阵。一样平常关联矩阵用得比力多。这个定义可能有点抽象,直接记住计算公式:
https://i-blog.csdnimg.cn/direct/835dbc01226f4b3aa1bb66ca61a07f5d.png
此中,W表现权重对角矩阵,https://latex.csdn.net/eq?D_v表现顶点度对角矩阵(对角线元素为每个顶点的度)。例如上面超图的毗邻矩阵,经过计算为:
https://i-blog.csdnimg.cn/direct/0ce27c284ec34497862a38318de085d8.png
拉普拉斯矩阵

超图的拉普拉斯矩阵https://latex.csdn.net/eq?L定义为:
https://latex.csdn.net/eq?L%3DD_e-A%5ETA
此中 https://latex.csdn.net/eq?D_e 是超边的度矩阵,对角线元素为每个超边的巨细。
超图熵
代数上的超图熵(algebraic hypergraph entropy) :
https://i-blog.csdnimg.cn/direct/782290a5692e420288528586f22bc039.png
空间域超图卷积

空间域卷积是通过顶点的毗邻信息来聚合信息,通常是将毗邻的信息聚合到中心节点。
https://i-blog.csdnimg.cn/direct/cf447f2693fc400db1107bf57a5c60d8.png
此中,https://latex.csdn.net/eq?X%5El 与 https://latex.csdn.net/eq?X%5E%28l+1%29 表现第 https://latex.csdn.net/eq?l 层与第https://latex.csdn.net/eq?%28l+1%29层的输入,D是顶点度矩阵(n阶方阵),B是超边的度矩阵(m阶方阵),https://latex.csdn.net/eq?%5Csigma黑白线性激活函数,P表现第 https://latex.csdn.net/eq?l 层与第https://latex.csdn.net/eq?%28l+1%29层的权重矩阵,是可学习的权重矩阵。H 是 https://latex.csdn.net/eq?%28n%5Ctimes%20m%29 超图的关联矩阵(n个顶点,m条超边)。https://latex.csdn.net/eq?W是超图的权重对角阵。

超图卷积的物理含义
超图卷积的物理含义可以理解为:在一个复杂系统中,某些节点(实体)之间的互动可能不是仅限于两个节点之间的关系,而是多个节点同时参与的更复杂的关系(超边)。超图卷积通过聚合这些高维关系的信息,为每个节点提供更丰富的特征表现,从而更好地捕捉系统中的复杂互动。

频域超图卷积

频域卷积是基于拉普拉斯算子举行频域分析,通常用于频率特征的提取。
公式:
在频域,超图卷积可通过以下方式定义:
https://latex.csdn.net/eq?H%7B%7D%27%3DUDU%5ETH
此中 U是拉普拉斯矩阵的特征向量,D是特征值矩阵。
HyperGCN 中的谱域图卷积通过利用超图的布局及其拉普拉斯矩阵来聚合特征信息,这为半监视学习提供了有用的方法。典型的谱域图卷积公式如下:
https://i-blog.csdnimg.cn/direct/dc404f66753149d997e6094de38192ff.png
此中:


[*]H是输入特征矩阵。
[*]H′是输出特征矩阵。
举行基于谱域的图卷积的计算步骤如下:
https://i-blog.csdnimg.cn/direct/1df54465d596415e81973be6011c8832.png
什么是超图注意力?
        1、超图的注意力目标是学习一个动态关联矩阵。得到能够更好地揭示顶点间内在关系地动态转移矩阵。
       2、要使在H上用注意力机制模块,必须假定边和顶点是可比的。这取决于超图怎样构造。
       3、例如可以将中心节点和k个最近邻节点共同形成一个超边。当节点和超边可以比力时,可以得到超图的注意力机制。

超图分类,如:
空超图 Empty hypergraph:没有边的超图;
非简单超图 Non-simple (or multiple) hypergraph :答应有环 loops(有单个顶点的超边)或重复边的超图;
简单超图 Simple hypergraph :不包含循环和重复边的超图;
k一致超图 k-uniform hypergraph:每条超边都恰好包含 k 个顶点的超图;
d正则超图 d-regular hypergraph:每个顶点的度数都是
页: [1]
查看完整版本: 深度学习-图神经网络-超图概念及在Hyper-YOLO的应用(小白也看懂)