上海建设部门网站,怎样编辑网站,wordpress 链接跳转插件,建个公司网站怎么弄1.卷积神经网络
CNN 在图像识别等任务中具有重要作用#xff0c;主要是因为 CNN 利用了图片#xff08;信号#xff09;在其域中的局部平移不变性。由于图结构不存在平移不变性#xff0c;所以 CNN 无法直接在图上进行卷积。
1.1局部平移不变性
CNN 之所以能成为图像领域…1.卷积神经网络
CNN 在图像识别等任务中具有重要作用主要是因为 CNN 利用了图片信号在其域中的局部平移不变性。由于图结构不存在平移不变性所以 CNN 无法直接在图上进行卷积。
1.1局部平移不变性
CNN 之所以能成为图像领域的明珠却很少应用于其他领域原因是「图片是一个规整的二维矩阵」无论卷积核平移到图片中的哪个位置都可以保证其运算结果的一致性这就是我们所说的「局部平移不变性」。CNN 的卷积本质就是利用这种平移不变性来对扫描的区域进行卷积操作从而实现了图像特征的提取。 而网络是不规整的关系型数据所以其不存在平移不变形每个节点的周围邻居数不固定这就使得传统的 CNN 方法无法直接应用于网络中。 有了局部平移不变形才能实现参数共享。 但是图结构的数据不具备这些特性那么怎么在graph进行卷积操作 自我理解如下章。
2.傅里叶分析、图拉普拉斯和图卷积网络
傅里叶分析包含傅里叶级数和傅里叶变换本质上是一种基坐标转换即将我们通常的函数的基坐标从时域换成了频域。频域的基坐标有三个维度频率振幅相位差。 傅里叶级数和傅里叶变换的区别 傅里叶级数主要针对周期性的函数进行投影傅里叶变换主要针对非周期周期无限大的函数。 傅里叶级数时域是一个周期且连续的函数而在频域是一个非周期离散的函数。 傅里叶变换时域非周期的连续信号而在频域是非周期的连续信号。 为什么要使用傅里叶分析 可以将一个复杂函数看做多个函数的复合将一个不规则波分解为多个正弦波和余弦波便于处理如滤波。 傅里叶分析、图拉普拉斯和图卷积网络怎么柔和到一起的 通过定义图上的傅里叶变换就可以定义图上的卷积操作。 图拉普拉斯算子给出了图上的傅里叶变换的基实现了图傅里叶变换从而可以在图上进行卷积操作。
3.图卷积网络公式 f ( H ( l ) , A ) σ ( D ^ − 1 2 A ^ D ^ − 1 2 H ( l ) W l ) f(H^{(l)},A)\sigma (\widehat{D}^{-\frac{1}{2}}\widehat{A}\widehat{D}^{-\frac{1}{2}}H^{(l)}W^{l}) f(H(l),A)σ(D −21A D −21H(l)Wl) 公式解析 A A Agraph的邻接矩阵。 A ^ \widehat{A} A A ^ A I \widehat{A}AI A AI,邻接矩阵和单位矩阵的矩阵和相当于将图中的每个节点添加了一个自相关的边。 D D Dgraph的度矩阵。 D ^ \widehat{D} D D ^ D I \widehat{D}DI D DI,度矩阵和单位矩阵的矩阵和为了标准归一化。 D ^ − 1 2 A ^ D ^ − 1 2 \widehat{D}^{-\frac{1}{2}}\widehat{A}\widehat{D}^{-\frac{1}{2}} D −21A D −21对邻接矩阵做了一个对称的归一化。 H ( l ) H^{(l)} H(l)上一层的输出本层的输入。 W ( l ) W^{(l)} W(l)权重矩阵对输出做了线性变换。 σ \sigma σ()非线性激活函数。 为什么要给邻接矩阵加上单位矩阵 只使用邻接矩阵的话由于A的对角线上都是0所以在和特征矩阵H相乘的时候只会计算一个node的所有邻居的特征的加权和该node自己的特征却被忽略了。加上单位矩阵后相当于每个节点增加了一条自连接的边邻接矩阵中增加了node的信息。 为什么要对邻接矩阵做对称归一化 层级传播后A的值会叠加累乘产生类似于梯度爆炸或者梯度消失的效果。 为什么度矩阵的逆矩阵会对邻接矩阵产生归一化效果 度矩阵的每一行的值等于邻接矩阵每一行的值之和因此其逆矩阵可以对 邻接矩阵进行归一化。