图信号处理学习笔记(2):缺失图信号预测

Reference:
[1] S. K. Narang, A. Gadde and A. Ortega, “Signal processing techniques for interpolation in graph structured data,” 2013 IEEE International Conference on Acoustics, Speech and Signal Processing, Vancouver, BC, 2013, pp. 5445-5449.
[2] https://doi.org/10.1090/S0002-9947-08-04511-X

图信号处理学习笔记(1):https://blog.csdn.net/m0_38002423/article/details/90758200

本文针对推荐算法等应用,阐述一种基于图信号插值的对未知节点的预测方法。

佩利-维纳空间(Payley-Wiener Space)

在笔记(1)中,我们提到了GFT的大致思想:给定一个图的描述矩阵,可以将其对角化得到一组特征值和特征向量,特征值大的特征向量对应了高频成分,特征值小的特征向量对应了低频成分。

假定这些特征值从小到大的排列为 Λ = [ λ 1 , λ 2 , . . . , λ n ] \Lambda=[\lambda_1,\lambda_2,...,\lambda_n] Λ=[λ1,λ2,...,λn],其对应的特征向量分别为 U = [ u 1 , u 2 , . . . , u n ] U=[u_1,u_2,...,u_n] U=[u1,u2,...,un]。定义图 G G G的带宽为 w w w的佩利-维纳空间为:由特征值位于 [ 0 , w ) [0,w) [0,w)的特征向量构成的向量空间,记作 P W w ( G ) PW_w(G) PWw(G)

独特集(Uniqueness Set)

给定一个图 G = ( V , E ) G=(V,E) G=VE,其中 V V V为节点, E E E为权值。如果有节点子集 S ⊂ V S \subset V SV,使得对于任意两个:1)在空间 P W w ( G ) , w > 0 PW_w(G), w>0 PWw(G),w>0下;2)且在子集 S S S中相等的图信号 x , y x,y x,y,它们在总集 V V V中也相等,则将节点子集 S S S称为 P W w ( G ) PW_w(G) PWw(G)空间下的独特集。

以上定义说明:要完全重建一个有限频带为 w w w的信号,只需要知道其独特集节点上的值即可。

Λ \Lambda Λ-子集( Λ \Lambda Λ-Set)

对于图 G = ( V , E ) G=(V,E) G=(V,E),如果有节点子集 Q ⊂ V Q \subset V QV,存在常数 Λ > 0 \Lambda>0 Λ>0,使得 Q Q Q的节点子空间下的所有向量 ϕ \phi ϕ满足:
∣ ∣ ϕ ∣ ∣ ≤ Λ ∣ ∣ L ϕ ∣ ∣ ||\phi||\leq \Lambda|| \mathcal{L\phi}|| ϕΛLϕ
则称节点子集 Q Q Q V V V Λ \Lambda Λ子集。
其中 Q Q Q的节点子空间表示节点集合 Q Q Q以外的值都为0的子空间。 L \mathcal{L} L表示拉普拉斯矩阵的标准化形式,即:
L = D − 1 2 L D − 1 2 \mathcal{L}=D^{-\frac{1}{2}}LD^{-\frac12} L=D21LD21

独特集与 Λ \Lambda Λ-子集的关系

定理:对于图 G = ( V , E ) G=(V,E) G=(V,E),如果节点子集 S ⊂ V S \subset V SV P W w ( G ) PW_w(G) PWw(G)空间下的独特集,那么其补集 S c S^c Sc Λ = 1 w \Lambda=\frac{1}{w} Λ=w1 Λ \Lambda Λ-子集。 证明暂略。

至此,由独特集的定义,对于图中未知节点的预测,可以将问题归纳为:1、根据已知的节点,将它们定义为图的某个子空间的一组独特集。2、根据独特集,寻找尽可能大的 w w w值(寻找尽可能大的子空间)。3、寻找子空间下的一组框架,来完成对未知节点的预测。

1) 如何寻找最大的 w w w

定义图 G G G的标准化拉普拉斯矩阵为 L \mathcal{L} L。假设信号的已知节点集合为 S S S,未知节点集合为 S c S^c Sc。现在,根据 Λ \Lambda Λ-子集的定义,令 ϕ ∈ L 2 ( S c ) \phi\in L_2(S^c) ϕL2(Sc),表示其除了 S c S^c Sc以外的值都为0,则有:
∣ ∣ L ϕ ∣ ∣ 2 ∣ ∣ ϕ ∣ ∣ 2 ≥ w 2 = 1 Λ 2 \frac{||\mathcal L\phi||^2}{||\phi||^2}\geq w^2=\frac1{\Lambda^2} ϕ2Lϕ2w2=Λ21

现在要寻找最大的 w w w来满足上式,将不等号左边变形,有:
∣ ∣ L ϕ ∣ ∣ 2 ∣ ∣ ϕ ∣ ∣ 2 = ϕ T L T L ϕ ϕ T ϕ = ϕ T L ( S c ) T L ( S c ) ϕ ϕ T ϕ \frac{||\mathcal L\phi||^2}{||\phi||^2}=\frac{\phi^T\mathcal L^T\mathcal L\phi}{\phi^T\phi}=\frac{\phi^T\mathcal L^T_{(S^c)}\mathcal L_{(S^c)}\phi}{\phi^T\phi} ϕ2Lϕ2=ϕTϕϕTLTLϕ=ϕTϕϕTL(Sc)TL(Sc)ϕ

其中下标 S c S^c Sc表示只取矩阵内节点集 S c S^c Sc对应的行和列。
L ( S c ) \mathcal L_{(S^c)} L(Sc)的每一组特征值(从小到大)与其标准化后的特征向量为 ( λ 1 , v 1 ) , ( λ 2 , v 2 ) , . . . , ( λ N , v N ) (\lambda_1,v_1),(\lambda_2,v_2),...,(\lambda_N,v_N) (λ1,v1),(λ2,v2),...,(λN,vN)。由于 ϕ \phi ϕ在该空间内,显然它可以由特征向量的加权进行表示,则:
ϕ = ∑ i = 1 N a i v i \phi=\sum_{i=1}^{N}a_iv_i ϕ=i=1Naivi

同时由于特征向量两两正交,可以改写为:
ϕ T L ( S c ) T L ( S c ) ϕ ϕ T ϕ = ( ∑ i = 1 N a i L ( S c ) v i ) T ( ∑ i = 1 N a i L ( S c ) v i ) ∑ i = 1 N a i 2 ∣ ∣ v i ∣ ∣ 2 = ( ∑ i = 1 N a i λ i v i ) T ( ∑ i = 1 N a i λ i v i ) ∑ i = 1 N a i 2 ∣ ∣ v i ∣ ∣ 2 = ∑ i = 1 N λ i 2 a i 2 ∣ ∣ v i ∣ ∣ 2 ∑ i = 1 N a i 2 ∣ ∣ v i ∣ ∣ 2 ≥ w 2 \frac{\phi^T\mathcal L_{(S^c)}^T\mathcal L_{(S^c)}\phi}{\phi^T\phi}=\frac{(\sum\limits_{i=1}^{N}a_i\mathcal L_{(S^c)}v_i)^T(\sum\limits_{i=1}^{N}a_i\mathcal L_{(S^c)}v_i)}{\sum\limits_{i=1}^{N}a_i^2||v_i||^2} \\=\frac{(\sum\limits_{i=1}^{N}a_i\mathcal \lambda_iv_i)^T(\sum\limits_{i=1}^{N}a_i\lambda_i v_i)}{\sum\limits_{i=1}^{N}a_i^2||v_i||^2}\\ =\frac{\sum\limits_{i=1}^{N}\lambda_i^2a_i^2||v_i||^2}{\sum\limits_{i=1}^{N}a_i^2||v_i||^2}\\ \geq w^2\\ ϕTϕϕTL(Sc)TL(Sc)ϕ=i=1Nai2vi2(i=1NaiL(Sc)vi)T(i=1NaiL(Sc)vi)=i=1Nai2vi2(i=1Naiλivi)T(i=1Naiλivi)=i=1Nai2vi2i=1Nλi2ai2vi2w2

由上式可以看到, ∣ ∣ L ϕ ∣ ∣ 2 ∣ ∣ ϕ ∣ ∣ 2 \frac{||\mathcal L\phi||^2}{||\phi||^2} ϕ2Lϕ2是各个特征值平方的加权平均,所以其范围是 [ λ 1 2 , λ N 2 ] [\lambda_{1}^2,\lambda_{N}^2] [λ12,λN2]。要确保上式对所有 ϕ \phi ϕ成立,则可得 w w w的最大值为 λ 1 \lambda_1 λ1。于是整理可得:
∣ ∣ ϕ ∣ ∣ ≤ 1 λ 1 ∣ ∣ L ϕ ∣ ∣ ||\phi||\leq\frac{1}{\lambda_1}||\mathcal L\phi|| ϕλ11Lϕ
可知 w w w的值为 λ 1 \lambda_1 λ1,将该值记为 w ∗ w^* w。所有包含频率成分小于 λ 1 \lambda_1 λ1的信号,都可以由已知节点的值来完美重建。

2) 如何完成插值重建

为了便于描述,将“部分节点值为未知的信号”称为DU信号(Downsampling-Upsampling Signal),顾名思义,类比于一维信号,将原信号下采样并等分辨率上采样后,会将原先的一部分值置为0但保持其他值不变。在Graph域中也可以沿用类似的定义。

得到 w ∗ w^* w后,可以给出待预测信号的所在空间应为 P W w ∗ ( G ) PW_{w*}(G) PWw(G),这个空间由所有特征值小于 w ∗ w^* w的特征向量构成。令该空间下的基向量(即这些特征向量)的个数为 K ∗ K^* K,定义 U K ∗ U_{K^*} UK为包含前 K ∗ K^* K个特征向量的矩阵,以及 ( U K ∗ ) S (U_{K^*})_S (UK)S为该矩阵下节点集合 S S S的子矩阵。最直观的方式是将信号投影到最小方差平面上,定义原DU信号为 f f f,其在节点集合 S S S以外的值为零。则在节点集合 S c S^c Sc的插值结果 g g g为:
g ( S c ) = ( U K ∗ ) S c ( ( ( U K ∗ ) S ) t ( U K ∗ ) S ) − 1 ( ( U K ∗ ) S ) t f ( S ) g(S^c)=(U_{K^*})_{S^c}(((U_{K^*})_S)^t(U_{K^*})_S)^{-1}((U_{K^*})_S)^tf(S) g(Sc)=(UK)Sc(((UK)S)t(UK)S)1((UK)S)tf(S)

但是对于 L \mathcal L L,对于每一个节点分配了不同的关注度,正比于节点的维度,所以最后要进行标准化使得直流频率分量(即特征值为0的特征向量)为常数。因此最后结果为:
g ^ = D − 1 / 2 g \hat g=D^{-1/2}g g^=D1/2g

你可能感兴趣的:(图信号处理)