[GNN] 그래프 신경망 입문 pt.2
Chap 5. 그래프 합성곱 네트워크
CNN의 성공으로 그래프 네트워크에도 CNN을 적용하려는 시도는 자연스러움. 합성곱 신경망에 대한 접근은 스펙트럼 접근, 공간접근 방법으로 나뉨.
TO-STUDY :
- 그래프의 스펙트럼 표현. 그래프의 푸리에 변환을 통한 라플라시안과 컨볼루션 연산의 관계 등 정리
- 스펙트럼 네트워크 논문 (Spectral Network : https://arxiv.org/abs/1312.6203)
- 체비쇼프(Chebyshev) 다항식 : $T_n(\cos\theta) = \cos{n\theta}$
5.1 스펙트럼 방법
https://greeksharifa.github.io/machine_learning/2021/08/14/GFT/
https://junklee.tistory.com/112
스펙트럼 네트워크
스펙트럼 접근 방식은 그래프의 스펙트럼 표현을 사용함. Convolution 연산은 Fourier 영역에서 그래프 라플라시안(Laplacian)의 고윳값 분해 계산으로 정의되는데, 이 컨볼루션 연산은 각 노드의 스칼라 신호 ${\bf x} \in \R^n$와 $\theta \in \R ^N$으로 parameterized 된 필터 ${\bf g}_\theta = \text{diag}(\theta)$의 곱이다.
\[\begin{align} {\bf g}_\theta \star {\bf x} = {\bf Ug}_\theta(\Lambda){\bf U}^T {\bf x} \end{align}\]$\bf D, A$가 각각 그래프의 차수행렬(Degree matrix), 인접행렬(Adjacency matrix)일 때 정규화된 그래프 라플라시안(Normalized graph Laplacian) 은 ${\bf L} = {\bf I}_N - {\bf D}^{-{1\over 2} } A {\bf D}^{-{1\over 2} }={\bf U \Lambda U}^T$로 정의되며, $\bf U, \Lambda$는 각각 $\bf L$의 eigenvector로 이루어진 행렬, eigenvalue로 이루어진 diagonal matrix이다.
- 고윳값 분해의 잠재적 강도높은 계산과, 비공간 지역 필터를 초래(?)
논문 : https://arxiv.org/abs/1312.6203
5.2 ChebNet
$K$차 체비쇼프(Chebyshev) 다항식 ${\bf T}k(x)$의 절단확장으로 ${\bf g}\theta (\Lambda)$의 근사법 제안.