Post

[GNN] 그래프 신경망 입문 pt.2

[GNN] 그래프 신경망 입문 pt.2

Chap 5. 그래프 합성곱 네트워크

CNN의 성공으로 그래프 네트워크에도 CNN을 적용하려는 시도는 자연스러움. 합성곱 신경망에 대한 접근은 스펙트럼 접근, 공간접근 방법으로 나뉨.

TO-STUDY :

  • 그래프의 스펙트럼 표현. 그래프의 푸리에 변환을 통한 라플라시안과 컨볼루션 연산의 관계 등 정리
  • 스펙트럼 네트워크 논문 (Spectral Network : https://arxiv.org/abs/1312.6203)
  • 체비쇼프(Chebyshev) 다항식 : $T_n(\cos\theta) = \cos{n\theta}$

5.1 스펙트럼 방법

https://greeksharifa.github.io/machine_learning/2021/08/14/GFT/

https://junklee.tistory.com/112

스펙트럼 네트워크

스펙트럼 접근 방식은 그래프의 스펙트럼 표현을 사용함. Convolution 연산은 Fourier 영역에서 그래프 라플라시안(Laplacian)의 고윳값 분해 계산으로 정의되는데, 이 컨볼루션 연산은 각 노드의 스칼라 신호 ${\bf x} \in \R^n$와 $\theta \in \R ^N$으로 parameterized 된 필터 ${\bf g}_\theta = \text{diag}(\theta)$의 곱이다.

\[\begin{align} {\bf g}_\theta \star {\bf x} = {\bf Ug}_\theta(\Lambda){\bf U}^T {\bf x} \end{align}\]

$\bf D, A$가 각각 그래프의 차수행렬(Degree matrix), 인접행렬(Adjacency matrix)일 때 정규화된 그래프 라플라시안(Normalized graph Laplacian) 은 ${\bf L} = {\bf I}_N - {\bf D}^{-{1\over 2} } A {\bf D}^{-{1\over 2} }={\bf U \Lambda U}^T$로 정의되며, $\bf U, \Lambda$는 각각 $\bf L$의 eigenvector로 이루어진 행렬, eigenvalue로 이루어진 diagonal matrix이다.

  • 고윳값 분해의 잠재적 강도높은 계산과, 비공간 지역 필터를 초래(?)

논문 : https://arxiv.org/abs/1312.6203

5.2 ChebNet

$K$차 체비쇼프(Chebyshev) 다항식 ${\bf T}k(x)$의 절단확장으로 ${\bf g}\theta (\Lambda)$의 근사법 제안.

This post is licensed under CC BY 4.0 by the author.