[Paper Review] GNNExplainer: Generating Explanations for Graph Neural Networks
서울대학교 산업공학과 DSBA 연구실 서울대학교 산업공학과 DSBA 연구실
17.6K subscribers
5,955 views
102

 Published On Feb 24, 2021

발표자: 석사과정 윤훈상

1. Topic
Graph Neural Network의 Prediction을 설명할 수 있는 GNN XAI 기법의 포문을 연 GNN Explainer를 소개합니다.

2. Overview
머신러닝 / 딥러닝 모델을 연구하여 분류 / 예측과 같은 Task의 성능을 올리는 것도 중요하지만, 해당 모델들의 행동에 대한 설명 또한 중요합니다. 신뢰할 수 없는 모델은 쓰이지 못하며, 모델의 행동을 살펴보는 것을 통해 잘못된 행동을 교정할 수 있기 때문입니다. 이를 위해 XAI 기법 중, 최근에는 특정한 모델에 국한되지 않는 Model-Agnostic XAI인 LIME / SHAP이 많이 사용되지만, 해당 기법들은 Graph와 같은 Relational Data를 설명하는 데에 부족합니다.
이에 GNN Explainer가 나타났으며, 이는 GNN Model에 대하여 Agnostic하여 보편적 GNN 기법의 (Message / Aggregate / Update) 단계를 거치는 모델에 대해서 설명할 수 있는 기법입니다. 또한 기존의 XAI는 데이터의 Feature에 대한 설명에 국한되어 있다면, GNN XAI는 노드의 Feature와 더불어, 하나의 노드를 분류하거나 Embedding을 구성함에 있어 어떤 이웃 노드들이 활용되었는지 설명합니다. GNN Explainer는 Adjacency Matrix에 Masking을 얹는 방식으로 최적의 Subgraph를 얻는 것을 목표로 하고, 최적의 Mask를 얻는 과정 속에 Variational Inference가 근간이 됩니다.
해당 논문은 2019년의 GNN XAI의 최초의 시도이기에 현재는 Baseline으로 사용되지만, GNN을 설명하기 위해 어떤 접근을 해야하는지, 그리고 어떻게 실험을 해야 하는 지에 대한 포문을 연 것에 큰 Contribution을 갖고 있습니다.

3. 참고 문헌
* GNNExplainer: Generating Explanations for Graph Neural Networks (Ying et al. 2019, NeurIPS)
* Explainability in Graph Neural Netowkrs: A Taxonomic Survey (Yuan et al. 2020)

4. 발표자료
http://dsba.korea.ac.kr/seminar/?uid=...

show more

Share/Embed