やむやむもやむなし

やむやむもやむなし

自然言語処理やエンジニアリングのメモ

【18日目】Self-Supervised Graph Transformer on Large-ScaleMolecular Data

この記事はNLP/CV論文紹介 Advent Calendar 2020の18日目の記事です。
今日は分子のデータに対して適用するための、GNNとTransformerを組み合わせたGROVERというモデルです。

0. 論文

[2007.02835] Self-Supervised Graph Transformer on Large-Scale Molecular Data
Yu Rong, Yatao Bian, Tingyang Xu, Weiyang Xie, Ying Wei, Wenbing Huang, Junzhou Huang

1. どんなもの?

分子データに適用するために、GNNとTransformerを組み合わせたGROVERの提案

2. 先行研究と比べてどこがすごい?

単純にGNNとTransformerを組み合わせるのではなく、グラフの局所構造を抽出するDyMPNとそれにMulti-Head Attentionをモデルに組み込んで性能を向上させているところ

3. 技術や手法のキモはどこ?

グラフの局所構造を抽出してくるためにランダム性を持たせつつMessage Passingで局所構造を捉えるGNNのDyMPN(Dynamic Message Passing Network)と、捉えた局所構造達に対してMulti-Head Attentionを行うTransformerを組み合わせたGTransformer(GNN Transformer)、そしてこれを使ってグラフから特徴抽出を行い予測を行うGROVERを提案。 これに、「nodeに対応するGtransformerの出力からそのnodeの周辺の原子と結合を予測するタスク」と「グラフの局所構造を予測するタスク」の2つの事前学習を行なって学習を行う。
事前学習には11Mのラベルなし分子データを用いた。

f:id:ymym3412:20201219054338p:plain

f:id:ymym3412:20201219054354p:plain

4. どうやって有効だと検証した?

11種類のデータセットでMoluculeNetなどの既存手法と比較。GLOVER-largeモデルでは全てのデータセットと既存手法を圧倒。

5. 議論はある?

DyMPNとTransformerを組み合わせたGTransformerの構造が性能に大きく寄与していそう

f:id:ymym3412:20201219054805p:plain