やむやむもやむなし

やむやむもやむなし

自然言語処理やエンジニアリングのメモ

【17日目】TaPas: Weakly Supervised Table Parsing via Pre-training

この記事はNLP/CV論文紹介 Advent Calendar 2020の17日目の記事です。
今日はBERTのような事前学習を行ってテーブルデータへのQuestion Answeringを解くTransformerモデルです。

0. 論文

TaPas: Weakly Supervised Table Parsing via Pre-training - ACL Anthology
Jonathan Herzig, Pawel Krzysztof Nowak, Thomas Müller, Francesco Piccinno, Julian Eisenschlos

1. どんなもの?

テーブルデータとテキストを使った事前学習を行い、弱教師あり学習によってテーブルデータへのQuestion Answeringを学習する手法TaPas

2. 先行研究と比べてどこがすごい?

BERTのような事前学習を行い精度向上をはかっていること、logical formの生成を行わないで学習する弱教師あり手法を用いていること

3. 技術や手法のキモはどこ?

テーブルデータに対するQuestion Answeringを解く手法。

通常では、テーブルに対して、正しい回答を得るためのlogical formを生成し、それを実行することで回答を得るという手法が主流であった。 提案手法では、質問x、テーブルT、正しい回答y(特定のセルの中身だったり、複数のセルの中身をaggregateしたもの)の3項組(xi, Ti, yi)を学習データとしlogical formを用いない弱教師ありのセッティングで学習を行なった。

構造としてはクエリとテーブルをTransformerに入力する。 通常のembに加え、col/rowのemb、col内での値の順番のembなどテーブルに関するembも用いる。 これらをtransformerを通してから、どのセルを利用するかを予測するlayerとaggregation操作を選択するlayerに通し、選択したセルにaggregation操作を行なって結果を得る。

f:id:ymym3412:20201218064449p:plain

f:id:ymym3412:20201218064527p:plain

この弱教師ありのセッティングにより、logical formの学習データを作るという高コストな作業を行わなくてよくなる。

事前学習には、Wikipediaから収集したテキストとテーブルを使い、MLMとテーブルがテキストに属しているか(だがこれはあまり効果がなかったらしい)予測する2つのタスクで行う。

4. どうやって有効だと検証した?

3つのTable QAタスクで評価。既存手法を超える、あるいは匹敵する数値を示した。

5. 議論はある?

ablation studyでは事前学習とcol/rowのembが大きく性能に寄与している

f:id:ymym3412:20201218065125p:plain

6. 次に読むべき論文は?

[1902.07198] Learning to Generalize from Sparse and Underspecified Rewards