## Memo - 改訂され整理されたバージョン https://github.com/ronikobrosly/DAG_from_GNN - [[2020__ICLR__Gradient-Based Neural DAG Learning|GraN-DAG]]での実装 https://github.com/kurowasan/GraN-DAG/tree/master/dag_gnn ## Abstract 共同分布のサンプルから忠実な有向非循環グラフ(DAG)を学習することは、グラフノード数において超指数的な扱いにくい探索空間のために、難解な組み合わせ問題である。最近のブレークスルーは、非周期性を保証する構造的制約を持つ連続オプティマイゼーションとして問題を定式化する(Zheng et al.、2018)。著者らは、線形構造方程式モデル(SEM)および統計的に十分に正当化されるが、それにもかかわらず制限される最小二乗損失関数にアプローチをアプライしている。複雑な非線形マッピングを捉えることができる[[深層学習]]の広範な成功に動機づけられ、本研究では、深層[[生成モデル]]を提案し、DAGを学習するために構造制約の変種を適用する。生成モデルの中心は、DAG-GNNと呼ぶ新しいグラフニューラルネットワークアーキテクチャによってパラメータ化された[[VAE]]である。提案するモデルの利点は、より豊富な容量に加えて、ベクトル値だけでなく離散変数も自然に扱うことができることである。我々は、合成データセットにおいて、提案手法は非線形に生成されたサンプルに対してより正確なグラフを学習すること、また、離散変数を用いたベンチマークデータセットにおいて、学習したグラフが大域的最適値に適度に近いことを実証する。コードは https://github.com/fishmoon1234/DAG-GNN で公開されています。 [[2019__ICML__DAG-GNN - DAG Structure Learning with Graph Neural Networks__translations]]