## 論文 - [[2018__NeurIPS__Neural Ordinary Differential Equations]] - 最初にNeural ODEが提案された論文。 - NeurIPSの2018 best paper ## コード - [GitHub - rtqichen/torchdiffeq: Differentiable ODE solvers with full GPU support and O(1)-memory backpropagation.](https://github.com/rtqichen/torchdiffeq) ## 解説動画 [\#.04 【 NeurIPS 2018 Best Paper 】Neural Ordinary Differential Equations【VRアカデミア論文解説リレー】 \#VRアカデミア \#029 - YouTube](https://www.youtube.com/watch?v=qjS6Zun6Z24) - NNの各層のForward PropgationとBack Propagationを1個1個計算するのではなく、微分方程式で計算する - NNの層を離散ではなく連続的に扱う - メモリ効率性がよい - 普通は層の数を増やすけど、ODEだと層の数を増やしても意味ない - BPの中間層を覚えるときに層を使う - 行きも帰りも微分方程式を解くだけ - 最近の微分方程式のソルバーは、精度と実行速度のトレードオフを調整可能 - 層の数を調整しなくてよい - パラメータの数は少なくなる - 層が連続化しているので、全ての層でパラメータが共通化される - ResNetより3倍効率 - ネットワークの表現力は落ちていない - 連続時系列データモデル - 連続時間を用いるモデルを利用可能 - 欠損ありの時系列データにも適用可能 - どう補間するかが一冊の本とかに - 確率微分方程式で、間隔が違うとかなり困る - 予測タスク & 外層(そのさきどうなるか) - RNN - Latent Neural ODE - アトラクタの軌跡