## Memo
- 離散値から連続値
- 計算速度と精度の間のトレードオフを明示的に制御することができる
## Abstract
深層ニューラルネットワークモデルの新しいファミリーを紹介します。このモデルでは,隠れた層の離散的な配列を指定する代わりに,ニューラルネットワークを用いて隠れた状態の微分をパラメータ化します.ネットワークの出力は、ブラックボックスの微分方程式ソルバーを用いて計算されます。これらの連続深度モデルは,一定のメモリコストを持ち,各入力に対して評価戦略を適応させ,数値精度と速度を明示的に交換することができる.これらの特性を、連続深度残差ネットワークと連続時間潜在変数モデルで実証します。また、データ次元の分割や順序付けを行わずに、最尤法で学習できる生成モデルである連続正規化フローを構築する。学習に関しては、任意のODEソルバーの内部操作にアクセスすることなく、スケーラブルにバックプロパゲートする方法を示している。これにより、大規模なモデル内のODEをエンド・ツー・エンドで学習することができます。
[[2018__NeurIPS__Neural Ordinary Differential Equations__translations]]