Skip to main content

Section 11.2 Apprentissage supervisé d'EDO

L'apprentissage d'équation différentielle ordinaire est un enjeu important en calcul scientifique. On va commencer par introduire des principes d'apprentissage simple pour les ODE.

Subsection 11.2.1 Apprentissage supervisé d'EDO générales

L'idée est simple on va appendre un flot d'EDO. Cela revient a écrire

\begin{equation} \frac{d \hat{\bs{x}}(t)}{dt}=F_{\theta}(\hat{\bs{x}}(t))\tag{11.1} \end{equation}

ou notre réseau \(F_{\theta}()\) correspond au flot de notre équation différentielle. Maintenant on peut se poser la question de comment entraîner ce réseau. On part de \(\hat{\mathcal{X}}\text{,}\) on construit le jeu de données

\begin{equation*} d\\hat{\mathcal{X}}=\left[\frac{d \hat{\bs{x}}_1^1}{dt},..,\frac{d \hat{\bs{x}}_1^T}{dt} ,....,\frac{d \hat{\bs{x}}_n^1}{dt},..,\frac{d \hat{\bs{x}}_n^1}{dt}\right]\in \mathbb{R}^m \end{equation*}

avec

\begin{equation*} \frac{d \hat{\bs{x}}_i^j}{dt}= \frac{\hat{\bs{x}}_i^{j+1}-\hat{\bs{x}}_{i}^{j-1}}{t_{j+1}-t_{j-1}} \end{equation*}

qui est une approximation d'ordre deux de la dérivée temporelle de \(z(t)\text{.}\) On peut a priori approcher la dérivée par une approximation. Une fois ce jeu construit l'apprentissage va consister à minimiser la fonction coût:

\begin{equation*} \operatorname{min}_{\theta}\sum_{i=1}^n\sum_{j=1}^{T-1}\parallel \frac{d \hat{\bs{x}}_i^j}{dt} - F_{\theta}(\hat{\bs{x}}_i^j)\parallel_2^2 \end{equation*}

Cette méthode est très simple. Une fois le flot obtenu on peur résoudre l'EDO avec n'importe quel schéma spatial. Les réseaux de neurones étant dérivable on peut aussi étudier certains comportements de l'ODE. Par contre on ne peut pas assurer la stabilité notamment au-delà des temps utilisés dans le jeu de données. Il est assez probable que l'approche ne soit pas la plus robuste à la généralisation.

Subsubsection 11.2.1.1 Apprentissag d'ODE et stabilité de Lyapunov

En construction

Subsection 11.2.2 Apprentissage supervisé pour les problèmes symplectiques

En construction

Subsubsection 11.2.2.1 Réseaux de neurones Hamiltonien

En construction

Subsubsection 11.2.2.2 Réseaux de neurones Lagrangien

En construction

Subsubsection 11.2.2.3 Réseaux de neurones pour les systèmes noncanonique

En construction

Subsection 11.2.3 Apprentissage supervisé pour les problèmes de Poisson et metriplectique

En construction