Assimilation de données

Page d’aide sur l’homonymie

Pour les articles homonymes, voir Assimilation.

Cet article est une ébauche concernant la météorologie ou la climatologie.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

En météorologie, l'assimilation de données est le procédé qui consiste à corriger, à l'aide d'observations, l'état de l'atmosphère d'une prévision météorologique.

Principe

La prévision numérique de l'évolution de l'atmosphère dépend grandement des conditions initiales qui lui sont fournies. Or il est difficile de déterminer, à un instant donné, l'état de l'atmosphère, c’est-à-dire l’ensemble des variables atmosphériques (pression, température, humidité, etc.) sur l’ensemble du volume, avec une bonne résolution et une bonne précision.

Les seules informations disponibles à un moment donné sont les observations météorologiques de différentes natures (radio-sondages, stations météorologiques, bouées océaniques, etc.). Mais ces informations ne sont pas suffisantes. En effet le modèle atmosphérique requiert de l'ordre de 10 7 {\displaystyle 10^{7}} valeurs (pour tous les champs physiques considérés, en tous les points du modèle). Or les observations sont de l'ordre de 10 6 {\displaystyle 10^{6}} . Une simple interpolation ne suffit pas dans ces conditions. On a alors recours à une méthode appelée "assimilation de données".

L'assimilation de données est une méthode "prédicteur/correction". Une prévision, calculée au pas de temps précédent et valable à l'instant considéré, est utilisée comme prédicteur. Les observations disponibles permettent de corriger cette ébauche pour estimer au mieux l'état réel de l'atmosphère.

Exemple simple (hors météorologie)

On souhaite connaître la température dans une pièce disposant d'une source de chaleur ponctuelle de 20 °C.

fig.1 Pièce au temps initial.

La source est arrêtée. Au temps t 0 {\displaystyle t_{0}} , il fait 15 °C dans toute la pièce. La source de chaleur s'active, et l'observateur sort de la pièce.

La prévision consiste à dire qu'il fera, au bout d'un certain temps d t {\displaystyle d_{t}} 20 °C au point d'application de la source, puis de plus en plus froid en s'en écartant : il s'agit ici de la prévision valable dans l'ensemble de la pièce.

L'observateur revient 3 heures après. Un thermomètre fixé dans la pièce indique 17 °C dans un point assez éloigné de la source où il est supposé en faire 18 °C. L'assimilation part de l'idée que cette information va corriger la prévision précédente. Par exemple en supposant que localement, une aération fait baisser cette température. Ou encore que la décroissance de la température au-delà de la source de chaleur se fait plus rapidement. Nous obtenons ainsi une analyse de la situation.

fig.2 Prévision de la température.
fig.3 Une observation indiquant 17 °C.
fig.4 Correction locale.
fig.5 Correction globale.

Le thermomètre n'est pas très précis, par exemple une erreur de +/- 0,5 °C. La connaissance de l'erreur d'observation due au manque de précision du thermomètre réduira l'impact de cette observation lors de notre assimilation. La connaissance de l'erreur de prévision (par exemple le manque d'information sur l'isolation exacte de la pièce), va jouer dans l'autre sens. Ces différents aspects seront exposés plus loin après la formulation mathématique.

Formulation mathématique

On veut connaître l'état d'un système qui n'évolue pas dans le temps représenté par un vecteur x {\displaystyle x} (souvent de dimension infinie). On échantillonne x {\displaystyle x} spatialement à l'aide d'un opérateur Π {\displaystyle \Pi } qui donne le vecteur x t {\displaystyle x_{t}} de dimension n {\displaystyle n} .

On fait des mesures à certains endroits sur le système. On rassemblera ces informations dans le vecteur des observations y {\displaystyle y} de dimension p {\displaystyle p} . On lui associe un vecteur d'erreur d'observation e 0 {\displaystyle e_{0}} dont on ne connait, en général, que l’espérance et la variance (ou plutôt leur estimation). On peut donc construire une matrice de covariance R i , j = E [ e 0 T . e 0 ] {\displaystyle R_{i,j}=E[e_{0}^{T}.e_{0}]} . On compare les observations à l'état réel du système à l'aide de la fonction d'observation H {\displaystyle H} (qui peut être linéaire ou non):

y = H x t + e 0 {\displaystyle y=Hx_{t}+e_{0}}

On utilise un modèle qui nous permet d'évaluer l'état du système x t {\displaystyle x_{t}} de manière approchée. L'estimation de x t {\displaystyle x_{t}} par le modèle est appelée vecteur d'ébauche noté x b {\displaystyle x_{b}} . On associe ce vecteur avec une erreur e b {\displaystyle e_{b}} et une matrice de covariance P i , j b = E [ e b T . e b ] {\displaystyle P_{i,j}^{b}=E[e_{b}^{T}.e_{b}]} .

L'assimilation de données consiste à donner la meilleure approximation de l'état du système x t {\displaystyle x_{t}} à partir de l'ébauche et des observations. Le vecteur résultant est le vecteur d'analyse x a {\displaystyle x_{a}} . On cherche aussi la matrice de covariance d'erreur P i , j a {\displaystyle P_{i,j}^{a}} .

Première solution du problème

On considère dans un premier temps l'opérateur H {\displaystyle H} linéaire quitte à le linéariser s'il ne l'est pas. On cherche à minimiser l'erreur commise a posteriori de e a {\displaystyle e_{a}} en minimisant T r ( P i , j a ) {\displaystyle Tr(P_{i,j}^{a})} .

On cherche la solution à l'aide d'une régression linéaire (voir Méthode des moindres carrés), appelée un Ansatz[1] en assimilation de données :

x a = L x b + K y {\displaystyle x_{a}=Lx_{b}+Ky}

On suppose que les erreurs d'observation et de l'ébauche sont sans biais, quitte à retrancher le biais s'il existe. Si nous voulons que l'erreur de l'analyse reste sans biais, on a L = I K H {\displaystyle L=I-KH} . On obtient alors :

x a = x b + K ( y H x b ) {\displaystyle x_{a}=x_{b}+K(y-Hx_{b})}

y H x b {\displaystyle y-Hx_{b}} s'appelle le vecteur innovation

P a = ( I K H ) P b ( I K H ) T + K R K T {\displaystyle P^{a}=(I-KH)P^{b}(I-KH)^{T}+KRK^{T}} .

On cherche maintenant le gain optimal K {\displaystyle K^{*}} pour minimiser T r ( P i , j a ) {\displaystyle Tr(P_{i,j}^{a})} . L'analyse BLUE Best linear unbiased estimator permet d'obtenir le gain optimal

K = P b H T ( R + H P b H T ) 1 {\displaystyle K^{*}=P^{b}H^{T}(R+HP^{b}H^{T})^{-1}} .

Système dépendant du temps

Supposons maintenant que l'état du système évolue dans le temps. On souhaite effectuer une succession d'analyses à tous les instants possibles. Nous avons des prévisions provenant du modèle aux dates t 0 , t 1 , , t k , , t n {\displaystyle t_{0},t_{1},\cdots ,t_{k},\cdots ,t_{n}} et des observations à plusieurs dates dont t k {\displaystyle t_{k}} . On note le vecteur de prévision x k f {\displaystyle x_{k}^{f}} (correspondant à x b {\displaystyle x_{b}} dans le paragraphe précédent), le vecteur des observations y k {\displaystyle y_{k}} et le vecteur d'analyse x k a {\displaystyle x_{k}^{a}} .

Les différentes méthodes de résolution

Les méthodes séquentielles

On peut d'abord résoudre ce problème à l'aide de méthode dites séquentielles. Dans ce type de méthode, il y a d'abord l'étape de prévision où l'on obtient x k f {\displaystyle x_{k}^{f}} , puis l'étape d'analyse où l'on combine l'information des observations et de la prévision pour avoir x k a {\displaystyle x_{k}^{a}} . On peut résumer ce problème sous le jeu d'équation suivant :

{ x k + 1 f = M k + 1 ( x k ) + v k + 1 y k = H k ( x k ) + e k 0 {\displaystyle {\begin{cases}x_{k+1}^{f}&=M_{k+1}(x_{k})+v_{k+1}\\y_{k}&=H_{k}(x_{k})+e_{k}^{0}\end{cases}}}

Ici v k + 1 {\displaystyle v_{k+1}} est l'erreur modèle du passage au temps t k {\displaystyle t_{k}} à t k + 1 {\displaystyle t_{k+1}} du au modèle. e k + 1 f {\displaystyle e_{k+1}^{f}} est l'erreur de prévision accumulée lors de la succession des étapes. On associe à e k + 1 f {\displaystyle e_{k+1}^{f}} la matrice de covariance Q k {\displaystyle Q_{k}} .

Le filtre de Kalman avec les notations de l'assimilation de données

On suppose pour ce filtre que les opérateurs H k {\displaystyle H_{k}} et M k {\displaystyle M_{k}} sont linéaires et que les erreurs d'observation et de prévision sont sans biais. On peut démontrer que les erreurs d'analyse sont alors sans biais.

Voici l'algorithme du filtre de Kalman dans le cadre de l'assimilation de données.

1. Initialisation  
         Estimer 
  
    
      
        
          x
          
            0
          
          
            f
          
        
      
    
    {\displaystyle x_{0}^{f}}
  

         Estimer la matrice de covariance 
  
    
      
        
          P
          
            0
          
          
            f
          
        
      
    
    {\displaystyle P_{0}^{f}}
  


2. Boucle sur les différentes dates d'observation 
  
    
      
        
          t
          
            k
          
        
      
    
    {\displaystyle t_{k}}
  

         a. Analyse

                 Calcul du gain avec la méthode BLUE
                 
  
    
      
        
          K
          
            k
          
        
        =
        
          P
          
            k
          
          
            f
          
        
        
          H
          
            k
          
          
            T
          
        
        (
        
          H
          
            k
          
        
        
          P
          
            k
          
          
            f
          
        
        
          H
          
            k
          
          
            T
          
        
        +
        
          R
          
            k
          
        
        
          )
          
            
            1
          
        
      
    
    {\displaystyle K_{k}=P_{k}^{f}H_{k}^{T}(H_{k}P_{k}^{f}H_{k}^{T}+R_{k})^{-1}}
  


                 Estimation de 
  
    
      
        
          x
          
            0
          
          
            a
          
        
      
    
    {\displaystyle x_{0}^{a}}
  

                 
  
    
      
        
          x
          
            k
          
          
            a
          
        
        =
        
          x
          
            k
          
          
            f
          
        
        +
        
          K
          
            k
          
        
        (
        
          y
          
            k
          
        
        
        
          H
          
            k
          
        
        
          x
          
            k
          
          
            f
          
        
        )
      
    
    {\displaystyle x_{k}^{a}=x_{k}^{f}+K_{k}(y_{k}-H_{k}x_{k}^{f})}
  


                 Calcul de la matrice de covariance 
  
    
      
        
          P
          
            k
          
          
            a
          
        
      
    
    {\displaystyle P_{k}^{a}}
  

                 
  
    
      
        
          P
          
            k
          
          
            a
          
        
        =
        (
        I
        
        
          K
          
            k
          
        
        
          H
          
            k
          
        
        )
        
          P
          
            k
          
          
            f
          
        
      
    
    {\displaystyle P_{k}^{a}=(I-K_{k}H_{k})P_{k}^{f}}
  


         b. Prévision

                 Calculer la nouvelle prévision 
  
    
      
        
          x
          
            k
            +
            1
          
          
            f
          
        
      
    
    {\displaystyle x_{k+1}^{f}}
  

                 
  
    
      
        
          x
          
            k
            +
            1
          
          
            f
          
        
        =
        
          M
          
            k
            +
            1
          
        
        
          x
          
            k
          
          
            a
          
        
      
    
    {\displaystyle x_{k+1}^{f}=M_{k+1}x_{k}^{a}}
  


                 Calculer la matrice de covariance 
  
    
      
        
          P
          
            k
          
          
            f
          
        
      
    
    {\displaystyle P_{k}^{f}}
  

                 
  
    
      
        
          P
          
            k
            +
            1
          
          
            f
          
        
        =
        
          M
          
            k
            +
            1
          
        
        
          P
          
            k
          
          
            a
          
        
        
          M
          
            k
            +
            1
          
          
            T
          
        
        +
        
          Q
          
            k
          
        
      
    
    {\displaystyle P_{k+1}^{f}=M_{k+1}P_{k}^{a}M_{k+1}^{T}+Q_{k}}
  

Le filtre de Kalman étendu

Le filtre de Kalman étendu reprend exactement le même principe que le filtre de Kalman. Il est juste nécessaire de linéariser les opérateurs H k {\displaystyle H_{k}} et M k {\displaystyle M_{k}} autour de l'état x k {\displaystyle x_{k}} . On applique ensuite exactement le même algorithme que précédemment. Ce filtre fonctionne bien si l'échantillonnage des observations est assez élevé ou si les non linéarités du modèle ne sont pas trop grandes.

Le filtre particulaire

Dans ce cas, nous ne cherchons pas les matrices P k f {\displaystyle P_{k}^{f}} et P k a {\displaystyle P_{k}^{a}} mais la densité de probabilité de x k a {\displaystyle x_{k}^{a}} . Il faut d'abord poser ce problème sous cette forme appelée filtre bayésien.

On notera Y k {\displaystyle Y_{k}} , l'ensemble des observations y 0 , , y k {\displaystyle y_{0},\cdots ,y_{k}} passées entre les instants t 0 {\displaystyle t_{0}} et t k {\displaystyle t_{k}} . On considère maintenant que l'opérateur d'observation H k {\displaystyle H_{k}} n'est pas nécessairement linéaire et dépend aussi de l'erreur y k = H k ( x k f , e k 0 ) {\displaystyle y_{k}=H_{k}(x_{k}^{f},e_{k}^{0})} . A priori, nous connaissons p Y k | X k f ( y k | x k f ) {\displaystyle p_{Y_{k}|X_{k}^{f}}(y_{k}|x_{k}^{f})} et p X k f ( x k f ) {\displaystyle p_{X_{k}^{f}}(x_{k}^{f})} . En réalité, p Y k | X k f ( y k | x k f ) {\displaystyle p_{Y_{k}|X_{k}^{f}}(y_{k}|x_{k}^{f})} correspond à p E 0 ( e k 0 ) {\displaystyle p_{E^{0}}(e_{k}^{0})} .

L'idée du filtre particulaire est de calculer les distributions de probabilité à l'aide d'un échantillonnage de l'espace de l'état du système. On crée des particules à partir des points choisis pour l’échantillonnage et leur état va évoluer à l'aide du modèle.

Voici l'algorithme du filtre particulaire bootstrap.

1. Initialisation  
         Échantillonner 
  
    
      
        
          x
          
            k
          
          
            f
          
        
      
    
    {\displaystyle x_{k}^{f}}
  
à l'aide de 
  
    
      
        N
      
    
    {\displaystyle N}
  
particules 
  
    
      
        
          
            x
            
              k
            
            
              1
            
          
          ,
          
          ,
          
            x
            
              k
            
            
              N
            
          
        
      
    
    {\displaystyle {x_{k}^{1},\cdots ,x_{k}^{N}}}
  


         Assigner un poids identique 
  
    
      
        
          w
          
            k
          
          
            i
          
        
        =
        
          
            1
            M
          
        
      
    
    {\displaystyle w_{k}^{i}={\frac {1}{M}}}
  
aux différentes particules 
  
    
      
        
          x
          
            k
          
          
            i
          
        
      
    
    {\displaystyle x_{k}^{i}}
  


2. Boucle sur les différentes dates d'observation 
  
    
      
        
          t
          
            k
          
        
      
    
    {\displaystyle t_{k}}
  

         a. Prévision
                 Propager les particules à l'aide du modèle
                 
  
    
      
        
          x
          
            k
            +
            1
          
          
            i
          
        
        =
        
          M
          
            k
            +
            1
          
        
        
          x
          
            k
          
          
            i
          
        
      
    
    {\displaystyle x_{k+1}^{i}=M_{k+1}x_{k}^{i}}
  



         b. Analyse

                 Calculer les nouveaux poids des particules
                 
  
    
      
        
          w
          
            k
            +
            1
            ,
             
            a
          
          
            i
          
        
        =
        
          w
          
            k
            +
            1
          
          
            i
          
        
        p
        (
        
          y
          
            k
            +
            1
          
        
        
          |
        
        
          x
          
            k
            +
            1
          
          
            i
          
        
        )
      
    
    {\displaystyle w_{k+1,\ a}^{i}=w_{k+1}^{i}p(y_{k+1}|x_{k+1}^{i})}
  


                 Normaliser les poids pour obtenir la distribution de 
  
    
      
        
          x
          
            k
          
          
            a
          
        
      
    
    {\displaystyle x_{k}^{a}}
  

 
         c. Re-échantillonnage

                 Le filtre va privilégier une particule si on ne le ré-échantillonne pas (phénomène appelé dégénérescence). 
                 On ré-échantillonne 
  
    
      
        
          x
          
            k
          
          
            f
          
        
      
    
    {\displaystyle x_{k}^{f}}
  
avec des poids identiques.    

En général cette méthode est efficace pour des modèles fortement non linéaires mais si la dimension de l'état du système est trop grande alors le filtre ne fonctionne plus (en général plus grand que 8). On peut aussi trouver des variantes où l'on ré-échantillonne seulement les particules qui ont un poids trop élevé.


Le filtre de Kalman d'ensemble

Le filtre d'ensemble utilise lui aussi la notion de particule mais il ne générera que les moments d'ordre 1 et 2 de l'analyse. L'analyse est la même que le filtre de Kalman mais des particules sont créées pour propager les erreurs dues à l'observation.
Ce filtre fonctionne avec un modèle non linéaire mais il faut linéariser la fonction d'observation pour calculer le gain.

Voici l'algorithme:


1. Initialisation  
         Estimer 
  
    
      
        
          x
          
            0
          
          
            f
          
        
      
    
    {\displaystyle x_{0}^{f}}
  

         Estimer la matrice de covariance 
  
    
      
        
          P
          
            0
          
          
            f
          
        
      
    
    {\displaystyle P_{0}^{f}}
  

         Créer N particules estimant 
  
    
      
        
          x
          
            0
          
          
            f
          
        
      
    
    {\displaystyle x_{0}^{f}}
  
à l'aide la matrice de covariance 
  
    
      
        
          P
          
            0
          
          
            f
          
        
      
    
    {\displaystyle P_{0}^{f}}
  


2. Boucle sur les différentes dates d'observation 
  
    
      
        
          t
          
            k
          
        
      
    
    {\displaystyle t_{k}}
  


         a. Observation

                 Créer un jeu d'observation 
  
    
      
        
          
            y
            
              k
            
            
              1
            
          
          ,
          
          ,
          
            y
            
              k
            
            
              N
            
          
        
      
    
    {\displaystyle {y_{k}^{1},\cdots ,y_{k}^{N}}}
  
 de biais nulle autour de la valeur observée 
  
    
      
        
          y
          
            k
          
        
      
    
    {\displaystyle y_{k}}
  


                 Calculer la matrice de covariance 
  
    
      
        
          R
          
            k
          
        
      
    
    {\displaystyle R_{k}}
  
associée
         b. Analyse

                 Calcul du gain avec la méthode BLUE
                 
  
    
      
        
          K
          
            k
          
        
        =
        
          P
          
            k
          
          
            f
          
        
        
          H
          
            k
          
          
            T
          
        
        (
        
          H
          
            k
          
        
        
          P
          
            k
          
          
            f
          
        
        
          H
          
            k
          
          
            T
          
        
        +
        
          R
          
            k
          
        
        
          )
          
            
            1
          
        
      
    
    {\displaystyle K_{k}=P_{k}^{f}H_{k}^{T}(H_{k}P_{k}^{f}H_{k}^{T}+R_{k})^{-1}}
  

                 Ici 
  
    
      
        
          H
          
            k
          
        
      
    
    {\displaystyle H_{k}}
  
linéarisé

                 Estimation de 
  
    
      
        
          x
          
            k
            ,
            i
          
          
            a
          
        
      
    
    {\displaystyle x_{k,i}^{a}}
  

                 
  
    
      
        
          x
          
            k
            ,
            i
          
          
            a
          
        
        =
        
          x
          
            k
            ,
            i
          
          
            f
          
        
        +
        
          K
          
            k
          
        
        (
        
          y
          
            k
          
          
            i
          
        
        
        
          H
          
            k
          
        
        (
        
          x
          
            k
            ,
            i
          
          
            f
          
        
        )
        )
      
    
    {\displaystyle x_{k,i}^{a}=x_{k,i}^{f}+K_{k}(y_{k}^{i}-H_{k}(x_{k,i}^{f}))}
  

                 Ici 
  
    
      
        
          H
          
            k
          
        
      
    
    {\displaystyle H_{k}}
  
non linéarisé

                 Calculer la moyenne 
  
    
      
        
          x
          
            k
            ,
            i
          
          
            a
          
        
      
    
    {\displaystyle x_{k,i}^{a}}
  


                 Calcul de la matrice de covariance 
  
    
      
        
          P
          
            k
          
          
            a
          
        
      
    
    {\displaystyle P_{k}^{a}}
  

                 
  
    
      
        
          P
          
            k
          
          
            a
          
        
        =
        
          
            1
            
              N
              
              1
            
          
        
        
          
          
            j
            =
            1
          
          
            N
          
        
        (
        
          x
          
            k
            ,
            j
          
          
            a
          
        
        
        
          
            
              
                x
                
                  k
                
                
                  a
                
              
              ¯
            
          
        
        )
        (
        
          x
          
            k
            ,
            j
          
          
            a
          
        
        
        
          
            
              
                x
                
                  k
                
                
                  a
                
              
              ¯
            
          
        
        
          )
          
            T
          
        
      
    
    {\displaystyle P_{k}^{a}={\frac {1}{N-1}}\sum _{j=1}^{N}(x_{k,j}^{a}-{\bar {x_{k}^{a}}})(x_{k,j}^{a}-{\bar {x_{k}^{a}}})^{T}}
  


         c. Prévision

                 Calculer les nouvelles prévisions 
  
    
      
        
          x
          
            k
            +
            1
            ,
            i
          
          
            f
          
        
      
    
    {\displaystyle x_{k+1,i}^{f}}
  

                 
  
    
      
        
          x
          
            k
            +
            1
            ,
            i
          
          
            f
          
        
        =
        
          M
          
            k
            +
            1
          
        
        
          x
          
            k
            ,
            i
          
          
            a
          
        
      
    
    {\displaystyle x_{k+1,i}^{f}=M_{k+1}x_{k,i}^{a}}
  


                 Calculer la matrice de covariance 
  
    
      
        
          P
          
            k
          
          
            f
          
        
      
    
    {\displaystyle P_{k}^{f}}
  

                 
  
    
      
        
          P
          
            k
          
          
            f
          
        
        =
        
          
            1
            
              N
              
              1
            
          
        
        
          
          
            j
            =
            1
          
          
            N
          
        
        (
        
          x
          
            k
            ,
            j
          
          
            f
          
        
        
        
          
            
              
                x
                
                  k
                
                
                  f
                
              
              ¯
            
          
        
        )
        (
        
          x
          
            k
            ,
            j
          
          
            f
          
        
        
        
          
            
              
                x
                
                  k
                
                
                  f
                
              
              ¯
            
          
        
        
          )
          
            T
          
        
      
    
    {\displaystyle P_{k}^{f}={\frac {1}{N-1}}\sum _{j=1}^{N}(x_{k,j}^{f}-{\bar {x_{k}^{f}}})(x_{k,j}^{f}-{\bar {x_{k}^{f}}})^{T}}
  

Filtres réduits

Il est possible d'associer des filtres pour réduire la dimensionnalité du système. Il existe plusieurs filtres comme le filtre RRSQRT[2], SEEK[3] ou encore SEIK[4].

Les méthodes d'analyse variationnelle

Article détaillé : Calcul des variations.

La méthode d'assimilation variationnelle est utilisée pour obtenir les valeurs aux points de grille du modèle les plus près de la réalité. Elle implique de trouver un ensemble de points du modèle dont la description par une fonction se rapproche le plus des valeurs aux points observés sans introduire d'instabilité dans le modèle numérique. Elle consiste donc à chercher l'état le plus vraisemblable à partir des connaissances disponibles sur les lois de probabilités des erreurs d'observation.

Ceci se fait en minimisant par itération la fonction coût, le plus souvent la somme des moindres carrés des déviations entre l'analyse et l'observation pondérée par la qualité de ces dernières. Ce processus peut être fait en 3 ou 4 dimensions.

Assimilation à 3 dimensions (3D-Var)

La méthode à trois dimensions, communément appelée 3D-Var, se fait à un pas de temps fixe dans les trois dimensions cartésiennes X, Y et Z. Comme pour le filtre de Kalman, le 3D-Var consiste à minimiser la distance au sens des moindres carrés entre l'état estimé et les différentes sources d'informations telles que la prévision précédente et les observations au temps initial. Le nouvel état analysé est, en général, utilisé comme point de départ de la prévision suivante.

La fonction coût s'exprime comme[5] : J ( x ) = ( x x b ) T B 1 ( x x b ) + ( y H [ x ] ) T R 1 ( y H [ x ] ) , {\displaystyle J(\mathbf {x} )=(\mathbf {x} -\mathbf {x} _{b})^{\mathrm {T} }\mathbf {B} ^{-1}(\mathbf {x} -\mathbf {x} _{b})+(\mathbf {y} -{\mathit {H}}[\mathbf {x} ])^{\mathrm {T} }\mathbf {R} ^{-1}(\mathbf {y} -{\mathit {H}}[\mathbf {x} ]),}

Où :

  • B {\displaystyle \mathbf {B} } est la matrice de covariance de l'erreur de bruit de fond ;
  • R {\displaystyle \mathbf {R} } est la matrice de covariance de l'erreur d'observation.

Assimilation à 4 dimensions (4D-Var)

À quatre dimensions, l'analyse se fait à plusieurs pas temps entre le temps initial et un temps futur de prévision. Il s'agit donc d'une extension de la méthode 3D-Var qui ne vise pas à obtenir l'état optimal à un instant donné, mais la trajectoire optimale sur une fenêtre de temps donnée. Les observations sont donc prises en compte aussi bien dans leur distribution spatiale que temporelle et le 4D-Var propage donc l'information apportée par les observations à l'instant initial de la fenêtre d'assimilation[6].

Cette amélioration du 3D-Var permet d'ajouter la connaissance de l'évolution du système comme information pour l'analyse. Bien qu'elle demande une beaucoup plus grande puissance de calcul que la méthode précédente, elle est devenue la plus utilisée dans les systèmes de prévision opérationnels atmosphériques du CEPMMT en 1997, de Météo-France en 2000, et de nombreux autres centres météorologiques internationaux[6].

Combinaison des méthodes variationnelles et séquentielles

Les techniques variationnelles sont plus efficaces pour trouver une bonne analyse et les techniques séquentielles permettent une caractérisation des erreurs. Ainsi, de nouvelles méthodes sont inventées pour combiner ces deux aspects.

Notes et références

  1. (en) « Cours Marc Bocquet »
  2. A. J. Segers Data assimilation in atmospheric chemistry models using Kalman filtering
  3. (en) D. T. Pham, « A singular evolutive extended Kalman filter for data assimilation in oceanography », J. Marine Systems,‎ , p. 323-340
  4. (en) D. T. Pham, « Stochastic methods for sequential data assimilation in strongly non-linear systems », Monthly weather review,‎ , p. 1194-1207
  5. « 3D-Var », Méthode variationnelle, Centre européen de recherche et de formation avancée en calcul scientifique (consulté le ).
  6. a et b « 4D-Var », Méthode variationnelle, Centre européen de recherche et de formation avancée en calcul scientifique (consulté le ).

Lien externe

  • icône décorative Portail de la météorologie