The SAMA Consitutive Meeting took place on 14th dec. 2005 at Salle Jules Ferry, Institut Pedagogique - 29 rue d'Ulm 75005 PARIS

Programm

up arrow
09h00 Introduction SAMA Group General Presentation

Session 1 : Extreme Events

up arrow
09h15 P. Naveau Theory of extreme values in Bayesian frame Abstract
09h30 P. Yiou & al. Statistical challenges of E2-C2 project Abstract
09h45 M. Nogaj, P.Yiou, D. Dacunha-Castelle & P.Naveau Analysis of non-stationary climatic extreme events Abstract
10h00 K. Goubanova & L. Li Changes estimation of extreme events Abstract

Session 2 : Data Analysis

up arrow
10h15 F. Borchi, P. Keckhut, P. Naveau, A. Hauchecorne & A. Colette Statistical analysis of ozon & temperature variability in lower atmosphere using long datasets of NDSC and MOZAIC obs. services Abstract
10h45 P. Yiou & al. Time-space dep. downscaling of wind stress data for ocean modelling Abstract
11h00 J.I. Yano & P. Bouruet-Aubertot Detecting decadal changes in ENSO using neural networks Abstract

Session 3 : Inverse Problems

up arrow
11h20 F. Aires & C. Prigent Neural network uncertainity assessment using Bayesian statistics: A remote sensing application Abstract
11h35 H. Holin Adaptative inversion of LIDAR signals and applications Abstract
11h50 C. Moulin, J. Brajard, A. Chazottes, C. Jamet, A. Niang & S. Thiria Using neural methods (multi-layers neurotrons & topological maps) to analyse ocean colour data from satellites Abstract
12h05 C. Grenier, E. Mouche & P. Maugis Inverse problems & parameters indentification applied to transfer through porous materials: global problem & application tools Abstract

12h20

Lunch Break

Session 4 : Softwares

up arrow
13h45 S. Thiria, F. Badran & C. Sorror YAO: A software method for numerical models implementation (direct scheme, adjoint and data assimilation) Abstract

Session 5 : Data Assimilation

up arrow
14h00 F. Hourdin, O. Talagrand & A. Idelkadi Eulerian back-transport, adjoint equations & tracer sources identification Abstract
14h15 F. Chevallier 4D-Var data assimilation of the atmosphere composition in LMDZ Abstract
14h30 S. Bekki The ADOMOCA project Abstract
15h00 A. Hauchecorne, E. Oikonomou, S. Rharmili & S. Bekki Ozone data assimilation in a chemistry-transport model for lower-troposhpere - lower stratosphere study Abstract
15h15 L. Bopp, L. Bouali, F. Chevallier, C. Moulin, C. Sorror & S. Thiria Using YAO software for the assimilation of ocean colour data from satellite into the IPSL marine biogeochemistry model Abstract
15h30 M. Berrada et al. Data inversion using adjoint. Application to submarine acoustics Abstract
15h45 F. Chevallier Optimisation of ORCHIDEE parameters using data assimilation Abstract
16h00 C. Pires & O. Talagrand Gaussianity of errors & estimation using Maximum Entropy Method Abstract

16h15

Break

Session 6 : Forecast and Predictability

up arrow
16h30 P.A. Michelangeli & H. Loukos Statistical Methods in the Climpact forecast system Abstract
16h45 L. Descamps & O. Talagrand Comparison between methods for ensemble forecast initialisation Abstract
17h00 J. Deltel et al. Variational Assimilation in the OPA Model Abstract

17h15

General Discussion

18h00

End of Meeting


Abstracts

up arrow






P. Naveau, Theory of extreme values in Bayesian frame
Link to presentation: pdf file up arrow







P. Yiou et al., Statistical challenges of E2-C2 project

Extreme events are a key manifestation of complex systems, in both the natural and human world. Their economic and social consequences are a matter of enormous concern. Much of science has concentrated, until recently, on understanding the mean behaviour of physical, biological or social systems and their "normal" variability. Extreme events, due to their rarity, have been hard to study and even harder to predict. As part of the European Union Framework 6 NEST initiative on "Tackling Complexity in Science", 17 scientific institutes have been funded under the proposal "Extreme Events: Causes and Consequences (E2-C2)", under the direction of the Plateforme Environnement (ENS, Paris) and the Laboratoire des Sciences du Climat et de l'Environnement (CEA-CNRS, Saclay). After a presentation of the scope of E2-C2, my presentation will give examples of the statistical problems that the project will deal with, including climate variability, economic impacts and a socio-economic barometer.

Theory of extreme values in Bayesian frame
Link to presentation: ppt file To be added up arrow







M. Nogaj, P.Yiou, D. Dacunha-Castelle & P.Naveau, Analysis of non-stationary climatic extreme events
Link to presentation: ppt file up arrow







K. Goubanova & L. Li, Changes estimation of extreme events

La méthode d'estimation des événements rares basée sur la loi généralisée des valeurs extrêmes (GEV) est présentée. Les extrêmes sont estimés en termes des valeurs de retour de la fonction de distribution adaptée à des échantillons des maximums. Trois paramètres de la GEV sont calculés par la méthode de L-moments. Le test de Kolmogorov-Smirnov est utilisé comme le test d'ajustement. Les changements de la fréquence (durée de retour) et de l'intensité (valeur de retour) sont analysés comme deux aspects des changements des événements extrêmes.

Link to presentation: ppt file up arrow







F. Borchi, P. Keckhut, P. Naveau, A. Hauchecorne & A. Colette, Statistical analysis of ozon & temperature variability in lower atmosphere using long datasets of NDSC and MOZAIC obs. services

L'influence de l'homme sur la stratosphère et notamment l'ozone n'est plus à montrer avec la destruction saisonnière de l'ozone dans les régions polaires et sa diminution à l'échelle globale. Suite à l'application du Protocole de Montréal par l'arrêt de la production des composés chlorés, le rétablissement de la couche d'ozone stratosphérique est attendu dans les décennies à venir, mais quand exactement? En effet, la contribution des processus chimiques, dynamiques, radiatifs et extérieurs à l'atmosphère, et donc l'impact climatique de tous ces processus (y compris l'impact anthropique) sur la variabilité et les tendances à long terme des espèces chimiques (dont l'ozone) et de la température dans la stratosphère sont encore méconnus. De ce fait la surveillance et l'étude de la stratosphère est un enjeu scientifique et politique majeur au coeur de nombreux programmes de recherche actuels.
D'un point de vue statistique, notre communauté scientifique utilise principalement des modèles de régression multilinéaire, approche statistique extrêmement classique, mais qui a le mérite de quantifier rapidement les différents processus. Dans cet exposé, nous utiliserons ces méthodes mais aussi d'autres outils tels que les analyses multidimensionnelles (analyse en composantes principales, méthodes de classification et analyses discriminantes), l'assimilation et l'analyse par ondelettes pour étudier l'ozone et la température de la stratosphère et la haute troposphere à partir des Services d'Observation NDSC et MOZAIC. Mais une question se pose, quels outils statistiques devons nous utiliser pour révéler des tendances non linéaires du debut de recouvrement de la couche d'ozone stratosphérique (modèle linéaire généralisé, ondelettes, réseau de neurones, modèle général additif, etc) ?

Link to presentation: ppt file up arrow







J.I. Yano & P. Bouruet-Aubertot, Time-space dependent downscaling of wind stress data for ocean modelling
Link to presentation: ppt file up arrow







J. Leloup, J.-P. Boulanger, S. Thiria & Z. Lachkar, Detecting decadal changes in ENSO using neural networks
Link to presentation: ppt file To be added up arrow







F. Aires & C. Prigent, Neural network uncertainity assessment using Bayesian statistics: A remote sensing application

Neural network (NN) techniques have proved successful for many regression problems, in particular for remote sensing; however, uncertainty estimates are rarely provided. In this presentation, a Bayesian technique t evaluate uncertainties of the NN parameters (i.e., synaptic weights) is first presented. In contrast to more traditional approaches based on "point estimation" of the neural network weights, we assess uncertainties on such estimates to monitor the robustness of the neural network model. These theoretical developments are illustrated by applying them to the problem of retrieving surface skin temperature, microwave surface emissivities and integrated water vapor content from a combined analysis of satellite microwave and infrare observations over land. The weight uncertainty estimates are then used to compute analytically the uncertainties in the network outputs (i.e., error bars and correlation structure of these errors). Such quantities are very important for evaluating any application of a NN model.
The uncertainties on the NN Jacobians are then considered in the third part of this presentation. Used for regression fitting, NN models can be used effectively to represent highly nonlinear, multivariate functions. In this situation, most emphasis is put on estimating the output errors but almost no attention has been given to errors associated with the internal structure of the regression model. The complex structure of dependency inside the NN is the essence of the model and assessing its quality, coherency, and physical character makes all the difference between a ``black-box'' model with small output errors and a reliable, robust, and physically coherent model. Such dependency structures are described to the first order by the NN Jacobians: they indicate the sensitivity of one output with respect to the inputs of the model for a given input data. We use a Monte-Carlo integration procedure to estimate the robustness of the NN Jacobians. A regularization strategy based on principal component analysis is proposed to suppress the multi-collinearities in order to make these Jacobians robust and physically meaningful.

Link to presentation: ppt file up arrow







H. Holin, Adaptative inversion of LIDAR signals and applications

Sont indiqués mes principaux themes de travail pour les trois ans à venir. Ceux-ci s'articulent autour de deux axes: l'exploration de données et l'algorithmie. L'aspect exploration de données vise a établir une typologie des aérosols observés, d'abord au travers de l'algorithme STRAT (exploité sur les trois canaux du LNA), puis au travers des produits issus de l'axe algorithmie. Un complement d'étude, portant sur la fiabilité de l'algorithme STRAT en détection de nuages vis a vis de produits du commerce (LD40) sera aussi entrepris. L'aspect algorithmie vise d'une part à fournir un nouveau type d'inversion du signal lidar qui puisse, dans la mesure du possible, donner une information sur la nature du milieu, et d'autre part à fournir un algorithme de détection de la Couche Limite fondé sur la comparaison (au stade de l'élaboration et non de l'utilisation) avec les radiosondages, basé sur des Réseaux de Neurones. Ces travaux tireront parti de l'appréciable ressource que constitue la base pluriannuelle de données LNA du SIRTA, données conjointes avec celles d'autres instruments.

Link to presentation: ppt file up arrow







C. Moulin, J. Brajard, A. Chazottes, C. Jamet, A. Niang & S. Thiria, Using neural methods (multi-layers neurotrons & topological maps) to analyse ocean colour data from satellites

La correction atmosphérique des images de couleur de l'océan vise à supprimer l'effet des aérosols qui obscurcissent la surface de l'ocean. C'est une étape à la fois cruciale en termes de précision des concentrations en chlorophylle estimées et coûteuse en termes de temps de calcul. Dans le cadre du projet européen NAOC (Neural network Algorithms for Ocean Color; 1999-2003), puis avec le soutien du CNES, nous avons développé une méthode de détection du type des particules qui composent les aérosols (poussières minérales, sulfates, sels de mer,...) à l'aide de cartes topologiques et une méthode neuro-variationnelle permettant la correction atmosphérique dans des cas complexes où les méthodes classiques échouent. Nous travaillons aussi à l'utilisation des perceptrons multi-couches pour estimer des paramètres tels que la taille ou la composition pigmentaire du phytoplancton, en plus de la concentration en chlorophylle dans les eaux de surface. Un tour d'horizon de ces différentes activités sera présenté et les perspectives principales seront discutées.

Link to presentation: ppt file up arrow







C. Grenier, E. Mouche & P. Maugis, Inverse problems & parameters indentification applied to transfer through porous materials: global problem & application tools
Link to presentation: ppt file up arrow







S. Thiria, F. Badran & C. Sorror, YAO: A software method for numerical models implementation (direct scheme, adjoint and data assimilation)

YAO est un outil de développement informatique de modeles numériques en vue de faire de l'assimilation de données. Il est né du constat de la difficulté de coder le modèle adjoint. Une méthodologie de graphe modulaire est utilisée pour pallier cette difficulté. Part ailleurs, Yao a été conçu de façon générique pour s'adapter autant que possible a une variété de modèles en particulier pour les schemas aux différences finies. YAO utilisé des spécifications pour générer un code adéquat. Ces spécifications servent à :

L'un des buts recherche est aussi que la programmation des modules, qui code la physique du modèle soit l'essentiel point de concentration de l'utilisateur qui se trouve ainsi soulagé de tâches informatiques plus rébarbatives. YAO utilisera l'ensemble de ces éléments pour créer l'exécutable de l'application. Cet éxécutable pourra ensuite être piloté par un fichier d'instructions dont les séquences servent par exemple à :

Link to presentation: ppt file up arrow







F. Hourdin, O. Talagrand & A. Idelkadi, Eulerian back-transport, adjoint equations & tracer sources identification
Link to presentation: ppt file To be added up arrow







F. Chevallier, 4D-Var data assimilation of the atmosphere composition in LMDZ

Dans le contexte d'un climat changeant sous l'activité de l'homme, quantifier la variation spatiotemporelle des émissions de gaz et d'aérosols est devenu un enjeu scientifique important. Un systeme d'inversion variationnelle est mis en place pour cela à partir de LMDZ. Il permet d'inverser des émissions à la résolution de LMDZ à partir d'observations à haute résolution (telles les données satellitales) avec une fenetre temporelle couvrant plusieurs mois, voire plusieurs années. L'estimation des puits et sources de CO2 est sa première application, que nous illustrerons. Nous présenterons ensuite l'avancement des travaux pour son application aux espèces réactives, comme CO, CH4 et les aérosols.

Link to presentation: ppt file up arrow







S.Bekki, The ADOMOCA project
Link to presentation: ppt file up arrow







A. Hauchecorne, E. Oikonomou, S. Rharmili & S. Bekki, Ozone data assimilation in a chemistry-transport model for lower-troposhpere - lower stratosphere study
Link to presentation: ppt file up arrow







L. Bopp, L. Bouali, F. Chevallier, C. Moulin, C. Sorror & S. Thiria, Using YAO software for the assimilation of ocean colour data from satellite into the IPSL marine biogeochemistry model

Les données satellitales de couleur de l'océan permettent depuis quelques années le suivi global de l'évolution de la concentration en chlorophylle dans les eaux de surface. Depuis peu, elles fournissent aussi des informations sur l'espèce dominante de phytoplancton et deviennent ainsi une source de données tres précieuse pour l'amélioration des modèles globaux de biogéochimie marine, comme PISCES (IPSL), qui servent en particulier a quantifier le rôle de la biologie marine dans le cycle du carbone. Le modele PISCES repose sur un grand nombre de "constantes physiologiques" plus ou moins bien connues qui permettent de décrire le cycle de vie des principales espèces de phytoplancton. La mise en place d'une technique d'assimilation des données satellitales dans PISCES est indispensable pour réaliser efficacement l'optimisation de ces "constantes physiologiques". Un stage de Master a permis de créer sous YAO le cadre nécessaire à cette realisation. Nous présenterons les premiers tests realisés et décrirons les travaux qui seront realisés dans les mois qui viennent.

Link to presentation: ppt file up arrow







M. Berrada, Data inversion using adjoint. Application to submarine acoustics

Les caractéristiques géoacoustiques du fond marin ont une influence majeur en acoustique sous-marine, en particulier à très basses frequences et à petits fonds. Il s'agit donc, ici, d'élaborer un modèle d'inversion de données basé sur la méthode adjointe afin de retrouver ces caractéristiques et de quantifier certains paramètres. Ce modèle peut ensuite être utilisé comme paramètre d'entrée des modèles de propagation acoustique afin de prédire le champ de pression acoustique dans les gammes de fréquences et dans les conditions d'emploi des sonars opérationnels.
Contrairement à la sismique classique, pour laquelle les signaux pénètrent très profondément dans le fond marin (jusqu'à plusieurs kilomètres), mais au prix d'une assez mauvaise résolution, nous cherchons ici à retrouver les caractéristiques du sous sol sur une épaisseur de quelques mètres seulement, avec une résolution élevée (une dizaine de centimètres). La technique choisie ici s'appuie sur la mesure, à une ou plusieurs fréquences, de la pression acoustique . A partir de ces mesures et d'un modèle d'inversion, nous cherchons à remonter aux caractéristiques du sous-sol.
Notre modèle numérique est représente sous la forme d'un graphe modulaire et codé sous le logiciel Yao, qui est un générateur de code adjoint. On a ainsi réussi à retrouver les caracteristiques du fond (la densité, la célérité du son et l'atténuation) et le profil de la célérité du son dans la colonne d'eau à partir d'une expérience jumelle, en rajoutant les aspects multi-fréquentiels et des termes de régularisation à notre fonction coût.
Les résultats sont encourageant, nous cherchons maintenant à inverser 5 ou 7 paramètres au lieu de 3 et à utiliser des données réelles plutot que des expériences jumelles.

Link to presentation: ppt file up arrow







F. Chevallier et al., Optimisation of ORCHIDEE parameters using data assimilation

La faiblesse de notre connaissance des échanges de carbone entre la surface du globe et l'atmosphère motive le développement de systèmes d'assimilation de données. Ces systemes sont progressivement complexifiés afin d'intégrer des observations de différentes nature: observations satellitales de la végétation, mesures des concentrations atmosphériques, mesures de flux de surface, etc. En préliminaire de ce travail, nous avons optimisé une série de parametres internes du modèle de végétation ORCHIDEE a partir de mesures sur site de flux de chaleur latente et sensible, de flux de rayonnement et de flux de CO2. Le système d'inversion s'inspire du cadre Bayesien et utilise des derivées partielles calculées par differénces finies. Nous préparons l'extension de ce travail de l'echelle de la parcelle à celle du globe et avons etudié différentes stratégies pour le codage de l'adjoint d'ORCHIDEE.

Link to presentation: ppt file up arrow







C. Pires & O. Talagrand, Gaussianity of errors & estimation using Maximum Entropy Method
Link to presentation: pdf file up arrow







P.A. Michelangeli & H. Loukos, Statistical Methods in the Climpact forecast system

Climpact, essaimage de l'IPSL, effectue des prévisions d'indices climato-économiques à l'usage des industriels et réalise des études d'impact liées au changement climatique. Dans ces deux activités, Climpact applique des méthodes statistiques aux prévisions des centres opérationnels et aux simulations climatiques de l'IPSL. Plus particulièrement, ces méthodes visent à faire la synthèse de prévisions d'ensemble et multimodales ainsi que de la descente d'échelle. Au cours de cet exposé, nous allons décrire le systeme de prévisions que nous avons commencé à mettre en place et exposer à quel niveau et comment interviennent les méthodes statistiques que nous utilisons ou désirons utiliser dans ce système.

Link to presentation: pdf file up arrow







L. Descamps & O. Talagrand, Comparison between methods for ensemble forecast initialisation

La prévision d'ensemble est un outil pleinement opérationnel depuis bientot quinze ans. Plusieurs problèmes subsistent néanmoins dont celui de la définition des états initiaux. Les méthodes utilisées par le CEPMMT ou le NCEP sont basées sur l'utilisation de perturbations qui ont crû (le breeding au NCEP) ou vont croître (les vecteurs singuliers au CEPMMT) rapidement. L'idée sous-jacente est que ces directions de forte croissance d'erreur sont les plus importantes pour la prévisibilité de l'écoulement. Depuis quelques années de nouvelles méthodes telles que l'EnKF (Ensemble Kalman Filter) ou l'ETKF (Ensemble Transform Kalman Filter) sont apparues. Ces méthodes visent à échantillonner au mieux l'erreur d'analyse, résultante du processus d'assimilation des observations. Le travail réalisé ici vise, en utilisant des modèles simples de Lorenz et un modèle quasi-géostrophique, à comparer ces différentes méthodes de façon systématique et quantitative. A cette fin, les différents schemas sont mis en place et des prévisions d'ensemble sont realisées. Elles sont évaluées à l'aide des scores probabilistes classiques. Les resultats obtenus avec ces modèles simples montrent clairement que si les scores obtenus sont assez proches, un avantage significatif en faveur des méthodes "non contraintes" se dégage.

Link to presentation: ppt file up arrow







J. Deltel et al., Variational Assimilation in the OPA Model
Link to presentation: ppt file up arrow

up arrow