Analyse mathématique et numérique de modèles pour les matériaux, de l'échelle microscopique à l'échelle macroscopique - ParisTech Accéder directement au contenu
Hdr Année : 2009

Mathematical and numerical analysis of some models for materials, from the microscopic scale to the macroscopic scale

Analyse mathématique et numérique de modèles pour les matériaux, de l'échelle microscopique à l'échelle macroscopique

Résumé

The first part of the manuscript concerns multiscale (or micro-macro) models for complex fluids. The interest of these models is to avoid the assumption of a phenomenological constitutive law, by coupling a macroscopic description (momentum and mass conservation laws) on the velocity and pressure, with microscopic models for the evolution of the microstructures in the fluid at the origin of the non-Newtonian features of the fluid. The constitutive law consists in a formula giving the stress tensor as a function of the conformation of the microstructures. During my PhD thesis, we obtained some existence and uniqueness results, and proved the convergence of numerical methods adapted to these models. More recently, we propose a numerical method to couple micro-macro models (very precise but computationally expensive) with macroscopic models (coarser but much cheaper). Besides, we analyze a numerical method recently proposed to solve high dimensional partial differential equations in the context of the discretization of micro-macro models for polymeric fluids.

Our recent works on the subject essential deal with the longtime behaviour of these models. The aim is twofold: theoretically, the understanding of the physical content of a model typically requires a fine study of the stability of its stationary solutions, and the convergence to equilibrium ; numerically, the longtime stability of the numerical schemes is often crucial, since longtime simulations are typically used to compute stationary solutions. We show how to analyze the longtime behaviour of micro-macro models using entropy methods. This is then generalized to macroscopic models (like the Oldroyd-B model), and to numerical schemes used to discretize macroscopic models.


The second part of the manuscript summarizes recent works in molecular simulation, at the quantum level, or at the molecular level. At the quantum level, we are interested in Quantum Monte Carlo methods. These are probabilistic methods to compute the ground state of a molecule (the smallest eigenvalue of a Schrödinger operator). It consists in deriving Feynman-Kac representation formulae to apply Monte Carlo methods which are well-suited for this high-dimensional setting. We first propose a theoretical study of the Diffusion Monte Carlo method, and in particular of a bias introduced by the probabilistic representation called the fixed node approximation. Then, we analyze numerical methods used for the Diffusion Monte Carlo method, and propose a new strategy to enhance the sampling for the Variational Monte Carlo method.

In molecular dynamics, we study numerical methods to compute free energy differences. The configuration of a system is described through the positions (and sometimes also the momenta) of the particules (typically the nuclei of a molecular system), interacting through a so-called potential (which would ideally come from a computation at the quantum level to determine the ground state of the electrons, for a given position of the nuclei). The aim is to compute some averages with respect to the Boltzmann-Gibbs measure associated to this potential (averages in the canonical ensemble). Mathematically, this is a high-dimensional sampling problem of metastable (or multimodal) probability measures. The peculiarity of molecular dynamics is that some information is given on the "metastability direction" through the reaction coordinate. Using this data, many methods have been proposed for an efficient sampling of the Boltzmann-Gibbs measure. In a series of works, we analyze methods based on stochastic differential equations with constraints (whose solutions live on submanifolds which are level sets of the reaction coordinate). These are techniques to sample probability measures with support a high-dimensional submanifold. More recently, we analyze adaptive methods which have been proposed to get rid of metastabilities. Mathematically, these are importance sampling method, with an importance function which is adaptively computed. We study the rate of convergence to equilibrium for such methods, using entropy methods. New discretization methods are proposed to enhance the efficiency.


The third and last part of the manuscript summarizes works coming from a collaboration with the company Rio Tinto (formerly Pechiney and Alcan), world leader for the technology of aluminium electrolysis cells. This collaboration started many years ago with C. Le Bris, and especially through the PhD thesis of J-F. Gerbeau. Mathematically, it amounts to analyzing and discretizing the magnetohydrodynamics equations for two immiscible incompressible fluids, separated by a free interface. We explain the industrial context and the modelling assumptions, we summarize the numerical approach we use (Arbitrary Lagrangin Eulerian method) and we give some properties satisfied by the numerical scheme (stability, mass conservation). We then show how this model can be used to study the metal pad rolling, which is a well known phenomenon leading to instabilities in the cells. Most of these results have been obtained during the PhD thesis.


More recently, we have been interested in a fundamental modelling problem, namely the moving contact line problem. The question is how to model correctly the dynamics of the boundary of the free surface (or free interface). Our two contributions are: (i) We propose a variational interpretation of the Generalized Navier Boundary Condition which has been recently proposed to model the moving contact line. This leads to a very natural implementation within an Arbitrary Lagrangian Eulerian method ; (ii) We analyze the stability of the numerical scheme.
La première partie du mémoire concerne l'étude de modèles multi-échelles (ou micro-macro) pour les fluides complexes. L'intérêt de ces modèles est d'éviter d'avoir à postuler des lois de comportements phénoménologiques, en couplant une description macroscopique classique (lois de conservations de la quantité de mouvement et de la masse) sur la vitesse et la pression, à des modèles microscopiques pour l'évolution des microstructures dans le fluide, à l'origine du caractère non-newtonien du fluide. La loi de comportement consiste alors à exprimer le tenseur des contraintes en fonction de la conformation des microstructures. Durant la thèse, nous avons obtenu quelques résultats d'existence et de convergence des méthodes numériques utilisées pour ces modèles. Plus récemment, nous proposons une méthode numérique pour coupler des modèles micro-macro (fins mais chers) avec des modèles macroscopiques (plus grossiers, mais beaucoup plus économiques en temps de calcul). Nous analysons par ailleurs une méthode de résolution des équations aux dérivées partielles en grande dimension qui a été proposée dans le contexte de la résolution numérique des modèles à l'échelle microscopique pour les fluides polymériques.

L'essentiel de nos travaux les plus récents sur le sujet concerne le comportement en temps long de ces modèles, avec un double objectif : théoriquement, la compréhension des modèles physiques passe souvent par l'étude de la stabilité des solutions stationnaires, et de la vitesse de convergence vers l'équilibre ; numériquement, la stabilité des schémas en temps long est cruciale, car on utilise typiquement des simulations instationnaires en temps long pour calculer des solutions stationnaires. Nous montrons comment analyser le comportement des modèles micro-macro en temps long, en utilisant des méthodes d'entropie. Cette étude a ensuite permis de comprendre le comportement en temps long de modèles macroscopiques standard (type Oldroyd-B), et de préciser sous quelles conditions les schémas numériques vérifient des propriétés similaires de stabilité en temps long.


La seconde partie du mémoire résume des travaux en simulation moléculaire, à l'échelle quantique, ou à l'échelle de la dynamique moléculaire classique. A l'échelle quantique, nous nous intéressons aux méthodes Quantum Monte Carlo. Il s'agit de méthodes numériques probabilistes pour calculer l'état fondamental d'une molécule (plus petite valeur propre de l'opérateur de Schrödinger à N corps). Essentiellement, il s'agit de donner une interprétation probabiliste du problème par des formules de Feynman-Kac, afin de pouvoir appliquer des méthodes de Monte Carlo (bien adaptées pour des problèmes de ce type, en grande dimension). Nous proposons tout d'abord une étude théorique de la méthode Diffusion Monte Carlo, et notamment
d'un biais introduit par l'interprétation probabiliste (appelé fixed node approximation). Nous analysons ensuite les méthodes numériques utilisées en Diffusion Monte Carlo, et proposons une nouvelle stratégie pour améliorer l'échantillonnage des méthodes Variational Monte Carlo.

En dynamique moléculaire, nous étudions des méthodes numériques pour le calcul de différences d'énergie libre. Les modèles consistent à décrire l'état d'un système par la position (et éventuellement la vitesse) de particules (typiquement les positions des noyaux dans un système moléculaire), qui interagissent au travers d'un potentiel (qui idéalement proviendrait d'un calcul de mécanique quantique pour déterminer l'état fondamental des électrons pour une position donnée des noyaux). L'objectif est de calculer des moyennes par rapport à la mesure de Boltzmann-Gibbs associée à ce potentiel (moyennes dans l'ensemble canonique). Mathématiquement, il s'agit d'un problème d'échantillonnage de mesures métastables (ou multi-modales), en très grande dimension. La particularité de la dynamique moléculaire est que, bien souvent, on a quelques informations sur les "directions de métastabilité" au travers de coordonnées de réaction. En utilisant cette donnée, de nombreuses méthodes ont été proposées pour permettre l'échantillonnage de la mesure de Boltzmann-Gibbs. Dans une série de travaux, nous avons analysé les méthodes basées sur des équations différentielles stochastiques avec contraintes (dont les solutions vivent sur des sous-variétés définies comme des lignes de niveaux de la coordonnée de réaction). Il s'agit en fait d'analyser des méthodes d'échantillonnage de mesures définies sur des sous-variétés de grande dimension. Plus récemment, nous avons étudié des méthodes adaptatives qui ont été proposées pour se débarrasser des métastabilités. Mathématiquement, il s'agit de méthodes d'échantillonnage préférentiel, avec une fonction d'importance qui est calculée au cours de la simulation de manière adaptative. Nous avons étudié la vitesse de convergence vers la mesure d'équilibre pour ces méthodes adaptatives, en utilisant des méthodes d'entropie. Nous avons proposé de nouvelles méthodes numériques à la communauté appliquée pour utiliser au mieux ces idées.


La troisième partie du mémoire résume des travaux issus d'une collaboration avec l'entreprise Rio Tinto (anciennement Pechiney puis Alcan), leader mondial pour la technologie des cuves d'électrolyse de l'aluminium. Cette collaboration a été entamée il y a plusieurs années par C. Le Bris, et notamment au travers de la thèse de J-F. Gerbeau. Mathématiquement, il s'agit d'analyser et de discrétiser les équations de la magnétohydrodynamique pour deux fluides incompressibles non miscibles, séparés par une interface libre. Nous expliquons le contexte industriel et la modélisation, nous résumons la méthode numérique adoptée (méthode Arbitrary Lagrangian Eulerian) et donnons quelques propriétés satisfaites par le schéma (stabilité, conservation de la masse). Nous montrons ensuite comment ce modèle permet d'étudier un phénomène (potentiellement déstabilisant) observé dans les cuves d'électrolyse : le rolling. Ces résultats ont été pour la plupart obtenus durant la thèse.

Plus récemment, dans le prolongement de l'étude industrielle, nous nous sommes intéressés à un problème de modélisation fondamentale pour les écoulements à surface (ou interface) libre: le mouvement de la ligne de contact (i.e. le bord de la surface libre qui glisse le long de la paroi). En résumé, nos travaux consistent essentiellement en deux contributions: (i) une compréhension variationnelle d'une condition aux limites permettant de modéliser correctement le mouvement de la ligne de contact (Generalized Navier Boundary Condition), et son implémentation dans un schéma Arbitrary Lagrangian Eulerian, (ii) une analyse de la stabilité du schéma obtenu.
Fichier principal
Vignette du fichier
memoire.pdf (789.68 Ko) Télécharger le fichier
Loading...

Dates et versions

tel-00392808 , version 1 (09-06-2009)

Identifiants

  • HAL Id : tel-00392808 , version 1

Citer

Tony Lelièvre. Analyse mathématique et numérique de modèles pour les matériaux, de l'échelle microscopique à l'échelle macroscopique. Mathématiques [math]. Université Paris Dauphine - Paris IX, 2009. ⟨tel-00392808⟩
353 Consultations
552 Téléchargements

Partager

Gmail Facebook X LinkedIn More