Tri :
Date
Editeur
Auteur
Titre
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 09-09-2022
Rudel Clément
Voir le résumé
Voir le résumé
Dans une optique de réduction du bruit engendré par les avions, de nombreux phénomènes restent encore à mieux comprendre et de nombreuses configurations sont à étudier. Un besoin en outils de simulation précis et efficaces se fait donc ressentir pour répondre à ces problématiques de propagation d'ondes. Une approche envisageable est celle des équations one-way. En effet, cette méthode permet de décomposer la résolution des équations en fonction du sens de propagation des ondes le long d'un axe. Ainsi, au sein d'un écoulement, cet axe est naturellement celui de l'écoulement principal. Cependant, l'application des équations one-way dans le cadre de la mécanique des fluides souffre d'une limitation majeure. La complexité des équations résolues (équations d'Euler ou de Navier-Stokes) impose une hypothèse d'écoulement faiblement variable, limitant de ce fait le domaine d'application d'une telle méthode. Le premier objectif a donc été de développer une reformulation de ces équations one-way, dans le but de pouvoir appliquer certaines méthodes permettant la levée d'une telle hypothèse. Pour cela, l'exploitation de deux conditions aux limites non-réfléchissantes a permis la construction d'une factorisation purement numérique de l'opérateur de propagation. A partir de cette méthode, il est ensuite possible d'appliquer des formalismes comme les équations one-way true amplitude ou les séries de Bremmer, permettant de prendre en compte les ondes réfractées et/ou réfléchies. Le second objectif a été de mettre à l'épreuve ces méthodes sur différentes applications. Ces dernières sont constituées d'écoulements variant le long de l'axe de propagation, de conduits à section variable ou partiellement traités acoustiquement (liners acoustiques) ou encore d'un jet chaud subsonique. Dans tous ces cas, les résultats fournis par les approches one-way montrent un bon accord avec les données expérimentales et avec différentes méthodes numériques plus coûteuses.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 26-08-2022
Scotto di perrotolo Alexandre
Voir le résumé
Voir le résumé
Les méthodes aléatoires pour le calcul approché de décomposition aux valeur singulières/valeurs propres ont suscité beaucoup d’intérêt au cours des dernières décennies. Ces méthodes se sont avérées performantes, efficaces en termes de coût de calcul et particulièrement bien adaptées aux problèmes de grande taille. À cet égard, des recherches récentes ont proposé des applications de cesméthodes en assimilation de données, où la taille des problèmes est prohibitive pour un grand nombre d'approches classiques. Dans cette thèse, nous proposons trois contributions interconnectées aux méthodes aléatoires pour l'approximation de rang faible, l'extraction d’information spectrale et le préconditionnement en assimilation de données variationnelle.Premièrement, nous proposons une analyse générale de l'erreur d'approximation de rang faible aléatoire en norme de Frobenius et en norme spectrale. Cette généralisation étend les possibilités d'analyse à un plus grand nombre de méthodes aléatoires en autorisant des matrices de covariance générales et un vecteur de moyenne non nulle pour la matrice gaussienne d'échantillonnage. La particularisation de nos bornes à la méthode dite de Randomized Singular Value Decomposition (RSVD) montre que nous améliorons les bornes d'erreur de référence proposées par Halko, Martinsson et Tropp (2011).Ensuite, nous présentons des algorithmes aléatoires pour la résolution de problèmes aux valeurs propres spécifiques qui apparaissent notamment en assimilation de données. Les méthodes proposées sont polyvalentes et généralisent les contributions de Saibaba, Lee et Kitanidis (2016) et Daužickaité et al. (2021). Nous fournissons ensuite une analyse théorique de nos méthodes qui éclaire sur la sensibilité de l’erreur au nombre d'itérations de sous-espace, au nombre d'échantillons aléatoires et à la matrice de covariance pour la matrice gaussienne d'échantillonnage. Des illustrations numériques sur un problème d'assimilation de données confirment le potentiel de nos algorithmes.Enfin, nous proposons une classe de préconditionnement à mémoire limitée aléatoire dédiée à l'assimilation de données variationnelle. Nous proposons de tels préconditionnements pour deux méthodes de Krylov en particulier: une approche dite inverse-free dans l'espace primal introduite par Guröl (2013) et une méthode d'espace dual proposée par Gratton et Tshimanga (2009). La dimension réduite de l'espace dual rend cette dernière approche plus intéressante à la fois en termes de coût de calcul et de stockage. Les préconditionnements aléatoires proposés sont basés sur des expressions adaptées identifiées par Gürol (2013) pour lesquelles les calculs coûteux d’information spectrale exacte est remplacée par des approximations obtenues avec une procédure aléatoire. Des illustrations sur un problème d'assimilation de données variationnel quadridimensionnel de référence démontrent le potentiel de nos préconditionnements aléatoires, ouvrant ainsi des perspectives intéressantes.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 16-03-2022
El Masri Maxime
Voir le résumé
Voir le résumé
De nombreuses disciplines scientifiques s’intéressent à l’estimation d’espérances d’une fonction d’intérêt selon une certaine loi de probabilité. Cette fonction peut être considérée comme une boite noire, potentiellement couteuse à évaluer. Une méthode couramment utilisée pour estimer des espérances, tout en limitant le nombre d’appels à la boite noire, est la méthode stochastique d’échantillonnage préférentiel (Importance Sampling, IS) qui consiste à échantillonner selon une loi de probabilité auxiliaire au lieu de la loi initiale. L’estimateur d’IS est défini à partir de l’estimateur de Monte-Carlo, avec des poids d’importance, et converge presque sûrement vers l’espérance voulue, par la loi des grands nombres. Cependant, sa variance, et donc la précision de l’estimation, dépend fortement du choix de la densité auxiliaire. Une densité optimale d’échantillonnage préférentiel minimisant la variance peut être définie sur le plan théorique mais n’est pas connue en pratique. Une possibilité est alors de choisir la densité auxiliaire dans une famille paramétrique, avec la-quelle il est facile de générer des échantillons, afin d’approcher la distribution optimale théorique. Des algorithmes adaptatifs (Adaptive Importance Sampling, AIS), qui estiment les paramètres de manière itérative, ont été développés pour trouver les paramètres optimaux permettant d’approcher la densité théorique visée. Mais lorsque la dimension de l’espace des paramètres augmente, l’estimation des paramètres se dégrade et les algorithmes d’AIS, et l’IS en général, deviennent inefficaces. L’estimation finale de l’espérance devient alors très imprécise, notamment du fait de l’accumulation des erreurs commises dans l’estimation de chaque paramètre. L’objectif principal de cette thèse est ainsi d’améliorer la précision de l’IS en grande dimension, en réduisant le nombre de paramètres estimés à l’aide de projections dans un sous-espace de petite dimension. Nous nous concentrons particulièrement sur la recherche de directions de projection influentes pour l’estimation de la matrice de covariance dans un cadre gaussien unimodal (où l’on met à jour le vecteur moyenne et la covariance). La première piste explorée est la projection sur le sous-espace de dimension un engendré par la moyenne optimale. Cette direction est particulièrement pertinente dans le cas d’estimation d’une probabilité d’événement rare, car la variance semble diminuer selon cette direction. La seconde proposition correspond à la projection optimale obtenue en minimisant la divergence de Kullback-Leibler avec la densité visée. Cette seconde proposition permet de projeter dans un espace de plusieurs dimensions contrairement à la première, et permet d’identifier les directions les plus influentes. Dans un premier temps, l’efficacité de ces projections est testée sur différents exemples d’estimation d’espérances en grande dimension, dans un cadre théorique n’impliquant pas d’algorithmes adaptatifs. Les simulations numériques réalisées montrent une nette amélioration de la précision de l’estimation par IS avec les deux techniques de projection sur tous les exemples considérés. Ensuite, nous proposons un couplage de ces projections avec l’algorithme d’Entropie Croisée (Cross Entropy, CE), un algorithme d’AIS destiné à l’estimation de probabilités d’événements rares. L’efficacité de ces algorithmes est vérifiée sur plusieurs cas-tests avec un faible budget de simulation. La technique basée sur la projection dans les directions optimales permet d’obtenir des estimations très précises pour des dimensions modérément grandes (plusieurs dizaines). Le couplage avec la projection sur la moyenne reste en revanche performante dans des dimensions de quelques centaines dans la plupart des exemples. Dans tous les cas, les simulations montrent que les méthodes proposées sont plus précises que la CE classique en grande dimension avec un même budget.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 29-11-2021
LAMOTHE François
Voir le résumé
Voir le résumé
Le problème de la transmission de ressources indivisibles au travers d'un réseau est un problème générique présent dans de nombreuses applications. En effet, ce type de problème se retrouve dans des industries telles que le transport de fret ou encore les télécommunications (réseaux optiques, communications satellitaires ...). L'amélioration des méthodes de résolution pour ce problème représente donc un enjeu important, en particulier dans l'application industrielle qui motive cette thèse : la constellation de satellites de télécommunication Telesat. En effet, cette industrie tend à construire des constellations contenant de plus en plus de satellites afin d'augmenter le débit internet que le système est capable de transmettre. En parallèle de l'augmentation du nombre de satellites, on constate aussi une augmentation du nombre d'utilisateurs de ces constellations. Celle ci s'explique à la fois par l'accroissement de la richesse de la population, l'essor de nouvelles applications telles que les accès internet dans les avions ou les bateaux mais aussi tout simplement par l'augmentation de la capacité et de la qualité des services de télécommunication par satellite. La combinaison de ces facteurs tend à créer des problèmes de transmission de ressources de plus en plus difficiles à résoudre ce qui nécessite des algorithmes de résolution plus performants.Dans cette thèse, nous nous intéressons au problème de transmission de la ressource indivisible qu'est le débit des utilisateurs dans une constellation. Ce problème correspond à un problème classiquement étudié dans la littérature des problèmes de flots, sous le nom de problème de flot insécable. Bien que ses propriétés théoriques soient bien connue et que de nombreuses approches de résolution existent, les méthodes de résolution proposées manquent d'efficacité lorsque la taille du problème est importante. Nous tentons de combler cette lacune en proposant des algorithmes présentant de bonnes performances sur de grandes instances de ce problème. D'autre part, l'introduction de la dynamique de la constellation dans le problème nous mène à nous intéresser au problème de flot insécable dynamique. Ce problème est peu étudié dans la littérature, c'est pourquoi nous étendons l'ensemble des méthodes de résolution testées sur ce problème en proposant différentes approches et en les comparant expérimentalement sur des jeux d'instances que nous proposons. Enfin, nous étudions des méthodes de décomposition permettant de renforcer la relaxation linéaire du problème flot insécable. En effet, cette relaxation linéaire est à la base de la plupart de méthode de résolution proposée dans la littérature. Le calcul d'une relaxation puissante est donc un enjeu de la résolution du problème de flot insécable. Après avoir présenté et réimplémenté deux méthodes de la littérature, nous proposons une nouvelle méthode de décomposition s'inspirant des deux méthodes précédentes. Une étude empirique montre que la nouvelle méthode proposée possède un avantage compétitif important sur les grandes instances du problème de flot insécable.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 12-07-2021
Ikli Sana
Voir le résumé
Voir le résumé
Les pistes des aéroports sont considérées comme l'un des principaux goulots d'étranglementdu système aéroportuaire et l'un des facteurs qui déterminent la capacité des aéroports. Optimiser l'utilisation des pistes afin de réduire les retards motive les études du problème d'ordonnancement des atterrissages d'avions. Dans le cadre de cette thèse, nous nous intéressons au problème d'ordonnancement d'atterrissages d'avions dans deux contextes différents : un ordonnancement à la piste considérée comme une ressource indépendante, puis un ordonnancement d'arrivées d'avions en considérant plusieurs pistes d'atterrissage précédées par des balises de l'espace aérien aéroportuaire. Notre objectif est de minimiser les coûts de retard des avions. Pour le premier problème, nous considérons une représentation du coût de retard réaliste mais rarement considérée dans la littérature : une fonction convexe, linéaire par morceaux. Pour la résolution du problème, deux méthodes d'optimisation sont proposées dans cette thèse : une méthode exacte basée sur la programmation linéaire mixte en nombres entiers et une méthode heuristique basée sur un algorithme de planification optimiste issu du domaine de l'apprentissage par renforcement. Nous proposons aussi dans cette thèse des nouvelles instances réalistes et difficiles pour le problème d'ordonnancement d'atterrissage, car les instances de la littérature sont de nos jours facilement résolues avec les versions actuelles des logiciels d'optimisation. Les tests numériques effectués sur les instances proposées montrent que les retards peuvent significativement être réduits quand une approche d'optimisation est adoptée pour ordonnancer les atterrissages. Cependant, la méthode exacte requiert des temps de calcul qui deviennent prohibitifs avec la taille du problème (ici le nombre d'avions). Pour le deuxième problème, nous proposons une étude préliminaire dans laquelle nous adoptons une approche de programmation linéaire mixte en nombres entiers. La comparaison de cette approche avec la technique traditionnellement utilisée par les contrôleurs aériens révèlent encore une fois à quel point une approche d'optimisation peut être bénéfique pour réduire les retards.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 27-05-2021
Sarazin Gabriel
Voir le résumé
Voir le résumé
Dans le contexte d'une analyse de fiabilité, pour évaluer la position de retombée d'un étage de lanceur de satellite et pour estimer le risque de défaillance associé, il est souvent nécessaire d'utiliser un code de simulation numérique dont les entrées sont des mesures issues de systèmes embarqués. La méconnaissance des incertitudes affectant ces entrées mesurées peut avoir un impact considérable sur la qualité de l'estimation du risque de défaillance. Ces travaux de thèse ont deux objectifs principaux : - Implémenter un algorithme permettant d'acquérir le maximum de connaissances sur la distribution des entrées (sachant que la seule matière première est un jeu de données de petite taille) avant d'utiliser le résultat de cette apprentissage pour quantifier le risque de défaillance. - Effectuer une analyse de sensibilité permettant de comprendre quelles sont les variables d'entrée ou bien les motifs de dépendance en entrée qui jouent un rôle clé dans le processus d'estimation du risque.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 08-02-2021
Messaï Nadir-Alexandre
Voir le résumé
Voir le résumé
Cette thèse est dédiée à la conception et à l'étude d'une structure de boucle de raffinement auto-adaptative pour résoudre de manière fiable les équations intégrales acoustiques. Notre démarche est de revisiter l'ensemble des briques constitutives de cette architecture pour en améliorer l'efficacité algorithmique ainsi que la facilité d'utilisation, et vue d'en démocratiser son usage.Notre approche consista d'abord à étudier un schéma numérique de Galerkin discontinu. Cette méthode rend en effet possible l'utilisation de maillages $hp$ non-conformes et l'optimisation et la simplification de la construction de l'espace d'approximation. Nous fournissons une étude théorique détaillée de cette méthode et démontrons sa stabilité. Un ensemble d'expériences numériques a permis de confirmer le bon comportement pratique du schéma numérique.Nous avons ensuite adapté une méthode de compression matricielle basée sur une approche par interpolation directionnelle $mathcal{DH}^{2}$ ainsi que sa recompression algébrique. Un ensemble d'optimisations originales a été introduite en vue d'obtenir un algorithme efficace dans le cas de matrices issues du schéma de Galerkin discontinu. Nous obtenons textit{in fine} une compression robuste vis-à-vis de la fréquence et de l'hétérogénéité du maillage. Une analyse de complexité ainsi qu'un nombre conséquent d'expériences numériques, dont des comparaisons avec une $mathcal{H}$-matrice, sont également proposés.La dernière partie de la thèse fut d'abord dédiée à la construction d'un estimateur d'erreur textit{a posteriori} adapté au schéma de Galerkin discontinu qui soit fiable et local. Il est basé sur une approche de type résidu. Cet outil est indispensable pour guider le processus de raffinement local du maillage. Nous avons ensuite exploré un ensemble de procédures de raffinement local en $h$ et en $hp$ non-conformes. Cela permit de confirmer l'intérêt d'un raffinement $hp$ non-conforme, qui offre un meilleur taux de convergence de l'estimateur par rapport au raffinement en $h$ conforme. Une autre contribution originale de notre travail est de proposer un estimateur d'erreur qui prenne en compte l'ensemble des contributions à l'erreur globale : l'erreur de discretisation, l'erreur de résolution du système linéaire et l'erreur de compression. Cette finesse de description de l'erreur nous a permis d'automatiser le réglage de l'ensemble des paramètres de la boucle de raffinement auto-adaptative. Nous aboutissons finalement à une architecture de calcul extrêmement simple d'utilisation.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 17-12-2020
Dahmen Nour Allah
Voir le résumé
Voir le résumé
Les ceintures de radiation terrestres constituent un environnement radiatif naturel très dynamique, hostile à la plupart des satellites artificiels, et dont la modélisation physique demeure aujourd’hui encore imparfaite. Cette dynamique est généralement décrite par des codes numériques résolvant une équation de diffusion. Du fait des forts gradients dans l’espace de la fonction de distribution et de l’intense dynamique des ceintures de radiation, les méthodes numériques employées doivent être très robustes. Le code Salammbô 3D développé et perfectionné depuis de nombreuses années au sein du département Environnement Spatial de l’ONERA a acquis aujourd’hui une maturité reconnue internationalement. Il constitue aussi bien le modèle physique sur lequel s’appuie le développement des futurs modèles de spécification d’environnement, qu’un laboratoire virtuel d’observation et d’analyse des mécanismes physiques gouvernant la dynamique des ceintures de radiations.Salammbô 3D repose sur un schéma numérique de type explicite, différences finies. Ce schéma possède le principal avantage d’être simple à mettre en place de par sa formulation. Cependant, sa stabilité est limitée par la condition CFL. De plus, des termes de diffusion croisés rendent ce schéma instable. L’objectif de cette thèse est donc de développer et valider un nouveau coeur numérique au code Salammbô 3D en version implicite. Le but recherché est triple : (1) rendre le code plus robuste aux forts gradients spatiaux des différents termes de diffusion, (2) accélérer le code tout en conservant, voire améliorant sa précision, (3) prendre en compte les termes de diffusion croisés ignorés dans le cas d’un schéma explicite.Enfin, dans une dernière partie, il serait intéressant d’affiner le code implicite mis en place pour qu’il puisse répondre à deux problématiques physiques actuelles : (1) optimiser la résolution spatiale du modèle au niveau des orbites basses pour mieux reproduire l’environnement des satellites en LEO, et (2) estimer les précipitations de particules des ceintures de radiation dans l’atmosphère (intérêt supplémentaire des volumes finis).
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 26-11-2020
Priem Rémy
Voir le résumé
Voir le résumé
De nos jours, la conception avant-projet en aéronautique repose majoritairement sur des modèles
numériques faisant interagir de nombreuses disciplines visant à évaluer les performances
de l’avion. Ces disciplines, comme l’aérodynamique, la structure et la propulsion, sont connectées
entre elles afin de prendre en compte leurs interactions. Cela produit un processus d’évaluation
des performances de l’avion coûteux en temps de calcul. En effet, une évaluation peut prendre de
trente secondes pour les modèles de basse fidélité jusqu’à plusieurs semaines pour les modèles
de plus haute fidélité. De plus, à cause de la multi-disciplinarité du processus et de la diversité
des outils de calcul, nous n’avons généralement pas accès aux propriétés ou au gradient de cette
fonction de performance. En outre, chaque discipline utilise ses propres variables de conception
et doit respecter des contraintes d’égalité ou d’inégalité qui sont souvent nombreuses et multimodales.
On cherche finalement à trouver la meilleur configuration possible dans un espace de
conception donné.
Cette recherche peut se traduire mathématiquement par un problème d’optimisation boite noire
sous contraintes d’inégalité et d’égalité, aussi connues comme contraintes mixtes, dépendant
d’un grand nombre de variables de conception. De plus, les contraintes et la fonction objective
sont coûteuses à évaluer et leur régularité n’est pas connue. C’est pourquoi, on s’intéresse
aux méthodes d’optimisations sans dérivées et particulièrement celles reposant sur les modèles
de substitution. Les méthodes d’optimisation Bayésienne, utilisant des processus gaussiens, sont
notamment étudiées car elles ont montré des convergences rapides sur des problèmes multimodaux.
En effet, l’utilisation d’algorithmes d’optimisation évolutionnaire ou reposant sur le gradient
n’est pas envisageable du fait du coût de calcul que cela implique : trop d’appels pour générer
des populations de points, ou pour approcher le gradient par différences finies.
Cependant la méthode d’optimisation Bayésienne est classiquement utilisée pour des problèmes
d’optimisation sans contrainte et de faible dimension. Des extensions ont été proposées
pour prendre en compte ce verrou de manière partielle. D’une part, des méthodes d’optimisation
ont été introduites pour résoudre des problèmes d’optimisation à contraintes mixtes. Toutefois,
aucune d’entre elles n’est adaptable à la grande dimension, aux problèmes multi-modaux et aux
contraintes mixtes. D’autre part, des méthodes d’optimisation ont été développées pour la grande
dimension pouvant aller jusqu’aumillion de variables de conception. De même, ces méthodes ne
s’étendent que difficilement aux problèmes contraints à cause du temps de calcul qu’ils nécessitent
ou de leur caractère aléatoire.
Une première partie de ce travail repose sur le développement d’un algorithme d’optimisation
Bayésienne résolvant les problèmes d’optimisation sans contrainte en grande dimension. Il repose
sur une stratégie d’apprentissage adaptatif d’un sous-espace linéaire réalisée conjointement
à l’optimisation. Ce sous-espace linéaire est ensuite utilisé pour réaliser l’optimisation. Cette méthode a été testée sur des cas tests académiques.
Une deuxième partie de ce travail traite du développement d’un algorithme d’optimisation
Bayésienne pour résoudre les problèmes d’optimisation multi-modaux sous contraintes mixtes. Il
a été comparé aux algorithmes de la littérature de manière intensive sur une grande batterie de
tests académiques.
Finalement, on a confronté le second algorithme à deux cas tests aéronautiques. Le premier
cas test est une configuration classique d’avion moyen-courrier à propulsion hybride électrique
développé par l’ONERA et l’ISAE-SUPAERO. Le second cas test est une configuration classique
d’avion d’affaire développée par Bombardier Aviation. Ce cas test repose sur une optimisation
à deux niveaux de fidélité. Un niveau de fidélité conceptuel et un niveau de fidélité préliminaire
pour lesquels le problème est respectivement évalué en trente secondes et 25 minutes. Cette dernière
étude a été réalisée lors d’une mobilité internationale chez Bombardier Aviation à Montréal
(CA). Les résultats ont montré l’intérêt de la méthode mise en place
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 28-09-2020
Serhani Anass
Voir le résumé
Voir le résumé
Dans cette thèse, nous nous intéressons à la modélisation, la discrétisation, la simulation et l'analyse numérique de systèmes d'équations aux dérivées partielles dissipatives, contrôlées et observées à la frontière, via le formalisme des systèmes Hamiltoniens à ports d'interaction, ou port-Hamiltonian systems (pHs). L'objectif principal est de préserver le bilan de puissance des systèmes continus lors du passage au discret. Le problème des ondes et de la chaleur y sont largement étudiés.Dans la première partie de la thèse, nous avons étudié un modèle d'ondes hétérogènes anisotropes avec plusieurs types d'amortissement, interne et frontière. Non seulement nous avons rigoureusement éclairci le cadre fonctionnel du problème, mais nous avons mis en évidence son aspect géométrique, plus précisément, en mettant en lumière la structure de Stokes-Dirac sous-jacente au bilan de puissance. Pour discrétiser le problème des ondes amorties, la récenteméthode des éléments finis partitionnés, ou Partitioned Finite Element Method (PFEM), est adoptée pour sa construction systématique et sans traitement supplémentaire d'une structure de Dirac de dimension _nie, ce qui permet l'obtention naturelle d'une version discrète du bilan de puissance ; la simulation s'effectue par la résolution d'une équation différentielle ordinaire (ODE) linéaire. Cette discrétisation structurée est appliquée aux dissipations internes de type fluide et visco-élastique et aux dissipations frontières de type admittance et impédance.Dans la deuxième partie, nous nous sommes intéressés à un problème de diffusion. Le problème de la chaleur est modélisé, en formulation Hamiltonienne, par plusieurs choix de Hamiltoniens possibles, qui découlent soit de la littérature mathématique, soit de la littérature thermodynamique (énergie interne ou bien entropie). Puisque le problème des ondes et le problème de la chaleur partagent le même opérateur de structure, la discrétisation du problème de diffusion hérite d'un grand nombre de raisonnements faits dans la première partie. Néanmoins, le système discret obtenu est alors une équation différentielle algébrique (DAE), linéaire ou bien non-linéaire. La méthode PFEM retenue dans ce travail démontre son efficacité par sa capacité à mimer, au niveau discret, la diffusion bien connue de l'équation de la chaleur, mais également les premier et second principes de la thermodynamique (selon le Hamiltonien choisi lors de la modélisation).La troisième partie de la thèse, très originale, est consacrée à l'analyse numérique de la méthode de discrétisation proposée. La convergence du schéma numérique est démontrée pour des configurations multiples de familles d'éléments finis sur le modèle des ondes de la première partie, et les ordres obtenus sont vérifiés numériquement. En particulier, la configuration optimale des familles d'éléments finis, c'est-à-dire la minimisation du nombre de degrés de liberté pour un ordre de convergence donné, est obtenue en corollaire. La simulation numérique, n-dimensionnelle, des problèmes étudiés a donné lieu à des codes scientifiques développés en Python. Ces derniers sont adressés à destination, à la fois, des utilisateurs novices et des développeurs intéressés pour améliorer les codes ou pour les adapter à d'autres modèles.
|
Texte intégral
|
|