Tri :
Date
Editeur
Auteur
Titre
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 12-09-2022
Thomas Ludovic
Voir le résumé
Voir le résumé
Les réseaux temps-réels, comme ceux spécifiés par IEEE Time-Sensitive Networking (TSN) et IETF Deterministic Networking (DetNet), fournissent aux applications critiques un service déterministe avec des bornes de latence garanties.Plusieurs mécanismes comme les ordonnanceurs et les régulateurs de trafic (TSN ATS, asynchronous traffic shaping) ont été développés et leurs effets sur les bornes de latences pire-cas ont été abondamment étudiés dans la littérature en utilisant la théorie du calcul réseau.Toutefois, les réseaux temps-réels doivent désormais aussi offrir une reconfiguration simplifiée avec des chemins alternatifs, un haut niveau de fiabilité et parfois un service de synchronisation du temps.Pour répondre à ces besoins, l'utilisation de topologies à plusieurs chemins a été encouragée pour faciliter la reconfiguration et des mécanismes de redondance et de synchronisation ont été développés pour fournir un haut niveau de fiabilité et une synchronisation du temps.Tandis que chacun de ces mécanismes dispose d'une théorie pour valider son efficacité dans son objectif respectif, la littérature n'a que peu étudié leurs effets secondaires sur les bornes de latences et leurs interactions avec les ordonnanceurs et les régulateurs de trafic.Dans cette thèse, nous utilisons la théorie du calcul réseau pour analyser les combinaisons de mécanismes et leurs effets sur les bornes de latences dans les réseaux temps-réel avec des topologies à plusieurs chemins.Nos principales contributions sur le plan théorique sont :1/ Nous développons un algorithme (FP-TFA) qui calcule des bornes de latence dans les réseaux dans lesquels la variété des chemins crée des dépendances cycliques.Nous proposons et analysons l'approche de déploiement partielle des régulateurs de trafic (soit par flux, soit avec TSN ATS) ainsi qu'un autre algorithme (LCAN) qui casse toutes les dépendances cycliques à coût minimal.2/ Nous analysons les effets des mécanismes de redondance sur les bornes de latence en modélisant leur comportement dans la théorie du calcul réseau.Nous analysons aussi leurs interactions avec les régulateurs de trafic.En particulier, nous observons que TSN ATS peut mener à des latences non bornées lorsqu'il est utilisé avec les mécanismes de redondances.3/ Nous proposons un modèle d'horloge qui décrit, au sein de la théorie du calcul réseau, les imperfections des horloges des réseaux synchronisés ou non.Nous montrons que l'usage de régulateurs de trafic avec des horloges imparfaites occasionne une pénalité dans les bornes de latence.Avec TSN ATS, cette pénalité n'est pas bornée, y compris dans les réseaux synchronisés avec une grande précision.Nous proposons deux méthodes (cascade et ADAM) pour adapter les paramètres des régulateurs et ainsi résoudre ce problème.Nous fournissons également des contributions d'intérêt pratique :a) l'outil modulaire xTFA, qui calcule des bornes de latences en utilisant les résultats de la thèse,b) un module pour simuler l'effet des horloges locales dans le simulateur à évènements discrets ns-3, etc) une application de nos résultats sur une étude de cas industrielle.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 09-09-2022
Rudel Clément
Voir le résumé
Voir le résumé
Dans une optique de réduction du bruit engendré par les avions, de nombreux phénomènes restent encore à mieux comprendre et de nombreuses configurations sont à étudier. Un besoin en outils de simulation précis et efficaces se fait donc ressentir pour répondre à ces problématiques de propagation d'ondes. Une approche envisageable est celle des équations one-way. En effet, cette méthode permet de décomposer la résolution des équations en fonction du sens de propagation des ondes le long d'un axe. Ainsi, au sein d'un écoulement, cet axe est naturellement celui de l'écoulement principal. Cependant, l'application des équations one-way dans le cadre de la mécanique des fluides souffre d'une limitation majeure. La complexité des équations résolues (équations d'Euler ou de Navier-Stokes) impose une hypothèse d'écoulement faiblement variable, limitant de ce fait le domaine d'application d'une telle méthode. Le premier objectif a donc été de développer une reformulation de ces équations one-way, dans le but de pouvoir appliquer certaines méthodes permettant la levée d'une telle hypothèse. Pour cela, l'exploitation de deux conditions aux limites non-réfléchissantes a permis la construction d'une factorisation purement numérique de l'opérateur de propagation. A partir de cette méthode, il est ensuite possible d'appliquer des formalismes comme les équations one-way true amplitude ou les séries de Bremmer, permettant de prendre en compte les ondes réfractées et/ou réfléchies. Le second objectif a été de mettre à l'épreuve ces méthodes sur différentes applications. Ces dernières sont constituées d'écoulements variant le long de l'axe de propagation, de conduits à section variable ou partiellement traités acoustiquement (liners acoustiques) ou encore d'un jet chaud subsonique. Dans tous ces cas, les résultats fournis par les approches one-way montrent un bon accord avec les données expérimentales et avec différentes méthodes numériques plus coûteuses.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 26-08-2022
Scotto di perrotolo Alexandre
Voir le résumé
Voir le résumé
Les méthodes aléatoires pour le calcul approché de décomposition aux valeur singulières/valeurs propres ont suscité beaucoup d’intérêt au cours des dernières décennies. Ces méthodes se sont avérées performantes, efficaces en termes de coût de calcul et particulièrement bien adaptées aux problèmes de grande taille. À cet égard, des recherches récentes ont proposé des applications de cesméthodes en assimilation de données, où la taille des problèmes est prohibitive pour un grand nombre d'approches classiques. Dans cette thèse, nous proposons trois contributions interconnectées aux méthodes aléatoires pour l'approximation de rang faible, l'extraction d’information spectrale et le préconditionnement en assimilation de données variationnelle.Premièrement, nous proposons une analyse générale de l'erreur d'approximation de rang faible aléatoire en norme de Frobenius et en norme spectrale. Cette généralisation étend les possibilités d'analyse à un plus grand nombre de méthodes aléatoires en autorisant des matrices de covariance générales et un vecteur de moyenne non nulle pour la matrice gaussienne d'échantillonnage. La particularisation de nos bornes à la méthode dite de Randomized Singular Value Decomposition (RSVD) montre que nous améliorons les bornes d'erreur de référence proposées par Halko, Martinsson et Tropp (2011).Ensuite, nous présentons des algorithmes aléatoires pour la résolution de problèmes aux valeurs propres spécifiques qui apparaissent notamment en assimilation de données. Les méthodes proposées sont polyvalentes et généralisent les contributions de Saibaba, Lee et Kitanidis (2016) et Daužickaité et al. (2021). Nous fournissons ensuite une analyse théorique de nos méthodes qui éclaire sur la sensibilité de l’erreur au nombre d'itérations de sous-espace, au nombre d'échantillons aléatoires et à la matrice de covariance pour la matrice gaussienne d'échantillonnage. Des illustrations numériques sur un problème d'assimilation de données confirment le potentiel de nos algorithmes.Enfin, nous proposons une classe de préconditionnement à mémoire limitée aléatoire dédiée à l'assimilation de données variationnelle. Nous proposons de tels préconditionnements pour deux méthodes de Krylov en particulier: une approche dite inverse-free dans l'espace primal introduite par Guröl (2013) et une méthode d'espace dual proposée par Gratton et Tshimanga (2009). La dimension réduite de l'espace dual rend cette dernière approche plus intéressante à la fois en termes de coût de calcul et de stockage. Les préconditionnements aléatoires proposés sont basés sur des expressions adaptées identifiées par Gürol (2013) pour lesquelles les calculs coûteux d’information spectrale exacte est remplacée par des approximations obtenues avec une procédure aléatoire. Des illustrations sur un problème d'assimilation de données variationnel quadridimensionnel de référence démontrent le potentiel de nos préconditionnements aléatoires, ouvrant ainsi des perspectives intéressantes.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 21-06-2022
Chaine Pierre-Julien
Voir le résumé
Voir le résumé
L’industrie aérospatiale fait face à un nouveau défi : proposer de nouvelles fonctionnalités et de nouvelles missions autour de la Terre, dans le système Solaire et au-delà. Ces nouveautés ne se feront pas sans une amélioration de la performance à bord des satellites, notamment au niveau de l'architecture de communication. C’est la raison pour laquelle l’industrie aérospatiale envisage un changement radical de ses réseaux embarqués, passant du bus MIL-STD-1553 pour le trafic temps réel et Spacewire pour le trafic haut débit, à un réseau «unifié » reposant sur une technologie unique capable de transporter ces deux types de trafic. Au début de la thèse, IEEE Time Sensitive Networking (TSN), la technologie état de l’art d’Ethernet, a commencé à attirer l’attention de différents acteurs du spatial. De fait, le but de cette thèse a été de mettre en évidence l’adéquation de TSN avec les exigences de l’industrie aérospatiale.Afin de résoudre ce problème, nous avons commencé par identifier un ensemble de technologies – Ethernet, ARINC 664, TTEthernet, Time Sensitive Networking et Spacefibre – a priori capables de répondre aux besoins des futures missions. Nous avons ensuite proposé une comparaison qualitative de ces technologies en se basant sur leur compatibilité avec les futures exigences des satellites. Cette comparaison s’est organisée autour de deux thèmes : qualité de service (i.e. performance réseau et tolérance aux fautes) et gestion du temps. Elle nous amènera à sélectionner trois candidats : TTEthernet, Spacefibre et TSN. Tandis que TTEthernet et Spacefibre étaient déjà connus et commençaient même à être intégrés dans des architectures réseaux embarqués satellite au moment d’écrire ce document, Time Sensitive Networking était lui totalement nouveau pour l’industrie aérospatiale.Ainsi, après cette étape préliminaire, nous avons étudié en profondeur les très nombreux standards de TSN. Nous avons identifié IEEE 802.1Qbv dit Time Aware Shaper comme le standard TSN indispensable pour répondre aux exigences en performance réseau des futurs satellites. Nous avons par ailleurs discuté de l’intérêt d’autres standards TSN (i.e. IEEE 802.1Qci, 802.1CB, 802.1AS, 802.1Qbu) qui sont, avec Qbv, en voie d’être inclus dans un profil TSN dédié à l’industrie aérospatiale.Afin de valider la compatibilité de TSN, nous nous sommes intéressés à la génération de configurations TSN. Cette tâche n’est pas aisée car chaque configuration nécessite d’instancier un très grand nombre de paramètres. De fait, ces configurations sont presque toujours générées de manière automatique. Cette automatisation est un véritable levier dans l’industrialisation du TSN, à la fois dans les satellites, et d’autres domaines d’application. Ainsi, nous nous sommes concentrés sur la configuration automatique du standard Qbv afin d’adresser les besoins en performance, considérant que les fonctions de tolérances aux fautes pouvaient être reléguées au niveau applicatif. Alors que les stratégies automatiques reposant sur des émissions planifiées à date fixe dans tous les équipements du réseau étaient très répandues dans l’état de l’art, nous avons proposé une nouvelle stratégie de configuration intitulée Egress TT. En pratique, les configurations Egress TT reposent sur des émissions planifiées à date fixe seulement dans le dernier équipement du trajet de n’importe quel flot. Le délai d’un message entre sa source et le dernier équipement dans son trajet peut être variable. En effet, il dépend de l’instant auquel le message a été émis à sa source et aux potentiels ralentissements qu’il rencontrerait dans le réseau. Néanmoins, ce délai variable est absorbé par une planification des émissions bien choisie au dernier saut. Cette nouvelle stratégie propose un meilleur passage à l’échelle que les stratégies existantes. Elle permet aussi de réduire l’effort de développement nécessaire pour la mise à jour des logiciels applicatifs vers l’architecture réseau nouvelle génération.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 14-01-2022
Peyras Quentin
Voir le résumé
Voir le résumé
La logique temporelle linéaire du premier ordre (FOLTL) offre un cadre naturel pour la spécification de systèmes à états infinis mais n'est pas décidable (ni même semi-décidable). Dans cette thèse, nous cherchons à exploiter des fragments décidables de FOLTL pour vérifier, idéalement automatiquement, la correction de systèmes à états infinis. Notre approche s'appuie de manière centrale sur une variante de la propriété du modèle fini. Cette propriété d'un fragment d'une logique affirme que, pour toute formule du fragment, il est possible de calculer une borne telle que, si cette formule est satisfiable, alors elle l'est dans un modèle de taille inférieure ou égale à cette borne. La variante que nous considérons, appliquée à FOLTL, ne borne que le domaine du premier ordre, et pas l'horizon temporel. Ceci permet en pratique de réduire le problème de satisfiabilité de FOLTL à celui, décidable, de LTL. Nos travaux s'organisent en trois étapes. Dans un premier temps, nous exhibons divers fragments relativement expressifs de FOLTL possédant cette propriété. Toutefois, ces fragments seuls ne sont pas suffisant pour y spécifier des exemples réels de systèmes à états infinis. C’est pourquoi, dans un second temps, nous définissons trois transformations permettant d’abstraire des spécifications de systèmes à états infinis vers les fragments décrits précédemment ou existant déjà dans la littérature. Une de ces transformations est totalement automatique tandis que les deux autres requièrent une entrée de la part du spécifieur. Enfin, nous présentons dans un dernier temps l'implémentation et l'évaluation de ces méthodes. Pour ce faire, nous définissons un langage de spécification permettant la modélisation de système à états infinis et adapté à l'application de nos trois transformations. Un prototype permet, en exploitant nos résultats, de générer un problème de satisfisabilité LTL dont la résolution est déléguée à un model checker. Cette approche est ensuite évaluée sur un ensemble de spécifications de systèmes tirées de la littérature.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 29-11-2021
LAMOTHE François
Voir le résumé
Voir le résumé
Le problème de la transmission de ressources indivisibles au travers d'un réseau est un problème générique présent dans de nombreuses applications. En effet, ce type de problème se retrouve dans des industries telles que le transport de fret ou encore les télécommunications (réseaux optiques, communications satellitaires ...). L'amélioration des méthodes de résolution pour ce problème représente donc un enjeu important, en particulier dans l'application industrielle qui motive cette thèse : la constellation de satellites de télécommunication Telesat. En effet, cette industrie tend à construire des constellations contenant de plus en plus de satellites afin d'augmenter le débit internet que le système est capable de transmettre. En parallèle de l'augmentation du nombre de satellites, on constate aussi une augmentation du nombre d'utilisateurs de ces constellations. Celle ci s'explique à la fois par l'accroissement de la richesse de la population, l'essor de nouvelles applications telles que les accès internet dans les avions ou les bateaux mais aussi tout simplement par l'augmentation de la capacité et de la qualité des services de télécommunication par satellite. La combinaison de ces facteurs tend à créer des problèmes de transmission de ressources de plus en plus difficiles à résoudre ce qui nécessite des algorithmes de résolution plus performants.Dans cette thèse, nous nous intéressons au problème de transmission de la ressource indivisible qu'est le débit des utilisateurs dans une constellation. Ce problème correspond à un problème classiquement étudié dans la littérature des problèmes de flots, sous le nom de problème de flot insécable. Bien que ses propriétés théoriques soient bien connue et que de nombreuses approches de résolution existent, les méthodes de résolution proposées manquent d'efficacité lorsque la taille du problème est importante. Nous tentons de combler cette lacune en proposant des algorithmes présentant de bonnes performances sur de grandes instances de ce problème. D'autre part, l'introduction de la dynamique de la constellation dans le problème nous mène à nous intéresser au problème de flot insécable dynamique. Ce problème est peu étudié dans la littérature, c'est pourquoi nous étendons l'ensemble des méthodes de résolution testées sur ce problème en proposant différentes approches et en les comparant expérimentalement sur des jeux d'instances que nous proposons. Enfin, nous étudions des méthodes de décomposition permettant de renforcer la relaxation linéaire du problème flot insécable. En effet, cette relaxation linéaire est à la base de la plupart de méthode de résolution proposée dans la littérature. Le calcul d'une relaxation puissante est donc un enjeu de la résolution du problème de flot insécable. Après avoir présenté et réimplémenté deux méthodes de la littérature, nous proposons une nouvelle méthode de décomposition s'inspirant des deux méthodes précédentes. Une étude empirique montre que la nouvelle méthode proposée possède un avantage compétitif important sur les grandes instances du problème de flot insécable.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 31-03-2021
Sensfelder Nathanaël
Voir le résumé
Voir le résumé
L'objectif de cette thèse est d'offrir des outils d'aide à la certification aéronautique de processeurs COTS multi-cœurs. Ces architectures sont par nature parallèles et peuvent de ce fait largement améliorer les performances de calcul. Cependant elles souffrent d'un grand manque de prédictibilité, au sensoù calculer les pires d'exécution même pour des programmes simples est un problème complexe, voire impossible dans le cas général. En effet, les cœurs partagent l'accès à presque toutes les ressources ce qui provoque des conflits(qualifiés d'interférences) entrainant des variations non maîtrisées des temps d'exécutions. Parmi les mécanismes complexes d'un processeur multi-coeur se trouve la cohérence de caches. Celle-ci assure que tous les cœurs lisant ou écrivant dans un même bloc mémoire ne peuvent pas aveuglement ignorer les modifications appliquées par les autres. Afin de maintenir la cohérence de caches, le processeur suit un protocole pré-déterminé qui définit les messages à envoyer en fonction des actions d'un cœur ainsi que les actions à effectuer lors de la réception du message d'un autre cœur.Cette thèse porte sur l'identification des interférences générées par les mécanismes de cohérence de caches ainsi que sur les moyens de prédiction de leurs effets sur les applications en vue de réduire les effets négatifs temporels. La première contribution adresse les ambiguïtés dans la compréhension que les applicants ont de la cohérence de cache réellement présente dans l'architecture. En effet, la documentation des architectures ne fournit généralement pas suffisamment de détails sur les protocoles. Cette thèse propose une formalisation des protocoles standards, ainsi qu'une stratégie, reposant sur les micro-benchmarks, pour clarifier les choix d'implémentation du protocole de cohérence présent sur l'architecture. Cette stratégie a notamment été appliquée sur le NXP QorIQ T4240. Une fois le protocole correctement identifié, la seconde contribution consiste à réaliser une description bas-niveau de l'architecture en utilisant des automates temporisés afin de représenter convenablement les micro-comportements et comprendre clairement comment le protocole de cohérence de cache agit. Ainsi,un framework de génération de modèles génériques a été développé, capable de supporter plusieurs protocoles de cohérence de cache et de représenter différents agencements d'architectures afin de mieux correspondre à l'architecture choisie par le postulant. La troisième contribution explique comment utiliser cette représentation de l'architecture pour exhiber les interférences. Elle propose une stratégie pour détailler les causes et effets de chaque interférence liée à la cohérence de caches sur les programmes.Commençant par une simple analyse de temps d'exécution, les résultats descendent jusqu'au niveau des instructions pour indiquer comment chaque instruction génère et souffre des interférences. L'objectif étant alors de fournir suffisamment d'information à l'appliquant à la fois pour la certification, mais aussi pour définir une stratégie d'atténuation et de maîtrise des effets temporels.Ainsi, cette thèse fournit l'appliquant des outils pour comprendre les mécanismes de cohérence de cache présent sur une architecture donnée et pour exhiber les interférences associées.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 08-02-2021
Messaï Nadir-Alexandre
Voir le résumé
Voir le résumé
Cette thèse est dédiée à la conception et à l'étude d'une structure de boucle de raffinement auto-adaptative pour résoudre de manière fiable les équations intégrales acoustiques. Notre démarche est de revisiter l'ensemble des briques constitutives de cette architecture pour en améliorer l'efficacité algorithmique ainsi que la facilité d'utilisation, et vue d'en démocratiser son usage.Notre approche consista d'abord à étudier un schéma numérique de Galerkin discontinu. Cette méthode rend en effet possible l'utilisation de maillages $hp$ non-conformes et l'optimisation et la simplification de la construction de l'espace d'approximation. Nous fournissons une étude théorique détaillée de cette méthode et démontrons sa stabilité. Un ensemble d'expériences numériques a permis de confirmer le bon comportement pratique du schéma numérique.Nous avons ensuite adapté une méthode de compression matricielle basée sur une approche par interpolation directionnelle $mathcal{DH}^{2}$ ainsi que sa recompression algébrique. Un ensemble d'optimisations originales a été introduite en vue d'obtenir un algorithme efficace dans le cas de matrices issues du schéma de Galerkin discontinu. Nous obtenons textit{in fine} une compression robuste vis-à-vis de la fréquence et de l'hétérogénéité du maillage. Une analyse de complexité ainsi qu'un nombre conséquent d'expériences numériques, dont des comparaisons avec une $mathcal{H}$-matrice, sont également proposés.La dernière partie de la thèse fut d'abord dédiée à la construction d'un estimateur d'erreur textit{a posteriori} adapté au schéma de Galerkin discontinu qui soit fiable et local. Il est basé sur une approche de type résidu. Cet outil est indispensable pour guider le processus de raffinement local du maillage. Nous avons ensuite exploré un ensemble de procédures de raffinement local en $h$ et en $hp$ non-conformes. Cela permit de confirmer l'intérêt d'un raffinement $hp$ non-conforme, qui offre un meilleur taux de convergence de l'estimateur par rapport au raffinement en $h$ conforme. Une autre contribution originale de notre travail est de proposer un estimateur d'erreur qui prenne en compte l'ensemble des contributions à l'erreur globale : l'erreur de discretisation, l'erreur de résolution du système linéaire et l'erreur de compression. Cette finesse de description de l'erreur nous a permis d'automatiser le réglage de l'ensemble des paramètres de la boucle de raffinement auto-adaptative. Nous aboutissons finalement à une architecture de calcul extrêmement simple d'utilisation.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 16-12-2020
Perard Doriane
Voir le résumé
Voir le résumé
La blockchain est un registre distribué et décentralisé, permettant de stocker et d’échanger des informations de façon sécurisée, sans tiers de confiance. Pour cela,les informations, appelées transactions, sont regroupées au sein de blocs, qui sont ensuite liés entre eux de façon immuable grâce à des procédés cryptographiques. Le registre sert d’historique de toutes les actions menées par les participants du réseau depuis sa création.C’est une technologie en plein essor, de plus en plus utilisée au quotidien. Cet engouement croissant entraîne une explosion du nombre de transactions, ayant pour conséquence directe une forte augmentation de la taille des principales blockchains.Celles-ci deviennent donc plus compliquées à stocker dans leur intégralité, ce qui peut décourager certains nœuds de stocker toute la blockchain et ainsi réduire le niveau de décentralisation.Dans cette thèse, nous proposons un nouveau type de nœud, appelé low storage(LS) node, qui ne stocke plus les blocs en entier, mais des fragments de ceux-ci codés avec un code à effacement. Pour retrouver le bloc initial, un nœud LS commence par télécharger suffisamment de fragments codés depuis d’autres nœuds LS du réseau,puis procède au décodage.L’intérêt de cette approche est qu’elle permet à certains nœuds de stocker une version codée moins volumineuse de la blockchain tout en contribuant à la décentralisation de la blockchain. Elle facilite ainsi le passage à l’échelle des blockchains qui pose actuellement problème.Ce manuscrit présente également BlockHouse, un système complet permettant la location d’espace de stockage libre entre particuliers. La principale innovation est l’utilisation de contrats intelligents (smart contracts) déployés sur la blockchain qui permettent des paiements automatiques et sécurisés basés sur des preuves de récupérabilité des données régulièrement fournies par les serveurs de stockage.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 26-11-2020
Priem Rémy
Voir le résumé
Voir le résumé
De nos jours, la conception avant-projet en aéronautique repose majoritairement sur des modèles
numériques faisant interagir de nombreuses disciplines visant à évaluer les performances
de l’avion. Ces disciplines, comme l’aérodynamique, la structure et la propulsion, sont connectées
entre elles afin de prendre en compte leurs interactions. Cela produit un processus d’évaluation
des performances de l’avion coûteux en temps de calcul. En effet, une évaluation peut prendre de
trente secondes pour les modèles de basse fidélité jusqu’à plusieurs semaines pour les modèles
de plus haute fidélité. De plus, à cause de la multi-disciplinarité du processus et de la diversité
des outils de calcul, nous n’avons généralement pas accès aux propriétés ou au gradient de cette
fonction de performance. En outre, chaque discipline utilise ses propres variables de conception
et doit respecter des contraintes d’égalité ou d’inégalité qui sont souvent nombreuses et multimodales.
On cherche finalement à trouver la meilleur configuration possible dans un espace de
conception donné.
Cette recherche peut se traduire mathématiquement par un problème d’optimisation boite noire
sous contraintes d’inégalité et d’égalité, aussi connues comme contraintes mixtes, dépendant
d’un grand nombre de variables de conception. De plus, les contraintes et la fonction objective
sont coûteuses à évaluer et leur régularité n’est pas connue. C’est pourquoi, on s’intéresse
aux méthodes d’optimisations sans dérivées et particulièrement celles reposant sur les modèles
de substitution. Les méthodes d’optimisation Bayésienne, utilisant des processus gaussiens, sont
notamment étudiées car elles ont montré des convergences rapides sur des problèmes multimodaux.
En effet, l’utilisation d’algorithmes d’optimisation évolutionnaire ou reposant sur le gradient
n’est pas envisageable du fait du coût de calcul que cela implique : trop d’appels pour générer
des populations de points, ou pour approcher le gradient par différences finies.
Cependant la méthode d’optimisation Bayésienne est classiquement utilisée pour des problèmes
d’optimisation sans contrainte et de faible dimension. Des extensions ont été proposées
pour prendre en compte ce verrou de manière partielle. D’une part, des méthodes d’optimisation
ont été introduites pour résoudre des problèmes d’optimisation à contraintes mixtes. Toutefois,
aucune d’entre elles n’est adaptable à la grande dimension, aux problèmes multi-modaux et aux
contraintes mixtes. D’autre part, des méthodes d’optimisation ont été développées pour la grande
dimension pouvant aller jusqu’aumillion de variables de conception. De même, ces méthodes ne
s’étendent que difficilement aux problèmes contraints à cause du temps de calcul qu’ils nécessitent
ou de leur caractère aléatoire.
Une première partie de ce travail repose sur le développement d’un algorithme d’optimisation
Bayésienne résolvant les problèmes d’optimisation sans contrainte en grande dimension. Il repose
sur une stratégie d’apprentissage adaptatif d’un sous-espace linéaire réalisée conjointement
à l’optimisation. Ce sous-espace linéaire est ensuite utilisé pour réaliser l’optimisation. Cette méthode a été testée sur des cas tests académiques.
Une deuxième partie de ce travail traite du développement d’un algorithme d’optimisation
Bayésienne pour résoudre les problèmes d’optimisation multi-modaux sous contraintes mixtes. Il
a été comparé aux algorithmes de la littérature de manière intensive sur une grande batterie de
tests académiques.
Finalement, on a confronté le second algorithme à deux cas tests aéronautiques. Le premier
cas test est une configuration classique d’avion moyen-courrier à propulsion hybride électrique
développé par l’ONERA et l’ISAE-SUPAERO. Le second cas test est une configuration classique
d’avion d’affaire développée par Bombardier Aviation. Ce cas test repose sur une optimisation
à deux niveaux de fidélité. Un niveau de fidélité conceptuel et un niveau de fidélité préliminaire
pour lesquels le problème est respectivement évalué en trente secondes et 25 minutes. Cette dernière
étude a été réalisée lors d’une mobilité internationale chez Bombardier Aviation à Montréal
(CA). Les résultats ont montré l’intérêt de la méthode mise en place
|
Texte intégral
|
|