|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Editeur
Auteur
Titre
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 14-03-2011
Adeline Romain
Voir le résumé
Voir le résumé
Pour certifier un système aéronautique, des études de Sûreté de Fonctionnement (SdF) visent à démontrer qu’il répond à des exigences de sécurité de haut niveau. La complexité des systèmes étudiés ayant évolué, les exigences à démontrer devenant toujours plus nombreuses, les analyses actuelles (e.g. arbre de défaillance) peuvent aujourd’hui présenter des limites d’utilisation. Pour aller à l’encontre de ces limites, l’Ingénierie Dirigée par les Modèles s’est développée et s’intéresse aux études de SdF. L’objectif est alors de 1) modéliser dans un langage adapté (le langage AltaRica a ici été utilisé) les comportements fonctionnels et dysfonctionnels d’un système et de ses composants en présence de défaillances, 2) s’assurer que le modèle est une abstraction valide du système réel et 3) vérifier la tenue des exigences du système par le modèle. Les travaux effectués dans cette thèse se sont intéressés aux deux premiers points. Une méthodologie a été
proposée pour spécifier l’abstraction du comportement de composants de systèmes multi physiques. Des bibliothèques AltaRica ont été réalisées pour modéliser des sous-systèmes d’un turbomoteur d’hélicoptère. Les résultats obtenus via le modèle ont été comparés avec ceux des analyses existantes de
SdF. Pour les projets futurs où celles-ci ne seraient plus disponibles, un processus de validation a été proposé pour caractériser le degré de revue atteint lors de la simulation d'un jeu de tests sur le modèle. Inspiré du « génie logiciel », ce processus s’étend sur trois niveaux de validation (unitaire ; intégration des
composants ; modèle complet) et propose des critères de couvertures applicables et mesurables sur un modèle AltaRica.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 24-06-2016
Ali Ahmad Rami
Voir le résumé
Voir le résumé
Dans le cadre des communications par satellite, les caractéristiques du lien rendent difficile la mis en œuvre des systèmes de télécommunications. Pour certaines applications, le problème principal est le délai de propagation. Un autre problème est la perte des données due aux caractéristiques du canal. Le but de cette thèse est de proposer un mécanisme qui assure la fiabilité de la communication tout en maximisant l’efficacité d’utilisation de la bande passante. Le protocole HARQ est reconnu pour sa capacité à atteindre le meilleur compromis fiabilité/débit. Cependant, ce mécanisme doit être optimisé pour pouvoir être utilisé sur un lien satellite.
Dans un premier temps, nous proposons une méthode de fiabilisation basée sur l’HARQ statique, où le nombre de bits à envoyer à chaque transmission est fixé à l’avance. Cette méthode s’adresse aux services qui tolèrent un certain délai avant la réception du message. À partir de la distribution statistique du canal, elle définit la probabilité de décodage optimale à chaque transmission. Le nombre de bits à envoyer est calculé en fonction de ces probabilités et de la distribution d’information mutuelle du canal. Dans un deuxième temps, nous introduisons une version adaptative de la méthode précédente. Le récepteur calcule le nombre de bits à envoyer en fonction de l’état du canal pendant la transmission actuelle. Le nombre de bits calculé est renvoyé dans un acquittement vers l’émetteur. Finalement, nous présentons une structure de trame couche physique dans le cadre des mécanismes HARQ proposés et nous évaluons ses performances en faisant varier les paramètres du système. L’objectif est de trouver l’ordre de grandeur optimal des tailles de trames et des codes correcteurs d'erreurs à utiliser.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 21-09-2017
Amari Ahmed
Voir le résumé
Voir le résumé
La complexité et le besoin en bande passante des architectures de communication avionique
ne cessent de croitre avec le nombre des calculateurs et l’expansion des données échangées. La
technologie AFDX a été introduite pour offrir des communications haut débit (100Mbps) pour
les avions de nouvelle génération. Cependant, ce réseau commuté est déployé de manière
entièrement redondante, ce qui conduit à des quantités importantes de câbles, augmentant le
poids et les coûts d’intégration. Pour faire face à ces problèmes, on propose dans cette thèse
l’intégration d’un réseau Ethernet en anneau comme une solution principale pour diminuer
le poids et la complexité liés au câblage. Dans ce contexte, notre objectif est de concevoir et
valider un nouveau réseau de communication avionique, AeroRing, basé sur de l’Ethernet
Gigabit avec une topologie anneau.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 05-07-2019
Arcese Emanuele
Voir le résumé
Voir le résumé
Dans la dernière partie, des simulations numériques sur le claquage micro-ondes et la formation de structures filamentaires de plasma sont conduites. Les effets de différents types d’approximations sur le modèle physique du plasma sont analysés. Puis, ces expériences numériques démontre la précision et l’efficacité, en terme de temps de calcul, de la méthode multi-échelle proposée. Enfin, on étudie les effets de chauffage du gaz sur la formation et l’entretien de structures filamentaires dans l’air à pression atmosphérique. Pour cela, le modèle micro-onde-plasma développé est couplé avec les équations de Navier-Stokes instationnaires pour les écoulements compressibles. Les simulations montrent des caractéristiques intéressantes de la dynamique de ces structures plasma pendant le processus de chauffage du gaz, qui sont en accord étroit avec les données expérimentales.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 20-04-2018
Auger Antoine
Voir le résumé
Voir le résumé
Les systèmes dits Sensor Webs sont des middlewares informatiques assurant la communication entre les capteurs et les applications. En tant que véritables médiateurs, la popularité de ces systèmes n’a cessé de grandir depuis l’apparition des tout premiers capteurs. Plus récemment, l’émergence de nouveaux paradigmes tels que l’Internet des Objets (IoT) a complètement révolutionné les systèmes basés sur les capteurs en général. Parmi eux, les Sensor Webs ne dérogent pas à cette règle et doivent désormais répondre à de nouveaux défis, notamment en termes d’intégration, de Qualité des Observations (QoO) et d’adaptation système. Dans ce travail de recherche, nous proposons une nouvelle génération de Sensor Webs capables d’adapter la QoO distribuée de manière autonomique et de manière spécifique à chaque application (QASWS). Premièrement, nous introduisons un framework générique destiné aux chercheurs et développeurs souhaitant concevoir leur propre solution QASWS. Dans un deuxième temps, nous instancions ce framework et proposons un prototype de plateforme d’intégration pour l’évaluation de la QoO à la demande (iQAS). Après avoir évalué ses performances, nous présentons trois cas d’utilisation pour la plateforme iQAS. Finalement, nous concluons cette étude en imaginant l’apport de certains paradigmes transverses vis-à-vis de la QoO dans un futur proche.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 07-03-2012
Baudoui Vincent
Voir le résumé
Voir le résumé
Cette thèse traite de l'optimisation sous incertitude de fonctions coûteuses dans le cadre de
la conception de systèmes aéronautiques.
Nous développons dans un premier temps une stratégie d'optimisation robuste
multiobjectifs par modèles de substitution. Au-delà de fournir une représentation plus
rapide des fonctions initiales, ces modèles facilitent le calcul de la robustesse des solutions
par rapport aux incertitudes du problème. L'erreur de modélisation est maîtrisée grâce
à une approche originale d'enrichissement de plan d'expériences qui permet d'améliorer
conjointement plusieurs modèles au niveau des régions de l'espace possiblement optimales.
Elle est appliquée à la minimisation des émissions polluantes d'une chambre de combustion
de turbomachine dont les injecteurs peuvent s'obstruer de façon imprévisible.
Nous présentons ensuite une méthode heuristique dédiée à l'optimisation robuste
multidisciplinaire. Elle repose sur une gestion locale de la robustesse au sein des disciplines
exposées à des paramètres incertains, afin d'éviter la mise en place d'une propagation
d'incertitudes complète à travers le système. Un critère d'applicabilité est proposé pour
vérifier a posteriori le bien-fondé de cette approche à partir de données récoltées lors de
l'optimisation. La méthode est mise en œuvre sur un cas de conception avion où la surface
de l'empennage vertical n'est pas connue avec précision.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 09-12-2011
Bettebghor Dimitri
Voir le résumé
Voir le résumé
Ce travail de thèse s’inscrit dans le domaine de l’optimisation de structures aéronautiques composites. On cherche à rendre possible le traitement de problèmes de dimensionnement de telles structures, telles que celles rencontrées dans l’industrie aéronautique. Ce type de problèmes présente deux aspects bloquants. En premier lieu, la taille des structures et le type de matériaux rendent le problème d’optimisation à la fois de très grande taille et de variables mixtes (continues, discrètes). D’autre part, le très grand nombre d’analyses de stabilité locale (flambage) nécessaires rend le problème d’optimisation très difficile à traiter en terme de coût de calculs. On cherche donc à résoudre le premier aspect au travers de schémas d’optimisation dits de décomposition qui permettent de décomposer le problème d’optimisation initial en une multitude de sous problèmes d’optimisations pouvant être résolus en parallèle et dont le couplage est résolu par un problème d’optimisation sur un ensemble de variables réduit. L’équivalence théorique entre les différents problèmes d’optimisation (en termes de minima locaux) est prouvée et on présente et développe un schéma adapté à la fois aux spécificités des composites et aux contraintes industrielles. Le second point est résolu de manière originale par le développement d’une stratégie d’approximation des contraintes de stabilité. Cette stratégie de mélanges d’experts se base sur des outils statistiques avancés et se révèle adaptée au comportement des composites. Les deux principales avancées de ce travail sont validées sur des cas test académiques et sur une structure aéronautique réaliste. Le fil directeur de ce travail est la mécanique des structures composites, néanmoins le caractère pluridisciplinaire du sujet nous a conduit à des incursions vers les domaines des statistiques (apprentissage), de l’analyse numérique (étude de l’équation aux dérivées partielles relative au flambage) et enfin de l’optimisation théorique.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 17-12-2009
Bochot Thomas
Voir le résumé
Voir le résumé
Le système de commande de vol (CDV) est un des systèmes les plus critiques à bord d'un avion. Les fonctions logicielles de ce système sont donc soumises à un effort de vérification important. Chez Airbus, le développement des fonctions critiques suit une approche basée sur des modèles formels, à partir desquels la majeure partie du code embarqué est générée. Certaines vérifications peuvent ainsi s'effectuer dès le niveau de la modélisation formelle, et sont aujourd'hui réalisées par test des modèles dans un environnement de simulation. L'objet de cette thèse est d'étudier comment une technique formelle, le model-checking, s'insère dans ces vérifications amonts. La contribution comporte trois parties. La première partie tire le bilan des études passées d'Airbus sur l'application du Model Checking au système de CDV. Nous analysons notamment les caractéristiques des fonctions de CDV, et leur impact sur l'applicabilité de la technologie. Le deuxième partie complète la précédente par une nouvelle étude, expérimentant le Model Checking sur la fonction Ground Spoiler de l'A380. Les expérimentations ont permis de consolider notre analyse du positionnement du Model Checking dans le processus Airbus. Un des problèmes pratiques identifiés concerne l'exploitation des contre-exemples retournés par le model-checker, en phase de mise au point d'un modèle. La troisième partie propose une solution à ce problème, basée sur l'analyse structurelle des parties d'un modèle activées par le contre-exemple. Il s'agit, d'une part d'extraire l'information pertinente pour expliquer la violation de la propriété cible et, d'autre part de guider le model-checker vers l'exploration de comportements différents, activant d'autres parties du modèle. Un algorithme d'analyse structurelle est défini, et implémenté dans un prototype afin d'en démontrer le concept.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 26-01-2016
Bouhlel Mohamed Amine
Voir le résumé
Voir le résumé
Les turbomachines aéronautiques sont composées de plusieurs roues aubagées dont la fonction est
de transférer l’énergie de l’air au rotor. Les roues aubagées des modules compresseur et turbine sont
des pièces particulièrement sensibles car elles doivent répondre à des impératifs de performance
aérodynamique, de tenue mécanique, de tenue thermique et de performance acoustique. L’optimisation aéro-méca-acoustique ou aéro-thermo-mécanique des aubages consiste à chercher, pour
un ensemble de formes aérodynamiques paramétrées (par plusieurs dizaines de variables), celle
assurant le meilleur compromis entre la performance aérodynamique du moteur et la satisfaction
de plusieurs dizaines de contraintes souvent contradictoires. Cette thèse introduit une méthode d’optimisation basée sur les métamodèles et adaptée à la grande dimension pour répondre à la problématique industrielle des aubages. Les contributions de cette
thèse portent sur deux aspects : le développement de modèles de krigeage, et l’adaptation d’une
stratégie d’optimisation pour la gestion du grand nombre de variables et de contraintes.
La première partie de ce travail traite des modèles de krigeage. Nous avons proposé une nouvelle
formulation du noyau de covariance permettant de réduire le nombre de paramètres du modèle
afin d’accélérer sa construction. Une des limitations connues du modèle de krigeage concerne
l’estimation de ses paramètres. Cette estimation devient de plus en plus difficile lorsque nous
augmentons la dimension du phénomène à approcher. En particulier, la base de données nécessite
davantage de points et par conséquent la matrice de covariance du modèle du krigeage est de plus
en plus coûteuse à inverser. Notre approche consiste à réduire le nombre de paramètres à estimer en utilisant la méthode de régression des moindres carrés partiels (PLS pour Partial Least Squares). Cette méthode de réduction dimensionnelle fournit des informations sur la relation linéaire entre les variables d’entrée et la variable de sortie. Ces informations ont été intégrées dans les noyaux du modèle de krigeage tout en conservant les propriétés de symétrie et de positivité des noyaux. Grâce à cette approche, la construction de ces nouveaux modèles appelés KPLS est très rapide étant donné le faible nombre de paramètres nécessaires à estimer. La validation de ces modèles KPLS sur des cas test académiques ou industriels a démontré leur qualité de prédiction équivalente voire même meilleure que celle des modèles de krigeage classiques. Dans le cas de noyaux de covariance de type exponentiel, la
méthode KPLS peut être utilisée pour initialiser les paramètres du krigeage classique, afin d’accélérer
la convergence de l’estimation des paramètres du modèle. La méthode résultante, notée KPLS+K, a permis d’améliorer la qualité des modèles dans le cas de fonctions fortement multimodales. La deuxième contribution de la thèse a consisté à développer une stratégie d’optimisation globale sous contraintes pour la grande dimension, en s’appuyant sur les modèles KPLS ou les modèles
KPLS+K. En effet, nous avons étendu la méthode d’optimisation auto-adaptative connue dans la
littérature sous le nom "Efficient Global Optimisation, EGO" pour gérer les problèmes d’optimisation
sous contraintes en grande dimension. Différents critères d’enrichissement adaptatifs ont pu être
explorés. Cette stratégie a permis de retrouver l’optimum global sur des problèmes académiques
jusqu’à la dimension 50. La méthode proposée a été confrontée à deux types de problèmes industriels, le cas test MOPTA issu de l’industrie automobile (124 variables d’entrée et 68 fonctions contraintes) et le cas test Snecma des aubes de turbomachines (50 variables d’entrée et 31 fonctions contraintes). Les résultats ont permis de montrer la validité de la démarche ainsi que les limites de la méthode pour une application dans un cadre industriel.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 16-11-2007
Bouveret Sylvain
Voir le résumé
Voir le résumé
Le problème de l'exploitation commune de ressources limitées et coûteuses se pose très souvent dans le milieu industriel, et plus particulièrement dans le domaine spatial pour lequel les projets sont très souvent financés par plusieurs entités, pays ou organismes. L'exploitation de ces ressources doit bien entendu répondre à des critères d'efficacité, afin d'empêcher sa sous-exploitation, mais aussi à des critères d'équité, chaque agent espérant un retour sur investissement en rapport avec sa contribution financière. Nous nous sommes intéressés, au cours de ce travail de thèse, au problème de partage équitable de biens indivisibles (autrement dit d'objets) entre des agents, dont nous abordons trois aspects principaux : modélisation du problème, complexité et algorithmique. La modélisation du problème de partage que nous proposons s'inspire tout d'abord de la théorie du bien-être social et des nombreux travaux sur l'agrégation de préférences dans les problèmes de décision collective et de partage que l'on peut trouver dans le domaine du choix social et de la microéconomie. Elle s'appuie de plus sur un langage de représentation compacte inspiré des travaux sur l'expression logique de préférences. Nous nous intéressons dans un deuxième temps à la complexité du problème de partage tel qu'il a été défini, dont nous étudions deux aspects particuliers : complexité du problème de maximisation de l'utilité collective, et complexité du problème d'existence d'un partage efficace et sans envie. Enfin, dans la dernière partie du travail de thèse, nous nous penchons sur le problème de calcul d'un partage égalitariste au sens du leximin, problème pour lequel nous proposons et analysons plusieurs algorithmes fondés sur la programmation par contraintes. Ce travail de thèse s'appuie sur un problème réel d'allocation de prises de vue pour une constellation de satellites d'observation de la Terre.
|
Texte intégral
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|