Tri :
Date
Editeur
Auteur
Titre
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 25-11-2016
Zidane Karine
Voir le résumé
Voir le résumé
L’optimisation des communications par satellite devient un enjeu crucial pour fournir un accès
Internet aux zones blanches et/ou défavorisées et pour supporter des réseaux à grande échelle.
Dans ce contexte, l’utilisation des techniques d’accès aléatoires sur le lien retour permet
d’améliorer les performances de ces systèmes. Cependant, les techniques d’accès aléatoire
classiques comme ‘Aloha’ et ‘Slotted Aloha’ ne sont pas optimales pour la transmission de
données sur le lien retour. En effet, ces techniques présentent un taux élevé de pertes de
paquets suite aux collisions. Par conséquent, des études récentes ont proposé de nouvelles
méthodes d’accès aléatoire pour résoudre les collisions entre les paquets et ainsi, améliorer
les performances. En particulier, ces méthodes se basent sur la redondance de l’information
et l’annulation successive des interférences. Dans ces systèmes, l’estimation de canal sur le lien retour est un problème difficile en raison du haut niveau de collisions de paquets. Dans une première contribution dans cette thèse,
nous décrivons une technique améliorée d’estimation de canal pour les paquets en collision.
Par ailleurs, nous analysons l’impact des erreurs résiduelles d’estimation de canal sur la
performance des annulations successives des interférences. Même si les résultats obtenus
sont encore légèrement inférieurs au cas de connaissance parfaite du canal, on observe une
amélioration significative des performances par rapport aux algorithmes d’estimation de
canal existants. Une autre contribution de cette thèse présente une méthode appelée ‘Multi-Replica Decoding
using Correlation based Localisation’ (MARSALA). Celle-ci est une nouvelle technique de décodage
pour la méthode d’accès aléatoire synchrone ‘Contention Résolution diversité Slotted
Aloha’ (CRDSA), qui est basée sur les principe de réplication de paquets et d’annulation successive
des interférences. Comparée aux méthodes d’accès aléatoire traditionnelles, CRDSA
permet d’améliorer considérablement les performances. Toutefois, le débit offert par CRDSA
peut être limité à cause des fortes collisions de paquets. L’utilisation deMARSALA par le récepteur
permet d’améliorer les résultats en appliquant des techniques de corrélation temporelles
pour localiser et combiner les répliques d’un paquet donné. Cette procédure aboutit à des
gains en termes de débit et de taux d’erreurs paquets. Néanmoins, le gain offert parMARSALA
est fortement dépendant de la synchronisation en temps et en phase des répliques d’un même
paquet. Dans cette thèse, nous détaillons le fonctionnement deMARSALA afin de corriger la
désynchronisation en temps et en phase entre les répliques. De plus, nous évaluons l’impact
de la combinaison imparfaite des répliques sur les performances, en fournissant un modèle analytique ainsi que des résultats de simulation. En outre, plusieurs schémas d’optimisation
de MARSALA sont proposés tels que le principe du ‘MaximumRatio Combining’, ou la transmission
des paquets à des puissances différentes. Utilisées conjointement, ces différentes
propositions permettent d’obtenir une amélioration très significative des performances. Enfin,
nous montrons qu’en choisissant la configuration optimale pour MARSALA, le gain de
performance est considérablement amélioré.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 25-11-2014
Volpert Thibault
Voir le résumé
Voir le résumé
Les travaux de cette thèse concerne l’étude d’une méthode élément finis
d’ordre spatial élevé que l’on peut assimilé à une extension du schéma de Yee. On parle
alors de méthode différences finies d’ordre élevé. Après avoir donné, dans un premier
chapitre, un historique non exhaustif des principales méthodes utilisées pour résoudre les
équations de Maxwell dans le cadre de problèmes de CEM et montré l’ intérêt de disposer
d’un solveur de type "différences finies d’ ordre élevé", nous pésentons dans un deuxième
chapitre le principe de la méthode. Nous donnons pour cela les caractéristiques du schéma
spatial et temporel en précisant les conditions de stabilité de la méthode. En outre, dans
une étude purement numérique, nous étudions la convergence du schéma. On se focalise
ensuite sur la possibilité d’utiliser des ordres spatiaux variable par cellules dans chaque
direction de l’espace. Des comparaisons avec le schéma de Yee et un schéma de Galerkin
Discontinu particulier sont ensuite effectuées pour montrer les gains en coûts calcul et
mémoire et donc l’intérêt de notre approche par rapport aux deux autres. Dans un troisième
chapitre, nous nous intéressons à l’étude de modèles physiques indispensable au
traitement d’un problème de CEM. Pour cela, nous nous focalisons particulièrement sur
un modèle de fil mince oblique, des modèles de matériaux volumiques et minces et enfin
sur la prise en compte de sol parfaitement métallique dans une agression de type onde
plane. Chaque modèle est détaillé et validé par comparaison avec des solutions analytiques
ou résultant de la littérature, sur des exemples canoniques. Le quatrième chapitre
est dédié à une technique d’hybridation entre notre méthode et une approche Galerkin
Discontinu en vue de traiter des géométries possédant des courbures. Nous donnons
pour cela une stratégie d’hybridation basée sur l’échange de flux qui garantie au niveau
continue la conservation d’une énergie. Nous présentons ensuite quelques exemples montrant
la validité de notre approche dans une stratégie multi-domaines/multi-méthodes
que nous précisons. Enfin le dernier chapitre de cette thèse concerne l’exploitation de
notre méthode sur des cas industriels en comparaisons avec d’autres méthodes ou des
résultats expérimentaux.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 23-03-2012
Virmontois Cédric
Voir le résumé
Voir le résumé
L'’imagerie spatiale est aujourd'hui un outil indispensable au développement durable, à la recherche et aux innovations scientifiques ainsi qu’à la sécurité et la défense. Fort de ses excellentes performances électro-optiques, de son fort taux d’intégration et de la faible puissance nécessaire à son fonctionnement, le capteur d’images CMOS apparait comme un candidat sérieux pour ce type d’application. Cependant, cette technologie d’imageur doit être capable de résister à l’environnement radiatif spatial hostile pouvant dégrader les performances des composants électroniques. Un nombre important d’études précédentes sont consacrées à l’impact des effets ionisants sur les imageurs CMOS, montrant leur robustesse et des voies de durcissement face à de telles radiations. Les conclusions de ces travaux soulignent l’importance d’étudier les effets non-ionisants, devenant prépondérant dans les imageurs utilisant les dernières évolutions de la technologie CMOS. Par conséquent, l’objectif de ces travaux de thèse est d’étudier l’impact des effets non-ionisants sur les imageurs CMOS. Ces effets, regroupés sous le nom de déplacements atomiques, sont étudiés sur un nombre important de capteurs d’images CMOS et de structures de test. Ces dispositifs sont conçus avec des procédés de fabrication CMOS différents et en utilisant des variations de règle de dessin afin d’investiguer des tendances de dégradation commune à la technologie d’imager CMOS. Dans ces travaux, une équivalence entre les irradiations aux protons et aux neutrons est mise en évidence grâce à des caractéristiques courant-tension et des mesures de spectroscopie transitoire de niveau profond. Ces résultats soulignent la pertinence des irradiations aux neutrons pour étudier les effets non-ionisants. L’augmentation et la déformation de l’histogramme de courant d’obscurité ainsi que le signal télégraphique aléatoire associé, qui devient le facteur limitant des futures applications d’imagerie spatiale, sont évalué et modélisés. Des paramètres génériques d’évaluation des effets des déplacements atomiques sont mis en évidence, permettant de prévoir le comportement des capteurs d’images CMOS en environnement radiatif spatial. Enfin, des méthodes d’atténuation et des voies de durcissement des imageurs CMOS limitant l’impact des déplacements atomiques sont proposées.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 03-12-2015
Trang Si Quoc Viet
Voir le résumé
Voir le résumé
Nous examinons la possibilité de déployer un service Lower-than-Best-Effort
(LBE)sur des liens à long délaitels que des liens satellites. L'objectif est
de fournir une deuxième classe de priorité dédiée à un trafic en tâche de
fondou untrafic de signalisation. Dans le contexte des liens à long délai, un
service LBE peutaider à optimiser l'utilisation de la capacité du lien. En
outre, un service de LBE peut permettre un accès àInternet à faible coût ou
même gratuit dans les collectivités éloignées via la communication par
satellite. Il existe deux niveaux de déploiement possible d'une approche de LBE: soit à
la couche MAC ou soità la couche de transport. Dans cette thèse, nous nous
intéressons à une approche de bout-en-bout et donc nous nous
concentronsspécifiquement sur les solutions de la couche transport. Nous
proposons tout d'abord d'étudier LEDBAT (Low Extra Delay Background
Transport)en raison de son potentiel. En effet, LEDBAT a été normalisé par
l'IETF et est largement déployé dans le client BitTorrent officiel.
Malheureusement, le réglagedes paramètres de LEDBAT dépendfortement des
conditions duréseau. Dans le pire des cas, les flux LEDBAT peuvent prendre
toute la bande passante d'autre trafic tels que le trafic commercial sur le
liensatellite. LEDBAT souffre également d'un problème intra-inéquité, appelé
latecomer advantage. Toutes ces raisons empêchent souvent les opérateurs
depermettre l'utilisation de ce protocole sur lelien sans fil et à long
délaipuisqu'une mauvaise configuration peut surcharger la capacité du lien.
Pour répondre à l'ensemble de ces problèmes, nous proposonsFLOWER, un nouveau
protocole de transport, qui se positionne comme alternative à LEDBAT. En
utilisant un contrôleur de logique flouepour régulerle débit des données,
FLOWERvise à résoudre les problèmes de LEDBAT tout en remplissant le rôle d'un
protocole de LBE. Dans cette thèse, nousmontronsque FLOWERpeut transporter le
trafic deLBE non seulement dans le contexte à long délai, mais dans
plusieursconditions duréseau où LEDBAT se trouve en échec.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 05-06-2014
Tran Thai Tuan
Voir le résumé
Voir le résumé
Cette thèse présente plusieurs contributions permettant d'améliorer la diffusion de vidéos. Dans la première partie de la thèse, nous évaluons et analysons les mécanismes de tolérance d'erreurs (correction et masquage d'erreurs). Les performances de ces différents mécanismes sont évaluées pour des taux de pertes de paquets variables. Les contributions suivantes mettent l'accent sur un code à effacements à la volée, appelée Tetrys, plus efficace que les codes en blocs classiques (Forward Error Correction - FEC). Tout d'abord, nous étudions l'application de Tetrys à la transmission vidéo temps réel par des chemins multiples. Nous proposons un découplage entre l'allocation de la charge et la gestion de la redondance pour Tetrys. Tetrys, lorsqu'il est couplé avec un mécanisme de répartition de charge appelé Encoded Multipath streaming (EMS), surpasse le couplage entre EMS et FEC pour les deux modèles de perte testés (Bernoulli et Gilbert-Elliott) en termes de taux de perte résiduel et de qualiée vidéo. En exploitant la capacité de correction de Tetrys, nous étudions ensuite les performances du décodage tardif où les paquets arrivant en retard sont décodés et utilisés pour stopper la propagation d'erreur. Enfin, une étude plus approfondie sur Tetrys propose un algorithme d'adaptation de la redondance, appelé A-Tetrys, permettant de gérer la dynamique du réseau. Cet algorithme combine des approches réactives et pro-actives pour adapter au mieux le taux de redondance. L'évaluation des performances montre que A-Tetrys parvient à gérer simultanément les variations du taux de perte, du modèle de perte et du délai. Nous étudions ensuite un autre challenge en proposant un nouveau critère d'équité : la qualité vidéo. Nous proposons un algorithme Q-AIMD qui permet un partage équitable de la bande passante en termes de qualité vidéo entre des ux concurrents. Nous présentons un système pour le déploiement de cet algorithme Q-AIMD et nous étudions sa convergence. L'évaluation de différentes métriques de qualité vidéo (PSNR, QP et VQM) montre une diminution importante des écarts de qualité vidéo entre plusieurs flux par rapport à l'approche traditionnelle AIMD qui se base sur le débit. De plus, une autre contribution sur ce sujet propose une nouvelle approche appelée courbe virtuelle. Contrairement à QAIMD qui est une approche décentralisée, la courbe virtuelle est une approche centralisée qui permet à la fois une équité entre les flux vidéo en termes de qualité vidéo et une équité entre les flux non-vidéo et flux vidéo en termes de débit.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 12-09-2022
Thomas Ludovic
Voir le résumé
Voir le résumé
Les réseaux temps-réels, comme ceux spécifiés par IEEE Time-Sensitive Networking (TSN) et IETF Deterministic Networking (DetNet), fournissent aux applications critiques un service déterministe avec des bornes de latence garanties.Plusieurs mécanismes comme les ordonnanceurs et les régulateurs de trafic (TSN ATS, asynchronous traffic shaping) ont été développés et leurs effets sur les bornes de latences pire-cas ont été abondamment étudiés dans la littérature en utilisant la théorie du calcul réseau.Toutefois, les réseaux temps-réels doivent désormais aussi offrir une reconfiguration simplifiée avec des chemins alternatifs, un haut niveau de fiabilité et parfois un service de synchronisation du temps.Pour répondre à ces besoins, l'utilisation de topologies à plusieurs chemins a été encouragée pour faciliter la reconfiguration et des mécanismes de redondance et de synchronisation ont été développés pour fournir un haut niveau de fiabilité et une synchronisation du temps.Tandis que chacun de ces mécanismes dispose d'une théorie pour valider son efficacité dans son objectif respectif, la littérature n'a que peu étudié leurs effets secondaires sur les bornes de latences et leurs interactions avec les ordonnanceurs et les régulateurs de trafic.Dans cette thèse, nous utilisons la théorie du calcul réseau pour analyser les combinaisons de mécanismes et leurs effets sur les bornes de latences dans les réseaux temps-réel avec des topologies à plusieurs chemins.Nos principales contributions sur le plan théorique sont :1/ Nous développons un algorithme (FP-TFA) qui calcule des bornes de latence dans les réseaux dans lesquels la variété des chemins crée des dépendances cycliques.Nous proposons et analysons l'approche de déploiement partielle des régulateurs de trafic (soit par flux, soit avec TSN ATS) ainsi qu'un autre algorithme (LCAN) qui casse toutes les dépendances cycliques à coût minimal.2/ Nous analysons les effets des mécanismes de redondance sur les bornes de latence en modélisant leur comportement dans la théorie du calcul réseau.Nous analysons aussi leurs interactions avec les régulateurs de trafic.En particulier, nous observons que TSN ATS peut mener à des latences non bornées lorsqu'il est utilisé avec les mécanismes de redondances.3/ Nous proposons un modèle d'horloge qui décrit, au sein de la théorie du calcul réseau, les imperfections des horloges des réseaux synchronisés ou non.Nous montrons que l'usage de régulateurs de trafic avec des horloges imparfaites occasionne une pénalité dans les bornes de latence.Avec TSN ATS, cette pénalité n'est pas bornée, y compris dans les réseaux synchronisés avec une grande précision.Nous proposons deux méthodes (cascade et ADAM) pour adapter les paramètres des régulateurs et ainsi résoudre ce problème.Nous fournissons également des contributions d'intérêt pratique :a) l'outil modulaire xTFA, qui calcule des bornes de latences en utilisant les résultats de la thèse,b) un module pour simuler l'effet des horloges locales dans le simulateur à évènements discrets ns-3, etc) une application de nos résultats sur une étude de cas industrielle.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 06-12-2018
Tauran Bastien
Voir le résumé
Voir le résumé
L'accès à Internet par satellite permet de connecter des régions isolées de la terre ou des utilisateurs en mouvement, pour lesquels une solution terrestre peut s’avérer couteuse voire impossible. L’utilisation de constellations de satellite en orbite basse permet de transmettre avec des délais similaires à ceux des transmissions terrestres, permettant l’utilisation des protocoles de transport classiques comme TCP. L’utilisation d’un tel environnement engendre cependant des contraintes spécifiques à ce type de réseau, comme des délais de transmission variables et un important taux d’erreur, principalement lors de la traversée de l’atmosphère. Pour compenser ces forts taux de pertes, des mécanismes de fiabilisation doivent être introduit au niveau des couche basse. Ces mécanismes ont toutefois un impact négatif sur les performances des protocoles de transport, notamment TCP, limitant grandement le débit. Le but de cette thèse est de comprendre dans un premier temps les interactions entre les mécanismes de fiabilisation et les protocoles de transport, pour ensuite proposer des solutions permettant d’améliorer la qualité des transmissions.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 03-12-2010
Soro Alexandre
Voir le résumé
Voir le résumé
Depuis l'avènement de la théorie de l'information, la question de la fiabilisation des transmissions est allée de pair avec l'évolution des technologies et des applications.
La fiabilisation des transmissions couvre l'ensemble des techniques permettant de lutter contre les erreurs et les pertes d'un canal de transmission. Parmi les mécanismes existants, la fiabilisation pro-active consiste à mettre en place une redondance au niveau d'un émetteur, celle-ci permettant de compenser à priori les pertes subies par le canal. La fiabilisation pro-active trouve son sens lorsque l'émetteur ne peut avoir d'information sur l'état actuel du canal de transmission, ou lorsque elle est inutile du fait de contraintes temporelles, mais aussi lorsqu'un
émetteur doit s'adapter aux contraintes de plusieurs récepteurs. Initialement, les mécanismes de fiabilisation pro-actifs utilisant cette redondance sont connus sous le nom de codes correcteurs. La problématique associée à ces codes est alors une problématique d'optimisation : il s'agit de créer des codes flexibles permettant une génération rapide de la redondance par l'émetteur et une récupération des données initiales par le récepteur à faible coût, tout en conservant la meilleure capacité de correction possible. Par extension, la question de la fiabilisation concerne également l'étude de l'impact de mécanismes de suppression de redondance sur la fiabilité d'un système. Dans des réseaux plus spécifiques, où la question de l’utilisation de la bande passante est cruciale, des mécanismes de
compression protocolaire peuvent être mis en place afin de diminuer la proportion de trafic engendrée par les en-têtes protocolaires.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 04-12-2014
Smith Guillaume
Voir le résumé
Voir le résumé
Une large quantité de données personnelles sont partagées en temps réel par des utilisateurs en ligne, utilisant de plus en plus des terminaux mobiles avec connexion sans-fil. L'industrie s'efforce d'accumuler et d'analyser ces données pour fournir de nouveaux services ou des améliorations. La recherche fournit un effort équivalent pour permettre de traiter ces données de façon sécurisée et protectrice de la vie privée. Les problèmes de performance des communications temps réels sur terminaux mobiles sur un canal sans-fil sont aussi étudiés. Les codes à effacement sont un moyen courant d'améliorer ces performances. Le secret sharing est un mécanisme permettant de partager des données privées, ne les révélant qu'à un groupe d'utilisateur choisi. Dans cette thèse, nous lions théoriquement les secret sharing schemes et les codes à effacement, pour fournir une source plus riche de solutions aux deux problèmes. Notre objectif est de fournir des solutions ayant le niveau de sécurité souhaité, tout en restant efficace et implémentable. Les contributions de cette thèse sont les suivantes. Nous évaluons l'applicabilité d'une nouvelle classe de codes à effacements à Maximum Distance Séparable (MDS) pour transférer du contenu temps réel à des terminaux mobiles, et nous démontrons que le code systématique réduit grandement la complexité d'exécution et la taille nécessaire des tampons en comparaison du code non systématique, faisant de lui un bon candidat pour une application mobile. Nous proposons un nouveau Layered secret sharing scheme pour le partage en temps réel de données sur des réseaux sociaux (OSNs pour Online Social Network). Le procédé permet de partager automatiquement un profile dans un groupe défini dans un OSN, en utilisant un multi-secret sharing scheme formé de multiples couches. Le procédé ne dépend nullement d'un tiers de confiance. Comparé à un partage simple de chaque attributs (pouvant être un texte, une image ou une vidéo), le procédé ne divulgue aucune information à propos de ce qui est partagé, pas même le nombre de ceux-ci, et il induit une augmentation relativement faible du temps de calcul et des données à envoyer. Finalement, nous étudions les liens entre les codes MDS et les secret sharing schemes, ayant pour motivation l'inefficacité du très populaire Shamir secret sharing scheme. Nous établissons les liens théoriques entre les deux domaines et nous proposons une nouvelle construction de strong ramp schemes à partir de codes MDS. Ceci permet d'utiliser les codes MDS existants et efficaces pour des applications de partage de secret et de calculs distribués et sécurisés. Nous évaluons et montrons une réduction significative de temps de calcul et du coût de communication en utilisant un strong ramp scheme, en comparaison avec le procédé de Shamir.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 06-03-2020
Singh Jasdeep
Voir le résumé
Voir le résumé
La thèse est une étude d'approches probabilistes pour la modélisation et l'analyse de systèmes temps réel. L'objectif est de comprendre et d'améliorer le pessimisme qui existe dans l'analyse du système. Les systèmes temps réel doivent produire des résultats avec des contraintes de temps réelles. L'exécution des tâches dans le système est basée sur leur pire temps d'exécution. En pratique, il peut y avoir de nombreux temps d'exécution possibles inférieurs au pire des cas. Nous utilisons le temps d’exécution probabiliste dans le pire cas, qui est une distribution de probabilité dans le pire des cas, qui limite tous les temps d’exécution possibles. Nous nous approchons avec le modèle de chaîne de Markov à temps continu pour obtenir des probabilités de manquer une contrainte de synchronisation dans le monde réel. Nous étudions également les systèmes de criticité mixte (MC) car ceux-ci ont également tendance à faire face au pessimisme dans un souci de sécurité. Les systèmes MC consistent en des tâches d’importance ou de criticité ged différentes. Le système fonctionne sous différents modes de criticité dans lesquels l'exécution des tâches de criticité identique ou supérieure est assurée. Nous abordons d’abord les systèmes MC en utilisant la chaîne de Markov en temps discret pour obtenir la probabilité que le système entre dans des niveaux de criticité plus élevés. Nous observons certaines limites de nos approches et nous procédons à la modélisation des systèmes probabilistes MC à l'aide de modèles Graph. Nous remettons en question les approches existantes dans la littérature et fournissons les nôtres. Nous obtenons des calendriers pour les systèmes MC optimisés pour l'utilisation des ressources. Nous faisons également le premier pas vers la dépendance entre les tâches en raison de leur scheduling.
|
Texte intégral
|
|