Cette thèse s’inscrit dans le développement d’imageurs térahertz en technologie intégrée CMOS avec pour volonté de rendre ces derniers fiables et robustes, de permettre de réaliser de l’imagerie en ...temps réel, à température ambiante et à bas coût de production. L’ensemble doit être mené en parallèle de l’amélioration des réponses et sensibilités des capteurs actuels dans le but de rendre l’imageur fonctionnel et industrialisable. La caractérisation d’un imageur THz précédent réalisée au cours de la thèse a permis de redéfinir avec plus de rigueur cette caractérisation ainsi qu’une méthodologie de conception de la partie amont du pixel térahertz. Cette partie amont inclut l’antenne réceptrice et son environnement électromagnétique ainsi qu’un transistor à effet de champ redressant le signal THz reçu. Différentes parties amont de pixels THz, sensibles autour de 300 GHz, ont été développées. L’ensemble est monolithiquement intégré à l’aide du procédé CMOS standard dans un circuit complet et l’antenne est co-conçue avec le MOSFET de redressement afin de réaliser l’adaptation d’impédance. Chaque pixel inclut une antenne intégrée au niveau métallique supérieur avec un plan de masse parfois couplé à une métasurface afin d’isoler cette antenne du circuit de traitements du signal (non traité dans cette thèse) et du substrat de silicium localisés aux niveaux inférieurs du circuit. Finalement, 17 cas de test croisés (16 de 3 x 3 pixels et une matrice de 9 x 9 pixels) intégrant différentes topologies d'antenne et configurations de surfaces électromagnétiques (plan de masse et métasuface) ainsi que différents transistors de redressement sont conçus et fabriqués en fonderie CMOS.
This thesis deals with the development of terahertz imager in CMOS technology with the objectives to make it robust and reliable, with real-time imaging capacity at ambient temperature and with low-cost production. These objectives has to be developed at the same time as the improvement of responses and sensibilities to get the imager functional and ready for industrialization. The characterization of a previous THz imager, done during this thesis, brought the possibility to redefine in a more rigorous way this characterization and to develop a methodology for designing the THz front-end pixel. This front-end includes the reception antenna and its electromagnetic environment and a field effect transistor (FET) rectifying the received THz signal. Various front-end of THz pixels, design for 300 GHz reception, were developed. The whole structure has to be monolithically integrated with the standard CMOS process in a complete circuit and the antenna is co-design with the rectifying MOSFET in order to satisfy the impedance matching. Every pixel includes an antenna, integrated in higher metal levels with a ground plan sometimes coupled with a metasurface. This is in order to isolate the antenna from the signal processing circuit (not investigated in this thesis) and the silicon substrate botth located at the lower levels of the circuit. Finally, 17 crossed test cases (16 of 3 x 3 pixels and one matrix of 9 x 9 pixels) which integrate various antenna topologies and various configurations of electromagnetic surfaces (ground plane and metasurface) with various rectifying transistor were designed and manufactured in CMOS foundry.
Varia Aubert, Laura; Bérard, Jean; Bourgoin, Nicolas ...
Champ pénal,
03/2009
Journal Article
Recenzirano
Odprti dostop
La rubrique Varia regroupe tous les articles qui ne font pas partie d'un dossier thématique. Ces articles peuvent cependant être soit entièrement indépendants, soit réagir à ou compléter un dossier ...thématique paru précédemment. Pour cette rubrique, les contributions acceptées par le comité de lecture de la revue sont publiées tout au long de l'année, sans périodicité fixe.
This book constitutes the thoroughly refereed proceedings of the 19th International Symposium on Static Analysis, SAS 2012, held in Deauville, France, in September 2012. The 25 revised full papers ...presented together with 4 invited talks were selected from 62 submissions. The papers address all aspects of static analysis, including abstract domains, abstract interpretation, abstract testing, bug detection, data flow analysis, model checking, new applications, program transformation, program verification, security analysis, theoretical frameworks, and type checking.
En milieu océanique grand-fond (profondeur >1000 m), la propagation d'ondes acoustiques UltraBasse Fréquences (UBF, 1-300 Hz) est caractérisée par une forte influence des propriétés géo-acoustiquede ...l'environnement marin. Classiquement, des méthodes de localisation du type matched field processing sont mises en place pour intégrer cet aspect lors de l'inversion. Cependant, ces méthodes sont connues pour être très sensibles à de petites erreurs de modélisation de l'environnement, qui sont en pratique inévitables. C'est pourquoi il convient mieux de se tourner vers d’autres méthodes d’inversion plus robustes à la méconnaissance de l'environnement. Dans ce manuscrit on choisit d'étudier une quantité, appelée invariant océanique. Elle est associée à la formation d’interférence et montre des propriétés intéressantes de robustesse à de petites variations des propriétés géo-acoustique du milieu. En adoptant une approche ondulatoire de la propagation, on s’intéresse particulièrement à deux phénomènes responsables de sa dépendance à la configuration source récepteur (la prédominance du champ acoustique par des groupes de modes et le comportement différencié des ondes montante et descendante constituant un mode). Cette approche permet une prédiction précise et une compréhension profonde du phénomène d'interférence en milieu grand-fond. En couplant cette théoriede l'invariant océanique avec le concept d'énergie piégée, une méthode de localisation est ensuite proposée. Elle prend la forme d'une discrimination en immersion utilisant comme entrée l'intensité acoustique d'un signal large bande reçu sur une antenne horizontale.
Within the deep-water ocean (depth >1000 m), low frequencies (1-300 Hz) acoustic waves are characterized by very long range propagation. In this context, the propagation is largely impacted by the oceanic environment. Thus, localization methods based on classical plane wave models do not perform well. Matched field processing has been proposed to include better environmental models, but it is known to perform poorly as soon as the environment is not perfectly known. Given that the ocean is a dynamic system, it changes quickly over time and space making this method inapplicable in an operational context. To circumvent this issue, a better way is to consider methods that do not require detailed knowledge about the environment.In this manuscript I consider a quantity called the Waveguide Invariant (WI) which is known to be robust to small environment variations. In particular, I investigate two phenomenons responsible for its dependence to the source-receiver configuration: the dominance of the acoustic field by groups of modes and the frequency dependence of the Eigenmodes. Using a ray-mode approach, these two features are integrated in a WI derivation which provides a thorough way to predict and understand the striation patterns in deep-water context. Then, using this underlying physics driving the propagation along with the concept of mode trapping, a depth localization method is proposed. The input data for the algorithm is a range-frequency intensity, as measured on a horizontal line array. This idea is explored and extended to propose a source depth discrimination which is performed as a binary classification problem.
La programmation par contraintes est une approche régulièrement utilisée pour traiter des problèmes d’ordonnancement variés. Les problèmes d’ordonnancement cumulatifs représentent une classe de ...problèmes dans laquelle des tâches non morcelable peuvent être effectuées en parallèle. Ces problèmes apparaissent dans de nombreux contextes réels, tels que par exemple l’allocation de machines virtuelles ou l’ordonnancement de processus dans le "cloud", la gestion de personnel ou encore d’un port. De nombreux mécanismes ont été adaptés et proposés en programmation par contraintes pour résoudre les problèmes d’ordonnancement. Les différentes adaptations ont abouti à des raisonnements qui semblent à priori significativement distincts. Dans cette thèse nous avons effectué une analyse détaillée des différents raisonnements, proposant à la fois une notation unifiée purement théorique mais aussi des règles de dominance, permettant une amélioration significative du temps d’exécution d’algorithmes issus de l’état de l’art, pouvant aller jusqu’à un facteur sept. Nous proposons aussi un nouveau cadre de travail pour l’ordonnancement cumulatif robuste, permettant de trouver des solutions supportant qu’à tout moment une ou plusieurs tâches soit retardées, sans remise en cause de l’ordonnancement généré et en gardant une date de fin de projet satisfaisante. Dans ce cadre, nous proposons une adaptation d’un algorithme de l’état de l’art, Dynamic Sweep.
Constraint programming is an approach regularly used to treat a variety of scheduling problems. Cumulative scheduling problems represent a class of problems in which non-preemptive tasks can be performed in parallel. These problems appear in many contexts, such as for example the allocation of virtual machines, the ordering process in the "cloud", personnel management or a port. Many mechanisms have been adapted and offered in constraint programming to solve scheduling problems. The various adaptations have resulted in reasoning that appear a priori significantly different. In this thesis we performed a detailed analysis of the various arguments, offering both a theoretical unified caracterization but also dominance rules, allowing a significant improvement in execution time of algorithms from the state of the art, up to a factor of seven. we also propose a new framework for robust cumulative scheduling, to find solutions that support at any time one or more tasks to be delayed while keeping a satisfactory end date of the project and without calling into question the generated scheduling. In this context, we propose an adaptation of an algorithm of the state of the art, Dynamic Sweep.
Les travaux présentés s'intéressent à la discrimination en immersion d'une source acoustique sous-marine monochromatique ultra basse fréquence (UBF, 0-500 Hz) à l'aide d'une antenne horizontale ...d'hydrophones. La discrimination en immersion consiste à déterminer si un signal reçu a été émis à proximité de la surface ou par une source immergée. Cette problématique est particulièrement intéressante pour la lutte sous-marine (discrimination entre bâtiments de surface et sous-marins) ou la biologie marine (discrimination entre espèces vocalement actives à la surface et en profondeur). Le champ acoustique généré par une source UBF peut être décomposé en modes, dont les caractéristiques dépendent de l'environnement et de la position de la source. Cette propagation modale est source de dispersion modale : les différents modes se propagent à différentes vitesses. Cela empêche d'utiliser les techniques classiques de traitement d'antenne. Cependant, l'antenne horizontale peut être utilisée comme un filtre spatial pour estimer les propriétés des différents modes : on parle alors de filtrage modal. Si l'antenne est suffisamment longue, les modes sont résolus et les modes filtrés peuvent servir à localiser la source (matched-mode processing). Dans le cas d'une antenne trop courte, les modes sont mal filtrés et la localisation est impossible. Nous cherchons donc une information moins précise mais plus robuste sur la position de la source, d'où le problème de la discrimination en immersion.Dans ces travaux, nous cherchons à exploiter les modes mal filtrés pour prendre une décision sur le caractère immergé ou non de la source. Nous proposons de baser cette décision sur la valeur estimée du taux d'énergie piégée, i.e. la proportion de l'énergie acoustique qui est portée par les modes piégés. Le problème de la discrimination est alors posé comme un test d'hypothèses binaire sur la profondeur de la source. Cette formulation physique du problème permet d'utiliser des méthodes de Monte Carlo pour prédire, à l'aide de simulations, les performances en discrimination dans un contexte donné. Cela permet de comparer diverses méthodes d'estimation du taux d'énergie piégée, et surtout de choisir un seuil auquel comparer ce taux pour décider si la source est en surface ou immergée.La méthode développée pendant la thèse est validée sur des données expérimentales marines. Les résultats alors obtenus sont cohérents avec les conclusions tirées des simulations. La méthode proposée permet notamment d'identifier avec succès une source de surface (le bruit d'un navire en déplacement) ainsi qu'une source immergée (une source UBF tractée à 30 m de profondeur), à l'aide d'une antenne horizontale de 360 m.
This work focuses on acoustic source depth discrimination in the ultra-low frequency range (ULF, 0-500 Hz), using a horizontal line array. Depth discrimination is a binary classification problem, aiming to evaluate whether a received signal has been emitted by a source near the surface or by a submerged one. This could serve applications such as anti-submarine warfare or marine biology.The acoustic field generated by a ULF source can be described as a sum of modes, which properties depend on environment and source location. This modal propagation leads to modal dispersion: the different modes propagate at different velocities. This forbid the use of classical beamforming schemes. However, the horizontal array can be used as a spatial filter to estimate the properties of the modes: this is modal filtering. With a sufficient array length, modes are resolved, and the filtered modes can be used to localise the source using matched-mode processing. If the array is too short, the poorly-filtered modes cannot be used for localisation. Therefore, we are looking for a less precise but more robust information on source location, which leads to source depth discrimination.In this work, the poorly-filtered modes are used to decide whether the source is near the surface or submerged. Because some of the modes (the "trapped modes") are weakly excited by a surface source, we propose this decision relies on the estimation of the trapped energy ratio, i.e. the ratio of acoustic energy borne by trapped modes to the total acoustic energy. The problem of depth discrimination is then formulated as a binary hypothesis test on source depth. This physical formulation allows using Monte-Carlo methods and simulations to predict performance in a given context. This enables comparison between several estimators of the trapped energy ratio and the choice of a relevant threshold which this ratio is compared to in order to decide between the two hypotheses. The approach developped in the manuscript is validated by its application to marine experimental data. The results are consistent with the conclusions drawn from simulations. The proposed method enables the succesfull identification of both a surface source (the noise of a travelling ship) and a submerged source (a ULF source towed 30 m below the surface), using a 360-m horizontal array.
La programmation par contraintes est une approche régulièrement utilisée pour résoudre des problèmes combinatoires d’origines diverses. Dans cette thèse nous nous focalisons sur les problèmes ...d’ordonnancement cumulatif. Un problème d’ordonnancement consiste à déterminer les dates de débuts et de fins d’un ensemble de tâches, tout en respectant certaines contraintes de capacité et de précédence. Les contraintes de capacité concernent aussi bien des contraintes cumulatives classiques où l’on restreint la somme des hauteurs des tâches intersectant un instant donné, que des contraintes cumulatives colorées où l’on restreint le nombre maximum de couleurs distinctes prises par les tâches. Un des objectifs récemment identifiés pour la programmation par contraintes est de traiter des problèmes de grandes tailles, habituellement résolus à l’aide d’algorithmes dédiés et de métaheuristiques. Par exemple, l’utilisation croissante de centres de données virtualisés laisse apparaitre des problèmes d’ordonnancement et de placement multi-dimensionnels de plusieurs milliers de tâches. Pour atteindre cet objectif, nous utilisons l’idée de balayage synchronisé considérant simultanément une conjonction de contraintes cumulative et des précédences, ce qui nous permet d’accélérer la convergence au point fixe. De plus, de ces algorithmes de filtrage nous dérivons des procédures gloutonnes qui peuvent être appelées à chaque nœud de l’arbre de recherche pour tenter de trouver plus rapidement une solution au problème. Cette approche permet de traiter des problèmes impliquant plus d’un million de tâches et 64 ressources cumulatives. Ces algorithmes ont été implémentés dans les solveurs de contraintes Choco et SICStus, et évalués sur divers problèmes déplacement et d’ordonnancement.
Constraint programming is an approach often used to solve combinatorial problems in different application areas. In this thesis we focus on the cumulative scheduling problems. A scheduling problem is to determine the starting dates of a set of tasks while respecting capacity and precedence constraints. Capacity constraints affect both conventional cumulative constraints where the sum of the heights of tasks intersecting a given time point is limited, and colored cumulative constraints where the number of distinct colors assigned to the tasks intersecting a given time point is limited. A newly identified challenge for constraint programming is to deal with large problems, usually solved by dedicated algorithms and metaheuristics. For example, the increasing use of virtualized datacenters leads to multi dimensional placement problems of thousand of jobs. Scalability is achieved by using a synchronized sweep algorithm over the different cumulative and precedence constraints that allows to speed up convergence to the fix point. In addition, from these filtering algorithms we derive greedy procedures that can be called at each node of the search tree to find a solution more quickly. This approach allows to deal with scheduling problems involving more than one million jobs and 64 cumulative resources. These algorithms have been implemented within Choco and SICStussolvers and evaluated on a variety of placement and scheduling problems.
Un problème courant en logistique, gestion d’entrepôt, industrie manufacturière ou gestion d’énergie dans les centres de données est de placer des objets dans un espace limité, ou conteneur. Ce ...problème est appelé problème de placement. De nombreux travaux dans la littérature gèrent le problème de placement en considérant des objets de formes particulières ou en effectuant des approximations polygonales. L’objectif de cette thèse est d’autoriser toute forme qui admet une définition mathématique (que ce soit avec des inégalités algébriques ou des fonctions paramétrées). Les objets peuvent notamment être courbes et non-convexes. C’est ce que nous appelons le problème de placement générique. Nous proposons un cadre de résolution pour résoudre ce problème de placement générique, basé sur les techniques d’intervalles. Ce cadre possède trois ingrédients essentiels : un algorithme évolutionnaire plaçant les objets, une fonction de chevauchement minimisée par cet algorithme évolutionnaire (coût de violation), et une région de chevauchement qui représente un ensemble pré-calculé des configurations relatives d’un objet (par rapport à un autre) qui créent un chevauchement. Cette région de chevauchement est calculée de façon numérique et distinctement pour chaque paire d’objets. L’algorithme sous-jacent dépend également du fait qu’un objet soit représenté par des inégalités ou des fonctions paramétrées. Des expérimentations préliminaires permettent de valider l’approche et d’en montrer le potentiel.
A common problem in logistic, warehousing, industrial manufacture, newspaper paging or energy management in data centers is to allocate items in a given enclosing space or container. This is called a packing problem. Many works in the literature handle the packing problem by considering specific shapes or using polygonal approximations. The goal of this thesis is to allow arbitrary shapes, as long as they can be described mathematically (by an algebraic equation or a parametric function). In particular, the shapes can be curved and non-convex. This is what we call the generic packing problem. We propose a framework for solving this generic packing problem, based on interval techniques. The main ingredients of this framework are: An evolutionary algorithm to place the objects, an over lapping function to be minimized by the evolutionary algorithm (violation cost), and an overlapping region that represents a pre-calculated set of all the relative configurations of one object (with respect to the other one) that creates an overlapping. This overlapping region is calculated numerically and distinctly for each pair of objects. The underlying algorithm also depends whether objects are described by inequalities or parametric curves. Preliminary experiments validate the approach and show the potential of this framework.
Le secteur industriel du traitement des déchets génère des émissions gazeuses induisant des nuisances odorantes auprès des populations riveraines des installations. Ces effluents gazeux contiennent ...une grande diversité de composés volatils : oxygénés (acides gras volatils, cétones, aldéhydes, alcools), azotés et soufrés (hydrogène sulfuré (H2S), diméthylsulfure (DMS), diméthyldisulfure (DMDS) et méthanethiol (MT)). Ces effluents gazeux sont traités par un dispositif approprié que sont les bioprocédés. Néanmoins, les seuils de perception des composés odorants et plus particulièrement ceux des composés soufrés, très bas, obligent à atteindre des efficacités d’abattement particulièrement élevées, faute de quoi le résiduel de concentration peut être à l’origine d’un impact notable sur les populations riveraines. L’objectif de cette étude est donc d’améliorer les performances de ces procédés biologiques par la mise en oeuvre de filières de traitement. L’originalité de ce travail est d’évaluer les performances d’épuration d’un mélange de composés soufrés par la mise en oeuvre du couplage de deux procédés biologiques que sont le lit percolateur et le biofiltre.Le premier résultat de ce travail de thèse a consisté à évaluer l’impact du pH sur l’activité de dégradation de composés soufrés en mélange (H2S, DMS et DMDS) en mettant en oeuvre des microcosmes. La valeur du pH de la phase aqueuse a une influence sur l’efficacité d’élimination des DMS et DMDS. Une élimination complète de ces derniers est observée pour une gamme de pH comprise entre 5 et 7. Les performances de ce couplage ont été comparées avec celles observées dans le cas de biofiltres seuls (dupliquats). Après une phase d’acclimatation, un fonctionnement stable est maintenu en conditions opératoires stationnaires. Les potentialités du couplage ont été mises en évidence, les niveaux d’abattement des DMS et DMDS étant supérieurs (de l’ordre de 20%) pour le couplage de bioprocédés. La composante microbiologique a fait l’objet d’une attention particulière en évaluant les densités de deux populations connues pour dégrader ces composés soufrés (Hyphomicrobium et Thiobacillus thioparus) par q-PCR au sein du biofiltre couplé au filtre percolateur et des biofiltres de référence. Les résultats obtenus mettent en évidence la présence de ces deux populations à des taux élevés (104 copies du gène ADNr-16S/ng ADN extrait pour Thiobacillus thioparus et 104-106 copies du gène ADNr-16S/ng ADN extrait pour Hyphomicrobium). La répartition de ces deux populations est similaire dans les deux cas (couplage et biofiltres seuls).Face à des perturbations représentatives de celles observées sur site, la robustesse du couplage a pu être mise en évidence, les niveaux d’efficacité d’avant les chocs sont récupérés dans un délai inférieur ou égal à 72 heures après l’arrêt de la perturbation. Enfin, une application sur site (équarrissage) a été conduite sur une période de trois mois et a permis de valider les résultats de laboratoire et de montrer l’adaptabilité d’un tel système face à la variabilité d’un effluent réel.
Waste treatment industries generate gaseous emissions that may induce odor annoyance to the surrounding populations. These gaseous effluents contain a large variety of volatile compounds such as oxygenated (volatile fatty acids, ketones, aldehydes and alcohols), nitrogen and sulphur compounds (hydrogen sulphide (H2S), dimethylsulphide (DMS), dimethyldisulfide (DMDS) and methanethiol (MT). These gaseous emissions are controlled by using an adequate system such as biotechniques. Nevertheless, because of their very low odor thresholds, complete elimination of sulphur compounds has to be assessed, as the residual concentration can induce an odorous impact on neighbourhood populations. The aim of this study is to improve these bioprocesses performances by carrying out an adequate system strategy. The originality of this work is to evaluate the removal efficiency of a mixture of sulphur compounds by implementing a combination of two bioprocesses and more precisely a biotrickling filter and biofilter.The first step of this PhD. work consisted of evaluating the pH impact on the biodegradation activity of a mixture of sulphur compounds (H2S, DMS and DMDS) by using microcosms. The pH has an impact on the removal efficiency of DMS and DMDS. The total removal of these compounds is observed for a pH range between 5 and 7. The performances of the coupling have been compared with those reached by implementing control biofilters (duplicated). After an acclimatization period, stable performances are maintained under constant operating conditions. The efficiency of the coupling have been highlighted, the DMS and DMDS abatement levels are superior (around 20%) for the bioprocesses combination.The microbiological component has been investigated within all biofilters by estimating the densities of two populations involved in the biodegradation of sulphur compounds (Hyphomicrobium and Thiobacillus thioparus), by using qPCR. The obtained results highlighted the presence of both populations at high level (104 copies of DNAr-16S gene/ng extracted DNA for Thiobacillus thioparus and 104-106 copies of DNAr-16S gene/ng extracted DNA for Hyphomicrobium). The repartition of these two bacterial populations is similar in both cases (coupling system and reference biofilters). Under transient shock load conditions, the robustness of the coupling has been revealed. The efficiency levels before the shock load are recovered 48 hours after the perturbation off. Finally, the monitoring of an on- site pilot (rendering facility) has been carried out during three months. The laboratory results have been confirmed and the suitability of such a system has been showed under industrial gas variability.