Refine
Year of publication
Document Type
- Master's Thesis (76) (remove)
Keywords
- .NET Remoting (1)
- .NET-Plattform (1)
- 2 D environment Laser data (1)
- 3D-Druck (1)
- ADO.NET (1)
- ASP.NET (1)
- Active Server Pages (1)
- ActiveX Data Objects (ADO) (1)
- Agenten-Plattform (1)
- Akquisition <Vertrieb> (1)
Institute
- Fakultät Architektur und Gestaltung (5)
- Fakultät Bauingenieurwesen (22)
- Fakultät Elektrotechnik und Informationstechnik (4)
- Fakultät Informatik (34)
- Fakultät Maschinenbau (2)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (1)
- Institut für Optische Systeme - IOS (2)
- Institut für Systemdynamik - ISD (2)
This diploma thesis is devoted to the design and analysis of a radar signal enabling an object classification capability in surveillance radar systems based on high-resolution radar range profiles. It picks up the research results from Kastinger (2006), who investigated classification algorithms for high-resolution radar range profiles, and Meier (2007), who programmed a MATLAB toolbox for the evaluation of radar signals. A classical, brief, introduction to radar fundamentals is given (Chapter 1) as well as the motivation for this thesis and certain basic parameters used. After high-resolution radar range profiles are discussed with special focus on surveillance radar systems (Chapter 2), the results of Kastinger (2006) are picked up (Chapter 3) as far as necessary for the following chapters of this thesis. Following the chapters on radar basics, high-resolution radar range profiles and classification, basic and advanced radar signals are discussed and analysed, especially their range resolution and sidelobe levels (Chapter 4). This includes linear frequency-modulated pulses and nonlinear frequency-modulated pulses as well as phase-coded pulses, coherent trains of identical pulses, and stepped-frequency waveforms. Their analysis is based on Meier's MATLAB toolbox. In Chapter 5 we will bring up additional points that have to be considered in radar system design for implementing a classification capability, before this thesis ends with an overall conclusion (Chapter 6).
Die Designprofession ist einem tief greifenden Wandel unterworfen: Während das Design an Bedeutung gewinnt, verliert es zugleich an Exklusivität. Der Beruf ist nicht geschützt und das Web fördert ein Verschwimmen der Grenzen zwischen Amateur und Profi. In einer Welt in der alle zu Sendern werden, wer hört da noch zu? Wie kann sich ein Designer in der heutigen Zeit gegen den Volkssport Design behaupten? Die Antwort lautet: Durch professionelles Design! Die Designer müssen ihre Profession auf eine neue Ebene bringen, um sich klar und deutlich vom Amateurdesigner differenzieren zu können. Doch was ist professionelles Design? Welche Kompetenzen braucht ein Designer heute und in Zukunft, um den Anforderungen an Professionalität gerecht zu werden? Auf diese Fragen versucht diese Arbeit eine Antwort zu geben. Um der Antwort näher zu kommen, wurden in einem ersten Schritt deutschlandweit 27 Kunst- und (Fach) Hochschulen untersucht. Dabei wurde analysiert wie in dem neuen Bachelor- und Mastersystem, dass durchschnittliche Kompetenzprofil eines Absolventen der jeweiligen Hochschulen aussieht. Aus aktuellen Diskussionen und Auseinandersetzungen zu der Thematik des Volkssport Designs, wurden anschließend die wichtigsten Aspekte herausgefiltert und zusammen mit grundlegenden Anforderungen an Professionalität zusammengefasst. Diese Erkenntnisse und die Ergebnisse aus der Hochschuluntersuchung dienten als Basis für eine empirische Erhebung. So wurden erfahrene Designer in Führungs- und Lehrpositionen aus unterschiedlichsten Agenturen und Hochschulen, zu den Anforderungen an professionelles Design befragt. Durch einzelne Interviews wurde die Untersuchung abschließend noch einmal in bestimmten Bereichen vertieft.
Die Dinge meiner Gegenwart
(2014)
Unsere Welt besteht aus Dingen. Wenn wir geboren werden, sind sie bereits da und warten auf uns. Und wenn wir sterben, bleiben sie zurück. Dazwischen liegen Bedeutungen.
Das Buch «Die Dinge meiner Gegenwart» geht der Frage nach, ob es Unterschiede in der Art der Bedeutungen persönlicher Gegenstände gibt. Dafür beschreibt und fotografiert der Autor einhundert seiner persönlichen Dinge und untersucht mit akribischer Genauigkeit den Unterschied zwischen Typen von Gegenständen an konkreten Artefakten.
Es sind die Dinge seiner Gegenwart. Simon Felix Tarantik's Absicht ist es, diese Welt und die Dinge darin so darzustellen, wie er sie wahrnimmt und darauf zu achten nichts Wichtiges wegzulassen. Einhundert deshalb, weil diese Menge ein Stöbern – ein Blättern im Buch –, ein beliebiges Aufschlagen erlaubt und da bereits Neil MacGregor anhand von einhundert Dingen die Vergangenheit und Adrian Hon anhand von einhundert Dingen die Zukunft beschrieben haben, stellt er sich mit einhundert seiner Dinge zwischen sie und beschreibt die Gegenwart – seine Gegenwart.
Auf die persönliche Perspektive kommt es in dieser Arbeit an, darauf, die tatsächlichen Bedeutungen konkreter einzelner Dinge in einer Bandbreite offenzulegen, wie es für gewöhnlich nicht geschieht – denn niemand sieht Dinge auf dieselbe Weise. Empirisch und schöpferisch ordnen sie sich im Buch, reflektieren sich in Geschichten, Erinnerungen, Gefühlen und Bedeutungen und laden den Leser ein, seine Imagination gegen das Beschriebene und fotografisch Abgebildete abzuwiegen.
Creatio ex nihilo
(2015)
Von Kommunikationsdesignern wird erwartet, dass sie kreativ sind. Es wird von ihnen gefordert, dass sie Ideen haben, die innovativ, neu und originell wirken. Diese Anforderung bekommen Gestalter schon früh in ihrer Ausbildung zu spüren. Die Frage, die sich diese Arbeit stellt, ist: Kann dieses Ziel überhaupt erreicht werden? Oder ist das Verfolgen von Originalität nur eine Illusion? Oder gar ein Mythos? Wie schon Picasso anmerkte: »Kunst ist Diebstahl.« Wenn nichts Neues geschaffen werden kann, müssen wir einen Weg finden, Bestehendes so zu verändern, dass das Ergebnis mehr ist als die Summe der Einzelteile. Der Diebstahl bestehender kreativer Leistung wäre somit Teil unseres Berufsfelds und sollte auch in der Designerausbildung eine wichtige Rolle spielen. Ich stelle mich mit dieser Arbeit dem Mythos der Originalität, dem Glauben an eine »creatio ex nihilo«, und beschäftige mich mit dessen Einfluss auf den Designprozess und den möglichen Auswirkungen auf die Ausbildung junger Gestalter.
Der Begriff der Originalität wird heute sehr unkontrolliert verwendet. Mittels einer quantitativen Inhaltsanalyse, Experteninterviews sowie Telefongesprächen wurde der Begriff deshalb hinterfragt und anders definiert. Die Auswirkungen auf den Designprozess wurden mittels eines Experiments mit Studierenden der Studiengänge
Kommunikationsdesign ermittelt. Dabei mussten die Probanden unter dem Druck einer originellen Idee gestalten. Die Lösungen wurden anschließend in einer Online-Umfrage von mehreren Personen subjektiv bewertet. Alle gesammelten Inhalte finden sich wieder in sechs Kapiteln zum Mythos der Originalität im Kommunikationsdesign (Teil A) und einer Forschungsdokumentation (Teil B).
Im Rahmen dieser Masterarbeit wurde an einem Beispielgebäude (Wessenberg-Schule Konstanz) gezeigt, dass Maßnahmen an der Gebäudehülle von Gebäuden der 60er-Jahre trotz Denkmalstatus ein durchaus erhebliches Potential aufweisen, um Wärmeverluste zu begrenzen, und sich Denkmalcharakter und energetischer Modernisierungswunsch nicht zwangsläufig gegenseitig ausschließen.
Hierbei wurden Thermografieaufnahmen angefertigt, Temperaturmessungen durchgeführt und U-Werte aller Bauteile der Gebäudehülle berechnet. Die Maßnahmen wurden auf Wärmebrücken und den Gesamtwärmedurchlass hin separat für jedes Bauteil bewertet.
Für gezielte Sanierungsvorschläge und die Untersuchung ihrer Wirksamkeit wurde das Gebäude intensiv untersucht. Hierbei wurden Informationen aus Archiven (Stadtarchiv Konstanz, Kreisarchiv Konstanz und Südwestdeutsches Archiv für Architektur und Ingenieurbau) zusammengetragen, die ein breites Bild des Bauablaufs und -geschichte, der verwendeten Baustoffe und der Architektur geben.
Da keine ausführliche Denkmalbegründung vorlag, wurde die Architektur und Gestaltung des Gebäudes separat betrachtet und bewertet.
In the field of autonomously driving vehicles the environment perception containing dynamic objects like other road users is essential. Especially, detecting other vehicles in the road traffic using sensor data is of utmost importance. As the sensor data and the applied system model for the objects of interest are noise corrupted, a filter algorithm must be used to track moving objects. Using LIDAR sensors one object gives rise to more than one measurement per time step and is therefore called extended object. This allows to jointly estimate the objects, position, as well as its orientation, extension and shape. Estimating an arbitrary shaped object comes with a higher computational effort than estimating the shape of an object that can be approximated using a basic geometrical shape like an ellipse or a rectangle. In the case of a vehicle, assuming a rectangular shape is an accurate assumption.
A recently developed approach models the contour of a vehicle as periodic B-spline function. This representation is an easy to use tool, as the contour can be specified by some basis points in Cartesian coordinates. Also rotating, scaling and moving the contour is easy to handle using a spline contour. This contour model can be used to develop a measurement model for extended objects, that can be integrated into a tracking filter. Another approach modeling the shape of a vehicle is the so-called bounding box that represents the shape as rectangle.
In this thesis the basics of single, multi and extended object tracking, as well as the basics of B-spline functions are addressed. Afterwards, the spline measurement model is established in detail and integrated into an extended Kalman filter to track a single extended object. An implementation of the resulting algorithm is compared with the rectangular shape estimator. The implementation of the rectangular shape estimator is provided. The comparison is done using long-term considerations with Monte Carlo simulations and by analyzing the results of a single run. Therefore, both algorithms are applied to the same measurements. The measurements are generated using an artificial LIDAR sensor in a simulation environment.
In a real-world tracking scenario detecting several extended objects and measurements that do not originate from a real object, named clutter measurements, is possible. Also, the sudden appearance and disappearance of an object is possible. A filter framework investigated in recent years that can handle tracking multiple objects in a cluttered environment is a random finite set based approach. The idea of random finite sets and its use in a tracking filter is recapped in this thesis. Afterwards, the spline measurement model is included in a multi extended object tracking framework. An implementation of the resulting filter is investigated in a long-term consideration using Monte Carlo simulations and by analyzing the results of a single run. The multi extended object filter is also applied to artificial LIDAR measurements generated in a simulation environment.
The results of comparing the spline based and rectangular based extended object trackers show a more stable performance of the spline extended object tracker. Also, some problems that have to be addressed in future works are discussed. The investigation of the resulting multi extended object tracker shows a successful integration of the spline measurement model in a multi extended object tracker. Also, with these results some problems remain, that have to be solved in future works.
BIM im Membranbau
(2019)
Die fortschreitende Digitalisierung wird zurzeit zu einem der wichtigsten Themen und zugleich zu einer der größten Herausforderungen für die Bauwirtschaft. Building Information Modeling (BIM) kommt eine immer größere Bedeutung zu.
Es ist sicherlich richtig, dass derzeit nur wenige Projekte im Bauwesen den geforderten BIM-Anforderungen der Bauherrschaft genügen. Es ist zu erwarten, dass in den kommenden Jahren auch an Membranbauprojekte immer mehr Anforderungen bezüglich BIM gestellt werden. Aus diesem Grund ist es wichtig, dass sich Planungsbüros für leichte Flächentragwerke mit dem Thema BIM befassen.
Ziel dieser Arbeit ist die Ausarbeitung eines Konzepts für die effiziente durchgehende Umsetzung der Building Information Modeling-Arbeitsmethode bei der Tragwerksplanung im Membranbau.
Es werden vorhandene Funktionalitäten untersucht und alternative Interoperabilitätskomponenten entwickelt. Aufbauend auf den möglichen Werkzeugketten werden verschiedene Einsatzverfahren vorgeschlagen. Darauffolgend wird eines der möglichen Verfahren an einem realen Tragwerk implementiert. Die erhaltenen Ergebnisse werden einer kritischen Analyse unterzogen.
Abschließende Rückschlüsse, Beurteilung der angewandten Planungsmethoden und Ausblick fassen das behandelte Thema zusammen.
Bei der Arbeit verwendete Methoden schließen den parametrischen Entwurf, manuelle Modellierung in zwei verschiedenen Softwareumgebungen und textliche Programmierung mit C#-Sprache ein.
Die Relevanz des untersuchten Themas erstreckt sich überwiegend auf praktisch tätige Ingenieure aus den Bereichen leichte Flächentragwerke, Sondertragwerke, Membranbau, wird aber auch für wissenschaftliche Mitarbeiter der Forschungsinstitutionen, BIM-Spezialisten und Produkthersteller von Interesse sein.
This thesis deals with the object tracking problem of multiple extended objects. For instance, this tracking problem occurs when a car with sensors drives on the road and detects multiple other cars in front of it. When the setup between the senor and the other cars is in a such way that multiple measurements are created by each single car, the cars are called extended objects. This can occur in real world scenarios, mainly with the use of high resolution sensors in near field applications. Such a near field scenario leads a single object to occupy several resolution cells of the sensor so that multiple measurements are generated per scan. The measurements are additionally superimposed by the sensor’s noise. Beside the object generated measurements, there occur false alarms, which are not caused by any object and sometimes in a sensor scan, single objects could be missed so that they not generate any measurements.
To handle these scenarios, object tracking filters are needed to process the sensor measurements in order to obtain a stable and accurate estimate of the objects in each sensor scan. In this thesis, the scope is to implement such a tracking filter that handles the extended objects, i.e. the filter estimates their positions and extents. In context of this, the topic of measurement partitioning occurs, which is a pre-processing of the measurement data. With the use of partitioning, the measurements that are likely generated by one object are put into one cluster, also called cell. Then, the obtained cells are processed by the tracking filter for the estimation process. The partitioning of measurement data is a crucial part for the performance of tracking filter because insufficient partitioning leads to bad tracking performance, i.e. inaccurate object estimates.
In this thesis, a Gaussian inverse Wishart Probability Hypothesis Density (GIW-PHD) filter was implemented to handle the multiple extended object tracking problem. Within this filter framework, the number of objects are modelled as Random Finite Sets (RFSs) and the objects’ extent as random matrices (RM). The partitioning methods that are used to cluster the measurement data are existing ones as well as a new approach that is based on likelihood sampling methods. The applied classical heuristic methods are Distance Partitioning (DP) and Sub-Partitioning (SP), whereas the proposed likelihood-based approach is called Stochastic Partitioning (StP). The latter was developed in this thesis based on the Stochastic Optimisation approach by Granström et al. An implementation, including the StP method and its integration into the filter framework, is provided within this thesis.
The implementations, using the different partitioning methods, were tested on simulated random multi-object scenarios and in a fixed parallel tracking scenario using Monte Carlo methods. Further, a runtime analysis was done to provide an insight into the computational effort using the different partitioning methods. It emphasized, that the StP method outperforms the classical partitioning methods in scenarios, where the objects move spatially close. The filter using StP performs more stable and with more accurate estimates. However, this advantage is associated with a higher computational effort compared to the classical heuristic partitioning methods.
Forecasting is crucial for both system planning and operations in the energy sector. With increasing penetration of renewable energy sources, increasing fluctuations in the power generation need to be taken into account. Probabilistic load forecasting is a young, but emerging research topic focusing on the prediction of future uncertainties. However, the majority of publications so far focus on techniques like quantile regression, ensemble, or scenario-based methods, which generate discrete quantiles or sets of possible load curves. The conditioned probability distribution remains unknown and can only be estimated when the output is post-processed using a statistical method like kernel density estimation.
Instead, the proposed probabilistic deep learning model uses a cascade of transformation functions, known as normalizing flow, to model the conditioned density function from a smart meter dataset containing electricity demand information for over 4,000 buildings in Ireland. Since the whole probability density function is tractable, the parameters of the model can be obtained by minimizing the negative loglikelihood through the state of the art gradient descent. This leads to the model with the best representation of the data distribution.
Two different deep learning models have been compared, a simple three-layer fully connected neural network and a more advanced convolutional neural network for sequential data processing inspired by the WaveNet architecture. These models have been used to parametrize three different probabilistic models, a simple normal distribution, a Gaussian mixture model, and the normalizing flow model. The prediction horizon is set to one day with a resolution of 30 minutes, hence the models predict 48 conditioned probability distributions.
The normalizing flow model outperforms the two other variants for both architectures and proves its ability to capture the complex structures and dependencies causing the variations in the data. Understanding the stochastic nature of the task in such detail makes the methodology applicable for other use cases apart from forecasting. It is shown how it can be used to detect anomalies in the power grid or generate synthetic scenarios for grid planning.