Refine
Year of publication
Document Type
- Report (103)
- Working Paper (88)
- Journal (Complete Issue of a Journal) (84)
- Master's Thesis (75)
- Article (71)
- Book (49)
- Bachelor Thesis (44)
- Conference Proceeding (34)
- Study Thesis (8)
- Other Publications (7)
Language
- German (445)
- English (137)
- Multiple languages (1)
Has Fulltext
- yes (583) (remove)
Keywords
- .NET Remoting (1)
- .NET-Plattform (1)
- 1D-CNN (1)
- 2 D environment Laser data (1)
- 3D Extended Object Tracking (1)
- 3D shape tracking (1)
- 3D-Druck (1)
- 5-10-40-Bedingung (1)
- ADO.NET (1)
- ASP.NET (1)
Institute
- Fakultät Architektur und Gestaltung (27)
- Fakultät Bauingenieurwesen (77)
- Fakultät Elektrotechnik und Informationstechnik (22)
- Fakultät Informatik (59)
- Fakultät Maschinenbau (33)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (40)
- Institut für Angewandte Forschung - IAF (44)
- Institut für Naturwissenschaften und Mathematik - INM (2)
- Institut für Optische Systeme - IOS (13)
- Institut für Strategische Innovation und Technologiemanagement - IST (2)
- Institut für Systemdynamik - ISD (13)
- Institut für Werkstoffsystemtechnik Konstanz - WIK (2)
- Institut für Werkstoffsystemtechnik Thurgau - WITg (1)
- Institut für angewandte Thermo- und Fluiddynamik - IATF (1)
- Konstanz Institut für Corporate Governance - KICG (18)
- Konstanz Institut für WerteManagement - KIeM (31)
- Konstanzer Institut für Prozesssteuerung - KIPS (3)
Further applications of the Cauchon algorithm to rank determination and bidiagonal factorization
(2018)
For a class of matrices connected with Cauchon diagrams, Cauchon matrices, and the Cauchon algorithm, a method for determining the rank, and for checking a set of consecutive row (or column) vectors for linear independence is presented. Cauchon diagrams are also linked to the elementary bidiagonal factorization of a matrix and to certain types of rank conditions associated with submatrices called descending rank conditions.
The class of square matrices of order n having a negative determinant and all their minors up to order n-1 nonnegative is considered. A characterization of these matrices is presented which provides an easy test based on the Cauchon algorithm for their recognition. Furthermore, the maximum allowable perturbation of the entry in position (2,2) such that the perturbed matrix remains in this class is given. Finally, it is shown that all matrices lying between two matrices of this class with respect to the checkerboard ordering are contained in this class, too.
In 1970, B.A. Asner, Jr., proved that for a real quasi-stable polynomial, i.e., a polynomial whose zeros lie in the closed left half-plane of the complex plane, its finite Hurwitz matrix is totally nonnegative, i.e., all its minors are nonnegative, and that the converse statement is not true. In this work, we explain this phenomenon in detail, and provide necessary and sufficient conditions for a real polynomial to have a totally nonnegative finite Hurwitz matrix.
Entwicklung eines Software-Systems für die Qualitätssicherung von Oberflächen im Automobilbau
(2003)
Heutzutage nimmt die Qualitätssicherung der Produkte bei immer mehr Betrieben einen zunehmend hohen Stellenwert ein. Auch in der Automobilindustrie gelten mittlerweile hohe Qualitätsrichtlinien. Damit der Qualitätsstandard aber auch gewährleistet werden kann, muss die Qualität des Produkts ständig gemessen und beurteilt werden. Um die manuelle Prüfung der Pressteile zu unterstützen wurde in den letzten Jahren bei VW/Audi do Brasil – BUC das Oberflächen-Inspektions-System DSight eingesetzt. Leider haben jedoch zahlreiche Messungen mit DSight ergeben, dass die Ergebnisse unzuverlässig und nicht reproduzierbar sind. Aus diesem Grund wurde im Rahmen dieser Diplomarbeit ein neues Software-System zur Inspektion von Oberflächen im Automobilbau entwickelt, das die Anforderungen der Qualitätssicherung besser erfüllt. Das neue System, das den Namen VisionMaster trägt, basiert auf dem Prinzip der Retro-Reflexion. Mit Hilfe implementierter Auswertungsalgorithmen werden aufgenommene Grauwertbilder der gepressten Teile analysiert. Die Ergebnisse der Inspektion werden anschließend in übersichtlicher Form in einem Protokoll ausgegeben. Um die Reproduzierbarkeit der Messungen zu garantieren und die Messergebnisse archivieren zu können, wird zusätzlich eine Datenbank eingesetzt, auf die über die ADO-Technologie zugegriffen wird. Zur Beschleunigung der Inspektion wir das neue System VisionMaster direkt in die Produktionshalle verlagert, um dort vor Ort Messungen an den gepressten Teilen durchführen zu können.
Im Rahmen der Lehrveranstaltung "Nachhaltigkeit im industriellen Umfeld" im Masterstudiengang Umwelt- und Verfahrenstechnik der Hochschulen Konstanz und Ravensburg-Weingarten wurde 2015 eine studentische Fachkonferenz durchgeführt.
Die Studierenden entwickelten in Einzelarbeit oder als Zweierteam Konferenzbeiträge zu folgenden Themen:
- Innovationen und Spannendes aus dem Bereich der Energieerzeugung und -wandlung
- Aspekte der Schließung von Stoffkreisläufen und Vermeidung von Schadstoffeinträgen in die Umwelt
- Chancen und Herausforderungen Nachwachsender Rohstoffe bei verschiedenen Einsatzmöglichkeiten sowie Themen der Nachhaltigkeit in der Landwirtschaft
- verschiedene Blickwinkel auf das Thema Wasser (von der Abwasserreinigung bis zum Wasserkonsum der Konsumenten)
- die Betrachtung spezifischer Industrien und Unternehmen sowie deren Werkzeuge zur Umsetzung von Nachhaltigkeit
Die Ergebnisse der studentischen Fachkonferenz zur „Nachhaltigkeit im industriellen Umfeld“ werden in der vorliegenden Publikation präsentiert.
Positive systems play an important role in systems and control theory and have found applications in multiagent systems, neural networks, systems biology, and more. Positive systems map the nonnegative orthant to itself (and also the non-positive orthant to itself). In other words, they map the set of vectors with zero sign variation to itself. In this article, discrete-time linear systems that map the set of vectors with up to k-1 sign variations to itself are introduced. For the special case k = 1 these reduce to discrete-time positive linear systems. Properties of these systems are analyzed using tools from the theory of sign-regular matrices. In particular, it is shown that almost every solution of such systems converges to the set of vectors with up to k-1 sign variations. It is also shown that these systems induce a positive dynamics of k-dimensional parallelotopes.
Forecasting is crucial for both system planning and operations in the energy sector. With increasing penetration of renewable energy sources, increasing fluctuations in the power generation need to be taken into account. Probabilistic load forecasting is a young, but emerging research topic focusing on the prediction of future uncertainties. However, the majority of publications so far focus on techniques like quantile regression, ensemble, or scenario-based methods, which generate discrete quantiles or sets of possible load curves. The conditioned probability distribution remains unknown and can only be estimated when the output is post-processed using a statistical method like kernel density estimation.
Instead, the proposed probabilistic deep learning model uses a cascade of transformation functions, known as normalizing flow, to model the conditioned density function from a smart meter dataset containing electricity demand information for over 4,000 buildings in Ireland. Since the whole probability density function is tractable, the parameters of the model can be obtained by minimizing the negative loglikelihood through the state of the art gradient descent. This leads to the model with the best representation of the data distribution.
Two different deep learning models have been compared, a simple three-layer fully connected neural network and a more advanced convolutional neural network for sequential data processing inspired by the WaveNet architecture. These models have been used to parametrize three different probabilistic models, a simple normal distribution, a Gaussian mixture model, and the normalizing flow model. The prediction horizon is set to one day with a resolution of 30 minutes, hence the models predict 48 conditioned probability distributions.
The normalizing flow model outperforms the two other variants for both architectures and proves its ability to capture the complex structures and dependencies causing the variations in the data. Understanding the stochastic nature of the task in such detail makes the methodology applicable for other use cases apart from forecasting. It is shown how it can be used to detect anomalies in the power grid or generate synthetic scenarios for grid planning.
Probabilistic Short-Term Low-Voltage Load Forecasting using Bernstein-Polynomial Normalizing Flows
(2021)
The transition to a fully renewable energy grid requires better forecasting of demand at the low-voltage level. However, high fluctuations and increasing electrification cause huge forecast errors with traditional point estimates. Probabilistic load forecasts take future uncertainties into account and thus enables various applications in low-carbon energy systems. We propose an approach for flexible conditional density forecasting of short-term load based on Bernstein-Polynomial Normalizing Flows where a neural network controls the parameters of the flow. In an empirical study with 363 smart meter customers, our density predictions compare favorably against Gaussian and Gaussian mixture densities and also outperform a non-parametric approach based on the pinball loss for 24h-ahead load forecasting for two different neural network architectures.
Der Inhalt dieser Arbeit befasst sich mit der Verwendung von regionalen Ressourcen in Form von Erde. Diese soll als Baumaterial unter Anwendung der Stampflehmbauweise für
ökologischeres Bauen dienen. Damit der Baustoff den Ansprüchen heutiger Bauaufgaben gerecht wird, wird untersucht, mit welchen nachhaltigen Methoden die Erde stabilisiert werden kann. Darüber hinaus wird nach einem zukunftsweisenden Fertigungsverfahren
für den Stampflehmbau gesucht. Die Nutzung und Kombination dieser Aspekte bezeichnen wir als Erdbau 4.0, welcher unter anderem für das Maun Sciene Park Projekt in Botswana infrage kommen könnte.
Creatio ex nihilo
(2015)
Von Kommunikationsdesignern wird erwartet, dass sie kreativ sind. Es wird von ihnen gefordert, dass sie Ideen haben, die innovativ, neu und originell wirken. Diese Anforderung bekommen Gestalter schon früh in ihrer Ausbildung zu spüren. Die Frage, die sich diese Arbeit stellt, ist: Kann dieses Ziel überhaupt erreicht werden? Oder ist das Verfolgen von Originalität nur eine Illusion? Oder gar ein Mythos? Wie schon Picasso anmerkte: »Kunst ist Diebstahl.« Wenn nichts Neues geschaffen werden kann, müssen wir einen Weg finden, Bestehendes so zu verändern, dass das Ergebnis mehr ist als die Summe der Einzelteile. Der Diebstahl bestehender kreativer Leistung wäre somit Teil unseres Berufsfelds und sollte auch in der Designerausbildung eine wichtige Rolle spielen. Ich stelle mich mit dieser Arbeit dem Mythos der Originalität, dem Glauben an eine »creatio ex nihilo«, und beschäftige mich mit dessen Einfluss auf den Designprozess und den möglichen Auswirkungen auf die Ausbildung junger Gestalter.
Der Begriff der Originalität wird heute sehr unkontrolliert verwendet. Mittels einer quantitativen Inhaltsanalyse, Experteninterviews sowie Telefongesprächen wurde der Begriff deshalb hinterfragt und anders definiert. Die Auswirkungen auf den Designprozess wurden mittels eines Experiments mit Studierenden der Studiengänge
Kommunikationsdesign ermittelt. Dabei mussten die Probanden unter dem Druck einer originellen Idee gestalten. Die Lösungen wurden anschließend in einer Online-Umfrage von mehreren Personen subjektiv bewertet. Alle gesammelten Inhalte finden sich wieder in sechs Kapiteln zum Mythos der Originalität im Kommunikationsdesign (Teil A) und einer Forschungsdokumentation (Teil B).
Die Frage „Wozu braucht man das?“ vonseiten der Studierenden oder Aussagen wie „Das habe ich im Beruf später nie mehr benötigt.“ von ehemaligen Studierenden ist den meisten Mathematikdozierenden sehr vertraut. Im Projekt BiLeSA wird dem Wunsch nach Integration von Praxisnähe im Mathematikunterricht mithilfe einer Smartphone-App, welche ausgewählte Themen in der Mathematik anhand von digitalen Bildern sichtbar macht, umgesetzt. Bei den ausgewählten Themen handelt es sich um (affin) lineare Abbildungen, Ableitungen in höheren Raumdimensionen und Potenzen von Komplexen Zahlen. Die Konzeptionierung des Lernobjekts erfolgte mit dem Design Based Research (DBR) Ansatz, welches im Basisprojekt des IBH-Labs „Seamless Learning“ konzipiert und entwickelt wurde.
Wer schon einmal dicht gedrängt vor der Konzertbühne stand kann sich die aussichtslose Lage, wenn die Stimmung kippt und Panik aufkommt, gut vorstellen. Es ist sehr wichtig, Räume und Events, die zeitweise von sehr vielen Menschen aufgesucht werden, so zu gestalten und zu planen, dass maximale Sicherheit gewährleistet ist. Damit eine öffentliche Veranstaltung reibungslos verläuft ist eine gründliche Planung, also ein qualitativ hochwertiges Crowd Management unabdingbar.
Im diesem Beitrag geht es darum zu zeigen, dass die spezifisch ethische Dimension der Go-vernanceethik als kohärentistische Ethikauffassung gedeutet - und begründungstheoretisch unterfüttert - werden kann. Mein Blick richtet sich also vor allem auf die Frage, wie ethisches Nachdenken kohärentistisch konzeptualisiert werden kann und, im zweiten Schritt, in welchem Sinne es m.E. eine strukturelle Parallele bzw. Anschlussfähigkeit von Kohärentismus und Governanceethik gibt. Es geht also im Folgenden weder darum, die Governanceethik als bereichsspezifische wirtschafts- und unternehmensethische Theorie zu untersuchen noch darum, bestimmte Referenzpunkte des Wielandschen Governanceethik-Modells1 wie z.B. ihre systemtheoretischen Prämissen zu diskutieren. Beginnen werde ich mit einer Bestimmung ethischen Nachdenkens als einer Orientierungsreflexion, die nicht letzte Prinzipien begründen, sondern vernünftige Selbstorientierung moralischer Akteure ermöglichen soll. Vor diesem Hintergrund wird das Theoriemodell des ethischen Kohärentismus entfaltet, um abschließend zu zeigen, dass dieses wesentliche Prämissen hinsichtlich der Auffassung über die Funktion ethischen Nachdenkens mit der Governanceethik teilt.
Non-volatile NAND flash memories store information as an electrical charge. Different read reference voltages are applied to read the data. However, the threshold voltage distributions vary due to aging effects like program erase cycling and data retention time. It is necessary to adapt the read reference voltages for different life-cycle conditions to minimize the error probability during readout. In the past, methods based on pilot data or high-resolution threshold voltage histograms were proposed to estimate the changes in voltage distributions. In this work, we propose a machine learning approach with neural networks to estimate the read reference voltages. The proposed method utilizes sparse histogram data for the threshold voltage distributions. For reading the information from triple-level cell (TLC) memories, several read reference voltages are applied in sequence. We consider two histogram resolutions. The simplest histogram consists of the zero-and-one ratios for the hard decision read operation, whereas a higher resolution is obtained by considering the quantization levels for soft-input decoding. This approach does not require pilot data for the voltage adaptation. Furthermore, only a few measurements of extreme points of the threshold voltage distributions are required as training data. Measurements with different conditions verify the proposed approach. The resulting neural networks perform well under other life-cycle conditions.
The growing error rates of triple-level cell (TLC) and quadruple-level cell (QLC) NAND flash memories have led to the application of error correction coding with soft-input decoding techniques in flash-based storage systems. Typically, flash memory is organized in pages where the individual bits per cell are assigned to different pages and different codewords of the error-correcting code. This page-wise encoding minimizes the read latency with hard-input decoding. To increase the decoding capability, soft-input decoding is used eventually due to the aging of the cells. This soft-decoding requires multiple read operations. Hence, the soft-read operations reduce the achievable throughput, and increase the read latency and power consumption. In this work, we investigate a different encoding and decoding approach that improves the error correction performance without increasing the number of reference voltages. We consider TLC and QLC flashes where all bits are jointly encoded using a Gray labeling. This cell-wise encoding improves the achievable channel capacity compared with independent page-wise encoding. Errors with cell-wise read operations typically result in a single erroneous bit per cell. We present a coding approach based on generalized concatenated codes that utilizes this property.
Mobile-Agenten erweitern die Möglichkeiten von verteilten Systemen dadurch, dass sie lauffähigen Code transportieren und diesen ausführen können. Sie können sich frei im Netzwerk bewegen, dort nach Informationen suchen und Aufgaben im Namen ihrer Auftraggeber ausführen. Viele Mobile-Agenten-Plattformen verwenden Java als Laufzeitumgebung, dadurch sind sie unabhängig vor dem darunter-liegenden Betriebssystem. Auf eine Unterstützung einer Anzeigegeräte-unabhängigen Benutzer-Agent-Interaktion wird aber meist nicht geachtet. Betrachtet man sich diese Anzeigegeräte mit den unterschiedlichen Eigenschaften in Display-Größe, Farbfähigkeit und Möglichkeiten für die Ein-und Ausgabe, besonders im Zusammenhang mit mobilen Geräten, z.B. Smartphpones und PDAs, ist es verständlich warum der Benutzer oft noch auf herkömmliche Geräte zur Interaktion angewiesen ist. Der Fokus dieser Diplomarbeit lag auf der Entwicklung eines Frameworks, das graphische Java-Benutzerschnittstellen in einem geräteunabhängigen XML-Format beschreibt und daraus ein geräteabhängiges Format erzeugt. Ein besonderes Augenmerk lag dabei in der einfachen Erweiterbarkeit des Frameworks, um zukünftige Ausgabeformate zu unterstützen, weswegen die Technik XSLT zum Einsatz kam. Nach dem Übermitteln der GUI-Daten werden über einen Rückkanal die Benutzerinteraktionen wieder dem Framewok zugeführt. Da die meisten mobilen Geräte einen Webbrowser integriert haben, eignen sich die Markup-Sprachen HTML oder WML besonders gut als Ausgabeformate für diese Geräte. Das Framework erlaubt darüberhinaus sowohl die lokale als auch die entfernte Interaktion mit den Software-Agenten. Sowohl für den Transport der GUI-Daten als auch für die Interaktion mit Agenten verwendet das Framework die Sicherheitsmechanismen der Agenten-Plattform SeMoA (Secure Mobile Agents). Das vorgestellte Framework lässt sich in SeMoA einfach integrieren und gestattet die individuelle Konfiguration der Interaktionsmethode mit einem Agenten.
»San Gramadón« ist ein spanisches Grammatik-Nachschlagewerk für deutsche Muttersprachler. Sie versucht den autonomen Lerner interaktiv miteinzubeziehen. Die grammatischen Inhalte werden auf spielerische Weise interessant und motivierend vermittelt. Im Zentrum stehen dabei Visualisierungen und Interaktionsmöglichkeiten mittels Pop-ups. Auf diese Weise schaut sich der Lerner die Erklärungen nicht nur an, sondern wird selber aktiv – dreht, schiebt, zieht, klappt auf – und kann die Inhalte so besser verstehen und einprägen. Als Metapher für das Grammatik-Nachschlagewerk dient die Stadt. Sich in einer fremden Sprache zurechtzufinden ist wie in eine unbekannte Stadt zu kommen. Es braucht ein Orientierungssystem. In der Sprache ist dies die Grammatik, in der Stadt der Stadt- oder beispielsweise der Metroplan. So ist das Nachschlagewerk wie ein Metronetz aufgebaut, in dem jedes grammatikalische Thema eine Haltestelle symbolisiert. Der Lerner kann frei navigieren. Es gibt keine vorgesehene Abfolge, sondern er kann, wie in einer Stadt, selber entscheiden, wann er welchen Stadtteil besichtigen bzw. welche Regel er bearbeiten will. Die kleinen Lerneinheiten befinden sich auf Karteikarten, den sogenannten Haltestellen, die wiederum in einer Kartei-Box Platz finden.
Thema der Masterarbeit ist die Zukunft des Generalunternehmers. Auf Grund verschiedener Entwicklungen in den letzten Monaten und Jahren, wie zum Beispiel dem Auflösen der Generalunternehmungssparte des Schweizer Pioniers Steiner AG, stellt sich in der Baubranche die Frage, ob das Modell des GU zukunftsfähig ist oder ob in nächster Zeit ein disruptiver Prozess Einzug erhalten könnte.
Das primäre Ziel der Arbeit ist es, herauszufinden, ob für das Geschäftsmodell des Generalunternehmers bereits oder zukünftig eine Bedrohung besteht. Dabei wird die vergangene, derzeitige und zu-künftige Lage der Baubranche analysiert. Eine Rolle spielen dabei die betrieblichen Triebkräfte, Marktanalysen und Trends. Weiterhin sollen verschiedene Trends und Innovationen in der Baubranche er-mittelt, sowie den hieraus entstehenden Einfluss für den Generalunternehmer abgeschätzt werden. Zusätzlich soll ein Analysetool entworfen werden, mit Hilfe dessen man in Zukunft schnell, einheitlich und verlässlich Trends und Innovationen analysieren und bewerten kann.
Zuerst wird das Geschäftsmodell des Generalunternehmers erläutert. Hierbei wird unter anderem die Wertschöpfung des Generalunternehmers behandelt. Danach werden die Five Forces nach Porter betrachtet. Weiterhin wird die Rolle der Unternehmenskultur hinsichtlich ihres Einflusses auf den Betriebserfolg untersucht. Im darauffolgenden Kapitel geht es um die vergangene, derzeitige und kurzfristige Entwicklung der Baubranche in Europa. Im abschließenden Kapitel werden verschiedene Trends, die das Generalunternehmer Modell betreffen, ermittelt. Zu guter Letzt wird aufgezeigt, wie wichtig Trendanalysen für die langfristige Zukunft von Generalunternehmern sind. Außerdem wird ein Analysetool erstellt und an den Trends BIM und Nachhaltigkeit angewendet.
Das Ergebnis der Masterarbeit zeigt, dass das Modell des Generalunternehmers im Vergleich zur über-geordneten Branche derzeit nicht wesentlicher bedroht ist. Der stetige Zuwachs der Inanspruchnahme von Dienstleistungen und der steigende Fachkräftemangel in der ganzen Baubranche sind Indikatoren, die die Attraktivität des GU Modells auf dem Markt anheben. Termin- Kosten- und Qualitätsrisiken liegen beim GU aufgrund des Fachkräftemangels und steigender Materialpreise in der Baubranche. Die Digitalisierungstrends bieten für die Baubranche und somit auch für den GU neue Möglichkeiten für produktivere Projektabwicklungen. Sie dienen damit mehr als Werkzeug denn als Ersatz für das GU Modell. Die Lieferengpässe und die Bauteuerungen beeinträchtigen derzeitige und zukünftige Projekte branchenübergreifend. Abhilfe könnte hier die Mietung von Hallen bzw. Lagerflächen leisten, um das Material frühzeitig zu bestellen und zu lagern. Einzig neue Vertragsgestaltungen, wie sie zum Teil schon in England, Australien und den USA angewendet werden, können eine Bedrohung für das GU-Modell darstellen. Da in diesen Verträgen eine Kernkompetenz des GU, die Koordination zwischen den Ge-werken, durch die Kooperation zwischen den Gewerken, bedroht wird. Jedoch sträuben sich bislang die Planer und die Bauherren dagegen. Der Baubranche werden allgemein stabile Prognosen mit leichtem Umsatzplus zugesagt. Aus Sicht des Marktes besteht somit vorerst keine Gefahr für das GU Modell. Um den Einfluss von Trends und Entwicklungen auf das GU Modell anhand verschiedener Indikatoren einschätzen zu können, wurde ein Analysetool entwickelt, damit auch zukünftig der Einfluss von Neuerungen auf den GU Markt abgeleitet werden kann. Bei der Analyse der Trends spielt vor allem die Beschaffung von verlässlichen Informationen eine tragende Rolle. Die Einsatzgebiete von Trendanalysen sind in einem Unternehmen sehr vielfältig. Das Ergebnis der untersuchten Trends BIM und Nachhaltigkeit hat ergeben, dass diese eher Chancen anstatt Risiken für die Baubranche und somit auch für das GU Modell darstellen. Die allgemeine Umfrage zur Bedrohung des Geschäftsmodells GU hat ergeben, dass aus Sicht der Probanden eine mittlere Bedrohung vorliegt. Umfragewerte sind hinsichtlich ihrer Subjektivität und der aktuellen durch Krisen bestimmten Lage jedoch immer hinsichtlich Ihrer Aussagekraft in Kontext zu setzen.
In the field of autonomously driving vehicles the environment perception containing dynamic objects like other road users is essential. Especially, detecting other vehicles in the road traffic using sensor data is of utmost importance. As the sensor data and the applied system model for the objects of interest are noise corrupted, a filter algorithm must be used to track moving objects. Using LIDAR sensors one object gives rise to more than one measurement per time step and is therefore called extended object. This allows to jointly estimate the objects, position, as well as its orientation, extension and shape. Estimating an arbitrary shaped object comes with a higher computational effort than estimating the shape of an object that can be approximated using a basic geometrical shape like an ellipse or a rectangle. In the case of a vehicle, assuming a rectangular shape is an accurate assumption.
A recently developed approach models the contour of a vehicle as periodic B-spline function. This representation is an easy to use tool, as the contour can be specified by some basis points in Cartesian coordinates. Also rotating, scaling and moving the contour is easy to handle using a spline contour. This contour model can be used to develop a measurement model for extended objects, that can be integrated into a tracking filter. Another approach modeling the shape of a vehicle is the so-called bounding box that represents the shape as rectangle.
In this thesis the basics of single, multi and extended object tracking, as well as the basics of B-spline functions are addressed. Afterwards, the spline measurement model is established in detail and integrated into an extended Kalman filter to track a single extended object. An implementation of the resulting algorithm is compared with the rectangular shape estimator. The implementation of the rectangular shape estimator is provided. The comparison is done using long-term considerations with Monte Carlo simulations and by analyzing the results of a single run. Therefore, both algorithms are applied to the same measurements. The measurements are generated using an artificial LIDAR sensor in a simulation environment.
In a real-world tracking scenario detecting several extended objects and measurements that do not originate from a real object, named clutter measurements, is possible. Also, the sudden appearance and disappearance of an object is possible. A filter framework investigated in recent years that can handle tracking multiple objects in a cluttered environment is a random finite set based approach. The idea of random finite sets and its use in a tracking filter is recapped in this thesis. Afterwards, the spline measurement model is included in a multi extended object tracking framework. An implementation of the resulting filter is investigated in a long-term consideration using Monte Carlo simulations and by analyzing the results of a single run. The multi extended object filter is also applied to artificial LIDAR measurements generated in a simulation environment.
The results of comparing the spline based and rectangular based extended object trackers show a more stable performance of the spline extended object tracker. Also, some problems that have to be addressed in future works are discussed. The investigation of the resulting multi extended object tracker shows a successful integration of the spline measurement model in a multi extended object tracker. Also, with these results some problems remain, that have to be solved in future works.
In 3D extended object tracking (EOT), well-established models exist for tracking the object extent using various shape priors. A single update, however, has to be performed for every measurement using these models leading to a high computational runtime for high-resolution sensors. In this paper, we address this problem by using various model-independent downsampling schemes based on distance heuristics and random sampling as pre-processing before the update. We investigate the methods in a simulated and real-world tracking scenario using two different measurement models with measurements gathered from a LiDAR sensor. We found that there is a huge potential for speeding up 3D EOT by dropping up to 95\% of the measurements in our investigated scenarios when using random sampling. Since random sampling, however, can also result in a subset that does not represent the total set very well, leading to a poor tracking performance, there is still a high demand for further research.
In this paper, a novel measurement model based on spherical double Fourier series (DFS) for estimating the 3D shape of a target concurrently with its kinematic state is introduced. Here, the shape is represented as a star-convex radial function, decomposed as spherical DFS. In comparison to ordinary DFS, spherical DFS do not suffer from ambiguities at the poles. Details will be given in the paper. The shape representation is integrated into a Bayesian state estimator framework via a measurement equation. As range sensors only generate measurements from the target side facing the sensor, the shape representation is modified to enable application of shape symmetries during the estimation process. The model is analyzed in simulations and compared to a shape estimation procedure using spherical harmonics. Finally, shape estimation using spherical and ordinary DFS is compared to analyze the effect of the pole problem in extended object tracking (EOT) scenarios.
In the past years, algorithms for 3D shape tracking using radial functions in spherical coordinates represented with different methods have been proposed. However, we have seen that mainly measurements from the lateral surface of the target can be expected in a lot of dynamic scenarios and only few measurements from the top and bottom parts leading to an error-prone shape estimate in the top and bottom regions when using a representation in spherical coordinates. We, therefore, propose to represent the shape of the target using a radial function in cylindrical coordinates, as these only represent regions of the lateral surface, and no information from the top or bottom parts is needed. In this paper, we use a Fourier-Chebyshev double series for 3D shape representation since a mixture of Fourier and Chebyshev series is a suitable basis for expanding a radial function in cylindrical coordinates. We investigate the method in a simulated and real-world maritime scenario with a CAD model of the target boat as a reference. We have found that shape representation in cylindrical coordinates has decisive advantages compared to a shape representation in spherical coordinates and should preferably be used if no prior knowledge of the measurement distribution on the surface of the target is available.
Modelle der Bau- und Immobilienwirtschaft, des Architekturbüros und der Planungsdienstleistung
(2011)
Die Arbeit ist eine strukturelle Analyse dessen, was Architektur außerhalb der Sphäre des Diskurses innerhalb der Baukultur oder der Bautechnik ist. Sie beschreibt die flüchtigen Teile der Architektenleistung, welche sich nicht in den Werken manifestieren, anhand von sozialen Prozessen, ökonomischen Abhängigkeiten und der Kombination von Leistungsfaktoren zu Leistungsbündeln. Hierzu wird die Bauwirtschaft, das Architekturbüro und das Wesen der Leistung beschrieben und analysiert sowie anhand von drei Modellen strukturell abgebildet und exemplarisch angewendet. Die Arbeit unterbreitet abschließend Vorschläge für eine Weiterentwicklung der Lehre in diesem Bereich.
Towards an integrated theory of economic governance – Conclusions from the governance of ethics
(2004)
Structural interventions of the Commission comprise expenditures for objective 1, objective 2 and objective 3. The three priority objectives of the Structural Funds are: • promoting the development and structural adjustment of the regions whose development is lagging behind (objective 1); • supporting the economic and social conversion of areas facing structural difficulties (objective 2); • supporting the adaptation and modernisation of policies and systems of education, training and employment. (objective 3). The purpose of this study is to quantify the economic impacts of objective 1 interventions of the Structural Funds for the period 2000 – 2006. The expenditures of the Structural Funds for objective 2 and objective 3, the Cohesion Fund, the Instrument for Structural Policies for Pre-accession (ISPA) and loans which are granted by the European Investment Bank (EIB) are not included in the analysis. The study quantifies how much of expected development can be attributed to objective 1 expenditures for • Community interventions (Structural Funds), • public interventions (Structural Funds, national public interventions) and • total interventions (Structural Funds, national public interventions, private participation). The study uses the autumn 2001 forecast and medium-term projection of Directorate-General for Economic and Financial Affairs of the European Commission in order to calculate a baseline for the impact assessment. Today, the forecast itself seems rather optimistic. However, this does not cause problems for the analysis in this report, because the objective is to estimate the impact of the structural funds. In other words the objective is to estimate, for example, the additional growth caused by the structural funds and not to forecast growth as such. Therefore, whether the forecast as such will materialise is of no consequence for the impact analysis in this study.
For decades now, exports and import have grown more rapidly than domestic production. This is a strong indication that, besides the rapid growth of foreign trade in final goods, trade in intermediates is becoming increasingly important. For this reason, an input-output ap-proach is more appropriate for any analysis of diversification than a traditional approach based purely on macroeconomic data.
This article analyses economic diversification in Gulf Cooperation Council (GCC) countries using data from input-output tables which are an integral part of the national accounts. We compare the performance of the GCC economies with that of a reference case, Norway, which is considered to have successfully diversified its economy despite having a large oil resource base. It also assesses these countries’ relative progress on sustainable development using a measure of the World Bank, adjusted net savings, which evaluates the true rate of savings in an economy after accounting for investments in physical and human capital, de-pletion of natural resources, and damage from environmental pollution.
The article concludes that GCC countries have, contrary to expectation, collectively per-formed relatively well on diversification, but their performance on sustainable development varies.
The main objective of this paper is to revisit Temursho’s (2020) article “On the Euro method” in a critical and constructive way. We have praised part of his work and at the same time, we have analysed some of his arguments against the Euro method and against the work published by Valderas-Jaramillo et al. (2019). Moreover, we have analysed some other relevant aspects of the SUT-Euro and SUT-RAS methods not covered in Temursho (2020). Temursho (2020) seems to conclude that no one should use the Euro method again because of its limitations and drawbacks. However, although not being the Euro method perfect, we are afraid that there is still space for the use of the Euro method in updating/regionalizing supply and use tables.
Durch die Verkürzung der Produktlebenszyklen und die damit verbundene steigende Anzahl hochkomplexer Produktneuanläufe wird dem Anlaufmanagement künftig eine wachsende Bedeutung zuteil. Diese Aussage wird durch die steigende Anzahl an Aufsätzen und diversen Monographien zu diesem Themenkomplex bestätigt. Die zeit- und kostensensible Anlaufphase hat bedeutenden Einfluss auf die Produktivität, Produktrendite und somit auf den Markterfolg eines Unternehmens. Die Beherrschung reibungsloser Serienanläufe wird zum Tagesgeschäft und avanciert um entscheidenden Wettbewerbsvorteil. Gleichzeitig ist sie Prämisse um sich auch künftig an den hochdynamischen und globalen Märkten behaupten zu können. Entgegen den ausgereiften Konzepten, Methoden und Theorien zur Produktionsplanung und -steuerung in der Serie birgt das zielgerichtete Management von Serienanläufen noch enorme Verbesserungspotentiale. Verschiedene Handlungsfelder greifen ineinander, werden von Normen und Kundenforderungen beeinflusst und müssen integriert betrachtet werden. Dieses Buch soll einen Überblick über die Handlungsfelder des Anlaufmanagements sowie den Einfluss von Normen und Kundenanforderungen geben. Darüber hinaus soll die zentrale Bedeutung des Anlaufmanagements durch eine Umfrage bei OEM, 1st- und 2nd-Tier-Lieferanten bestätigt werden. Des weiteren werden Methoden und Werkzeuge vorgestellt, die bei der Einführung des Anlaufmanagements in einem Unternehmen der Automobilzulieferindustrie entwickelt wurden.
Scrum und die IEC 62304
(2013)
The transformation to an Industry 4.0, which is in general seen as a solution to increasing market challenges, is forcing companies to radically change their way of thinking and to be open to new forms of cooperation. In this context, the opening-up of the innovation process is widely seen as a necessity to meet these challenges, especially for small and medium enterprises (SMEs). The aim of the study therefore is to analyze how cooperation today can be characterized, how this character has changed since the establishment of the term Industry 4.0 at Hanover Fair in 2011 and which cooperation strategies have proven successful. The analysis consists of a quantitative, secondary data analysis that includes country-specific data from 35 European countries of 2010 and 2016 collected by the European Commission and the OECD. The research, focusing on the secondary sector, shows that multinational enterprises MNEs still tend to cooperate more than SMEs, with a slight overall trend towards protectionism. Nevertheless, there is a clear tendency towards the opening-up of SMEs. In this regard, especially universities, competitors and suppliers have become increasingly attractive as cooperation partners for SMEs.
Sleep is extremely important for physical and mental health. Although polysomnography is an established approach in sleep analysis, it is quite intrusive and expensive. Consequently, developing a non-invasive and non-intrusive home sleep monitoring system with minimal influence on patients, that can reliably and accurately measure cardiorespiratory parameters, is of great interest. The aim of this study is to validate a non-invasive and unobtrusive cardiorespiratory parameter monitoring system based on an accelerometer sensor. This system includes a special holder to install the system under the bed mattress. The additional aim is to determine the optimum relative system position (in relation to the subject) at which the most accurate and precise values of measured parameters could be achieved. The data were collected from 23 subjects (13 males and 10 females). The obtained ballistocardiogram signal was sequentially processed using a sixth-order Butterworth bandpass filter and a moving average filter. As a result, an average error (compared to reference values) of 2.24 beats per minute for heart rate and 1.52 breaths per minute for respiratory rate was achieved, regardless of the subject’s sleep position. For males and females, the errors were 2.28 bpm and 2.19 bpm for heart rate and 1.41 rpm and 1.30 rpm for respiratory rate. We determined that placing the sensor and system at chest level is the preferred configuration for cardiorespiratory measurement. Further studies of the system’s performance in larger groups of subjects are required, despite the promising results of the current tests in healthy subjects.
Sleep is essential to physical and mental health. However, the traditional approach to sleep analysis—polysomnography (PSG)—is intrusive and expensive. Therefore, there is great interest in the development of non-contact, non-invasive, and non-intrusive sleep monitoring systems and technologies that can reliably and accurately measure cardiorespiratory parameters with minimal impact on the patient. This has led to the development of other relevant approaches, which are characterised, for example, by the fact that they allow greater freedom of movement and do not require direct contact with the body, i.e., they are non-contact. This systematic review discusses the relevant methods and technologies for non-contact monitoring of cardiorespiratory activity during sleep. Taking into account the current state of the art in non-intrusive technologies, we can identify the methods of non-intrusive monitoring of cardiac and respiratory activity, the technologies and types of sensors used, and the possible physiological parameters available for analysis. To do this, we conducted a literature review and summarised current research on the use of non-contact technologies for non-intrusive monitoring of cardiac and respiratory activity. The inclusion and exclusion criteria for the selection of publications were established prior to the start of the search. Publications were assessed using one main question and several specific questions. We obtained 3774 unique articles from four literature databases (Web of Science, IEEE Xplore, PubMed, and Scopus) and checked them for relevance, resulting in 54 articles that were analysed in a structured way using terminology. The result was 15 different types of sensors and devices (e.g., radar, temperature sensors, motion sensors, cameras) that can be installed in hospital wards and departments or in the environment. The ability to detect heart rate, respiratory rate, and sleep disorders such as apnoea was among the characteristics examined to investigate the overall effectiveness of the systems and technologies considered for cardiorespiratory monitoring. In addition, the advantages and disadvantages of the considered systems and technologies were identified by answering the identified research questions. The results obtained allow us to determine the current trends and the vector of development of medical technologies in sleep medicine for future researchers and research.
Botswana serves as a role model for other African countries due to its rapid development in recent decades. Since the country is sparsely populated and a large part of the rural population depends on agriculture, especially livestock, this sector forms the backbone of the national economy. The digitization of this sector offers promising opportunities for economic growth and driving Botswana's evolution to a digital economy, while real value is being created for smallholder farmers. To support this process, an ITU research project made the key recommendation for the development of a digital crowdfarming tool and marketplace to create a digital ecosystem for smallholder agriculture. Within the research project, infrastructural challenges such as the creation of rural electricity supply and internet access, as well as the smallholders' need for remote monitoring, management, and better connectivity, were identified.
Based on the findings of the ITU research report, this bachelor's thesis aims to identify potential innovations for the digital development of smallholder agriculture in Botswana and to conceptualize proposals to address the identified challenges and needs of smallholder farmers. To achieve this, solutions were developed through literature research, technology analysis and expert involvement. These included the design of a decentralized mini-grid for power supply, proposals to create internet access, and the graphic visualization of a conceptual app. The latter addresses smallholder farmers' needs for remote monitoring, market access, knowledge enhancement, and connection to colleagues, buyers, and investors.
The proposed solutions and developed concepts provide impulses for further research and can serve as a basis for an extended evaluation through further involvement of experts and stakeholders.
Global agriculture will face major challenges in the future. In addition to the increasing demand for food due to constant population growth, the consequences of climate change will make it even more difficult to operate agriculture and supply people with food. In addition to further productivity increases in traditional agriculture, new concepts for sustainable and scalable food production are needed. Vertical farming offers a promising approach.
The aim of this project is to demonstrate how vertical farming can be used to ensure sustainable food production and how this concept can be applied in the pioneering Maun Science Park project in Botswana. In doing so, the Maun Science Park will address future challenges such as demographics, governance and climate change and become a best practice model for Botswana, the whole of Africa and the world. The country of Botswana grew to become one of the most prosperous countries in Africa in recent decades due to strong economic growth from mining. However, the population faces great challenges in the future; in addition to great social inequality, climate change threatens the country's overall supply.
With the help of a literature review and qualitative and quantitative interviews with stakeholders from Maun (Botswana), the potentials and challenges for vertical farming in Botswana could be identified and future measures for a possible realization could be derived. Basically, some challenges in Botswana are addressed by the technology, for example, Vertical Farming offers high food security through year-round production of food through the closed ecosystem and creates independence from current and future climatic conditions, poor conditions for traditional agriculture (e.g. infertile soils) and foreign imports. However, the main structural problems of agriculture in Botswana, such as the lack of infrastructure, know-how and policy support, are not addressed.
Salem baut Neu-Birnau
(2012)
Projekte aus dem Hochbau, wie z.B. Schulgebäude sind eine klassische Aufgabe der Tragwerksplanung. Dabei steht eine Vielzahl an unterschiedlichen Bauweisen zur Verfügung. Vor dem Hintergrund der Klimakrise und den damit verbundenen Klimaschutzzielen von Paris besteht akuter Handlungsbedarf in allen Bereichen des Lebens, besonders aber im Bausektor, welcher maßgeblich zu den gesamten Treibhausgasemissionen beiträgt. Deshalb wird momentan vermehrt auf Lösungen in Holzbauweise zurückgegriffen. Neben der Gründung nehmen die Geschossdecken den größten Anteil an den Umweltwirkungen ein. Dieser Anteil steigt mit zunehmender Deckenfläche an. Dadurch besteht ein großes Potenzial bei der Verringerung der Treibhausgasemissionen durch geeignete Auswahl des Deckensystems und Optimierung der Tragstruktur.
In Diskussionen über den Klimawandel wird oft eine nachhaltige Entwicklung thematisiert. Für den Vergleich wurde eine Optimierung durchgeführt zur Beurteilung des CO2-Einsparpotenziales. Um alle Aspekte der Nachhaltigkeit zu erfüllen, wurden die gefundenen Varianten auf Basis gängiger Zertifizierungssysteme für Nachhaltigkeit bewertet. Jede Variante erfüllt dabei die Anforderungen an maximale Spannungen und Verformungen. Durch die Optimierung und den folgenden Vergleich wurde das Optimierungspotenzial verdeutlicht. Gleichzeitig entstehen teilweise nutzungsbedingte Konflikte aus der Optimierung und Anforderungen aus dem Schallschutz.