Refine
Year of publication
Document Type
- Report (103)
- Working Paper (88)
- Journal (Complete Issue of a Journal) (84)
- Master's Thesis (76)
- Article (71)
- Book (49)
- Bachelor Thesis (44)
- Conference Proceeding (34)
- Study Thesis (8)
- Other Publications (7)
Language
- German (446)
- English (137)
- Multiple languages (1)
Has Fulltext
- yes (584) (remove)
Keywords
- .NET Remoting (1)
- .NET-Plattform (1)
- 1D-CNN (1)
- 2 D environment Laser data (1)
- 3D Extended Object Tracking (1)
- 3D shape tracking (1)
- 3D-Druck (1)
- 5-10-40-Bedingung (1)
- ADO.NET (1)
- ASP.NET (1)
Institute
- Fakultät Architektur und Gestaltung (27)
- Fakultät Bauingenieurwesen (77)
- Fakultät Elektrotechnik und Informationstechnik (23)
- Fakultät Informatik (59)
- Fakultät Maschinenbau (33)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (40)
- Institut für Angewandte Forschung - IAF (44)
- Institut für Naturwissenschaften und Mathematik - INM (2)
- Institut für Optische Systeme - IOS (13)
- Institut für Strategische Innovation und Technologiemanagement - IST (2)
Further applications of the Cauchon algorithm to rank determination and bidiagonal factorization
(2018)
For a class of matrices connected with Cauchon diagrams, Cauchon matrices, and the Cauchon algorithm, a method for determining the rank, and for checking a set of consecutive row (or column) vectors for linear independence is presented. Cauchon diagrams are also linked to the elementary bidiagonal factorization of a matrix and to certain types of rank conditions associated with submatrices called descending rank conditions.
The class of square matrices of order n having a negative determinant and all their minors up to order n-1 nonnegative is considered. A characterization of these matrices is presented which provides an easy test based on the Cauchon algorithm for their recognition. Furthermore, the maximum allowable perturbation of the entry in position (2,2) such that the perturbed matrix remains in this class is given. Finally, it is shown that all matrices lying between two matrices of this class with respect to the checkerboard ordering are contained in this class, too.
In 1970, B.A. Asner, Jr., proved that for a real quasi-stable polynomial, i.e., a polynomial whose zeros lie in the closed left half-plane of the complex plane, its finite Hurwitz matrix is totally nonnegative, i.e., all its minors are nonnegative, and that the converse statement is not true. In this work, we explain this phenomenon in detail, and provide necessary and sufficient conditions for a real polynomial to have a totally nonnegative finite Hurwitz matrix.
Entwicklung eines Software-Systems für die Qualitätssicherung von Oberflächen im Automobilbau
(2003)
Heutzutage nimmt die Qualitätssicherung der Produkte bei immer mehr Betrieben einen zunehmend hohen Stellenwert ein. Auch in der Automobilindustrie gelten mittlerweile hohe Qualitätsrichtlinien. Damit der Qualitätsstandard aber auch gewährleistet werden kann, muss die Qualität des Produkts ständig gemessen und beurteilt werden. Um die manuelle Prüfung der Pressteile zu unterstützen wurde in den letzten Jahren bei VW/Audi do Brasil – BUC das Oberflächen-Inspektions-System DSight eingesetzt. Leider haben jedoch zahlreiche Messungen mit DSight ergeben, dass die Ergebnisse unzuverlässig und nicht reproduzierbar sind. Aus diesem Grund wurde im Rahmen dieser Diplomarbeit ein neues Software-System zur Inspektion von Oberflächen im Automobilbau entwickelt, das die Anforderungen der Qualitätssicherung besser erfüllt. Das neue System, das den Namen VisionMaster trägt, basiert auf dem Prinzip der Retro-Reflexion. Mit Hilfe implementierter Auswertungsalgorithmen werden aufgenommene Grauwertbilder der gepressten Teile analysiert. Die Ergebnisse der Inspektion werden anschließend in übersichtlicher Form in einem Protokoll ausgegeben. Um die Reproduzierbarkeit der Messungen zu garantieren und die Messergebnisse archivieren zu können, wird zusätzlich eine Datenbank eingesetzt, auf die über die ADO-Technologie zugegriffen wird. Zur Beschleunigung der Inspektion wir das neue System VisionMaster direkt in die Produktionshalle verlagert, um dort vor Ort Messungen an den gepressten Teilen durchführen zu können.
Im Rahmen der Lehrveranstaltung "Nachhaltigkeit im industriellen Umfeld" im Masterstudiengang Umwelt- und Verfahrenstechnik der Hochschulen Konstanz und Ravensburg-Weingarten wurde 2015 eine studentische Fachkonferenz durchgeführt.
Die Studierenden entwickelten in Einzelarbeit oder als Zweierteam Konferenzbeiträge zu folgenden Themen:
- Innovationen und Spannendes aus dem Bereich der Energieerzeugung und -wandlung
- Aspekte der Schließung von Stoffkreisläufen und Vermeidung von Schadstoffeinträgen in die Umwelt
- Chancen und Herausforderungen Nachwachsender Rohstoffe bei verschiedenen Einsatzmöglichkeiten sowie Themen der Nachhaltigkeit in der Landwirtschaft
- verschiedene Blickwinkel auf das Thema Wasser (von der Abwasserreinigung bis zum Wasserkonsum der Konsumenten)
- die Betrachtung spezifischer Industrien und Unternehmen sowie deren Werkzeuge zur Umsetzung von Nachhaltigkeit
Die Ergebnisse der studentischen Fachkonferenz zur „Nachhaltigkeit im industriellen Umfeld“ werden in der vorliegenden Publikation präsentiert.
Positive systems play an important role in systems and control theory and have found applications in multiagent systems, neural networks, systems biology, and more. Positive systems map the nonnegative orthant to itself (and also the non-positive orthant to itself). In other words, they map the set of vectors with zero sign variation to itself. In this article, discrete-time linear systems that map the set of vectors with up to k-1 sign variations to itself are introduced. For the special case k = 1 these reduce to discrete-time positive linear systems. Properties of these systems are analyzed using tools from the theory of sign-regular matrices. In particular, it is shown that almost every solution of such systems converges to the set of vectors with up to k-1 sign variations. It is also shown that these systems induce a positive dynamics of k-dimensional parallelotopes.
Forecasting is crucial for both system planning and operations in the energy sector. With increasing penetration of renewable energy sources, increasing fluctuations in the power generation need to be taken into account. Probabilistic load forecasting is a young, but emerging research topic focusing on the prediction of future uncertainties. However, the majority of publications so far focus on techniques like quantile regression, ensemble, or scenario-based methods, which generate discrete quantiles or sets of possible load curves. The conditioned probability distribution remains unknown and can only be estimated when the output is post-processed using a statistical method like kernel density estimation.
Instead, the proposed probabilistic deep learning model uses a cascade of transformation functions, known as normalizing flow, to model the conditioned density function from a smart meter dataset containing electricity demand information for over 4,000 buildings in Ireland. Since the whole probability density function is tractable, the parameters of the model can be obtained by minimizing the negative loglikelihood through the state of the art gradient descent. This leads to the model with the best representation of the data distribution.
Two different deep learning models have been compared, a simple three-layer fully connected neural network and a more advanced convolutional neural network for sequential data processing inspired by the WaveNet architecture. These models have been used to parametrize three different probabilistic models, a simple normal distribution, a Gaussian mixture model, and the normalizing flow model. The prediction horizon is set to one day with a resolution of 30 minutes, hence the models predict 48 conditioned probability distributions.
The normalizing flow model outperforms the two other variants for both architectures and proves its ability to capture the complex structures and dependencies causing the variations in the data. Understanding the stochastic nature of the task in such detail makes the methodology applicable for other use cases apart from forecasting. It is shown how it can be used to detect anomalies in the power grid or generate synthetic scenarios for grid planning.
Probabilistic Short-Term Low-Voltage Load Forecasting using Bernstein-Polynomial Normalizing Flows
(2021)
The transition to a fully renewable energy grid requires better forecasting of demand at the low-voltage level. However, high fluctuations and increasing electrification cause huge forecast errors with traditional point estimates. Probabilistic load forecasts take future uncertainties into account and thus enables various applications in low-carbon energy systems. We propose an approach for flexible conditional density forecasting of short-term load based on Bernstein-Polynomial Normalizing Flows where a neural network controls the parameters of the flow. In an empirical study with 363 smart meter customers, our density predictions compare favorably against Gaussian and Gaussian mixture densities and also outperform a non-parametric approach based on the pinball loss for 24h-ahead load forecasting for two different neural network architectures.
Der Inhalt dieser Arbeit befasst sich mit der Verwendung von regionalen Ressourcen in Form von Erde. Diese soll als Baumaterial unter Anwendung der Stampflehmbauweise für
ökologischeres Bauen dienen. Damit der Baustoff den Ansprüchen heutiger Bauaufgaben gerecht wird, wird untersucht, mit welchen nachhaltigen Methoden die Erde stabilisiert werden kann. Darüber hinaus wird nach einem zukunftsweisenden Fertigungsverfahren
für den Stampflehmbau gesucht. Die Nutzung und Kombination dieser Aspekte bezeichnen wir als Erdbau 4.0, welcher unter anderem für das Maun Sciene Park Projekt in Botswana infrage kommen könnte.
Creatio ex nihilo
(2015)
Von Kommunikationsdesignern wird erwartet, dass sie kreativ sind. Es wird von ihnen gefordert, dass sie Ideen haben, die innovativ, neu und originell wirken. Diese Anforderung bekommen Gestalter schon früh in ihrer Ausbildung zu spüren. Die Frage, die sich diese Arbeit stellt, ist: Kann dieses Ziel überhaupt erreicht werden? Oder ist das Verfolgen von Originalität nur eine Illusion? Oder gar ein Mythos? Wie schon Picasso anmerkte: »Kunst ist Diebstahl.« Wenn nichts Neues geschaffen werden kann, müssen wir einen Weg finden, Bestehendes so zu verändern, dass das Ergebnis mehr ist als die Summe der Einzelteile. Der Diebstahl bestehender kreativer Leistung wäre somit Teil unseres Berufsfelds und sollte auch in der Designerausbildung eine wichtige Rolle spielen. Ich stelle mich mit dieser Arbeit dem Mythos der Originalität, dem Glauben an eine »creatio ex nihilo«, und beschäftige mich mit dessen Einfluss auf den Designprozess und den möglichen Auswirkungen auf die Ausbildung junger Gestalter.
Der Begriff der Originalität wird heute sehr unkontrolliert verwendet. Mittels einer quantitativen Inhaltsanalyse, Experteninterviews sowie Telefongesprächen wurde der Begriff deshalb hinterfragt und anders definiert. Die Auswirkungen auf den Designprozess wurden mittels eines Experiments mit Studierenden der Studiengänge
Kommunikationsdesign ermittelt. Dabei mussten die Probanden unter dem Druck einer originellen Idee gestalten. Die Lösungen wurden anschließend in einer Online-Umfrage von mehreren Personen subjektiv bewertet. Alle gesammelten Inhalte finden sich wieder in sechs Kapiteln zum Mythos der Originalität im Kommunikationsdesign (Teil A) und einer Forschungsdokumentation (Teil B).
Die Frage „Wozu braucht man das?“ vonseiten der Studierenden oder Aussagen wie „Das habe ich im Beruf später nie mehr benötigt.“ von ehemaligen Studierenden ist den meisten Mathematikdozierenden sehr vertraut. Im Projekt BiLeSA wird dem Wunsch nach Integration von Praxisnähe im Mathematikunterricht mithilfe einer Smartphone-App, welche ausgewählte Themen in der Mathematik anhand von digitalen Bildern sichtbar macht, umgesetzt. Bei den ausgewählten Themen handelt es sich um (affin) lineare Abbildungen, Ableitungen in höheren Raumdimensionen und Potenzen von Komplexen Zahlen. Die Konzeptionierung des Lernobjekts erfolgte mit dem Design Based Research (DBR) Ansatz, welches im Basisprojekt des IBH-Labs „Seamless Learning“ konzipiert und entwickelt wurde.
Wer schon einmal dicht gedrängt vor der Konzertbühne stand kann sich die aussichtslose Lage, wenn die Stimmung kippt und Panik aufkommt, gut vorstellen. Es ist sehr wichtig, Räume und Events, die zeitweise von sehr vielen Menschen aufgesucht werden, so zu gestalten und zu planen, dass maximale Sicherheit gewährleistet ist. Damit eine öffentliche Veranstaltung reibungslos verläuft ist eine gründliche Planung, also ein qualitativ hochwertiges Crowd Management unabdingbar.
Im diesem Beitrag geht es darum zu zeigen, dass die spezifisch ethische Dimension der Go-vernanceethik als kohärentistische Ethikauffassung gedeutet - und begründungstheoretisch unterfüttert - werden kann. Mein Blick richtet sich also vor allem auf die Frage, wie ethisches Nachdenken kohärentistisch konzeptualisiert werden kann und, im zweiten Schritt, in welchem Sinne es m.E. eine strukturelle Parallele bzw. Anschlussfähigkeit von Kohärentismus und Governanceethik gibt. Es geht also im Folgenden weder darum, die Governanceethik als bereichsspezifische wirtschafts- und unternehmensethische Theorie zu untersuchen noch darum, bestimmte Referenzpunkte des Wielandschen Governanceethik-Modells1 wie z.B. ihre systemtheoretischen Prämissen zu diskutieren. Beginnen werde ich mit einer Bestimmung ethischen Nachdenkens als einer Orientierungsreflexion, die nicht letzte Prinzipien begründen, sondern vernünftige Selbstorientierung moralischer Akteure ermöglichen soll. Vor diesem Hintergrund wird das Theoriemodell des ethischen Kohärentismus entfaltet, um abschließend zu zeigen, dass dieses wesentliche Prämissen hinsichtlich der Auffassung über die Funktion ethischen Nachdenkens mit der Governanceethik teilt.
Non-volatile NAND flash memories store information as an electrical charge. Different read reference voltages are applied to read the data. However, the threshold voltage distributions vary due to aging effects like program erase cycling and data retention time. It is necessary to adapt the read reference voltages for different life-cycle conditions to minimize the error probability during readout. In the past, methods based on pilot data or high-resolution threshold voltage histograms were proposed to estimate the changes in voltage distributions. In this work, we propose a machine learning approach with neural networks to estimate the read reference voltages. The proposed method utilizes sparse histogram data for the threshold voltage distributions. For reading the information from triple-level cell (TLC) memories, several read reference voltages are applied in sequence. We consider two histogram resolutions. The simplest histogram consists of the zero-and-one ratios for the hard decision read operation, whereas a higher resolution is obtained by considering the quantization levels for soft-input decoding. This approach does not require pilot data for the voltage adaptation. Furthermore, only a few measurements of extreme points of the threshold voltage distributions are required as training data. Measurements with different conditions verify the proposed approach. The resulting neural networks perform well under other life-cycle conditions.
The growing error rates of triple-level cell (TLC) and quadruple-level cell (QLC) NAND flash memories have led to the application of error correction coding with soft-input decoding techniques in flash-based storage systems. Typically, flash memory is organized in pages where the individual bits per cell are assigned to different pages and different codewords of the error-correcting code. This page-wise encoding minimizes the read latency with hard-input decoding. To increase the decoding capability, soft-input decoding is used eventually due to the aging of the cells. This soft-decoding requires multiple read operations. Hence, the soft-read operations reduce the achievable throughput, and increase the read latency and power consumption. In this work, we investigate a different encoding and decoding approach that improves the error correction performance without increasing the number of reference voltages. We consider TLC and QLC flashes where all bits are jointly encoded using a Gray labeling. This cell-wise encoding improves the achievable channel capacity compared with independent page-wise encoding. Errors with cell-wise read operations typically result in a single erroneous bit per cell. We present a coding approach based on generalized concatenated codes that utilizes this property.
Mobile-Agenten erweitern die Möglichkeiten von verteilten Systemen dadurch, dass sie lauffähigen Code transportieren und diesen ausführen können. Sie können sich frei im Netzwerk bewegen, dort nach Informationen suchen und Aufgaben im Namen ihrer Auftraggeber ausführen. Viele Mobile-Agenten-Plattformen verwenden Java als Laufzeitumgebung, dadurch sind sie unabhängig vor dem darunter-liegenden Betriebssystem. Auf eine Unterstützung einer Anzeigegeräte-unabhängigen Benutzer-Agent-Interaktion wird aber meist nicht geachtet. Betrachtet man sich diese Anzeigegeräte mit den unterschiedlichen Eigenschaften in Display-Größe, Farbfähigkeit und Möglichkeiten für die Ein-und Ausgabe, besonders im Zusammenhang mit mobilen Geräten, z.B. Smartphpones und PDAs, ist es verständlich warum der Benutzer oft noch auf herkömmliche Geräte zur Interaktion angewiesen ist. Der Fokus dieser Diplomarbeit lag auf der Entwicklung eines Frameworks, das graphische Java-Benutzerschnittstellen in einem geräteunabhängigen XML-Format beschreibt und daraus ein geräteabhängiges Format erzeugt. Ein besonderes Augenmerk lag dabei in der einfachen Erweiterbarkeit des Frameworks, um zukünftige Ausgabeformate zu unterstützen, weswegen die Technik XSLT zum Einsatz kam. Nach dem Übermitteln der GUI-Daten werden über einen Rückkanal die Benutzerinteraktionen wieder dem Framewok zugeführt. Da die meisten mobilen Geräte einen Webbrowser integriert haben, eignen sich die Markup-Sprachen HTML oder WML besonders gut als Ausgabeformate für diese Geräte. Das Framework erlaubt darüberhinaus sowohl die lokale als auch die entfernte Interaktion mit den Software-Agenten. Sowohl für den Transport der GUI-Daten als auch für die Interaktion mit Agenten verwendet das Framework die Sicherheitsmechanismen der Agenten-Plattform SeMoA (Secure Mobile Agents). Das vorgestellte Framework lässt sich in SeMoA einfach integrieren und gestattet die individuelle Konfiguration der Interaktionsmethode mit einem Agenten.
»San Gramadón« ist ein spanisches Grammatik-Nachschlagewerk für deutsche Muttersprachler. Sie versucht den autonomen Lerner interaktiv miteinzubeziehen. Die grammatischen Inhalte werden auf spielerische Weise interessant und motivierend vermittelt. Im Zentrum stehen dabei Visualisierungen und Interaktionsmöglichkeiten mittels Pop-ups. Auf diese Weise schaut sich der Lerner die Erklärungen nicht nur an, sondern wird selber aktiv – dreht, schiebt, zieht, klappt auf – und kann die Inhalte so besser verstehen und einprägen. Als Metapher für das Grammatik-Nachschlagewerk dient die Stadt. Sich in einer fremden Sprache zurechtzufinden ist wie in eine unbekannte Stadt zu kommen. Es braucht ein Orientierungssystem. In der Sprache ist dies die Grammatik, in der Stadt der Stadt- oder beispielsweise der Metroplan. So ist das Nachschlagewerk wie ein Metronetz aufgebaut, in dem jedes grammatikalische Thema eine Haltestelle symbolisiert. Der Lerner kann frei navigieren. Es gibt keine vorgesehene Abfolge, sondern er kann, wie in einer Stadt, selber entscheiden, wann er welchen Stadtteil besichtigen bzw. welche Regel er bearbeiten will. Die kleinen Lerneinheiten befinden sich auf Karteikarten, den sogenannten Haltestellen, die wiederum in einer Kartei-Box Platz finden.
Thema der Masterarbeit ist die Zukunft des Generalunternehmers. Auf Grund verschiedener Entwicklungen in den letzten Monaten und Jahren, wie zum Beispiel dem Auflösen der Generalunternehmungssparte des Schweizer Pioniers Steiner AG, stellt sich in der Baubranche die Frage, ob das Modell des GU zukunftsfähig ist oder ob in nächster Zeit ein disruptiver Prozess Einzug erhalten könnte.
Das primäre Ziel der Arbeit ist es, herauszufinden, ob für das Geschäftsmodell des Generalunternehmers bereits oder zukünftig eine Bedrohung besteht. Dabei wird die vergangene, derzeitige und zu-künftige Lage der Baubranche analysiert. Eine Rolle spielen dabei die betrieblichen Triebkräfte, Marktanalysen und Trends. Weiterhin sollen verschiedene Trends und Innovationen in der Baubranche er-mittelt, sowie den hieraus entstehenden Einfluss für den Generalunternehmer abgeschätzt werden. Zusätzlich soll ein Analysetool entworfen werden, mit Hilfe dessen man in Zukunft schnell, einheitlich und verlässlich Trends und Innovationen analysieren und bewerten kann.
Zuerst wird das Geschäftsmodell des Generalunternehmers erläutert. Hierbei wird unter anderem die Wertschöpfung des Generalunternehmers behandelt. Danach werden die Five Forces nach Porter betrachtet. Weiterhin wird die Rolle der Unternehmenskultur hinsichtlich ihres Einflusses auf den Betriebserfolg untersucht. Im darauffolgenden Kapitel geht es um die vergangene, derzeitige und kurzfristige Entwicklung der Baubranche in Europa. Im abschließenden Kapitel werden verschiedene Trends, die das Generalunternehmer Modell betreffen, ermittelt. Zu guter Letzt wird aufgezeigt, wie wichtig Trendanalysen für die langfristige Zukunft von Generalunternehmern sind. Außerdem wird ein Analysetool erstellt und an den Trends BIM und Nachhaltigkeit angewendet.
Das Ergebnis der Masterarbeit zeigt, dass das Modell des Generalunternehmers im Vergleich zur über-geordneten Branche derzeit nicht wesentlicher bedroht ist. Der stetige Zuwachs der Inanspruchnahme von Dienstleistungen und der steigende Fachkräftemangel in der ganzen Baubranche sind Indikatoren, die die Attraktivität des GU Modells auf dem Markt anheben. Termin- Kosten- und Qualitätsrisiken liegen beim GU aufgrund des Fachkräftemangels und steigender Materialpreise in der Baubranche. Die Digitalisierungstrends bieten für die Baubranche und somit auch für den GU neue Möglichkeiten für produktivere Projektabwicklungen. Sie dienen damit mehr als Werkzeug denn als Ersatz für das GU Modell. Die Lieferengpässe und die Bauteuerungen beeinträchtigen derzeitige und zukünftige Projekte branchenübergreifend. Abhilfe könnte hier die Mietung von Hallen bzw. Lagerflächen leisten, um das Material frühzeitig zu bestellen und zu lagern. Einzig neue Vertragsgestaltungen, wie sie zum Teil schon in England, Australien und den USA angewendet werden, können eine Bedrohung für das GU-Modell darstellen. Da in diesen Verträgen eine Kernkompetenz des GU, die Koordination zwischen den Ge-werken, durch die Kooperation zwischen den Gewerken, bedroht wird. Jedoch sträuben sich bislang die Planer und die Bauherren dagegen. Der Baubranche werden allgemein stabile Prognosen mit leichtem Umsatzplus zugesagt. Aus Sicht des Marktes besteht somit vorerst keine Gefahr für das GU Modell. Um den Einfluss von Trends und Entwicklungen auf das GU Modell anhand verschiedener Indikatoren einschätzen zu können, wurde ein Analysetool entwickelt, damit auch zukünftig der Einfluss von Neuerungen auf den GU Markt abgeleitet werden kann. Bei der Analyse der Trends spielt vor allem die Beschaffung von verlässlichen Informationen eine tragende Rolle. Die Einsatzgebiete von Trendanalysen sind in einem Unternehmen sehr vielfältig. Das Ergebnis der untersuchten Trends BIM und Nachhaltigkeit hat ergeben, dass diese eher Chancen anstatt Risiken für die Baubranche und somit auch für das GU Modell darstellen. Die allgemeine Umfrage zur Bedrohung des Geschäftsmodells GU hat ergeben, dass aus Sicht der Probanden eine mittlere Bedrohung vorliegt. Umfragewerte sind hinsichtlich ihrer Subjektivität und der aktuellen durch Krisen bestimmten Lage jedoch immer hinsichtlich Ihrer Aussagekraft in Kontext zu setzen.
In the field of autonomously driving vehicles the environment perception containing dynamic objects like other road users is essential. Especially, detecting other vehicles in the road traffic using sensor data is of utmost importance. As the sensor data and the applied system model for the objects of interest are noise corrupted, a filter algorithm must be used to track moving objects. Using LIDAR sensors one object gives rise to more than one measurement per time step and is therefore called extended object. This allows to jointly estimate the objects, position, as well as its orientation, extension and shape. Estimating an arbitrary shaped object comes with a higher computational effort than estimating the shape of an object that can be approximated using a basic geometrical shape like an ellipse or a rectangle. In the case of a vehicle, assuming a rectangular shape is an accurate assumption.
A recently developed approach models the contour of a vehicle as periodic B-spline function. This representation is an easy to use tool, as the contour can be specified by some basis points in Cartesian coordinates. Also rotating, scaling and moving the contour is easy to handle using a spline contour. This contour model can be used to develop a measurement model for extended objects, that can be integrated into a tracking filter. Another approach modeling the shape of a vehicle is the so-called bounding box that represents the shape as rectangle.
In this thesis the basics of single, multi and extended object tracking, as well as the basics of B-spline functions are addressed. Afterwards, the spline measurement model is established in detail and integrated into an extended Kalman filter to track a single extended object. An implementation of the resulting algorithm is compared with the rectangular shape estimator. The implementation of the rectangular shape estimator is provided. The comparison is done using long-term considerations with Monte Carlo simulations and by analyzing the results of a single run. Therefore, both algorithms are applied to the same measurements. The measurements are generated using an artificial LIDAR sensor in a simulation environment.
In a real-world tracking scenario detecting several extended objects and measurements that do not originate from a real object, named clutter measurements, is possible. Also, the sudden appearance and disappearance of an object is possible. A filter framework investigated in recent years that can handle tracking multiple objects in a cluttered environment is a random finite set based approach. The idea of random finite sets and its use in a tracking filter is recapped in this thesis. Afterwards, the spline measurement model is included in a multi extended object tracking framework. An implementation of the resulting filter is investigated in a long-term consideration using Monte Carlo simulations and by analyzing the results of a single run. The multi extended object filter is also applied to artificial LIDAR measurements generated in a simulation environment.
The results of comparing the spline based and rectangular based extended object trackers show a more stable performance of the spline extended object tracker. Also, some problems that have to be addressed in future works are discussed. The investigation of the resulting multi extended object tracker shows a successful integration of the spline measurement model in a multi extended object tracker. Also, with these results some problems remain, that have to be solved in future works.
In 3D extended object tracking (EOT), well-established models exist for tracking the object extent using various shape priors. A single update, however, has to be performed for every measurement using these models leading to a high computational runtime for high-resolution sensors. In this paper, we address this problem by using various model-independent downsampling schemes based on distance heuristics and random sampling as pre-processing before the update. We investigate the methods in a simulated and real-world tracking scenario using two different measurement models with measurements gathered from a LiDAR sensor. We found that there is a huge potential for speeding up 3D EOT by dropping up to 95\% of the measurements in our investigated scenarios when using random sampling. Since random sampling, however, can also result in a subset that does not represent the total set very well, leading to a poor tracking performance, there is still a high demand for further research.
In this paper, a novel measurement model based on spherical double Fourier series (DFS) for estimating the 3D shape of a target concurrently with its kinematic state is introduced. Here, the shape is represented as a star-convex radial function, decomposed as spherical DFS. In comparison to ordinary DFS, spherical DFS do not suffer from ambiguities at the poles. Details will be given in the paper. The shape representation is integrated into a Bayesian state estimator framework via a measurement equation. As range sensors only generate measurements from the target side facing the sensor, the shape representation is modified to enable application of shape symmetries during the estimation process. The model is analyzed in simulations and compared to a shape estimation procedure using spherical harmonics. Finally, shape estimation using spherical and ordinary DFS is compared to analyze the effect of the pole problem in extended object tracking (EOT) scenarios.
In the past years, algorithms for 3D shape tracking using radial functions in spherical coordinates represented with different methods have been proposed. However, we have seen that mainly measurements from the lateral surface of the target can be expected in a lot of dynamic scenarios and only few measurements from the top and bottom parts leading to an error-prone shape estimate in the top and bottom regions when using a representation in spherical coordinates. We, therefore, propose to represent the shape of the target using a radial function in cylindrical coordinates, as these only represent regions of the lateral surface, and no information from the top or bottom parts is needed. In this paper, we use a Fourier-Chebyshev double series for 3D shape representation since a mixture of Fourier and Chebyshev series is a suitable basis for expanding a radial function in cylindrical coordinates. We investigate the method in a simulated and real-world maritime scenario with a CAD model of the target boat as a reference. We have found that shape representation in cylindrical coordinates has decisive advantages compared to a shape representation in spherical coordinates and should preferably be used if no prior knowledge of the measurement distribution on the surface of the target is available.
Modelle der Bau- und Immobilienwirtschaft, des Architekturbüros und der Planungsdienstleistung
(2011)
Die Arbeit ist eine strukturelle Analyse dessen, was Architektur außerhalb der Sphäre des Diskurses innerhalb der Baukultur oder der Bautechnik ist. Sie beschreibt die flüchtigen Teile der Architektenleistung, welche sich nicht in den Werken manifestieren, anhand von sozialen Prozessen, ökonomischen Abhängigkeiten und der Kombination von Leistungsfaktoren zu Leistungsbündeln. Hierzu wird die Bauwirtschaft, das Architekturbüro und das Wesen der Leistung beschrieben und analysiert sowie anhand von drei Modellen strukturell abgebildet und exemplarisch angewendet. Die Arbeit unterbreitet abschließend Vorschläge für eine Weiterentwicklung der Lehre in diesem Bereich.
Towards an integrated theory of economic governance – Conclusions from the governance of ethics
(2004)
Structural interventions of the Commission comprise expenditures for objective 1, objective 2 and objective 3. The three priority objectives of the Structural Funds are: • promoting the development and structural adjustment of the regions whose development is lagging behind (objective 1); • supporting the economic and social conversion of areas facing structural difficulties (objective 2); • supporting the adaptation and modernisation of policies and systems of education, training and employment. (objective 3). The purpose of this study is to quantify the economic impacts of objective 1 interventions of the Structural Funds for the period 2000 – 2006. The expenditures of the Structural Funds for objective 2 and objective 3, the Cohesion Fund, the Instrument for Structural Policies for Pre-accession (ISPA) and loans which are granted by the European Investment Bank (EIB) are not included in the analysis. The study quantifies how much of expected development can be attributed to objective 1 expenditures for • Community interventions (Structural Funds), • public interventions (Structural Funds, national public interventions) and • total interventions (Structural Funds, national public interventions, private participation). The study uses the autumn 2001 forecast and medium-term projection of Directorate-General for Economic and Financial Affairs of the European Commission in order to calculate a baseline for the impact assessment. Today, the forecast itself seems rather optimistic. However, this does not cause problems for the analysis in this report, because the objective is to estimate the impact of the structural funds. In other words the objective is to estimate, for example, the additional growth caused by the structural funds and not to forecast growth as such. Therefore, whether the forecast as such will materialise is of no consequence for the impact analysis in this study.
For decades now, exports and import have grown more rapidly than domestic production. This is a strong indication that, besides the rapid growth of foreign trade in final goods, trade in intermediates is becoming increasingly important. For this reason, an input-output ap-proach is more appropriate for any analysis of diversification than a traditional approach based purely on macroeconomic data.
This article analyses economic diversification in Gulf Cooperation Council (GCC) countries using data from input-output tables which are an integral part of the national accounts. We compare the performance of the GCC economies with that of a reference case, Norway, which is considered to have successfully diversified its economy despite having a large oil resource base. It also assesses these countries’ relative progress on sustainable development using a measure of the World Bank, adjusted net savings, which evaluates the true rate of savings in an economy after accounting for investments in physical and human capital, de-pletion of natural resources, and damage from environmental pollution.
The article concludes that GCC countries have, contrary to expectation, collectively per-formed relatively well on diversification, but their performance on sustainable development varies.
The main objective of this paper is to revisit Temursho’s (2020) article “On the Euro method” in a critical and constructive way. We have praised part of his work and at the same time, we have analysed some of his arguments against the Euro method and against the work published by Valderas-Jaramillo et al. (2019). Moreover, we have analysed some other relevant aspects of the SUT-Euro and SUT-RAS methods not covered in Temursho (2020). Temursho (2020) seems to conclude that no one should use the Euro method again because of its limitations and drawbacks. However, although not being the Euro method perfect, we are afraid that there is still space for the use of the Euro method in updating/regionalizing supply and use tables.
Durch die Verkürzung der Produktlebenszyklen und die damit verbundene steigende Anzahl hochkomplexer Produktneuanläufe wird dem Anlaufmanagement künftig eine wachsende Bedeutung zuteil. Diese Aussage wird durch die steigende Anzahl an Aufsätzen und diversen Monographien zu diesem Themenkomplex bestätigt. Die zeit- und kostensensible Anlaufphase hat bedeutenden Einfluss auf die Produktivität, Produktrendite und somit auf den Markterfolg eines Unternehmens. Die Beherrschung reibungsloser Serienanläufe wird zum Tagesgeschäft und avanciert um entscheidenden Wettbewerbsvorteil. Gleichzeitig ist sie Prämisse um sich auch künftig an den hochdynamischen und globalen Märkten behaupten zu können. Entgegen den ausgereiften Konzepten, Methoden und Theorien zur Produktionsplanung und -steuerung in der Serie birgt das zielgerichtete Management von Serienanläufen noch enorme Verbesserungspotentiale. Verschiedene Handlungsfelder greifen ineinander, werden von Normen und Kundenforderungen beeinflusst und müssen integriert betrachtet werden. Dieses Buch soll einen Überblick über die Handlungsfelder des Anlaufmanagements sowie den Einfluss von Normen und Kundenanforderungen geben. Darüber hinaus soll die zentrale Bedeutung des Anlaufmanagements durch eine Umfrage bei OEM, 1st- und 2nd-Tier-Lieferanten bestätigt werden. Des weiteren werden Methoden und Werkzeuge vorgestellt, die bei der Einführung des Anlaufmanagements in einem Unternehmen der Automobilzulieferindustrie entwickelt wurden.
Scrum und die IEC 62304
(2013)
The transformation to an Industry 4.0, which is in general seen as a solution to increasing market challenges, is forcing companies to radically change their way of thinking and to be open to new forms of cooperation. In this context, the opening-up of the innovation process is widely seen as a necessity to meet these challenges, especially for small and medium enterprises (SMEs). The aim of the study therefore is to analyze how cooperation today can be characterized, how this character has changed since the establishment of the term Industry 4.0 at Hanover Fair in 2011 and which cooperation strategies have proven successful. The analysis consists of a quantitative, secondary data analysis that includes country-specific data from 35 European countries of 2010 and 2016 collected by the European Commission and the OECD. The research, focusing on the secondary sector, shows that multinational enterprises MNEs still tend to cooperate more than SMEs, with a slight overall trend towards protectionism. Nevertheless, there is a clear tendency towards the opening-up of SMEs. In this regard, especially universities, competitors and suppliers have become increasingly attractive as cooperation partners for SMEs.
Sleep is extremely important for physical and mental health. Although polysomnography is an established approach in sleep analysis, it is quite intrusive and expensive. Consequently, developing a non-invasive and non-intrusive home sleep monitoring system with minimal influence on patients, that can reliably and accurately measure cardiorespiratory parameters, is of great interest. The aim of this study is to validate a non-invasive and unobtrusive cardiorespiratory parameter monitoring system based on an accelerometer sensor. This system includes a special holder to install the system under the bed mattress. The additional aim is to determine the optimum relative system position (in relation to the subject) at which the most accurate and precise values of measured parameters could be achieved. The data were collected from 23 subjects (13 males and 10 females). The obtained ballistocardiogram signal was sequentially processed using a sixth-order Butterworth bandpass filter and a moving average filter. As a result, an average error (compared to reference values) of 2.24 beats per minute for heart rate and 1.52 breaths per minute for respiratory rate was achieved, regardless of the subject’s sleep position. For males and females, the errors were 2.28 bpm and 2.19 bpm for heart rate and 1.41 rpm and 1.30 rpm for respiratory rate. We determined that placing the sensor and system at chest level is the preferred configuration for cardiorespiratory measurement. Further studies of the system’s performance in larger groups of subjects are required, despite the promising results of the current tests in healthy subjects.
Sleep is essential to physical and mental health. However, the traditional approach to sleep analysis—polysomnography (PSG)—is intrusive and expensive. Therefore, there is great interest in the development of non-contact, non-invasive, and non-intrusive sleep monitoring systems and technologies that can reliably and accurately measure cardiorespiratory parameters with minimal impact on the patient. This has led to the development of other relevant approaches, which are characterised, for example, by the fact that they allow greater freedom of movement and do not require direct contact with the body, i.e., they are non-contact. This systematic review discusses the relevant methods and technologies for non-contact monitoring of cardiorespiratory activity during sleep. Taking into account the current state of the art in non-intrusive technologies, we can identify the methods of non-intrusive monitoring of cardiac and respiratory activity, the technologies and types of sensors used, and the possible physiological parameters available for analysis. To do this, we conducted a literature review and summarised current research on the use of non-contact technologies for non-intrusive monitoring of cardiac and respiratory activity. The inclusion and exclusion criteria for the selection of publications were established prior to the start of the search. Publications were assessed using one main question and several specific questions. We obtained 3774 unique articles from four literature databases (Web of Science, IEEE Xplore, PubMed, and Scopus) and checked them for relevance, resulting in 54 articles that were analysed in a structured way using terminology. The result was 15 different types of sensors and devices (e.g., radar, temperature sensors, motion sensors, cameras) that can be installed in hospital wards and departments or in the environment. The ability to detect heart rate, respiratory rate, and sleep disorders such as apnoea was among the characteristics examined to investigate the overall effectiveness of the systems and technologies considered for cardiorespiratory monitoring. In addition, the advantages and disadvantages of the considered systems and technologies were identified by answering the identified research questions. The results obtained allow us to determine the current trends and the vector of development of medical technologies in sleep medicine for future researchers and research.
Botswana serves as a role model for other African countries due to its rapid development in recent decades. Since the country is sparsely populated and a large part of the rural population depends on agriculture, especially livestock, this sector forms the backbone of the national economy. The digitization of this sector offers promising opportunities for economic growth and driving Botswana's evolution to a digital economy, while real value is being created for smallholder farmers. To support this process, an ITU research project made the key recommendation for the development of a digital crowdfarming tool and marketplace to create a digital ecosystem for smallholder agriculture. Within the research project, infrastructural challenges such as the creation of rural electricity supply and internet access, as well as the smallholders' need for remote monitoring, management, and better connectivity, were identified.
Based on the findings of the ITU research report, this bachelor's thesis aims to identify potential innovations for the digital development of smallholder agriculture in Botswana and to conceptualize proposals to address the identified challenges and needs of smallholder farmers. To achieve this, solutions were developed through literature research, technology analysis and expert involvement. These included the design of a decentralized mini-grid for power supply, proposals to create internet access, and the graphic visualization of a conceptual app. The latter addresses smallholder farmers' needs for remote monitoring, market access, knowledge enhancement, and connection to colleagues, buyers, and investors.
The proposed solutions and developed concepts provide impulses for further research and can serve as a basis for an extended evaluation through further involvement of experts and stakeholders.
Global agriculture will face major challenges in the future. In addition to the increasing demand for food due to constant population growth, the consequences of climate change will make it even more difficult to operate agriculture and supply people with food. In addition to further productivity increases in traditional agriculture, new concepts for sustainable and scalable food production are needed. Vertical farming offers a promising approach.
The aim of this project is to demonstrate how vertical farming can be used to ensure sustainable food production and how this concept can be applied in the pioneering Maun Science Park project in Botswana. In doing so, the Maun Science Park will address future challenges such as demographics, governance and climate change and become a best practice model for Botswana, the whole of Africa and the world. The country of Botswana grew to become one of the most prosperous countries in Africa in recent decades due to strong economic growth from mining. However, the population faces great challenges in the future; in addition to great social inequality, climate change threatens the country's overall supply.
With the help of a literature review and qualitative and quantitative interviews with stakeholders from Maun (Botswana), the potentials and challenges for vertical farming in Botswana could be identified and future measures for a possible realization could be derived. Basically, some challenges in Botswana are addressed by the technology, for example, Vertical Farming offers high food security through year-round production of food through the closed ecosystem and creates independence from current and future climatic conditions, poor conditions for traditional agriculture (e.g. infertile soils) and foreign imports. However, the main structural problems of agriculture in Botswana, such as the lack of infrastructure, know-how and policy support, are not addressed.
Salem baut Neu-Birnau
(2012)
Projekte aus dem Hochbau, wie z.B. Schulgebäude sind eine klassische Aufgabe der Tragwerksplanung. Dabei steht eine Vielzahl an unterschiedlichen Bauweisen zur Verfügung. Vor dem Hintergrund der Klimakrise und den damit verbundenen Klimaschutzzielen von Paris besteht akuter Handlungsbedarf in allen Bereichen des Lebens, besonders aber im Bausektor, welcher maßgeblich zu den gesamten Treibhausgasemissionen beiträgt. Deshalb wird momentan vermehrt auf Lösungen in Holzbauweise zurückgegriffen. Neben der Gründung nehmen die Geschossdecken den größten Anteil an den Umweltwirkungen ein. Dieser Anteil steigt mit zunehmender Deckenfläche an. Dadurch besteht ein großes Potenzial bei der Verringerung der Treibhausgasemissionen durch geeignete Auswahl des Deckensystems und Optimierung der Tragstruktur.
In Diskussionen über den Klimawandel wird oft eine nachhaltige Entwicklung thematisiert. Für den Vergleich wurde eine Optimierung durchgeführt zur Beurteilung des CO2-Einsparpotenziales. Um alle Aspekte der Nachhaltigkeit zu erfüllen, wurden die gefundenen Varianten auf Basis gängiger Zertifizierungssysteme für Nachhaltigkeit bewertet. Jede Variante erfüllt dabei die Anforderungen an maximale Spannungen und Verformungen. Durch die Optimierung und den folgenden Vergleich wurde das Optimierungspotenzial verdeutlicht. Gleichzeitig entstehen teilweise nutzungsbedingte Konflikte aus der Optimierung und Anforderungen aus dem Schallschutz.
Botswana, a new construction project – the Maun Science Park - is to be built with a focus on sustainability and to create a new living space for the rapidly growing population in Africa. The project will be a blueprint for future projects in Africain terms of progress, technology and sustainability. This thesis will deal with its financial framework and will serve as a basis for the development of ways and means of financing such projects.
In der vorliegenden Arbeit wird eine Vorlage für ein generalisiertes Betonfertigteil-Tracking für die Bauindustrie geschaffen. In dem ersten der vier Kapitel wird zuerst der Prozess des Fertigteil-Trackings dargestellt. Dieser wird anhand von Experteninterviews modifiziert und es wird ein Standardprozess als Vorlage präsentiert. Dieser Standardprozess soll für projektspezifische Wünsche modular erweiterbar sein. Hierfür werden Vorteile, Probleme und Verbesserungswünsche der Anwender eingearbeitet. Um den Prozess auf die gesamte Baubranche erweitern zu können, werden die softwaretechnischen Voraussetzungen für eine Standardschnittstelle der Fertigteil-Werke analysiert. Um Probleme bei der Implementierung und Durchführung des Trackings zu verhindern, werden die Partikularinteressen aller Beteiligten analysiert. Die Ergebnisse werden aus Experteninterviews generiert sowie durch Literaturrecherche und die eigenen Erfahrungen bei der Implementierung des Fertigteil-Trackings auf der Baustelle Telekom Areal der Ed. Züblin AG ergänzt.
Das Ziel dieser Bachelorarbeit ist die Entwicklung eines Architekturkonzepts für ein Order Management System mit einer integrierten Prozess-Engine. Dabei soll es möglichst einfach sein neue Order-Typen in das Order Management System zu integrieren und mit Hilfe der Prozess-Engine auszuführen. Seitens der Credit Suisse AG, Zürich wurden dazu die Systemanforderungen, sowie ein generischer Order-Life-Cycle vorgegeben.
Zu Beginn wurde ein BPMN 2.0 Beispielprozess definiert. Daraus wurde dann zusammen mit dem vorgegebenen Order-Life-Cycle ein generisches und modulares Prozess-Template entwickelt. Dieses dient der Modularisierung und der einheitlichen Verarbeitung von (Order-Typ)-Prozessen.
Basierend darauf wurde ein Anwendungskonzept entwickelt, welches die Grundlage für den standardisierten Entwurf (Blueprint) hinsichtlich der Anwendungsklasse (Order Management) liefert.
Abschliessend wurde die Anwendungsarchitektur mit Hilfe eines kleinen Prototypen verifiziert.
Aus dem Vorwort:
"NTF - Hinführung zur naturwissenschaftlichen-technischen Fachsprache" ist ein programmierter, fachsprachlicher Aufbaukurs, der zusammen mit dem Grundkurs "MNF - Hinführung zur mathematisch-naturwissenschaftlichen Fachsprache" ein zweistufiges Unterrichtssystem zur sprachlichen Vorbereitung von Ausländern auf ein naturwissenschaftlich-technisches Studium an Fachhochschulen und Technischen Universitäten darstellt.
Darüber hinaus wendet sich NTF an alle, die über die grundlegende Terminologie der Bereiche Werkstoffkunde, Maschinenbau, Baustoffkunde und Elektrotechnik/Informatik verfügen und Fachtexte aus diesen Gebieten lesen müssen.
Aus dem Vorwort: "NTF - Hinführung zur naturwissenschaftlichen-technischen Fachsprache" ist ein programmierter, fachsprachlicher Aufbaukurs, der zusammen mit dem Grundkurs "MNF - Hinführung zur mathematisch-naturwissenschaftlichen Fachsprache" ein zweistufiges Unterrichtssystem zur sprachlichen Vorbereitung von Ausländern auf ein naturwissenschaftlich-technisches Studium an Fachhochschulen und Technischen Universitäten darstellt. Darüber hinaus wendet sich NTF an alle, die über die grundlegende Terminologie der Bereiche Werkstoffkunde, Maschinenbau, Baustoffkunde und Elektrotechnik/Informatik verfügen und Fachtexte aus diesen Gebieten lesen müssen.
Aus dem Vorwort: "NTF - Hinführung zur naturwissenschaftlichen-technischen Fachsprache" ist ein programmierter, fachsprachlicher Aufbaukurs, der zusammen mit dem Grundkurs "MNF - Hinführung zur mathematisch-naturwissenschaftlichen Fachsprache" ein zweistufiges Unterrichtssystem zur sprachlichen Vorbereitung von Ausländern auf ein naturwissenschaftlich-technisches Studium an Fachhochschulen und Technischen Universitäten darstellt.
Darüber hinaus wendet sich NTF an alle, die über die grundlegende Terminologie der Bereiche Werkstoffkunde, Maschinenbau, Baustoffkunde und Elektrotechnik/Informatik verfügen und Fachtexte aus diesen Gebieten lesen müssen.
In diesem Aufsatz, der im Rahmen eines Freistellungssemesters entstanden ist, werden technische, umwelttechnische, ethische und rechtliche Themen zum Autonomen Fahren im Hinblick auf die Umsetzung in der Lehre betrachtet. Curricula zum Autonomen Fahren der Kettering University und Udacity werden vorgestellt.
Bei der Auslegung des Verteilergetriebes leistungsverzweigter Hybridantriebe müssen die Übersetzungen sorgfältig hinsichtlich des Wirkungsgrades ausgewählt werden. Die ungünstige Leistungsübertragung im seriellen, elektrischen Zweig sowie die Blindleistung sind zu minimieren. Die Formelzusammenhänge werden in diesem Aufsatz, der im Rahmen eines Freistellungssemesters entstanden ist, hergeleitet.
In der automobilen Kompaktklasse werden trockenlaufende Stufenlosgetriebe bisher nicht eingesetzt. Dies ist vor allem auf die nicht zufriedenstellende Übertragbarkeit von Leistung im Zusammenhang mit einem ausreichenden Stellbereich (Getriebespreizung) der Umschlingungsmittel zurückzuführen. Neben Weiterentwicklungen auf dem Gebiet der Verbundkeilriemen, die für diesen Zweck eingesetzt werden, müssen vor allem jedoch konstruktive Lösungen für eine Leistungssteigerung gefunden werden. Es soll das Konzept eines Doppelriemen- (Twinbelt-) Getriebes untersucht werden. Durch die Verwendung zweier Riemen statt eines einzelnen kann nahezu eine Verdoppelung der übertragbaren Leistung erwartet werden, was die Einsatzmöglichkeiten für das Getriebe wesentlich erweitert. Als problematisch ist vor allem die Bauraumfrage des zusätzlichen Riementriebs, sowie der erhöhte Aufwand in der Getriebesteuerung zu sehen. Außerdem müssen für eine rentable Fertigung des Getriebes die notwendigen zusätzlichen Bauteile auf ein Minimum reduziert werden. Neben der theoretischen und konstruktiven Auslegung der zu entwickelnden Komponenten des Twinbelt-Getriebes und der Bauraumuntersuchung für die Anwendung in der automobilen Kompaktklasse ist auch die Entwicklung eines Komponenten-Prüfstandes durchzuführen. Der Prüfstand soll die Untersuchung der Funktionalität dieser neuen Getriebebauform, aber auch die Versuche in bezug auf die notwendigen Verstell- und Anpresssysteme, sowie das Betriebsverhalten der eingesetzten Riemen ermöglichen.
Ziel dieses Projektes ist die Entwicklung eines miniaturisierten vollimplantierbaren Gerätes zur Verlängerung von Kiefer- und Schädelknochen, basierend auf den Erkenntnissen von Plattenosteosynthese-Verfahren. Dieses Gerät, im folgenden Mechatronische Osteosyntheseplatte (kurz MO) oder Distraktor genannt, ist ein kleiner Teleskopaktuator, der eine Kraft von mindestens 30 N erzeugt, die zur Verlängerung eines Knochens benötigt wird. Der Antrieb erfolgt durch Formgedächtnisdrähte aus einer Nickel-Titan-Legierung, die im Inneren des Gerätes gespannt sind. Diese Drähte werden über eine drahtlose niederfrequente Energieeinkopplung mit Strom versorgt. Über einen Ratschenmechanismus wird die Kraft auf eine teleskopartig ausfahrende Platte übertragen. Der Distraktor wird direkt auf den Knochen mit kommerziell erhältlichen Titan-Knochenschrauben aufgeschraubt. Die Neuerung bei dieser Entwicklung ist u.a. der Antrieb durch Drähte aus Formgedächtnislegierung, sowie die vollständige Implantierbarkeit des Gerätes. Formgedächtnislegierungen können in kaltem Zustand mit geringem Kraftaufwand verformt werden. Werden sie anschließend erhitzt, so „erinnert“ sich die Legierung an ihre ursprüngliche Form und nimmt den vorherigen unverformten Zustand wieder ein. Ziel dieser Neuentwicklung ist, durch das vollständige Verschließen des operierten Bereichs die Infektionsgefahr zu minimieren, das Risiko für den Patienten zu senken und den Behandlungskonfort zu erhöhen. Durch die minimierte Narbenbildung wird das kosmetische Ergebnis ebenfalls verbessert. Desweiteren soll die Erfassung von Messwerten für Weg und Kraft integriert werden, um so dem betreuenden Arzt Auskunft über den Fortschritt des Verlängerungsprozess und die Heilung zu geben. Eingesetzt wird die Osteosynthese durch Knochenverlängerung in der plastischen Chirurgie bei Missbildungen, Fehlstellungen oder Unfällen.
This thesis deals with the object tracking problem of multiple extended objects. For instance, this tracking problem occurs when a car with sensors drives on the road and detects multiple other cars in front of it. When the setup between the senor and the other cars is in a such way that multiple measurements are created by each single car, the cars are called extended objects. This can occur in real world scenarios, mainly with the use of high resolution sensors in near field applications. Such a near field scenario leads a single object to occupy several resolution cells of the sensor so that multiple measurements are generated per scan. The measurements are additionally superimposed by the sensor’s noise. Beside the object generated measurements, there occur false alarms, which are not caused by any object and sometimes in a sensor scan, single objects could be missed so that they not generate any measurements.
To handle these scenarios, object tracking filters are needed to process the sensor measurements in order to obtain a stable and accurate estimate of the objects in each sensor scan. In this thesis, the scope is to implement such a tracking filter that handles the extended objects, i.e. the filter estimates their positions and extents. In context of this, the topic of measurement partitioning occurs, which is a pre-processing of the measurement data. With the use of partitioning, the measurements that are likely generated by one object are put into one cluster, also called cell. Then, the obtained cells are processed by the tracking filter for the estimation process. The partitioning of measurement data is a crucial part for the performance of tracking filter because insufficient partitioning leads to bad tracking performance, i.e. inaccurate object estimates.
In this thesis, a Gaussian inverse Wishart Probability Hypothesis Density (GIW-PHD) filter was implemented to handle the multiple extended object tracking problem. Within this filter framework, the number of objects are modelled as Random Finite Sets (RFSs) and the objects’ extent as random matrices (RM). The partitioning methods that are used to cluster the measurement data are existing ones as well as a new approach that is based on likelihood sampling methods. The applied classical heuristic methods are Distance Partitioning (DP) and Sub-Partitioning (SP), whereas the proposed likelihood-based approach is called Stochastic Partitioning (StP). The latter was developed in this thesis based on the Stochastic Optimisation approach by Granström et al. An implementation, including the StP method and its integration into the filter framework, is provided within this thesis.
The implementations, using the different partitioning methods, were tested on simulated random multi-object scenarios and in a fixed parallel tracking scenario using Monte Carlo methods. Further, a runtime analysis was done to provide an insight into the computational effort using the different partitioning methods. It emphasized, that the StP method outperforms the classical partitioning methods in scenarios, where the objects move spatially close. The filter using StP performs more stable and with more accurate estimates. However, this advantage is associated with a higher computational effort compared to the classical heuristic partitioning methods.
Anbindung eines PPC405 embedded CPU Core an ein MPC860-System unter dem Echtzeitbetriebssystem OSE
(2006)
Die Diplomarbeit verfolgt das Ziel, die softwareseitige Anbindung eines PPC405-Systems an das Gesamtsystem einer digitalen Funkgeräteplattform herzustellen. Über eine konzipierte Implementierung, die nach dem Einschalten des Funkgeräts gestartet wird, erfolgt die Übertragung des Betriebssystems in den zugehörigen Arbeitsspeicher des PPC405-Systems. Nach Abschluss der Initialisierungsphase kommunizieren die Anwendungsprozesse auf den beteiligten Systemen über eine transparente Erweiterung des Betriebssystems mit der jeweiligen Gegenseite. Als Übertragungsmedium für die genannte Betriebssystemerweiterung wird ein zwischen den Systemen angesiedelter Speicher genutzt, für dessen koordinierte Zugriffe eine im Rahmen der Diplomarbeit entwickelte Treiberkomponente sorgt. Durch die Anbindung des PPC405-Systems wird eine Leistungssteigerung des Gesamtsystems erwartet. Auf der Basis von Messungen wurde die Performance des somit erhaltenen Multiprozessorsystems bestimmt. Aus den Ergebnissen wurden geeignete Möglichkeiten zur Optimierung erarbeitet und umgesetzt.
Network effects, economies of scale, and lock-in-effects increasingly lead to a concentration of digital resources and capabilities, hindering the free and equitable development of digital entrepreneurship, new skills, and jobs, especially in small communities and their small and medium-sized enterprises (“SMEs”). To ensure the affordability and accessibility of technologies, promote digital entrepreneurship and community well-being, and protect digital rights, we propose data cooperatives as a vehicle for secure, trusted, and sovereign data exchange. In post-pandemic times, community/SME-led cooperatives can play a vital role by ensuring that supply chains to support digital commons are uninterrupted, resilient, and decentralized. Digital commons and data sovereignty provide communities with affordable and easy access to information and the ability to collectively negotiate data-related decisions. Moreover, cooperative commons (a) provide access to the infrastructure that underpins the modern economy, (b) preserve property rights, and (c) ensure that privatization and monopolization do not further erode self-determination, especially in a world increasingly mediated by AI. Thus, governance plays a significant role in accelerating communities’/SMEs’ digital transformation and addressing their challenges. Cooperatives thrive on digital governance and standards such as open trusted application programming interfaces (“APIs”) that increase the efficiency, technological capabilities, and capacities of participants and, most importantly, integrate, enable, and accelerate the digital transformation of SMEs in the overall process. This review article analyses an array of transformative use cases that underline the potential of cooperative data governance. These case studies exemplify how data and platform cooperatives, through their innovative value creation mechanisms, can elevate digital commons and value chains to a new dimension of collaboration, thereby addressing pressing societal issues. Guided by our research aim, we propose a policy framework that supports the practical implementation of digital federation platforms and data cooperatives. This policy blueprint intends to facilitate sustainable development in both the Global South and North, fostering equitable and inclusive data governance strategies.
Increasing demand for sustainable, resilient, and low-carbon construction materials has highlighted the potential of Compacted Mineral Mixtures (CMMs), which are formulated from various soil types (sand, silt, clay) and recycled mineral waste. This paper presents a comprehensive inter- and transdisciplinary research concept that aims to industrialise and scale up the adoption of CMM-based construction materials and methods, thereby accelerating the construction industry’s systemic transition towards carbon neutrality. By drawing upon the latest advances in soil mechanics, rheology, and automation, we propose the development of a robust material properties database to inform the design and application of CMM-based materials, taking into account their complex, time-dependent behaviour. Advanced soil mechanical tests would be utilised to ensure optimal performance under various loading and ageing conditions. This research has also recognised the importance of context-specific strategies for CMM adoption. We have explored the implications and limitations of implementing the proposed framework in developing countries, particularly where resources may be constrained. We aim to shed light on socio-economic and regulatory aspects that could influence the adoption of these sustainable construction methods. The proposed concept explores how the automated production of CMM-based wall elements can become a fast, competitive, emission-free, and recyclable alternative to traditional masonry and concrete construction techniques. We advocate for the integration of open-source digital platform technologies to enhance data accessibility, processing, and knowledge acquisition; to boost confidence in CMM-based technologies; and to catalyse their widespread adoption. We believe that the transformative potential of this research necessitates a blend of basic and applied investigation using a comprehensive, holistic, and transfer-oriented methodology. Thus, this paper serves to highlight the viability and multiple benefits of CMMs in construction, emphasising their pivotal role in advancing sustainable development and resilience in the built environment.
We call for a paradigm shift in engineering education. We are entering the era of the Fourth Industrial Revolution (“4IR”), accelerated by Artificial Intelligence (“AI”). Disruptive changes affect all industrial sectors and society, leading to increased uncertainty that makes it impossible to predict what lies ahead. Therefore, gradual cultural change in education is no longer an option to ease social pain. The vast majority of engineering education and training systems, which have remained largely static and underinvested for decades, are inadequate for the emerging 4IR and AI labour markets. Nevertheless, some positive developments can be observed in the reorientation of the engineering education sector. Novel approaches to engineering education are already providing distinctive, technology-enhanced, personalised, student-centred curriculum experiences within an integrated and unified education system. We need to educate engineering students for a future whose key characteristics are volatility, uncertainty, complexity and ambiguity (“VUCA”). Talent and skills gaps are expected to increase in all industries in the coming years. The authors argue for an engineering curriculum that combines timeless didactic traditions such as Socratic inquiry, mastery-based and project-based learning and first-principles thinking with novel elements, e.g., student-centred active and e-learning with a focus on case studies, as well as visualization/metaverse and gamification elements discussed in this paper, and a refocusing of engineering skills and knowledge enhanced by AI on human qualities such as creativity, empathy and dexterity. These skills strengthen engineering students’ perceptions of the world and the decisions they make as a result. This 4IR engineering curriculum will prepare engineering students to become curious engineers and excellent collaborators who navigate increasingly complex multistakeholder ecosystems.
Digital federated platforms and data cooperatives for secure, trusted and sovereign data exchange will play a central role in the construction industry of the future. With the help of platforms, cooperatives and their novel value creation, the digital transformation and the degree of organization of the construction value chain can be taken to a new level of collaboration. The goal of this research project was to develop an experimental prototype for a federated innovation data platform along with a suitable exemplary use case. The prototype is to serve the construction industry as a demonstrator for further developments and form the basis for an innovation platform. It exemplifies how an overall concept is concretely implemented along one or more use cases that address high-priority industry pain points. This concept will create a blueprint and a framework for further developments, which will then be further established in the market. The research project illuminates the perspective of various governance innovations to increase industry collaboration, productivity and capital project performance and transparency as well as the overall potential of possible platform business models. However, a comprehensive expert survey revealed that there are considerable obstacles to trust-based data exchange between the key stakeholders in the industry value network. The obstacles to cooperation are predominantly not of a technical nature but rather of a competitive, predominantly trust-related nature. To overcome these obstacles and create a pre-competitive space of trust, the authors therefore propose the governance structure of a data cooperative model, which is discussed in detail in this paper.
Specific climate adaptation and resilience measures can be efficiently designed and implemented at regional and local levels. Climate and environmental databases are critical for achieving the sustainable development goals (SDGs) and for efficiently planning and implementing appropriate adaptation measures. Available federated and distributed databases can serve as necessary starting points for municipalities to identify needs, prioritize resources, and allocate investments, taking into account often tight budget constraints. High-quality geospatial, climate, and environmental data are now broadly available and remote sensing data, e.g., Copernicus services, will be critical. There are forward-looking approaches to use these datasets to derive forecasts for optimizing urban planning processes for local governments. On the municipal level, however, the existing data have only been used to a limited extent. There are no adequate tools for urban planning with which remote sensing data can be merged and meaningfully combined with local data and further processed and applied in municipal planning and decision-making. Therefore, our project CoKLIMAx aims at the development of new digital products, advanced urban services, and procedures, such as the development of practical technical tools that capture different remote sensing and in-situ data sets for validation and further processing. CoKLIMAx will be used to develop a scalable toolbox for urban planning to increase climate resilience. Focus areas of the project will be water (e.g., soil sealing, stormwater drainage, retention, and flood protection), urban (micro)climate (e.g., heat islands and air flows), and vegetation (e.g., greening strategy, vegetation monitoring/vitality). To this end, new digital process structures will be embedded in local government to enable better policy decisions for the future.
Webservices können ein fester Bestandteil von Integrationsbemühungen werden, um nicht nur innerhalb des Unternehmens Altlasten aufzuräumen, sondern mittlerweile auch zwischen den Partnern, Kunden und Lieferanten zu koordinieren. Sie können mit ihrer Schlichtheit und Implementierungseleganz bisherige Integrationstools wie CORBA, DCOM u.a. alt aussehen lassen. Ihre textbasierten Bestandteile SOAP, WSDL und UDDI arbeiten mit XML und HTTP, die das enorme Potenzial des Internet erst jetzt richtig zur Geltung bringen.
Im Rahmen der Lehrveranstaltung "Nachhaltigkeit im industriellen Umfeld" im Masterstudiengang Umwelt- und Verfahrenstechnik der Hochschulen Konstanz und Ravensburg-Weingarten fand im Dezember 2016 eine studentische Fachkonferenz statt. Die Studierenden entwickelten in Einzelarbeit oder als Zweierteam
Konferenzbeiträge zu folgenden Themen:
- Spannendes aus dem Bereich der Energieerzeugung und der Grauen Energie
- Aspekte der Kreislaufwirtschaft
- Ökosysteme - ihre Belastung und Erhalt
- Spezifische Wirtschaftszweige und Nachhaltigkeit
Die Ergebnisse der studentischen Fachkonferenz zur „Nachhaltigkeit im
industriellen Umfeld“ werden in der vorliegenden Publikation präsentiert.
Es wird über die Erfahrungen an der Universtität Limerick und zum Klimaschutz in Irland im Zuge des Freistellungs- und Forschungssemester im WS 2021/22 berichtet. Der Aufenthalt konnte trotz Pandemie erfolgreich durchgeführt werden. Neben den Erfahrungen zu Organisation und Lehre an der UL wird über die Möglichkeiten zu weiteren Kooperation der HTWG mit UL berichtet. In einem zweiten Teil wird der Weg und Beitrag Irlands zu mehr Klimaschutz beschrieben. Hier fließen zahlreiche persönliche Recherchen, Besuche und Erfahrungen des Forschungsaufenthaltes ein.
Weltraumhotel Entropolis
(2005)
die aufgabe waren entwurf und ausarbeitung eines weltraumhotels für ca 200 gäste, in einer umlaufbahn um das system erde-mond. die arbeit ist entstanden in zusammenarbeit mit dem luft und raumfahrt institut stuttgart. abgesehen von der machbarkeit( bauphasen, logistik, transport) wurde besonders der umgang zwischen mensch- schwerelosigkeit-raum untersucht. dabei sind die räume nicht für die anforderungen von langzeitaufenthalten im all konzipiert, sondern speziell für menschen die nicht an den umgang mit schwerelosigkeit gewöhnt sind. das heisst die räume sollen auf der einen seite praktikabel sein ( orientierungshilfen, proportionen...) aber vor allem das verhältniss zwischen der perspektive des betrachters und dem ihn umgebenden raum neu definieren.
Die digitale Transformation von Geschäftsprozessen und die stärkere Integration von IT-Systemen führen zu Chancen und Risiken für kleine und mittlere Unternehmen (KMU). Risiken, die zu fehlender IT-Governance, Risk und Compliance (GRC) führen können. Ziel dieses Beitrags ist es, die Design- und Evaluierungsphase der Erstellung eines Artefakts darzustellen. Dabei wird der Design Science Research Ansatz nach Hevner verwendet. Das Artefakt wird für die Auswahl von Standards entwickelt, indem KMU-relevante Ausprägungen und bestehende Rahmenwerke auf die definierten Kriterien angepasst werden.
Kleine und mittelständische Unternehmen (KMU) sind bekannt für ihre Innovationskraft und bilden das Rückgrat der deutschen Wirtschaft. Wie Studien zeigen sind sie in Bezug auf Compliance-Maßnahmen im Vergleich zu
kapitalmarktorientierten Unternehmen jedoch im Rückstand. Eine gesonderte Betrachtung der IT-Compliance erfolgt dabei in den Studien in der Regel nicht. Auch wenn zu den Gründen und Motiven fehlender IT-Compliance-Strukturen in KMU kaum Forschungsergebnisse vorliegen, zeigen doch die vielen Publikationen, die sich mit Teilaspekten von Compliance und KMU beschäftigen, dass Handlungsbedarf besteht. Insbesondere die aktuellen Veränderungen unter dem Stichwort Digitalisierung deuten auf eine gesteigerte Bedeutung von IT-Compliance-Maßnahmen vor allem in mittelständischen Unternehmen. In dieser Arbeit sollen daher mithilfe einer Literaturrecherche die aktuell behandelten Themen in Bezug auf IT-Compliance und KMU analysiert sowie aktuelle Themenschwerpunkte herausgearbeitet werden.
Die digitale Transformation von Geschäftsprozessen und die stärkere Einbindung von IT-Systemen erzeugen bei kleinen und mittelständischen Unternehmen (KMU) Chancen und Risiken zugleich. Risiken, die insbesondere in einer fehlenden IT-Compliance resultieren können. Wie Studien zeigen, sind KMU in Bezug auf IT-Compliance-Maßnahmen im Vergleich zu kapitalmarktorientierten Unternehmen jedoch im Rückstand [1]. Im Beitrag wird mithilfe von Experteninterviews und einer qualitativen Datenanalyse der Frage nachgegangen, welcher Status quo an Maßnahmen aktuell implementiert und wie der empfundene Compliance-Reifegrad ist. Weiterhin werden die Gründe und Motive erörtert, die zu diesem Zustand geführt haben. Letztlich sind Treiber identifiziert worden, die zu einem höheren Bewusstsein in der Zukunft führen können. Die Arbeit zeigt interessante Erkenntnisse aus der Praxis, da die Experteninterviews Einblicke in den aktuellen Status quo in Bezug auf IT-Compliance liefern.
This policy brief presents the possibilities of using big data analytics for safe, decarbonised and climate-resilient infrastructure. The policy brief focuses on current constraints and limitations to applying big data analytics to the infrastructure ecosystem and presents several examples and best practices for different infrastructure sectors and at different policy levels (national, municipal) to highlight recommendations and policy requirements needed for deep digital transformation and sustainable solutions in infrastructure planning and delivery.
Using multi-camera matching techniques for 3d reconstruction there is usually the trade-off between the quality of the computed depth map and the speed of the computations. Whereas high quality matching methods take several seconds to several minutes to compute a depth map for one set of images, real-time methods achieve only low quality results. In this paper we present a multi-camera matching method that runs in real-time and yields high resolution depth maps. Our method is based on a novel multi-level combination of normalized cross correlation, deformed matching windows based on the multi-level depth map information, and sub-pixel precise disparity maps. The whole process is implemented completely on the GPU. With this approach we can process four 0.7 megapixel images in 129 milliseconds to a full resolution 3d depth map. Our technique is tailored for the recognition of non-technical shapes, because our target application is face recognition.
Die Bauingenieure sind sich ihrer gesellschaftlichen Verantwortung bewusst, finden es jedoch unbefriedigend, dass ihr Anteil an der Baukultur weder ausreichend bekannt ist, noch gebührend gewürdigt wird. Der Beitrag gibt einen kurzen Überblick über diese Thematik und versucht die eigenen Defizite der Ingenieure aufzuspüren, die die Lösung des Problems erschweren. Am Beispiel von Ulrich Fintterwalder wird gezeigt, welche Haltung einer der großen Baumeister des zwanzigsten Jahrhunderts zum verantwortlichen und nachhaltigen Bauen, zur Ästhetik und Gestaltung und zur kreativen Zusammenarbeit mit Architekten eingenommen hatte.
Altbausanierung spielt in der Baupraxis eine immer wichtigere Rolle, während das Bauvolumen bei den Neubauten abnimmt. Diesem Trend wird im Studiengang Architektur der HTWG Konstanz durch neue Vorlesungen und Seminare vermehrt Rechnung getragen. So wurde im Sommersemester 2003 durch den Lehrbeauftragten Architekten Roger Karbe (Berlin) und Prof. Cengiz Dicleli (FH-Konstanz) das Seminar „Konstruktiver Denkmalschutz“ durchgeführt. Fünf denkmalgeschützte Bauten vom Weltrang, die bereits erfolgreich saniert, modernisiert und zum Teil umgenutzt worden sind, wurden unter konstruktiven und funktionalen Aspekten des Denkmalschutzes untersucht und analysiert. Diese sind der Hamburger Bahnhof, das Alte Museum, der Langhansbau im Schloss Charlottenburg, das Fährhaus auf der Pfaueninsel und Stülers Neues Museum, das zurzeit vom englischen Architekten David Chipperfield wieder hergestellt wird. Häufig werden Überlegungen zum Erhalt und Schutz historischer Bausubstanz zu wenig, zu spät oder gar nicht angestellt. Viele herausragende Gebäude sind deshalb bereits verloren gegangen. Die totale Konservierung historischer Anlagen bietet selten einen sinnvollen Lösungsansatz. Der Verzicht auf jede Veränderung schließt am Ende eine sinnvolle Nutzung aus. Entfallen oder Verändern sich die ursprünglich geplanten Nutzungen, so sollte vor jeder Aufgabe sorgfältig geprüft werden, wie weit bauliche Anlagen für neue Nutzungsanforderungen herangezogen werden können. Das Lehrziel beinhaltet die Einordnung der betreffenden Gebäude in das geschichtliche Umfeld. Danach wird das Hauptaugenmerk auf die konstruktiven Zusammenhänge gelenkt. Dabei werden möglichst alle Rahmenbedingungen erfasst: Grundstückswahl, Baugrund, Bauzeit, Baumaterialien, Baumethoden, technische Ausstattungen und Kostenrelevanz. Vertiefend folgen dann eine Erarbeitung der Wechselwirkung zu den ursprünglichen Nutzungen und die Hinlenkung zur Erkenntnis der speziellen Korrelation zwischen Konstruktion und Funktion auch bei den historischen Bauten. Die zukünftigen Architekten müssen auch lernen, sich und ihren schöpferischen Ansatz selbst kritisch zu hinterfragen. Erst das umfassende Wissen um die geschichtlichen wie kon-struktiven Zusammenhänge ermöglicht ihnen eine eigene Positionierung. Beim Erhalt historischer Gebäude durch einen möglichst schonenden Umgang mit vorhandener Substanz können gleichermaßen wirtschaftliche Interessen der Investoren wie auch die Forderungen des Denkmalschutzes befriedigt werden. Anhand der ausgewählten Bauwerke in Berlin, die alle unter Denkmalschutz stehen, konnten die Architekturstudenten verschiedene Ansätze von erfolgten Umnutzungen und den daraus folgenden Umbauten studieren. Die Bauten bieten einen Abriss der Bau- und Kulturgeschichte Preußens über einen Zeitraum von 100 Jahren vom Ende des 18. bis zum Ende des 19. Jahrhunderts.
Die Anforderungen, die von Privatpersonen und Unternehmen an das Internet gestellt werden, sind im Laufe der letzten Jahre stark gewachsen. Längst dient das WWW nicht mehr nur für den Abruf von Informationen, sondern wird als universelle Plattform für Dienstleistungen aller Art verstanden. Im Zuge dieser Entwicklung hat es sich als neue Plattform für die Kommunikation zwischen Kunde und Anbieter etabliert und dient als Medium für die Ausführung komplexer Geschäftsprozesse. Für die Realisierung solcher Geschäftsprozesse werden Web-Anwendungen eingesetzt. Diese sind in ihrer Erstellung wesentlich aufwendiger, als eine Präsentation statischer Webseiten, und damit teurer und fehleranfälliger. Frameworks erlauben, durch die Standardisierung allgemeiner Vorgänge innerhalb von Web-Anwendungen, deren zeit- und damit kosteneffektivere Entwicklung. Zusätzlich kann, durch den Einsatz vorgefertigter Komponenten, der Grad der Wiederverwendung bereits gefundener Lösungen erhöht, und damit nochmals eine Zeitersparnis bei Entwurf und Erstellung einer Anwendung erreicht werden. Ein solches Framework namens "WACoF" wird an der FH Konstanz aktiv entwickelt, basierend auf den Forschungsergebnissen und unter der Leitung von Herrn Prof. Dr. Schmid. In diesem Zusammenhang sind bisher unter anderem Diplomarbeiten von Florian Falkenstein [Falk01] und Marc Nädele [Nädele02] angefertigt worden. Die Hauptaufgabe dieser Diplomarbeit bestand in der Abänderung des oben genanntes Frameworks, so dass sich damit Anwendungen nicht mehr in Programmcode, sondern über einen Anwendungsdeskriptor definieren lassen. Ein solcher Deskriptor enthält sämtliche Informationen, die den Aufbau der Anwendung aus Komponenten beschreiben. Um eine konkrete Anwendung zu erstellen, muss der Anwendungsentwickler lediglich diese Informationen, wie Customizing und die Verbindungen zwischen den Komponenten, in Form einer XML-Datei zur Verfügung stellen. Die Definition der Anwendung wird damit zum einen unabhängig von der konkreten Programmiersprache des Frameworks, zum anderen wird sie in einem einzigen Ort konzentriert und in einer klar definierten Form beschrieben, was ihre Bearbeitung durch entsprechende Tools - wie z.B. grafische Manipulation oder automatische Prüfung auf Korrektheit, und damit frühzeitige Erkennung von Fehlern - erheblich vereinfacht. Dazu war es zuerst notwendig, das Framework in Hinblick auf die Einführung des Deskriptors zu analysieren. Aufgrund dieser Analyse wurden allgemeine Bedingungen für den Zusammenbau von Komponenten aufgestellt, und anhand der bestehenden Anwendungskomponenten (siehe Diplomarbeit von Marc Nädele [Nädele02]) überprüft. Dann wurde das Framework um neue Elemente, wie eine Komponenten-Fabrik und einen Aktivitäts-Pool, erweitert und bestehende Elemente, wie die ComposedActivity und der Crosslink-Mechanismus, neu entworfen bzw. angepasst.
Optimierungsansätze zur Verbesserung der Leistungsbeschreibungen bei öffentlichen Bauvorhaben
(2021)
Elbphilharmonie, BER, Bischofsresistenz Limburg, Stuttgart 21, Alter Elbtunnel Hamburg. Alles bekannte deutsche Bauprojekte der letzten 20 Jahre. Alle mit einer Gemeinsamkeit: Exorbitante Kostenexplosionen und Bauzeitenverzögerungen.
In dieser Arbeit wird aufgezeigt, weshalb solche Kostenexplosionen auch aufgrund von Unklarheiten bzw. Fehlern in Leistungsbeschreibungen entstehen und welches enorme Potential klare und erschöpfende Leistungsbeschreibungen haben, um bereits im Vorfeld eines Bauvorhabens die Weichen für einen reibungslosen und erfolgreichen Projektverlauf zu stellen.
Im Rahmen des KONTEC Kongresses 2021 in Dresden wurden sowohl ein Poster als auch ein Paper des Forschungsprojekts EKont veröffentlicht. Neben der Schilderung des Versuchsaufbaus werden neuartige Schneidprozesse und Abtragsprinzipien vorgestellt. Im Anschluss daran werden vier Prototypen (gleichsinniger Stufenfräser, gegenläufiger Stufenfräser, mittig gegenläufiger Stufenfräser - Getriebe und oszillierender Werkzeugaufsatz) beschrieben.
Wenn neue Tätigkeiten in der PVC-Abdichtlinie2 der Lackiererei bearbeitet werden müssen, ist es notwendig die gesamte Produktionslinie zu betrachten, um eine Aussage darüber machen zu können, an welchem Arbeitsplatz diese neuen Tätigkeiten bearbeitet werden können. Die Zuweisung von neuen Tätigkeiten an Arbeitsplätze wird Eintakten genannt. Ziel der Diplomarbeit war es, ein Konzept für die automatische Eintaktung von manuellen Tätigkeiten an der PVC-Abdichtlinie2 der Lackiererei zu erstellen. Anschließend sollte ein Programm entwickelt werden, womit eine automatische Eintaktung durchgeführt werden kann. Bei der Erstellung dieses Programms sollte darauf geachtet werden, dass das Programm leicht zu handhaben ist. Weiterhin sollte das Programm so gestaltet sein, dass es auch durch die ähnlich aufgebaute Abdichtlinie1 genutzt werden kann.
Der Prozess der Optimierung ist in Bereichen wie der Mathematik, Wirtschaft sowie sämtlichen Ingenieurswissenschaften ein zentrales und nicht mehr wegzudenkendes Werkzeug. Mit der Motivation der Nachhaltigkeit, Effizienz und Kosteneinsparung wird im Bauwesen ein optimaler Einsatz der Materialien gefordert unter Einhaltung der geforderten statischen Nachweise.
Die Methode der Verformungsreduzierung durch Materialumverteilung (kurz: MVM) greift die Anforderung auf, Material möglichst effizient einzusetzen. Diese Methode basiert darauf, die Steifigkeiten innerhalb eines geometrisch festgelegten und bereits vordimensionierten Tragwerkes durch Materialumverteilung in einem iterativen Prozess neu zu positionieren, wodurch die Verformung an einem vorab definierten kritischen Punkt reduziert wird und gleichzeitig die Verteilung der Ausnutzung vergleichmäßigt wird.
Ziel dieser Bachelorarbeit ist es, das in einer vorherigen Abschlussarbeit bereits entwickelte Grasshopper-Skript für eine praxisbezogene Anwendung zu optimieren und zu erweitern. Dieses Grasshopperskript soll neu strukturiert und auf Fehler untersucht werden. Ebenso soll ein Abbruchkriterium implementiert werden, das die Optimierung automatisch abbricht, sobald keine nennenswerte Reduzierung der Verformung infolge der Materialumverteilung mehr erfolgt. Dabei soll stetig die Tragfähigkeit aller Stäbe eingehalten sein.
Das optimierte Tool soll abschließend anhand geeigneter praxisorientierter Beispiele angewandt und validiert werden.
Entwicklung eines grafischen Editors zur Metamodellierung sowie Validierung von Modell-Instanzen
(2015)
Im Rahmen dieser Arbeit wurde ein grafischer Editor für die Modellierung von Metamodellen entwickelt. Der Editor wird in einem beliebigen Web-Browser ausgeführt und ist somit plattformunabhängig nutzbar. Er implementiert das an der HTWG Konstanz im Projekt Progress in Graphical Modeling Frameworks entwickelte MoDiGen-Metamodell, und erlaubt die Modellierung von Metamodellen, die zu diesem Meta-Metamodell konform sind.
Als Ausgabeformat nutzt der Editor eine JSON-Struktur, was die Datenhaltung mit Hilfe von JSON-basierten nicht-relationalen Datenbanken ermöglicht und die Implementierung des Editors in JavaScript erleichterte.
Zusätzlich wurde ein Werkzeug entwickelt, mit welchem die Instanzen des modellierten Metamodells, die Modelle, gegen das Metamodell geprüft werden können. Dieses Programm ist sowohl für die Clientseite im Web-Browser zur Prüfung eines Modells, als auch für die Serverseite zur Prüfung der Modelldaten vor der Persistierung relevant, weshalb die Validierung in JavaScript bzw. CoffeeScript entwickelt wurde. Im Web-Browser kann diese Implementierung direkt ausgeführt werden, serverseitig wurde die von der Mozilla Foundation in Java geschriebene JavaScript-Implementierung Rhino verwendet, um das JavaScript-Programm aufzurufen.
Der Theorieteil der Arbeit beschäftigt sich mit den Meta-Metamodellen, die die Grundlage des MoDiGen-Metamodells bilden, sowie ausführlich mit dem MoDiGen-Metamodell selbst. Im Praxisteil wird die Entwicklung und der Aufbau des Editors und des Validators erläutert.
Die vorliegende Arbeit soll die Möglichkeiten von XML und den dazugehörigen Technologien bei der Entwicklung eines komplexen Softwaresystems und dem damit verbundenen Datenaustausch aufzeigen. Dafür soll die Leistungsfähigkeit und Eignung oder ggf. Nichteignung der XML-Technologie durch Entwurf, Aufbau und Test eines Prototyps, durch XML-konforme Ein- und Ausgabe sowie durch Daten- Aufbereitung und -auswertungen nachgewiesen werden. Daten unterschiedlicher Datenbestände werden ins XML-Format transformiert und in eine zentrale Datenbank gespeichert. Diese sollen mittels XML für alle Fremddatensysteme bereitgestellt sowie in HTML- und PDF-Formate transformiert werden.
Im Jahr 2009 startet die AMSAT Deutschland e.V. das Raumfahrzeug "Phase 5-A" zum Mars. Dort wird das "Archimedes"-Ballon-Landesystem der Mars Society abgesetzt, während das Raumfahrzeug in einer elliptischen Umlaufbahn um den Mars bleibt und als Relaisstation für die Kommunikation zwischen Landesystem und Bodenstation auf der Erde arbeitet. Für diese Raumfahrtmission wurde an der HTWG Konstanz im Fachbereich Elektrotechnik und Informationstechnik eine Diplomarbeit über einen Teil der Antennen des Raumfahrzeugs angefertigt. Bodenstation und Raumfahrzeug kommunizieren durch einen Uplink im S-Band (2,45 GHz) und einen Downlink im X-Band (10,45 GHz). Im normalen Betriebsfall werden auf dem Raumfahrzeug Richtantennen eingesetzt. Sowohl für Uplink, als auch für den Downlink wird rechtszirkular polarisierte Strahlung verwendet. In bestimmten Betriebsfällen sind die Richtantennen des Raumfahrzeugs nicht zur Erde ausgerichtet. Dies ist der Fall, wenn die Triebwerke in Betrieb sind, oder im extremen Fall, wenn das Lageregelungssystem temporär oder komplett ausfällt. Für diesen Fall sind möglichst isotrop abstrahlende Notfallantennen notwendig, um zumindest eine minimale Kommunikation zur Erde zu gewährleisten. In der Diplomarbeit wurde für die Richtantenne für das X-Band ein Doppelreflektorsystem (Cassegrain-System) gewählt. Im berechneten Design wurde der Durchmesser des Hauptreflektors zu 2000 mm und der Durchmesser des Subreflektors zu 302,3 mm gewählt. Ebenfalls berechnet wurde die zugehörige Kegelhorn-Antenne als Primärstrahler, sowie ein praktikabler Zirkularpolarisator vorgeschlagen. Bei den isotropen Antennen stellt sich das Problem, dass das Raumfahrzeug sehr groß gegenüber der Wellenlänge ist und dadurch praktisch eine Hemisphäre abgeschattet wird. Deshalb wurden für die S-Band- und X-Band-Notfallantennen Antennen gesucht, die eine möglichst gute hemisphärische Abstrahlung haben. Zwei dieser hemisphärisch abstrahlenden Antennen werden jeweils auf entgegengesetzten Seiten des Raumfahrzeugs montiert und ermöglichen so eine (nahezu) isotrope Abstrahlung. Für die S-Band-Notfallantenne wurden unterschiedliche Antennentypen (Drehkreuzantenne, Eggbeater-Antenne, Lindenblad-Antenne, Quadrifilar-Helix-Antenne und Streifenleitungsantenne) hinsichtlich ihres Abstrahlungsdiagramms und der Eignung für Raumfahrtanwendung miteinander verglichen. Als Ergebnis stellt sich die Streifenleitungsantenne als am besten geeignet heraus, da dieser Antennentyp über viele Freiheitsgrade (z.B. Form, Abmessungen und Materialien) verfügt. Über die Freiheitsgrade kann das Abstrahlungsdiagramm geformt werden. Auch für die X-Band-Notfallantenne wurde ebenfalls die Streifenleitungsantenne untersucht. Dieser Antennentyp weist allerdings einige gravierende Nachteile im Sendebetrieb auf: Das gravierendste Problem sind die hohen Verluste dieses Antennentyps. Deshalb wurde für die X-Band-Notfallantenne ein offener Hohlleiter mit zusätzlichen Reflektionselementen vorgeschlagen. Ein offener Hohlleiter strahlt bereits relativ stark gebündelt ab. Die zusätzlichen Reflektionselemente weiten die Abstrahlung aus. So wird eine annähernd hemisphärische Abstrahlung möglich. Das Raumfahrzeug wird zumindest zeitweilig durch Rotation um die eigene Achse stabilisiert (Spin-Stabilisation). Sind die Antennen außerhalb der Rotationsachse montiert, so tritt ein mit der Rotationsdauer sich periodisch ändernder Doppler-Effekt auf. Problematisch wird dies, wenn die Frequenzverschiebung durch den Doppler-Effekt in die Größenordnung der Bandbreite des Nutzsignals kommt. Dadurch wird die Dekodierung des Nutzsignals erschwert.
In Maun, Botswana, a self-sufficient, sustainable and future-oriented district will be created, the Maun Science Park. Within this project, several 5-8 storey smart homes shall be built in sustainable construction. The aim of this thesis is to develop a sustainable structural concept for those homes of the Maun Science Park. In a first step, the general basics for tall building structures and sustainable construction were established. Based on those fundamentals, criteria for the structural requirements, the ecological as well as the social sustainability of a structural design could be defined. Subsequently, four structural systems were drafted: a concrete core structure, a steel shear frame structure, a rammed earth shear wall structure and a wooden diagrid structure. In addition to the pre-dimensioning of the systems, a life cycle assessment was set up to evaluate the ecological sustainability of the designs. With the help of a utility value analysis, the wooden diagrid structure was determined as the preferred variant. The comparison of the designs also allows to draw general conclusions for the development of sustainable tall building structures. The results of the life cycle assessment show the advantage of wood as an ecological building material over industrially manufactured building materials, such as steel and concrete. Whereas rammed earth, a likewise ecological building material, is not convincing due to its low strength. In general, a balance is created in the life cycle assessment between ecological and industrially manufactured products in regard of strength and environmental impact. In terms of social sustainability, the design of the structure system can significantly influence the flexibility and use of local resources. However, due to the diversity of sustainable construction, the development of a structural system should be linked to an overarching sustainability concept that takes architecture and stakeholders into account.
Online-Reisebewertungsplattformen sind der Treffpunkt für Touristen, um ihre Erlebnisse zu teilen und einander zu beeinflussen. Die Untersuchung des Besuchererlebnisses beim Besuch eines Museums kann sich positiv auf die Museumsentwicklung auswirken. In dieser Arbeit wurde eine qualitative Inhaltsanalyse verwendet, um die positiven und negativen Aspekte von Museumsbesuchen im indonesischen Nationalmuseum zu untersuchen. Durch die Datenanalyse von 420 TripAdvisor-Bewertungen des Nationalmuseums wurden die Aspekte ermittelt, die zur Zufriedenheit oder Unzufriedenheit der Besucher beitragen. Dadurch werden Museumsfachleute in die Lage versetzt, Museumsbesuche weiterzuentwickeln und zu verbessern.
Das Ergebnis dieser Studie zeigt, dass es 12 wichtige Themen gibt, die direkt mit der Erlebniswelt der Besucher im Museum verbunden sind, nämlich Ausstellungsdesign, Museumsidentität, First-hand Experience, Zugänglichkeit, Dienstleistungsumfeld, Architektur, Orientierung und Beschilderung, Annehmlichkeiten, Führungen, Wartungsarbeiten, Geschenkladen und Café, Mitarbeiter. Zu den positiven Aspekten der 12 Themen gehören die umfassenden Sammlungen, die Ausstellungsgestaltung, die Möglichkeit, Neues zu lernen, die günstigen Eintrittspreise, die strategische Lage des Museums, die informativen Museumsführer und die Dienstleistungen für eine Vielzahl von Museumsbesuchern. Bei den negativen Aspekten des Museums konzentrierten sich die Klagen der Besucher im Allgemeinen auf den Mangel an Interaktivität, Beschreibung, Kontext und Beleuchtung der Exponate. Darüber hinaus beklagten sich die Besucher über die Überfüllung an den Wochenenden, die ungepflegten Toiletten, das Verhalten des Personals und die Renovierungsarbeiten, die während der Öffnungszeiten des Museums durchgeführt wurden. Zur Verbesserung der Besuchsqualität sollte das Museum die Interaktivität und die Pflege der Sammlungen intensivieren, eine bessere Beleuchtung installieren, ausführliche Informationen über die Exponate bereitstellen, den Kundenservice und Mitarbeiterschulungen verbessern, Führungen für Kinder anbieten und einen offiziellen Museumsladen eröffnen.
This paper introduces the concept of Universal Memory Automata (UMA) and automated compilation of Verilog Hardware Description Language (HDL) code at Register Transfer Level (RTL) from UMA graphs for digital designs. The idea is based on the observation that Push Down Automata (PDA) are able to process the Dyk-Language - commonly known as the balanced bracket problem - with a finite set of states while Finite State Machines (FSM) require an infinite set of states. Since infinite sets of states are not applicable to real designs, PDAs appear promising for types of problems similar to the Dyk-Language. PDAs suffer from the problem that complex memory operations need to be emulated by a specific stack management. The presented UMA therefore extends the PDA by other types of memory, e.g. Queue, RAM or CAM. Memories that are eligible for UMAs are supposed to have at least one read and one write port and a one-cycle read/write latency. With their modified state-transfer- and output-function, UMAs are able to operate user-defined numbers, configurations and types of memories. Proof of concept is given by an implementation of a cache coherency protocol, i.e. a practical problem in microprocessor design.