Refine
Year of publication
Document Type
- Conference Proceeding (642)
- Article (429)
- Other Publications (143)
- Part of a Book (141)
- Working Paper (128)
- Book (118)
- Report (115)
- Journal (Complete Issue of a Journal) (85)
- Master's Thesis (77)
- Doctoral Thesis (58)
- Bachelor Thesis (44)
- Study Thesis (10)
- Patent (7)
- Preprint (4)
- Course Material (2)
- Journal (2)
- Moving Images (1)
Language
- German (1115)
- English (883)
- Multiple languages (8)
Keywords
Institute
- Fakultät Architektur und Gestaltung (41)
- Fakultät Bauingenieurwesen (105)
- Fakultät Elektrotechnik und Informationstechnik (34)
- Fakultät Informatik (121)
- Fakultät Maschinenbau (60)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (106)
- Institut für Angewandte Forschung - IAF (115)
- Institut für Naturwissenschaften und Mathematik - INM (3)
- Institut für Optische Systeme - IOS (40)
- Institut für Strategische Innovation und Technologiemanagement - IST (60)
In this paper, a gain-scheduled nonlinear control structure is proposed for a surface vessel, which takes advantage of extended linearisation techniques. Thereby, an accurate tracking of desired trajectories can be guaranteed that contributes to a safe and reliable water transport. The PI state feedback control is extended by a feedforward control based on an inverse system model. To achieve an accurate trajectory tracking, however, an observer-based disturbance compensation is necessary: external disturbances by cross currents or wind forces in lateral direction and wave-induced measurement disturbances are estimated by a nonlinear observer and used for a compensation. The efficiency and the achieved tracking performance are shown by simulation results using a validated model of the ship Korona at the HTWG Konstanz, Germany. Here, both tracking behaviour and rejection of disturbance forces in lateral direction are considered.
Creatio ex nihilo
(2015)
Von Kommunikationsdesignern wird erwartet, dass sie kreativ sind. Es wird von ihnen gefordert, dass sie Ideen haben, die innovativ, neu und originell wirken. Diese Anforderung bekommen Gestalter schon früh in ihrer Ausbildung zu spüren. Die Frage, die sich diese Arbeit stellt, ist: Kann dieses Ziel überhaupt erreicht werden? Oder ist das Verfolgen von Originalität nur eine Illusion? Oder gar ein Mythos? Wie schon Picasso anmerkte: »Kunst ist Diebstahl.« Wenn nichts Neues geschaffen werden kann, müssen wir einen Weg finden, Bestehendes so zu verändern, dass das Ergebnis mehr ist als die Summe der Einzelteile. Der Diebstahl bestehender kreativer Leistung wäre somit Teil unseres Berufsfelds und sollte auch in der Designerausbildung eine wichtige Rolle spielen. Ich stelle mich mit dieser Arbeit dem Mythos der Originalität, dem Glauben an eine »creatio ex nihilo«, und beschäftige mich mit dessen Einfluss auf den Designprozess und den möglichen Auswirkungen auf die Ausbildung junger Gestalter.
Der Begriff der Originalität wird heute sehr unkontrolliert verwendet. Mittels einer quantitativen Inhaltsanalyse, Experteninterviews sowie Telefongesprächen wurde der Begriff deshalb hinterfragt und anders definiert. Die Auswirkungen auf den Designprozess wurden mittels eines Experiments mit Studierenden der Studiengänge
Kommunikationsdesign ermittelt. Dabei mussten die Probanden unter dem Druck einer originellen Idee gestalten. Die Lösungen wurden anschließend in einer Online-Umfrage von mehreren Personen subjektiv bewertet. Alle gesammelten Inhalte finden sich wieder in sechs Kapiteln zum Mythos der Originalität im Kommunikationsdesign (Teil A) und einer Forschungsdokumentation (Teil B).
Cardiovascular diseases (CVD) are leading contributors to global mortality, necessitating advanced methods for vital sign monitoring. Heart Rate Variability (HRV) and Respiratory Rate, key indicators of cardiovascular health, are traditionally monitored via Electrocardiogram (ECG). However, ECG's obtrusiveness limits its practicality, prompting the exploration of Ballistocardiography (BCG) as a non-invasive alternative. BCG records the mechanical activity of the body with each heartbeat, offering a contactless method for HRV monitoring. Despite its benefits, BCG signals are susceptible to external interference and present a challenge in accurately detecting J-Peaks. This research uses advanced signal processing and deep learning techniques to overcome these limitations. Our approach integrates accelerometers for long-term BCG data collection during sleep, applying Discrete Wavelet Transforms (DWT) and Ensemble Empirical Mode Decomposition (EEMD) for feature extraction. The Bi-LSTM model, leveraging these features, enhances heartbeat detection, offering improved reliability over traditional methods. The study's findings indicate that the combined use of DWT, EEMD, and Bi-LSTM for J-Peak detection in BCG signals is effective, with potential applications in unobtrusive long-term cardiovascular monitoring. Our results suggest that this methodology could contribute to HRV monitoring, particularly in home settings, enhancing patient comfort and compliance.
Die Frage „Wozu braucht man das?“ vonseiten der Studierenden oder Aussagen wie „Das habe ich im Beruf später nie mehr benötigt.“ von ehemaligen Studierenden ist den meisten Mathematikdozierenden sehr vertraut. Im Projekt BiLeSA wird dem Wunsch nach Integration von Praxisnähe im Mathematikunterricht mithilfe einer Smartphone-App, welche ausgewählte Themen in der Mathematik anhand von digitalen Bildern sichtbar macht, umgesetzt. Bei den ausgewählten Themen handelt es sich um (affin) lineare Abbildungen, Ableitungen in höheren Raumdimensionen und Potenzen von Komplexen Zahlen. Die Konzeptionierung des Lernobjekts erfolgte mit dem Design Based Research (DBR) Ansatz, welches im Basisprojekt des IBH-Labs „Seamless Learning“ konzipiert und entwickelt wurde.
We analyse the results of a finite element simulation of a macroscopic model, which describes the movement of a crowd, that is considered as a continuum. A new formulation based on the macroscopic model from Hughes [2] is given. We present a stable numerical algorithm by approximating with a viscosity solution. The fundamental setting is given by an arbitrary domain that can contain several obstacles, several entries and must have at least one exit. All pedestrians have the goal to leave the room as quickly as possible. Nobody prefers a particular exit.
Wer schon einmal dicht gedrängt vor der Konzertbühne stand kann sich die aussichtslose Lage, wenn die Stimmung kippt und Panik aufkommt, gut vorstellen. Es ist sehr wichtig, Räume und Events, die zeitweise von sehr vielen Menschen aufgesucht werden, so zu gestalten und zu planen, dass maximale Sicherheit gewährleistet ist. Damit eine öffentliche Veranstaltung reibungslos verläuft ist eine gründliche Planung, also ein qualitativ hochwertiges Crowd Management unabdingbar.
Ein Holzhaus als Botschaft. Die erste diplomatische Vertretung des Deutschen Reiches in Ankara 1924
(2015)
Auf die Gründung der türkischen Republik und die Verlagerung der Hauptstadt nach Ankara reagierte das Deutsche Reich 1924 zeitnah mit der Errichtung eines Botschaftsgebäudes in Fertigteilbauweise. Dieses präfabrizierte Holzhaus wurde von der für den Holzbau der Moderne bedeutenden Firma Christoph & Unmack AG aus Niesky/Oberlausitz geliefert. Nach Errichtung eines größeren, massiven Botschaftsgebäudes in Ankara wurde das Holzhaus 1934 auf das Gelände des Atatürk Orman Çiftliği transloziert, wo es noch heute existiert. 2010 konnte es einer gründlichen Baudokumentation unterzogen werden. Im Rahmen von drei Einzelbeiträgen werden die Ergebnisse der Untersuchungen an diesem ebenso ungewöhnlichen wie bedeutenden Baudenkmal vorgestellt.
Im diesem Beitrag geht es darum zu zeigen, dass die spezifisch ethische Dimension der Go-vernanceethik als kohärentistische Ethikauffassung gedeutet - und begründungstheoretisch unterfüttert - werden kann. Mein Blick richtet sich also vor allem auf die Frage, wie ethisches Nachdenken kohärentistisch konzeptualisiert werden kann und, im zweiten Schritt, in welchem Sinne es m.E. eine strukturelle Parallele bzw. Anschlussfähigkeit von Kohärentismus und Governanceethik gibt. Es geht also im Folgenden weder darum, die Governanceethik als bereichsspezifische wirtschafts- und unternehmensethische Theorie zu untersuchen noch darum, bestimmte Referenzpunkte des Wielandschen Governanceethik-Modells1 wie z.B. ihre systemtheoretischen Prämissen zu diskutieren. Beginnen werde ich mit einer Bestimmung ethischen Nachdenkens als einer Orientierungsreflexion, die nicht letzte Prinzipien begründen, sondern vernünftige Selbstorientierung moralischer Akteure ermöglichen soll. Vor diesem Hintergrund wird das Theoriemodell des ethischen Kohärentismus entfaltet, um abschließend zu zeigen, dass dieses wesentliche Prämissen hinsichtlich der Auffassung über die Funktion ethischen Nachdenkens mit der Governanceethik teilt.
Reed-Muller (RM) codes have recently regained some interest in the context of low latency communications and due to their relation to polar codes. RM codes can be constructed based on the Plotkin construction. In this work, we consider concatenated codes based on the Plotkin construction, where extended Bose-Chaudhuri-Hocquenghem (BCH) codes are used as component codes. This leads to improved code parameters compared to RM codes. Moreover, this construction is more flexible concerning the attainable code rates. Additionally, new soft-input decoding algorithms are proposed that exploit the recursive structure of the concatenation and the cyclic structure of the component codes. First, we consider the decoding of the cyclic component codes and propose a low complexity hybrid ordered statistics decoding algorithm. Next, this algorithm is applied to list decoding of the Plotkin construction. The proposed list decoding approach achieves near-maximum-likelihood performance for codes with medium lengths. The performance is comparable to state-of-the-art decoders, whereas the complexity is reduced.
List decoding for concatenated codes based on the Plotkin construction with BCH component codes
(2021)
Reed-Muller codes are a popular code family based on the Plotkin construction. Recently, these codes have regained some interest due to their close relation to polar codes and their low-complexity decoding. We consider a similar code family, i.e., the Plotkin concatenation with binary BCH component codes. This construction is more flexible regarding the attainable code parameters. In this work, we consider a list-based decoding algorithm for the Plotkin concatenation with BCH component codes. The proposed list decoding leads to a significant coding gain with only a small increase in computational complexity. Simulation results demonstrate that the Plotkin concatenation with the proposed decoding achieves near maximum likelihood decoding performance. This coding scheme can outperform polar codes for moderate code lengths.
The encoding of antenna patterns with generalized spatial modulation as well as other index modulation techniques require w-out-of-n encoding where all binary vectors of length n have the same weight w. This constant-weight property cannot be obtained by conventional linear coding schemes. In this work, we propose a new class of constant-weight codes that result from the concatenation of convolutional codes with constant-weight block codes. These constant-weight convolutional codes are nonlinear binary trellis codes that can be decoded with the Viterbi algorithm. Some constructed constant-weight convolutional codes are optimum free distance codes. Simulation results demonstrate that the decoding performance with Viterbi decoding is close to the performance of the best-known linear codes. Similarly, simulation results for spatial modulation with a simple on-off keying show a significant coding gain with the proposed coded index modulation scheme.
Spatial modulation (SM) is a low-complexity multiple-input/multiple-output transmission technique that combines index modulation and quadrature amplitude modulation for wireless communications. In this work, we consider the problem of link adaption for generalized spatial modulation (GSM) systems that use multiple active transmit antennas simultaneously. Link adaption algorithms require a real-time estimation of the link quality of the time-variant communication channels, e.g., by means of estimating the mutual information. However, determining the mutual information of SM is challenging because no closed-form expressions have been found so far. Recently, multilayer feedforward neural networks were applied to compute the achievable rate of an index modulation link. However, only a small SM system with two transmit and two receive antennas was considered. In this work, we consider a similar approach but investigate larger GSM systems with multiple active antennas. We analyze the portions of mutual information related to antenna selection and the IQ modulation processes, which depend on the GSM variant and the signal constellation.
Automotive computing applications like AI databases, ADAS, and advanced infotainment systems have a huge need for persistent memory. This trend requires NAND flash memories designed for extreme automotive environments. However, the error probability of NAND flash memories has increased in recent years due to higher memory density and production tolerances. Hence, strong error correction coding is needed to meet automotive storage requirements. Many errors can be corrected by soft decoding algorithms. However, soft decoding is very resource-intensive and should be avoided when possible. NAND flash memories are organized in pages, and the error correction codes are usually encoded page-wise to reduce the latency of random reads. This page-wise encoding does not reach the maximum achievable capacity. Reading soft information increases the channel capacity but at the cost of higher latency and power consumption. In this work, we consider cell-wise encoding, which also increases the capacity compared to page-wise encoding. We analyze the cell-wise processing of data in triple-level cell (TLC) NAND flash and show the performance gain when using Low-Density Parity-Check (LDPC) codes. In addition, we investigate a coding approach with page-wise encoding and cell-wise reading.
Non-volatile NAND flash memories store information as an electrical charge. Different read reference voltages are applied to read the data. However, the threshold voltage distributions vary due to aging effects like program erase cycling and data retention time. It is necessary to adapt the read reference voltages for different life-cycle conditions to minimize the error probability during readout. In the past, methods based on pilot data or high-resolution threshold voltage histograms were proposed to estimate the changes in voltage distributions. In this work, we propose a machine learning approach with neural networks to estimate the read reference voltages. The proposed method utilizes sparse histogram data for the threshold voltage distributions. For reading the information from triple-level cell (TLC) memories, several read reference voltages are applied in sequence. We consider two histogram resolutions. The simplest histogram consists of the zero-and-one ratios for the hard decision read operation, whereas a higher resolution is obtained by considering the quantization levels for soft-input decoding. This approach does not require pilot data for the voltage adaptation. Furthermore, only a few measurements of extreme points of the threshold voltage distributions are required as training data. Measurements with different conditions verify the proposed approach. The resulting neural networks perform well under other life-cycle conditions.
Reliability is a crucial aspect of non-volatile NAND flash memories, and it is essential to thoroughly analyze the channel to prevent errors and ensure accurate readout. Es-timating the read reference voltages (RRV s) is a significant challenge due to the multitude of physical effects involved. The question arises which features are useful and necessary for the RRV estimation. Various possible features require specialized hardware or specific readout techniques to be usable. In contrast we consider sparse histograms based on the decision thresholds for hard-input and soft-input decoding. These offer a distinct advantage as they are derived directly from the raw readout data without the need for decoding. This paper focuses on the information-theoretic study of different features, especially on the exploration of the mutual information (MI) between feature vector and RRV. In particular, we investigate the dependency of the MI on the resolution of the histograms. With respect to the RRV estimation, sparse histograms provide sufficient information for near-optimum estimation.
Large persistent memory is crucial for many applications in embedded systems and automotive computing like AI databases, ADAS, and cutting-edge infotainment systems. Such applications require reliable NAND flash memories made for harsh automotive conditions. However, due to high memory densities and production tolerances, the error probability of NAND flash memories has risen. As the number of program/erase cycles and the data retention times increase, non-volatile NAND flash memories' performance and dependability suffer. The read reference voltages of the flash cells vary due to these aging processes. In this work, we consider the issue of reference voltage adaption. The considered estimation procedure uses shallow neural networks to estimate the read reference voltages for different life-cycle conditions with the help of histogram measurements. We demonstrate that the training data for the neural networks can be enhanced by using shifted histograms, i.e., a training of the neural networks is possible based on a few measurements of some extreme points used as training data. The trained neural networks generalize well for other life-cycle conditions.
The growing error rates of triple-level cell (TLC) and quadruple-level cell (QLC) NAND flash memories have led to the application of error correction coding with soft-input decoding techniques in flash-based storage systems. Typically, flash memory is organized in pages where the individual bits per cell are assigned to different pages and different codewords of the error-correcting code. This page-wise encoding minimizes the read latency with hard-input decoding. To increase the decoding capability, soft-input decoding is used eventually due to the aging of the cells. This soft-decoding requires multiple read operations. Hence, the soft-read operations reduce the achievable throughput, and increase the read latency and power consumption. In this work, we investigate a different encoding and decoding approach that improves the error correction performance without increasing the number of reference voltages. We consider TLC and QLC flashes where all bits are jointly encoded using a Gray labeling. This cell-wise encoding improves the achievable channel capacity compared with independent page-wise encoding. Errors with cell-wise read operations typically result in a single erroneous bit per cell. We present a coding approach based on generalized concatenated codes that utilizes this property.
Soft-input decoding of concatenated codes based on the Plotkin construction and BCH component codes
(2020)
Low latency communication requires soft-input decoding of binary block codes with small to medium block lengths.
In this work, we consider generalized multiple concatenated (GMC) codes based on the Plotkin construction. These codes are similar to Reed-Muller (RM) codes. In contrast to RM codes, BCH codes are employed as component codes. This leads to improved code parameters. Moreover, a decoding algorithm is proposed that exploits the recursive structure of the concatenation. This algorithm enables efficient soft-input decoding of binary block codes with small to medium lengths. The proposed codes and their decoding achieve significant performance gains compared with RM codes and recursive GMC decoding.
Mobile-Agenten erweitern die Möglichkeiten von verteilten Systemen dadurch, dass sie lauffähigen Code transportieren und diesen ausführen können. Sie können sich frei im Netzwerk bewegen, dort nach Informationen suchen und Aufgaben im Namen ihrer Auftraggeber ausführen. Viele Mobile-Agenten-Plattformen verwenden Java als Laufzeitumgebung, dadurch sind sie unabhängig vor dem darunter-liegenden Betriebssystem. Auf eine Unterstützung einer Anzeigegeräte-unabhängigen Benutzer-Agent-Interaktion wird aber meist nicht geachtet. Betrachtet man sich diese Anzeigegeräte mit den unterschiedlichen Eigenschaften in Display-Größe, Farbfähigkeit und Möglichkeiten für die Ein-und Ausgabe, besonders im Zusammenhang mit mobilen Geräten, z.B. Smartphpones und PDAs, ist es verständlich warum der Benutzer oft noch auf herkömmliche Geräte zur Interaktion angewiesen ist. Der Fokus dieser Diplomarbeit lag auf der Entwicklung eines Frameworks, das graphische Java-Benutzerschnittstellen in einem geräteunabhängigen XML-Format beschreibt und daraus ein geräteabhängiges Format erzeugt. Ein besonderes Augenmerk lag dabei in der einfachen Erweiterbarkeit des Frameworks, um zukünftige Ausgabeformate zu unterstützen, weswegen die Technik XSLT zum Einsatz kam. Nach dem Übermitteln der GUI-Daten werden über einen Rückkanal die Benutzerinteraktionen wieder dem Framewok zugeführt. Da die meisten mobilen Geräte einen Webbrowser integriert haben, eignen sich die Markup-Sprachen HTML oder WML besonders gut als Ausgabeformate für diese Geräte. Das Framework erlaubt darüberhinaus sowohl die lokale als auch die entfernte Interaktion mit den Software-Agenten. Sowohl für den Transport der GUI-Daten als auch für die Interaktion mit Agenten verwendet das Framework die Sicherheitsmechanismen der Agenten-Plattform SeMoA (Secure Mobile Agents). Das vorgestellte Framework lässt sich in SeMoA einfach integrieren und gestattet die individuelle Konfiguration der Interaktionsmethode mit einem Agenten.
Digitale Transformation
(2015)
Strategie der digitalen Ära
(2015)
Die Automobilindustrie steht wirtschaftlich aktuell besser da, als von manchem erwartet. Sie steht aber gleichzeitig großen Herausforderungen gegenüber, denn wir erleben die Überlagerung dreier Transformationen, deren Auswirkungen sich wohl in keinem Markt so gravierend niederschlagen wie in diesem. Um hierbei die Rolle als Leitmarkt zu erhalten, braucht es mehr Veränderungsintelligenz und eine noch höhere Innovationsdynamik. Diese sind mit beidhändigen Organisationen zu erreichen, die die Ambidextrie beherrschen, gleichzeitig das Kerngeschäft zu optimieren und mit strategischer Innovation Zukunft zu erfinden.
Beidhändig gestalten
(2018)
Alles digital – was nun?
(2018)
Beidhändig zum Erfolg
(2018)
Die Welt um uns herum verändert sich derzeit nachhaltig und tiefgreifend – und das in atemberaubender Geschwindigkeit. Diese Herausforderung als Chance nutzen zu können, erfordert eine neue Qualität von Wandlungsfähigkeit und Veränderungsarbeit in Unternehmen. Die Voraussetzung dafür ist ein differenziertes Verständnis der Treiber dieses (digitalen) Wandels. Dieses Kapitel bietet daher einen strukturierten Überblick über die Treiber digitaler Transformation und die Veränderungen im Unternehmensumfeld, z.B. wie die exponentielle Entwicklung digitaler Optionen einen Wettbewerb um die Monopolisierung der Kundenschnittstelle auslöst und dieser Wandel ganze Industrien radikal verändert (hat). Anhand zahlreicher Erfolgsbeispiele wird dargestellt, wie Unternehmen diesem Wandel begegnen und ihn erfolgreich gestalten können, wie sie beispielsweise die Ökonomie des Plattformwettbewerbs erfolgreich nutzen und den richtigen Zeitpunkt zum Einstieg in neu entstehende Märkte finden. Unsicherheit, Komplexität und Paradoxien sind hier unvermeidbare Begleiterscheinungen, die neue Führungs- und Organisationmodelle – Stichwort: Führung 4.0 oder Digital Leadership – sowie eine neue Form der Veränderungsarbeit notwendig machen. Die Prinzipien dieser Führung 4.0 sowie der notwendige Wandel der Veränderungsarbeit werden dargestellt und die Veränderungsintelligenz als ein empirisch fundiertes und in der Praxis erprobtes Konzept eingeführt.
LEGIC Identsystems Ltd
(2017)
Der radikale Wandel im Unternehmensumfeld bringt Unsicherheit und Komplexität mit sich. Daher ist ein Paradigmenwechsel im Management gefordert, denn scheinbar bewährte Rezepte funktionieren nicht mehr. Dieses Kapitel zeigt dazu, wie Führung 4.0 oder Digital Leadership die notwendigen dynamischen Fähigkeiten in der Organisation implementiert. Darüber hinaus wird dargestellt, wie eine Kernherausforderung der digitalen Transformation für etablierte Unternehmen gelingen kann – Ambidextrie (Beidhändigkeit) umzusetzen. Anhand zahlreicher Praxisbeispiele wird beschrieben, wie diese Beidhändigkeit – gleichzeitig das Kerngeschäft effizient zu optimieren und durch strategische Innovation in neue Geschäfte zu wachsen – strategische Erneuerung und digitale Transformation ermöglicht. Es wird aufgezeigt, wie die notwendige Unternehmerorientierung (Entrepreneur Orientation) gestärkt und Corporate Entrepreneurship erfolgreich umgesetzt werden kann. Als konkrete Option der Implementierung werden dazu unternehmerische, agile Teams – sogenannte eingebettete Unternehmerteams oder Corporate Start-ups – beschrieben. Auf Basis unserer Befragung von ca. 2000 Tech-Unternehmen und der Auswertung von mehr als 5000 Interviewminuten mit Geschäftsführern und Innovationsverantwortlichen in über 40 Unternehmen werden Empfehlungen zu Aufbau und Führung dieser Teams sowie kritische Erfolgsfaktoren erläutert.
A key objective of this research is to take a more detailed look at a central aspect of resilience in small and medium-sized enterprises (SMEs). A literature review and expert interviews were used to investigate which factors have an impact on the innovative capacity of start-ups and whether these can also be adapted by SMEs. First of all, it must be stated that there are considerable structural and process-related differences between start-ups and SMEs. These can considerably inhibit cooperation between the two forms of enterprise. However, in the same context, success factors and issues in the start-up sector could also be identified that can improve cooperation with SMEs. These and other findings are then discussed in both an economic and an academic context. This article was written as part of the research activities of the Smart Services Competence Centre (proper name: Kompetenzzentrum Smart Services), a central contact point for all questions in the area of smart service digitalization in Baden-Wuerttemberg. Here, companies can obtain information about various digital technologies and take advantage of various measures for the development of new ideas and innovative services (Kompetenzzentrum Smart Services BW: Über das Kompetenzzentrum, 2021).
Improving the tribological properties of Stainless Steels by low-temperature surface hardening
(2022)
»San Gramadón« ist ein spanisches Grammatik-Nachschlagewerk für deutsche Muttersprachler. Sie versucht den autonomen Lerner interaktiv miteinzubeziehen. Die grammatischen Inhalte werden auf spielerische Weise interessant und motivierend vermittelt. Im Zentrum stehen dabei Visualisierungen und Interaktionsmöglichkeiten mittels Pop-ups. Auf diese Weise schaut sich der Lerner die Erklärungen nicht nur an, sondern wird selber aktiv – dreht, schiebt, zieht, klappt auf – und kann die Inhalte so besser verstehen und einprägen. Als Metapher für das Grammatik-Nachschlagewerk dient die Stadt. Sich in einer fremden Sprache zurechtzufinden ist wie in eine unbekannte Stadt zu kommen. Es braucht ein Orientierungssystem. In der Sprache ist dies die Grammatik, in der Stadt der Stadt- oder beispielsweise der Metroplan. So ist das Nachschlagewerk wie ein Metronetz aufgebaut, in dem jedes grammatikalische Thema eine Haltestelle symbolisiert. Der Lerner kann frei navigieren. Es gibt keine vorgesehene Abfolge, sondern er kann, wie in einer Stadt, selber entscheiden, wann er welchen Stadtteil besichtigen bzw. welche Regel er bearbeiten will. Die kleinen Lerneinheiten befinden sich auf Karteikarten, den sogenannten Haltestellen, die wiederum in einer Kartei-Box Platz finden.
Thema der Masterarbeit ist die Zukunft des Generalunternehmers. Auf Grund verschiedener Entwicklungen in den letzten Monaten und Jahren, wie zum Beispiel dem Auflösen der Generalunternehmungssparte des Schweizer Pioniers Steiner AG, stellt sich in der Baubranche die Frage, ob das Modell des GU zukunftsfähig ist oder ob in nächster Zeit ein disruptiver Prozess Einzug erhalten könnte.
Das primäre Ziel der Arbeit ist es, herauszufinden, ob für das Geschäftsmodell des Generalunternehmers bereits oder zukünftig eine Bedrohung besteht. Dabei wird die vergangene, derzeitige und zu-künftige Lage der Baubranche analysiert. Eine Rolle spielen dabei die betrieblichen Triebkräfte, Marktanalysen und Trends. Weiterhin sollen verschiedene Trends und Innovationen in der Baubranche er-mittelt, sowie den hieraus entstehenden Einfluss für den Generalunternehmer abgeschätzt werden. Zusätzlich soll ein Analysetool entworfen werden, mit Hilfe dessen man in Zukunft schnell, einheitlich und verlässlich Trends und Innovationen analysieren und bewerten kann.
Zuerst wird das Geschäftsmodell des Generalunternehmers erläutert. Hierbei wird unter anderem die Wertschöpfung des Generalunternehmers behandelt. Danach werden die Five Forces nach Porter betrachtet. Weiterhin wird die Rolle der Unternehmenskultur hinsichtlich ihres Einflusses auf den Betriebserfolg untersucht. Im darauffolgenden Kapitel geht es um die vergangene, derzeitige und kurzfristige Entwicklung der Baubranche in Europa. Im abschließenden Kapitel werden verschiedene Trends, die das Generalunternehmer Modell betreffen, ermittelt. Zu guter Letzt wird aufgezeigt, wie wichtig Trendanalysen für die langfristige Zukunft von Generalunternehmern sind. Außerdem wird ein Analysetool erstellt und an den Trends BIM und Nachhaltigkeit angewendet.
Das Ergebnis der Masterarbeit zeigt, dass das Modell des Generalunternehmers im Vergleich zur über-geordneten Branche derzeit nicht wesentlicher bedroht ist. Der stetige Zuwachs der Inanspruchnahme von Dienstleistungen und der steigende Fachkräftemangel in der ganzen Baubranche sind Indikatoren, die die Attraktivität des GU Modells auf dem Markt anheben. Termin- Kosten- und Qualitätsrisiken liegen beim GU aufgrund des Fachkräftemangels und steigender Materialpreise in der Baubranche. Die Digitalisierungstrends bieten für die Baubranche und somit auch für den GU neue Möglichkeiten für produktivere Projektabwicklungen. Sie dienen damit mehr als Werkzeug denn als Ersatz für das GU Modell. Die Lieferengpässe und die Bauteuerungen beeinträchtigen derzeitige und zukünftige Projekte branchenübergreifend. Abhilfe könnte hier die Mietung von Hallen bzw. Lagerflächen leisten, um das Material frühzeitig zu bestellen und zu lagern. Einzig neue Vertragsgestaltungen, wie sie zum Teil schon in England, Australien und den USA angewendet werden, können eine Bedrohung für das GU-Modell darstellen. Da in diesen Verträgen eine Kernkompetenz des GU, die Koordination zwischen den Ge-werken, durch die Kooperation zwischen den Gewerken, bedroht wird. Jedoch sträuben sich bislang die Planer und die Bauherren dagegen. Der Baubranche werden allgemein stabile Prognosen mit leichtem Umsatzplus zugesagt. Aus Sicht des Marktes besteht somit vorerst keine Gefahr für das GU Modell. Um den Einfluss von Trends und Entwicklungen auf das GU Modell anhand verschiedener Indikatoren einschätzen zu können, wurde ein Analysetool entwickelt, damit auch zukünftig der Einfluss von Neuerungen auf den GU Markt abgeleitet werden kann. Bei der Analyse der Trends spielt vor allem die Beschaffung von verlässlichen Informationen eine tragende Rolle. Die Einsatzgebiete von Trendanalysen sind in einem Unternehmen sehr vielfältig. Das Ergebnis der untersuchten Trends BIM und Nachhaltigkeit hat ergeben, dass diese eher Chancen anstatt Risiken für die Baubranche und somit auch für das GU Modell darstellen. Die allgemeine Umfrage zur Bedrohung des Geschäftsmodells GU hat ergeben, dass aus Sicht der Probanden eine mittlere Bedrohung vorliegt. Umfragewerte sind hinsichtlich ihrer Subjektivität und der aktuellen durch Krisen bestimmten Lage jedoch immer hinsichtlich Ihrer Aussagekraft in Kontext zu setzen.
In the field of autonomously driving vehicles the environment perception containing dynamic objects like other road users is essential. Especially, detecting other vehicles in the road traffic using sensor data is of utmost importance. As the sensor data and the applied system model for the objects of interest are noise corrupted, a filter algorithm must be used to track moving objects. Using LIDAR sensors one object gives rise to more than one measurement per time step and is therefore called extended object. This allows to jointly estimate the objects, position, as well as its orientation, extension and shape. Estimating an arbitrary shaped object comes with a higher computational effort than estimating the shape of an object that can be approximated using a basic geometrical shape like an ellipse or a rectangle. In the case of a vehicle, assuming a rectangular shape is an accurate assumption.
A recently developed approach models the contour of a vehicle as periodic B-spline function. This representation is an easy to use tool, as the contour can be specified by some basis points in Cartesian coordinates. Also rotating, scaling and moving the contour is easy to handle using a spline contour. This contour model can be used to develop a measurement model for extended objects, that can be integrated into a tracking filter. Another approach modeling the shape of a vehicle is the so-called bounding box that represents the shape as rectangle.
In this thesis the basics of single, multi and extended object tracking, as well as the basics of B-spline functions are addressed. Afterwards, the spline measurement model is established in detail and integrated into an extended Kalman filter to track a single extended object. An implementation of the resulting algorithm is compared with the rectangular shape estimator. The implementation of the rectangular shape estimator is provided. The comparison is done using long-term considerations with Monte Carlo simulations and by analyzing the results of a single run. Therefore, both algorithms are applied to the same measurements. The measurements are generated using an artificial LIDAR sensor in a simulation environment.
In a real-world tracking scenario detecting several extended objects and measurements that do not originate from a real object, named clutter measurements, is possible. Also, the sudden appearance and disappearance of an object is possible. A filter framework investigated in recent years that can handle tracking multiple objects in a cluttered environment is a random finite set based approach. The idea of random finite sets and its use in a tracking filter is recapped in this thesis. Afterwards, the spline measurement model is included in a multi extended object tracking framework. An implementation of the resulting filter is investigated in a long-term consideration using Monte Carlo simulations and by analyzing the results of a single run. The multi extended object filter is also applied to artificial LIDAR measurements generated in a simulation environment.
The results of comparing the spline based and rectangular based extended object trackers show a more stable performance of the spline extended object tracker. Also, some problems that have to be addressed in future works are discussed. The investigation of the resulting multi extended object tracker shows a successful integration of the spline measurement model in a multi extended object tracker. Also, with these results some problems remain, that have to be solved in future works.
This paper presents the integration of a spline based extension model into a probability hypothesis density (PHD) filter for extended targets. Using this filter the position and extension of each object as well as the number of present objects can jointly be estimated. Therefore, the spline extension model and the PHD filter are addressed and merged in a Gaussian mixture (GM) implementation. Simulation results using artificial laser measurements are used to evaluate the performance of the presented filter. Finally, the results are illustrated and discussed.