Refine
Year of publication
- 2023 (64) (remove)
Document Type
- Article (18)
- Report (17)
- Bachelor Thesis (9)
- Master's Thesis (7)
- Conference Proceeding (4)
- Journal (Complete Issue of a Journal) (3)
- Part of a Book (2)
- Other Publications (1)
- Preprint (1)
- Study Thesis (1)
Has Fulltext
- yes (64) (remove)
Keywords
- 1D-CNN (1)
- 3D Extended Object Tracking (1)
- 3D shape tracking (1)
- 3D-Druck (1)
- 5-10-40-Bedingung (1)
- Abwärmenutzung (1)
- Accelerometer (1)
- Adoption (1)
- Agile administration (1)
- Automatic sleep assessment (1)
Institute
- Fakultät Architektur und Gestaltung (3)
- Fakultät Bauingenieurwesen (15)
- Fakultät Elektrotechnik und Informationstechnik (3)
- Fakultät Informatik (6)
- Fakultät Maschinenbau (4)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (3)
- Institut für Angewandte Forschung - IAF (9)
- Institut für Optische Systeme - IOS (1)
- Institut für Systemdynamik - ISD (2)
- Institut für Werkstoffsystemtechnik Konstanz - WIK (1)
Sanktionen stellen Zwangsmaßnahmen dar, die bei der Bewältigung politischer Spannungen zwischen Nationen eine lange und wiederkehrende Stellung einnehmen. Sie werden sowohl einseitig als auch in Staatenbündnissen verhängt und besonders nach dem 2. Weltkrieg mit zunehmender Häufigkeit eingesetzt. Während im letzten Jahrhundert, insbesondere vor dem 2. Weltkrieg, Handelsbeschränkungen und umfassende Wirtschaftsblockaden die vorherrschenden Sanktionsinstrumente darstellten, werden heute in einer stärker integrierten und globalisierten Welt Sanktionen in verschiedenen weiteren Formen verhängt, einschließlich internationaler Finanzbeschränkungen, Reiseverbote, Handelseinschränkungen für bestimmte Gütergruppen, Aufhebung militärischer Hilfen und spezifische Einschränkungen, wie beispielsweise Flugverbote und Hafensperrungen.
100 Jahre Türkische Republik
(2023)
Trotz des seit über zehn Jahren anhaltend negativen Trends im traditionellen Kameramarkt werden in Zukunft exponentiell mehr Bilder mit technischen Hilfsmitteln produziert und veröffentlicht werden, nur eben auf eine fundamental andere Weise, mit anderen, vermeintlich komfortableren Geräten, im Hintergrund unterstützt durch sogenannte »smarte« Technologien. Die blitzschnelle Verrechnung von kurzen Bildserien zu einem einzigen Bild, unter Zuhilfenahme von leistungsfähigen Algorithmen aus dem Bereich des maschinellen Sehens, simuliert eine handwerkliche Perfektion, die auf optisch, chemischem Weg so nicht möglich wäre. Auch wenn die analoge Fotografie, teils im Rückgriff auf Jahrhunderte alte Praktiken der Bildenden Kunst, einstmals die Vorbilder und Standards etabliert hat, auf die KI-Modelle derzeit trainiert werden, spielen analoge Bildgebungsverfahren heutzutage quantitativ kaum mehr eine Rolle. Qualitativ erfährt die analoge Fotografie, sowohl im Sinne einer entschleunigenden Gegenbewegung, als auch auf Grund ihrer vermeintlich höheren Authentizität und ihrer haptischen und materiellen Qualitäten, eine überraschend starke Aufmerksamkeit. Diese richtet sich auf die Auseinandersetzung mit fotografischen Wahrnehmungsweisen, die Erforschung unserer realen Umgebung und nicht zuletzt auf die Begegnung mit uns selbst. Analoge Kameras, die Arbeit in der Dunkelkammer und historische Verfahren, wie das Nasse-Kollodion-Verfahren oder die Cyanotypie haben seit einigen Jahren weltweit wieder Konjunktur unter Photoenthusiasten und Studierenden. Was die Protagonisten eines vermeintlich nostalgischen Retro-Trends indes nicht davon abhält, in ihrem Alltag ganz selbstverständlich in »Echtzeit« mit Handys und häufig unter strategisch diversifizierten, mehr oder weniger privaten User-Profilen und Identitäten in den sogenannten sozialen Netzwerken mit anderen (und auch sich selbst) in Form von digitalen bzw. digitalisierten Bildern in einen möglichst flüchtigen Kontakt zu treten.
Creative Coding - void draw
(2023)
Creative Coding ist eines der vielen trendigen Schlagwörter, die in letzter Zeit in der Designbranche auftauchen. Wie so oft ist Creative Coding aber prinzipiell gar nicht so neu, sondern eine Wortschöpfung, die etwas beschreibt, was DesignerInnen schon lange betreiben, was jedoch nun breiter diskutiert wird und als wichtiges Konzept für Designer anerkannt ist.
Cities around the world are facing the implications of a changing climate as an increasingly pressing issue. The negative effects of climate change are already being felt today. Therefore, adaptation to these changes is a mission that every city must master. Leading practices worldwide demonstrate various urban efforts on climate change adaptation (CCA) which are already underway. Above all, the integration of climate data, remote sensing, and in situ data is key to a successful and measurable adaptation strategy. Furthermore, these data can act as a timely decision support tool for municipalities to develop an adaptation strategy, decide which actions to prioritize, and gain the necessary buy-in from local policymakers. The implementation of agile data workflows can facilitate the integration of climate data into climate-resilient urban planning. Due to local specificities, (supra)national, regional, and municipal policies and (by) laws, as well as geographic and related climatic differences worldwide, there is no single path to climate-resilient urban planning. Agile data workflows can support interdepartmental collaboration and, therefore, need to be integrated into existing management processes and government structures. Agile management, which has its origins in software development, can be a way to break down traditional management practices, such as static waterfall models and sluggish stage-gate processes, and enable an increased level of flexibility and agility required when urgent. This paper presents the findings of an empirical case study conducted in cooperation with the City of Constance in southern Germany, which is pursuing a transdisciplinary and trans-sectoral co-development approach to make management processes more agile in the context of climate change adaptation. The aim is to present a possible way of integrating climate data into CCA planning by changing the management approach and implementing a toolbox for low-threshold access to climate data. The city administration, in collaboration with the University of Applied Sciences Constance, the Climate Service Center Germany (GERICS), and the University of Stuttgart, developed a co-creative and participatory project, CoKLIMAx, with the objective of integrating climate data into administrative processes in the form of a toolbox. One key element of CoKLIMAx is the involvement of the population, the city administration, and political decision-makers through targeted communication and regular feedback loops among all involved departments and stakeholder groups. Based on the results of a survey of 72 administrative staff members and a literature review on agile management in municipalities and city administrations, recommendations on a workflow and communication structure for cross-departmental strategies for resilient urban planning in the City of Constance were developed.
MiniKueWeE-Abwärmenutzung
(2023)
Das Thema Energiewende ist derzeit so aktuell wie nie. Neben dem Umstieg von fossilen auf erneuerbare Energien gewinnt auch die Energieeffizienz auf allen Ebenen immer mehr an Bedeutung. Dies gilt besonders für viele Teile des Gebäudebereichs, wo heute eine beachtliche Energiemenge, nicht nur für die Wärmeerzeugung, sondern auch zur Raumkühlung benötigt wird (Umweltbundesamt 2020). In Anbetracht der Klimaveränderungen wird der Kühlbedarf in den nächsten Jahrzehnten zudem noch weiter ansteigen. Aus diesem Grund gibt es einen großen Bedarf an innovativen Lösungen, welche eine effiziente Raumkühlung unter möglichst geringem Energieeinsatz gewährleisten. Die vorliegende Projektarbeit untersucht einen Teilbereich einer solchen Lösung. Genaueres zum Hintergrund, den technischen Randbedingungen sowie den Zielen des Projekts, wird in den folgenden Abschnitten erläutert.
Background: Polysomnography (PSG) is the gold standard for detecting obstructive sleep apnea (OSA). However, this technique has many disadvantages when using it outside the hospital or for daily use. Portable monitors (PMs) aim to streamline the OSA detection process through deep learning (DL).
Materials and methods: We studied how to detect OSA events and calculate the apnea-hypopnea index (AHI) by using deep learning models that aim to be implemented on PMs. Several deep learning models are presented after being trained on polysomnography data from the National Sleep Research Resource (NSRR) repository. The best hyperparameters for the DL architecture are presented. In addition, emphasis is focused on model explainability techniques, concretely on Gradient-weighted Class Activation Mapping (Grad-CAM).
Results: The results for the best DL model are presented and analyzed. The interpretability of the DL model is also analyzed by studying the regions of the signals that are most relevant for the model to make the decision. The model that yields the best result is a one-dimensional convolutional neural network (1D-CNN) with 84.3% accuracy.
Conclusion: The use of PMs using machine learning techniques for detecting OSA events still has a long way to go. However, our method for developing explainable DL models demonstrates that PMs appear to be a promising alternative to PSG in the future for the detection of obstructive apnea events and the automatic calculation of AHI.
Die durch kleine und mittelständische Unternehmen geprägte Investitionsgüterindustrie steht aufgrund der zunehmenden Internationalisierung im Servicegeschäft vor großen Herausforderungen. Mitarbeiterengpässe, hohe Prozesskosten und unzureichendes Wissensmanagement machen den Service zur potenziellen betriebs- und volkswirtschaftlichen Wachstumsbremse. Durch die Digitalisierung entstehen aber auch große Nutzenpotenziale im Servicegeschäft. Ziel des im Projekt SerWiss entwickelten integrierten Ansatzes ist es, kleine und mittelständische Anbieter von Investitionsgütern zu befähigen, Servicewissen auf der Basis eines digitalen Lösungsansatzes unter Gewährleistung einer humanen Arbeitsgestaltung effizient zu generieren, zu strukturieren und international bereitzustellen bzw. zu vermarkten.
Die Berücksichtigung ökologischer und sozialer Gesichtspunkte in der Konzeption, Planung und Errichtung von Gebäuden hat in den vergangenen Jahren großen Einfluss auf Marktfähigkeit der Immobilien gewonnen. Regulatorische Rahmenwerke wie die Taxonomie-Verordnung der Europäischen Union formulieren die klare Anforderung an die Bauwirtschaft dem Schutz von Mensch und Natur mehr Bedeutung einzuräumen. Nur mit einem wesentlichen Beitrag zu den Klimazielen der Europäischen Union wird es der Branche langfristig möglich sein sich einen uneingeschränkten Zugang zum Investorenmarkt zu sichern.
Die vorliegende wissenschaftliche Arbeit widmet sich dem Kriterienkatalog der Deutschen Gesellschaft für Nachhaltiges Bauen e.V. und legt Übereinstimmungen mit den technischen Bewertungskriterien der EU-Taxonomie Verordnung offen. Der im Frühjahr 2023 erschienen Kriterienkatalog umfasst eine Vielzahl von Kriterien, anhand derer Gebäude auf Nachhaltigkeit geprüft werden. Im Vergleich zu der Vorgängerversion aus dem Jahr 2018 wurden erhebliche Änderungen eingearbeitet. Besonders hervorzuheben sind neue technische Prüfkriterien im Bereich Klimaschutz, Ressourcengewinnung, Biodiversität und Kreislaufwirtschaft. Die Angleichung der Berechnungsmethode für die Ökobilanzen an das bundeseigene „Qualitätssiegel Nachhaltiges Gebäude“, die Mindestanforderung nach dem erhöhten Einsatz von nachhaltig gewachsenem Holz, die Prüfung spezifischer Zielquoten bei dem Einsatz von Recyclingbeton sowie Anforderungen an die Zirkularität sind nur ein Teil der Neuerungen. Für die zusätzlichen Anforderung müssen Projektentwickler mit Mehrkosten im hohen sechsstelligen Bereich im Vergleich zu der Vorgängerversion rechnen. Vorteile der Neuauflage des Kriterienkataloges sind eine erhöhte Übereinstimmung mit den Nachhaltigkeitsanforderungen der Europäischen Union. Es werden jedoch nicht alle Anforderungen erfüllt. Nachweise für den Primärenergiebedarf, die Schadstoffbelastung von Bauteilen bzw. -materialien und eine Umweltverträglichkeitsprüfung müssen zusätzlich zu dem Kriterienkatalog der Deutschen Gesellschaft für Nachhaltiges Bauen geleistet werden. Insgesamt ebnen die Kriterien der Deutschen Gesellschaft für Nachhaltiges Bauen aber den Weg hin zu einer EU-Konformität und helfen Projektentwicklern Immobilien erfolgreich auf dem Markt zu positionieren.
Das Management von Aktienfonds strebt effiziente Mischungen von Aktien an. Nachdem diese durch Optimierungsverfahren ermittelt wurden, müssen sie aus ökonomischen oder rechtlichen Gründen oft angepasst werden mit der Konsequenz, dass die Lösungen nicht mehr effizient sind. Ein rechtlicher Grund kann bei einem öffentlich angebotenen Aktienfond der Artikel 52(2) der EU-Richtlinie 2009/65/EC bzw. das KAGB § 206 sein. Ein Teil der Richtlinie besagt z.B., dass in eine Aktie nie mehr als 10% des Budgets investiert werden kann. Diese Regeln insgesamt sich auch als 5-10-40-Bedingung bekannt. Um derartige Risikobeschränkungen in der Portfoliooptimierung zu integrieren wurden zwei Optimierungsmodelle entwickelt – ein quadratisches und ein lineares. Die Modelle wurden anhand von historischen Renditedaten des HDAX getestet. Das lineare Modell zeigt, dass die Vorgaben der EU-Richtlinie die angestrebte Volatilitätsreduktion erreicht. Diese Risikobeschränkung hat aber einen Preis, der in den Währungen „Renditeverlust“ bzw. „Volatilitätszuwachs“ ausgedrückt werden kann. Bei gleicher Volatilität erzielte das nicht durch die 5-10-40-Bedingung eingeschränkte Portfolio eine ca. 10% höhere Jahresrendite. Der „Volatilitätszuwachs“ ist im Umfeld des minimalen Volatilitätspunktes (MVP) gering, kann aber bis zu 25% betragen, wenn Portfolios die unter der 5-10-40-Bedingung ermittelt wurden verglichen werden mit uneingeschränkt optimierten Portfolios bei jeweils gleicher Rendite. Das quadratische Modell baut auf dem Ansatz von H. Markowitz auf und zeigt einen flexibleren Weg der Risikobegrenzung der zu vergleichbaren Resultaten führt.
Das Projekt eFlow, an dem unter anderem die HTWG Konstanz seit 2012 forscht, simuliert mit Hilfe einer mathematischen Simulation wie sich Menschenmassen verhalten, wenn sie ein vorgegebenes Gelände verlassen sollen. Die Simulation baut auf einen Ansatz der Finite Elemente Methode auf, in der mehrere gekoppelte Differenzialgleichungen berechnet werden müssen. Diese Berechnungen erweisen sich gerade bei komplexen Szenarien mit großem Gelände und vielen Personen als sehr rechenintensiv. Ziel dieser Bachelorarbeit ist es ein Surrogate Modell zu erstellen, welches basierend auf machine-learning Ansätzen im spezifischen auf Regressionsmethoden Ergebnisse der Simulation vorhersagen soll. Somit müssen Datensätze generiert werden. Diese entstehen durch wiederholte Durchläufe der Simulation, in der jeweils die Eingabeparameter, die in das Regressionsmodell einfließen sollen variiert werden und mit dem entsprechenden Ergebnis der Simulation verknüpft werden. Die Regressionsansätze werden dabei pro Durchlauf komplexer, in dem jeweils zusätzliche Eingabeparameter mit in die Datengenerierung aufgenommen werden. Es soll überprüft werden, ob diese Simulation mittels machine-learning Ansätzen reproduzierbar ist. Basierend auf diesen Surrogate Modellen soll es möglich gemacht werden, Situationen in Echtzeit zu überprüfen, ohne dabei den Weg der rechenaufwendigen Simulation zu gehen. Die Ergebnisse bestätigen, dass die mathematische Simulation mittels Regression reproduzierbar ist. Es erweist sich jedoch als sehr rechenaufwendig, Daten zu sammeln, um genügend Eingabeparameter mit in die Regressionsmethode einfließen zu lassen. Diese Arbeit gestaltet somit eine Vorstudie zur Umsetzung eines ausgereiften Surrogate Modells, welches jegliche Eingabeparameter der Simulation berücksichtigen kann.
Die Forschungs- und Weiterbildungsaktivtäten konzentrierten sich auf die Anwendung von Virtual Reality in der Lehre. Hier interessierte vor allem, wo im Maschinenbau diese Technologie sinnvoll eingesetzt werden kann. Hierzu wurden die verschiedenen Bereiche im Maschinenbau untersucht.
Des Weiteren sollte die Frage beantwortet werden, wie man die Technologie sinnvoll einsetzen kann. Hierzu wurden die Arbeitsplätze der Modellfabrik herangezogen. Die Modellfabrik bot die Möglichkeit sowohl in der industrienahen Umgebung das reale Training durchzuführen als auch das VR-Training durchzuführen.
Neben den Hauptaktivitäten im Bereich Virtual Reality erlaubte mir das Forschungssemester auch, in andere Felder der Digitalisierung und Industrie 4.0 tiefer einzusteigen. Hier sei explizit die konkrete Anbindung der Montagelinien in der Modellfabrik an das Digitalisieurngs-Tool von Forcam zu erwähnen. Die digitale Anbindung der Montagelinie ist mit interessanten Problemstellungen verbunden, auf die hier nicht weiter eingegangen werden soll, die aber zu einem deutlich tieferen Verständnis von konkreten Umsetzungsproblemen der Industrie geführt haben.
While driving, stress is caused by situations in which the driver estimates their ability to manage the driving demands as insufficient or loses the capability to handle the situation. This leads to increased numbers of driver mistakes and traffic violations. Additional stressing factors are time pressure, road conditions, or dislike for driving. Therefore, stress affects driver and road safety. Stress is classified into two categories depending on its duration and the effects on the body and psyche: short-term eustress and constantly present distress, which causes degenerative effects. In this work, we focus on distress. Wearable sensors are handy tools for collecting biosignals like heart rate, activity, etc. Easy installation and non-intrusive nature make them convenient for calculating stress. This study focuses on the investigation of stress and its implications. Specifically, the research conducts an analysis of stress within a select group of individuals from both Spain and Germany. The primary objective is to examine the influence of recognized psychological factors, including personality traits such as neuroticism, extroversion, psychoticism, stress and road safety. The estimation of stress levels was accomplished through the collection of physiological parameters (R-R intervals) using a Polar H10 chest strap. We observed that personality traits, such as extroversion, exhibited similar trends during relaxation, with an average heart rate 6% higher in Spain and 3% higher in Germany. However, while driving, introverts, on average, experienced more stress, with rates 4% and 1% lower than extroverts in Spain and Germany, respectively.
Die Vermessung der Stadt
(2023)
Digitalisierung im Bauwesen
(2023)
Low-Code Development Plattformen (LCDPs) fördern die digitale Transformation von Organisationen, indem sie die Applikationsentwicklung durch FachbereichsmitarbeiterInnen ohne tiefgreifende Programmierkenntnisse – sogenannte Citizen Developer – ermöglichen. Marktforschungsinstitute prognostizieren, dass in den nächsten Jahren mehr als die Hälfte aller Applikationen mit LCDPs entwickelt werden. Nichtsdestotrotz stehen Organisationen vor der Herausforderung, sich für die richtigen Implementierungs- und Anwendungsansätze von LCDPs zu entscheiden. Dieser Artikel liefert daher ein umfassendes Bild über das praktische Verständnis und aktuelle Ansätze in verschiedenen Organisationen und leitet daraus Handlungsempfehlungen ab. Dafür wurden 16 Experteninterviews durchgeführt und wissenschaftlich analysiert. Die Ergebnisse zeigen, dass die Praxis grundsätzlich ein ähnliches Verständnis des Begriffs LCDP hat. Die Initiative für die Einführung kommt meist aus den Fachbereichen, die Entscheidung für oder gegen die LCDP-Implementierung wird jedoch meist von der Geschäftsführung in Kooperation mit der IT-Abteilung getroffen. Dabei unterscheiden sich die aktuellen Anwendungsansätze: Unternehmen nutzen entweder einen Self-Service-Ansatz durch die Fachbereiche oder integrieren die Entscheidung über eine potenzielle LCDP-Entwicklung durch die Citizen Developer in das bestehende Demand-Management der IT-Abteilung. Eine etablierte und adaptive Governance ist für beide Ansätze eine wichtige Voraussetzung. Die Erkenntnisse des Beitrags tragen zur wissenschaftlichen Diskussion bei, da dieser Artikel eine der ersten umfassenden und wissenschaftlich fundierten qualitativen Analysen über aktuelle praktische Adoptionsansätze der Praxis liefert. PraktikerInnen erfahren zudem, wie andere Unternehmen mit aktuellen Herausforderungen umgehen und welche Ansätze erfolgversprechend sind.
Effiziente Energienutzung ist eine bestehende Problematik, welche nicht nur Privathaushalte, sondern auch Institute und Unternehmen betrifft. Die Thematik, mit der sich diese Bachelorarbeit beschäftigt, ist intelligente Regelung von Wärmeenergie für Nichtwohngebäude. Das Ziel hierbei ist die Einsparung von Energie und die daraus folgenden Kosten. Hierfür wird mittels theoretischer Arbeit, Recherche für vorhandene Konzepte durchgeführt. Mit MATLAB Simulink soll anschließend ein eigenes Konzept für eine intelligente, vorausschauende Regelung aufgebaut und simuliert werden. Dabei soll die Raumlufttemperatur eines Raumes in einem Nichtwohngebäude, mithilfe eines modellbasierten prädiktiven Reglers (MPC), auf eine bestimmte Wunschtemperatur geregelt werden. Zum Schluss wird diese mit einer herkömmlichen Regelung (PID-Regelung) verglichen. Als Ergebnis kam dabei heraus, dass sich bei der vorausschauenden Regelung, im Vergleich zur herkömmlichen Regelung, ein deutlich besserer Temperaturverlauf ergibt. Die Raumtemperatur liegt im gewünschten Sollbereich, jedoch sind in den Ergebnissen keine nennenswerten Energieeinsparungen zu sehen. Durch zukünftige Erweiterungen in den MPC, sollte dies aber definitiv möglich sein. Deshalb und aufgrund der genaueren Regelung der Temperatur, wird eine Empfehlung zur Anwendung von MPC-Reglern an Nichtwohngebäude abgegeben.
Entwicklung eines Prozesses für die Software-Funktionsvorentwicklung am Fahrzeug mittels Matlab/Simulink, um einen Machbarkeitsnachweis neuer Funktionen vor Beginn der Software-Serienentwicklung sicherzustellen. Der Prozess beinhaltet die Anforderungserhebung, die Systementwicklung in den Bereichen Hydraulik und Elektrik, die Software-Funktionsentwicklung in Matlab/Simulink sowie die Funktionsprüfung am Fahrzeug.
This thesis emphasizes problems that reports generated by vulnerability scanners impose on the process of vulnerability management, which are a. an overwhelming amount of data and b. an insufficient prioritization of the scan results.
To assist the process of developing means to counteract those problems and to allow for quantitative evaluation of their solutions, two metrics are proposed for their effectiveness and efficiency. These metrics imply a focus on higher severity vulnerabilities and can be applied to any simplification process of vulnerability scan results, given it relies on a severity score and time of remediation estimation for each vulnerability.
A priority score is introduced which aims to improve the widely used Common Vulnerability Scoring System (CVSS) base score of each vulnerability dependent on a vulnerability’s ease of exploit, estimated probability of exploitation and probability of its existence.
Patterns within the reports generated by the Open Vulnerability Assessment System (OpenVAS) vulnerability scanner between vulnerabilities are discovered which identify criteria by which they can be categorized from a remediation actor standpoint. These categories lay the groundwork of a final simplified report and consist of updates that need to be installed on a host, severe vulnerabilities, vulnerabilities that occur on multiple hosts and vulnerabilities that will take a lot of time for remediation. The highest potential time savings are found to exist within frequently occurring vulnerabilities, minor- and major suggested updates.
Processing of the results provided by the vulnerability scanner and creation of the report is realized in the form of a python script. The resulting reports are short, straight to the point and provide a top down remediation process which should theoretically allow to minimize the institutions attack surface as fast as possible. Evaluation of the practicality must follow as the reports are yet to be introduced into the Information Security Management Lifecycle.
Contemporary empirical applications frequently require flexible regression models for complex response types and large tabular or non-tabular, including image or text, data. Classical regression models either break down under the computational load of processing such data or require additional manual feature extraction to make these problems tractable. Here, we present deeptrafo, a package for fitting flexible regression models for conditional distributions using a tensorflow backend with numerous additional processors, such as neural networks, penalties, and smoothing splines. Package deeptrafo implements deep conditional transformation models (DCTMs) for binary, ordinal, count, survival, continuous, and time series responses, potentially with uninformative censoring. Unlike other available methods, DCTMs do not assume a parametric family of distributions for the response. Further, the data analyst may trade off interpretability and flexibility by supplying custom neural network architectures and smoothers for each term in an intuitive formula interface. We demonstrate how to set up, fit, and work with DCTMs for several response types. We further showcase how to construct ensembles of these models, evaluate models using inbuilt cross-validation, and use other convenience functions for DCTMs in several applications. Lastly, we discuss DCTMs in light of other approaches to regression with non-tabular data.
Driver assistance systems are increasingly becoming part of the standard equipment of vehicles and thus contribute to road safety. However, as they become more widespread, the requirements for cost efficiency are also increasing, and so few and inexpensive sensors are used in these systems. Especially in challenging situations, this leads to the fact that target discrimination cannot be ensured which may lead to false reactions of the driver assistance system. In this paper, the Boids flocking algorithm is used to generate semantic neighborhood information between tracked objects which in turn can significantly improve the overall performance. Two different variants were developed: First, a free-moving flock whereby a separate flock is generated per tracked object and second, a formation-controlled flock where boids of a single flock move along the future road course in a pre-defined formation. In the first approach, the interaction between the flocks as well as the interaction between the boids within a flock is used to generate additional information, which in turn can be used to improve, for example, lane change detection. For the latter approach, new behavioral rules have been developed, so that the boids can reliably identify control-relevant objects to a driver assistance system. Finally, the performance of the presented methods is verified through extensive simulations.
Entwicklung und Analyse eines Turmes aus Buchenfurnierschichtholz für eine Kleinwindkraftanlage
(2023)
Die Energiepreise in Deutschland steigen und viele Immobilienbesitzer wollen unabhängiger von den Stromerzeugern werden, weshalb sie in eine eigene Stromproduktion investieren. Eine optimale Ergänzung zu einer Photovoltaikanlage stellt dabei eine Kleinwindkraftanlage dar, die im Vergleich zu den großen Anlagen geringere Umweltbelastungen verursacht. Allerdings entstehen beim Bau einer Kleinwindkraftanlage hohe Kosten, weshalb dieses Konzept kaum verbreitet ist.
Die Türme von Windkraftanlagen werden normalerweise aus Stahl hergestellt. Bei der Herstellung dieses Baustoffs werden große Mengen an Treibhausgasen freigesetzt. Ein umweltfreundlicheres Material ist der nachwachsende Rohstoff Holz. Die Herstellung der Türme in Holzbauweise ist bisher kaum zu finden. Daher wird in dieser Arbeit untersucht, ob ein Holzturm eine Alternative zum Stahlturm sein kann und ob dadurch die Investitionskosten für eine Kleinwindkraftanlage gesenkt werden können.
Um die Forschungsfrage zu beantworten, wurde ein Konzept für einen Holzturm aus Buchenfurnierschichtholz entwickelt. Zunächst wurde die Bedeutung von Buchenholz im Bauwesen erarbeitet. Anschließend wurden die Grundlagen für den Bau von Kleinwindkraftanlagen erforscht und die Abmessungen einer fiktiven Anlage festgelegt. Es wurden die relevanten Einwirkungen ermittelt und die Anlage mittels einer Finiten-Elemente-Berechnung untersucht. Zuletzt wurden die Nachweise für die Tragfähigkeit und die Ermüdungssicherheit des Querschnittes und der Verbindungsmittel geführt.
Bei den Untersuchungen der Randbedingungen konnten keine Argumente gefunden werden, die gegen die Verwendung von Holz sprechen. In einigen Punkten wie beispielsweise in der Herstellungs- und Errichtungsphase sind sogar Vorteile gegenüber dem Stahl zu erkennen. Zudem wurde in einer Kostenschätzung herausgefunden, dass ein Holzturm auch preislich mithalten kann und dass die Herstellungskosten sogar gesenkt werden können. Die Gesamtkosten für eine Kleinwindkraftanlage können dennoch nur unwesentlich gesenkt werden. Die Investition ist daher nur sinnvoll, wenn am geplanten Standort genügend Wind zur Verfügung steht und wenn der produzierte Strom größtenteils selbst genutzt werden kann.
Das veränderte Einkaufs- und Konsumverhalten vieler Kunden stellt den Einzelhandel vor große Herausforderungen. Dabei scheint besonders die junge Generation Z, die mit dem Internet, sozialen Medien und digitalen Anwendungen aufgewachsen ist, nicht mehr den traditionellen Konsummustern zu entsprechen und erwartet eine Anpassung des Einzelhandels an ihre Bedürfnisse. Um herauszufinden, welche Anforderungen junge Konsumentinnen und Konsumenten an den Einzelhandel stellen und wie sich diese zwischen verschiedenen Generationen unterscheiden, wurden mehr als 300 Personen aller Altersgruppen befragt. Zu den Schwerpunkten der Untersuchung zählten das Einkaufsverhalten, die Personalisierung von Kommunikation und Angeboten sowie die Nutzung digitaler Services und Technologien im Einzelhandel.
The architecture, engineering and construction (AEC) industry is currently in transformation. Within this transformation, digitalization has a leading function, whereby a higher level of efficiency is pursued. In order to ensure a coordinated information exchange within the digitalization, the concept of the Common Data Environment (CDE) has been developed in the last years. A CDE is a cloud based collaborative platform that is used to exchange project information and data between the different stakeholders of a construction project. The main objective of this thesis is the implementation of a suitable CDE solution for the purpose of a construction management company.
For this purpose, an evaluation of different CDE software on the market, based on the functions and usability of the different software, has been complied to identify the most suitable solution. Secondly, a concept for the setup and implementation of a CDE solution has been developed. Therefore, advice for a successful change-management has been established to ensure the good implementation of the CDE.
The first part of the thesis includes a literature review through which the current state of the information management in the AEC industry is analyzed. The advantages of a CDE for the information management are also analyzed. Therefore, a synthesis of the functions and requirements to a CDE has been complied.
The second part of the thesis links the concept of Building Information Modelling (BIM) with the CDE. The advantages of a CDE in the BIM process has been established.
The third part of the thesis treats the evaluation of CDE software. This evaluation has been complied with a scoring method. As basis of the evaluation, a requirement list has been developed in which all the required functions of a CDE are listed.
In the fourth part of the thesis, a concept for the establishment of a CDE has been developed. The developed concept is a practical application of the standards specifications to CDE. The concept has been developed with CDE expert and CDE power users. The developed concept treats overall of the structuration, the standardization, and the implementation of a CDE.
The last part treats of the change process engender by the implementation of a CDE.
Summary, this thesis provides a structure for the implementation of a CDE software and serves as framework for companies of the AEC industry to select and establish a CDE.
Der einst vorherrschende Baustoff in Deutschland war Lehm. Dieser wurde durch die erste industrielle Revolution weitgehend verdrängt und durch industrialisierte Baustoffe wie Beton ersetzt. Mit der vierten industriellen Revolution und dem steigenden Bewusstsein der Auswirkungen der Ressourcenverschwendung und Abfallproduktion auf die Umwelt, soll der traditionelle Lehmbau durch Digitalisierung und Automatisierung wieder an ökonomischem Aufschwung gewinnen. Bauen mit Lehm bietet die Chance einer systematischen Transformation der Bauindustrie in Richtung Kohlenstoffneutralität. Bisher ist die Bauindustrie für mehr als 30 % der weltweiten Treibhausgasemissionen verantwortlich. Durch die Verwendung regionaler, zirkulärer Materialien, die idealerweise aus der eigenen Baugrube gewonnen werden, könnte sich dies in Zukunft ändern. Lehm kommt in nahezu allen Teilen der Welt flächendeckend und zur Genüge vor und kann mit verschiedenen regional vorhandenen Additiven ergänzt werden. Durch Standardisierung der Produkte und technologischen Fortschritt könnte der Lehmbau in eine Massenproduktion überführt werden und in Zukunft mit dem konventionellen Stahlbetonbau oder Holzbau konkurrieren.
Diese Masterarbeit konzentriert sich auf die Modernisierung von Lehmbauweisen in Form von digitalisierten und automatisierten additiven Fertigungsverfahren wie der Stampflehmbau oder das 3D-Drucken mit Lehm für Wandbauteile. Ziel der Masterthesis ist es, einen Bauablauf für eines der genannten additiven Fertigungsverfahren zu entwickeln. Um dieses Ziel zu erreichen, werden die verschiedenen Fertigungsverfahren und Arten nach Stand der Technik miteinander verglichen und sich für das am besten bewertete entschieden. Als praktische Grundlage für die Wahl des Fertigungsverfahren dienen beispielhafte Untersuchungen mit einem Lehm 3D-Drucker. Dabei werden Prüfkörper mit und ohne Additive gedruckt sowie Prüfkörper mit unterschiedlichen Füllgraden erstellt und anschließend im Labor auf ihre Druckfestigkeit geprüft.
Die folgende Arbeit zeigt die vielen Potenziale des Lehmbaus als zirkuläre und moderne Bauweise auf und beleuchtet zugleich die Herausforderungen, die es noch zu lösen gilt.
Gegenstand der hier vorgestellten Arbeit ist ein Überblick über die Unterschiede zwischen der aktuell in Baden-Württemberg bauaufsichtlich gültigen Erdbebennorm DIN 4149 und der DIN EN 1998-1/NA 2021-07, die Sie künftig ersetzen soll und bereits dem aktuellen Stand der Technik entspricht. Es wird darauf eingegangen, welche Umstände hinter dem Umstieg auf die Europäische Norm und die Neuauflegung des Nationalen Anhangs stehen und ein Faktor ausgearbeitet, mit dem beide Normen direkt verglichen werden können. Zudem werden gängige Berechnungsverfahren zur Ermittlung von Erdbebenbeanspruchungen vorgestellt und anhand des Berechnungsprogramms Minea Design die Unterschiede zwischen vereinfachter 2D-Berechnung und 3D-Berechnung mit finiten Elementen untersucht. Daraus wird eine Aussage darüber abgeleitet, welches der Berechnungsverfahren auf der „sicheren Seite“ liegt und wie sich die Ergebnisse verifizieren lassen. An einem realen Projekt werden diese Erkenntnisse in Form einer Erdbebenbemessung angewandt.
Sleep disorders can impact daily life, affecting physical, emotional, and cognitive well-being. Due to the time-consuming, highly obtrusive, and expensive nature of using the standard approaches such as polysomnography, it is of great interest to develop a noninvasive and unobtrusive in-home sleep monitoring system that can reliably and accurately measure cardiorespiratory parameters while causing minimal discomfort to the user’s sleep. We developed a low-cost Out of Center Sleep Testing (OCST) system with low complexity to measure cardiorespiratory parameters. We tested and validated two force-sensitive resistor strip sensors under the bed mattress covering the thoracic and abdominal regions. Twenty subjects were recruited, including 12 males and 8 females. The ballistocardiogram signal was processed using the 4th smooth level of the discrete wavelet transform and the 2nd order of the Butterworth bandpass filter to measure the heart rate and respiration rate, respectively. We reached a total error (concerning the reference sensors) of 3.24 beats per minute and 2.32 rates for heart rate and respiration rate, respectively. For males and females, heart rate errors were 3.47 and 2.68, and respiration rate errors were 2.32 and 2.33, respectively. We developed and verified the reliability and applicability of the system. It showed a minor dependency on sleeping positions, one of the major cumbersome sleep measurements. We identified the sensor under the thoracic region as the optimal configuration for cardiorespiratory measurement. Although testing the system with healthy subjects and regular patterns of cardiorespiratory parameters showed promising results, further investigation is required with the bandwidth frequency and validation of the system with larger groups of subjects, including patients.
Teilzeitmodelle sind beliebt und haben für viele Mitarbeiter einen ernsten Hintergrund. Ihre Lebensentwürfe lassen schlicht keine andere Form der Arbeit zu. Arbeitgeber sollten einerseits auf die Flexibilisierungswünsche der Betroffenen eingehen, um das Betriebsklima zu fördern und eine Unternehmensbindung herzustellen. Andererseits sind sie aber (mit wenigen Ausnahmen) verpflichtet, Teilzeit zu ermöglichen. Eine Variante ist dabei die Brückenteilzeit, also eine zuvor festgelegte (nur) zeitlich begrenzte Verringerung der Arbeitszeit.
Urlaub, Urlaub und kein Ende – Die aktuelle Rechtslage auf Basis der Rechtsprechung von EuGH und BAG
(2023)
Die jüngeren Entscheidungen des EuGH sowie des BAG zur Arbeitszeiterfassung haben trotz ihrer eigentlich klaren Aussagen in der betrieblichen Praxis zu teils erheblichen Verunsicherungen geführt: Müssen nun wirklich die Arbeitszeiten der Beschäftigten erfasst werden und wie wirkt sich das auf die in vielen Unternehmen gelebte „Vertrauensarbeitszeit“ aus?
The scoring of sleep stages is one of the essential tasks in sleep analysis. Since a manual procedure requires considerable human and financial resources, and incorporates some subjectivity, an automated approach could result in several advantages. There have been many developments in this area, and in order to provide a comprehensive overview, it is essential to review relevant recent works and summarise the characteristics of the approaches, which is the main aim of this article. To achieve it, we examined articles published between 2018 and 2022 that dealt with the automated scoring of sleep stages. In the final selection for in-depth analysis, 125 articles were included after reviewing a total of 515 publications. The results revealed that automatic scoring demonstrates good quality (with Cohen's kappa up to over 0.80 and accuracy up to over 90%) in analysing EEG/EEG + EOG + EMG signals. At the same time, it should be noted that there has been no breakthrough in the quality of results using these signals in recent years. Systems involving other signals that could potentially be acquired more conveniently for the user (e.g. respiratory, cardiac or movement signals) remain more challenging in the implementation with a high level of reliability but have considerable innovation capability. In general, automatic sleep stage scoring has excellent potential to assist medical professionals while providing an objective assessment.
In order to ensure sufficient recovery of the human body and brain, healthy sleep is indispensable. For this purpose, appropriate therapy should be initiated at an early stage in the case of sleep disorders. For some sleep disorders (e.g., insomnia), a sleep diary is essential for diagnosis and therapy monitoring. However, subjective measurement with a sleep diary has several disadvantages, requiring regular action from the user and leading to decreased comfort and potential data loss. To automate sleep monitoring and increase user comfort, one could consider replacing a sleep diary with an automatic measurement, such as a smartwatch, which would not disturb sleep. To obtain accurate results on the evaluation of the possibility of such a replacement, a field study was conducted with a total of 166 overnight recordings, followed by an analysis of the results. In this evaluation, objective sleep measurement with a Samsung Galaxy Watch 4 was compared to a subjective approach with a sleep diary, which is a standard method in sleep medicine. The focus was on comparing four relevant sleep characteristics: falling asleep time, waking up time, total sleep time (TST), and sleep efficiency (SE). After evaluating the results, it was concluded that a smartwatch could replace subjective measurement to determine falling asleep and waking up time, considering some level of inaccuracy. In the case of SE, substitution was also proved to be possible. However, some individual recordings showed a higher discrepancy in results between the two approaches. For its part, the evaluation of the TST measurement currently does not allow us to recommend substituting the measurement method for this sleep parameter. The appropriateness of replacing sleep diary measurement with a smartwatch depends on the acceptable levels of discrepancy. We propose four levels of similarity of results, defining ranges of absolute differences between objective and subjective measurements. By considering the values in the provided table and knowing the required accuracy, it is possible to determine the suitability of substitution in each individual case. The introduction of a “similarity level” parameter increases the adaptability and reusability of study findings in individual practical cases.
Online-Reisebewertungsplattformen sind der Treffpunkt für Touristen, um ihre Erlebnisse zu teilen und einander zu beeinflussen. Die Untersuchung des Besuchererlebnisses beim Besuch eines Museums kann sich positiv auf die Museumsentwicklung auswirken. In dieser Arbeit wurde eine qualitative Inhaltsanalyse verwendet, um die positiven und negativen Aspekte von Museumsbesuchen im indonesischen Nationalmuseum zu untersuchen. Durch die Datenanalyse von 420 TripAdvisor-Bewertungen des Nationalmuseums wurden die Aspekte ermittelt, die zur Zufriedenheit oder Unzufriedenheit der Besucher beitragen. Dadurch werden Museumsfachleute in die Lage versetzt, Museumsbesuche weiterzuentwickeln und zu verbessern.
Das Ergebnis dieser Studie zeigt, dass es 12 wichtige Themen gibt, die direkt mit der Erlebniswelt der Besucher im Museum verbunden sind, nämlich Ausstellungsdesign, Museumsidentität, First-hand Experience, Zugänglichkeit, Dienstleistungsumfeld, Architektur, Orientierung und Beschilderung, Annehmlichkeiten, Führungen, Wartungsarbeiten, Geschenkladen und Café, Mitarbeiter. Zu den positiven Aspekten der 12 Themen gehören die umfassenden Sammlungen, die Ausstellungsgestaltung, die Möglichkeit, Neues zu lernen, die günstigen Eintrittspreise, die strategische Lage des Museums, die informativen Museumsführer und die Dienstleistungen für eine Vielzahl von Museumsbesuchern. Bei den negativen Aspekten des Museums konzentrierten sich die Klagen der Besucher im Allgemeinen auf den Mangel an Interaktivität, Beschreibung, Kontext und Beleuchtung der Exponate. Darüber hinaus beklagten sich die Besucher über die Überfüllung an den Wochenenden, die ungepflegten Toiletten, das Verhalten des Personals und die Renovierungsarbeiten, die während der Öffnungszeiten des Museums durchgeführt wurden. Zur Verbesserung der Besuchsqualität sollte das Museum die Interaktivität und die Pflege der Sammlungen intensivieren, eine bessere Beleuchtung installieren, ausführliche Informationen über die Exponate bereitstellen, den Kundenservice und Mitarbeiterschulungen verbessern, Führungen für Kinder anbieten und einen offiziellen Museumsladen eröffnen.