Refine
Year of publication
- 2023 (64) (remove)
Document Type
- Article (18)
- Report (17)
- Bachelor Thesis (9)
- Master's Thesis (7)
- Conference Proceeding (4)
- Journal (Complete Issue of a Journal) (3)
- Part of a Book (2)
- Other Publications (1)
- Preprint (1)
- Study Thesis (1)
Has Fulltext
- yes (64) (remove)
Keywords
- 1D-CNN (1)
- 3D Extended Object Tracking (1)
- 3D shape tracking (1)
- 3D-Druck (1)
- 5-10-40-Bedingung (1)
- Abwärmenutzung (1)
- Accelerometer (1)
- Adoption (1)
- Agile administration (1)
- Automatic sleep assessment (1)
Institute
- Fakultät Architektur und Gestaltung (3)
- Fakultät Bauingenieurwesen (15)
- Fakultät Elektrotechnik und Informationstechnik (3)
- Fakultät Informatik (6)
- Fakultät Maschinenbau (4)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (3)
- Institut für Angewandte Forschung - IAF (9)
- Institut für Optische Systeme - IOS (1)
- Institut für Systemdynamik - ISD (2)
- Institut für Werkstoffsystemtechnik Konstanz - WIK (1)
Trotz des seit über zehn Jahren anhaltend negativen Trends im traditionellen Kameramarkt werden in Zukunft exponentiell mehr Bilder mit technischen Hilfsmitteln produziert und veröffentlicht werden, nur eben auf eine fundamental andere Weise, mit anderen, vermeintlich komfortableren Geräten, im Hintergrund unterstützt durch sogenannte »smarte« Technologien. Die blitzschnelle Verrechnung von kurzen Bildserien zu einem einzigen Bild, unter Zuhilfenahme von leistungsfähigen Algorithmen aus dem Bereich des maschinellen Sehens, simuliert eine handwerkliche Perfektion, die auf optisch, chemischem Weg so nicht möglich wäre. Auch wenn die analoge Fotografie, teils im Rückgriff auf Jahrhunderte alte Praktiken der Bildenden Kunst, einstmals die Vorbilder und Standards etabliert hat, auf die KI-Modelle derzeit trainiert werden, spielen analoge Bildgebungsverfahren heutzutage quantitativ kaum mehr eine Rolle. Qualitativ erfährt die analoge Fotografie, sowohl im Sinne einer entschleunigenden Gegenbewegung, als auch auf Grund ihrer vermeintlich höheren Authentizität und ihrer haptischen und materiellen Qualitäten, eine überraschend starke Aufmerksamkeit. Diese richtet sich auf die Auseinandersetzung mit fotografischen Wahrnehmungsweisen, die Erforschung unserer realen Umgebung und nicht zuletzt auf die Begegnung mit uns selbst. Analoge Kameras, die Arbeit in der Dunkelkammer und historische Verfahren, wie das Nasse-Kollodion-Verfahren oder die Cyanotypie haben seit einigen Jahren weltweit wieder Konjunktur unter Photoenthusiasten und Studierenden. Was die Protagonisten eines vermeintlich nostalgischen Retro-Trends indes nicht davon abhält, in ihrem Alltag ganz selbstverständlich in »Echtzeit« mit Handys und häufig unter strategisch diversifizierten, mehr oder weniger privaten User-Profilen und Identitäten in den sogenannten sozialen Netzwerken mit anderen (und auch sich selbst) in Form von digitalen bzw. digitalisierten Bildern in einen möglichst flüchtigen Kontakt zu treten.
Der einst vorherrschende Baustoff in Deutschland war Lehm. Dieser wurde durch die erste industrielle Revolution weitgehend verdrängt und durch industrialisierte Baustoffe wie Beton ersetzt. Mit der vierten industriellen Revolution und dem steigenden Bewusstsein der Auswirkungen der Ressourcenverschwendung und Abfallproduktion auf die Umwelt, soll der traditionelle Lehmbau durch Digitalisierung und Automatisierung wieder an ökonomischem Aufschwung gewinnen. Bauen mit Lehm bietet die Chance einer systematischen Transformation der Bauindustrie in Richtung Kohlenstoffneutralität. Bisher ist die Bauindustrie für mehr als 30 % der weltweiten Treibhausgasemissionen verantwortlich. Durch die Verwendung regionaler, zirkulärer Materialien, die idealerweise aus der eigenen Baugrube gewonnen werden, könnte sich dies in Zukunft ändern. Lehm kommt in nahezu allen Teilen der Welt flächendeckend und zur Genüge vor und kann mit verschiedenen regional vorhandenen Additiven ergänzt werden. Durch Standardisierung der Produkte und technologischen Fortschritt könnte der Lehmbau in eine Massenproduktion überführt werden und in Zukunft mit dem konventionellen Stahlbetonbau oder Holzbau konkurrieren.
Diese Masterarbeit konzentriert sich auf die Modernisierung von Lehmbauweisen in Form von digitalisierten und automatisierten additiven Fertigungsverfahren wie der Stampflehmbau oder das 3D-Drucken mit Lehm für Wandbauteile. Ziel der Masterthesis ist es, einen Bauablauf für eines der genannten additiven Fertigungsverfahren zu entwickeln. Um dieses Ziel zu erreichen, werden die verschiedenen Fertigungsverfahren und Arten nach Stand der Technik miteinander verglichen und sich für das am besten bewertete entschieden. Als praktische Grundlage für die Wahl des Fertigungsverfahren dienen beispielhafte Untersuchungen mit einem Lehm 3D-Drucker. Dabei werden Prüfkörper mit und ohne Additive gedruckt sowie Prüfkörper mit unterschiedlichen Füllgraden erstellt und anschließend im Labor auf ihre Druckfestigkeit geprüft.
Die folgende Arbeit zeigt die vielen Potenziale des Lehmbaus als zirkuläre und moderne Bauweise auf und beleuchtet zugleich die Herausforderungen, die es noch zu lösen gilt.
Gegenstand der hier vorgestellten Arbeit ist ein Überblick über die Unterschiede zwischen der aktuell in Baden-Württemberg bauaufsichtlich gültigen Erdbebennorm DIN 4149 und der DIN EN 1998-1/NA 2021-07, die Sie künftig ersetzen soll und bereits dem aktuellen Stand der Technik entspricht. Es wird darauf eingegangen, welche Umstände hinter dem Umstieg auf die Europäische Norm und die Neuauflegung des Nationalen Anhangs stehen und ein Faktor ausgearbeitet, mit dem beide Normen direkt verglichen werden können. Zudem werden gängige Berechnungsverfahren zur Ermittlung von Erdbebenbeanspruchungen vorgestellt und anhand des Berechnungsprogramms Minea Design die Unterschiede zwischen vereinfachter 2D-Berechnung und 3D-Berechnung mit finiten Elementen untersucht. Daraus wird eine Aussage darüber abgeleitet, welches der Berechnungsverfahren auf der „sicheren Seite“ liegt und wie sich die Ergebnisse verifizieren lassen. An einem realen Projekt werden diese Erkenntnisse in Form einer Erdbebenbemessung angewandt.
Sleep disorders can impact daily life, affecting physical, emotional, and cognitive well-being. Due to the time-consuming, highly obtrusive, and expensive nature of using the standard approaches such as polysomnography, it is of great interest to develop a noninvasive and unobtrusive in-home sleep monitoring system that can reliably and accurately measure cardiorespiratory parameters while causing minimal discomfort to the user’s sleep. We developed a low-cost Out of Center Sleep Testing (OCST) system with low complexity to measure cardiorespiratory parameters. We tested and validated two force-sensitive resistor strip sensors under the bed mattress covering the thoracic and abdominal regions. Twenty subjects were recruited, including 12 males and 8 females. The ballistocardiogram signal was processed using the 4th smooth level of the discrete wavelet transform and the 2nd order of the Butterworth bandpass filter to measure the heart rate and respiration rate, respectively. We reached a total error (concerning the reference sensors) of 3.24 beats per minute and 2.32 rates for heart rate and respiration rate, respectively. For males and females, heart rate errors were 3.47 and 2.68, and respiration rate errors were 2.32 and 2.33, respectively. We developed and verified the reliability and applicability of the system. It showed a minor dependency on sleeping positions, one of the major cumbersome sleep measurements. We identified the sensor under the thoracic region as the optimal configuration for cardiorespiratory measurement. Although testing the system with healthy subjects and regular patterns of cardiorespiratory parameters showed promising results, further investigation is required with the bandwidth frequency and validation of the system with larger groups of subjects, including patients.
Urlaub, Urlaub und kein Ende – Die aktuelle Rechtslage auf Basis der Rechtsprechung von EuGH und BAG
(2023)
Das Projekt eFlow, an dem unter anderem die HTWG Konstanz seit 2012 forscht, simuliert mit Hilfe einer mathematischen Simulation wie sich Menschenmassen verhalten, wenn sie ein vorgegebenes Gelände verlassen sollen. Die Simulation baut auf einen Ansatz der Finite Elemente Methode auf, in der mehrere gekoppelte Differenzialgleichungen berechnet werden müssen. Diese Berechnungen erweisen sich gerade bei komplexen Szenarien mit großem Gelände und vielen Personen als sehr rechenintensiv. Ziel dieser Bachelorarbeit ist es ein Surrogate Modell zu erstellen, welches basierend auf machine-learning Ansätzen im spezifischen auf Regressionsmethoden Ergebnisse der Simulation vorhersagen soll. Somit müssen Datensätze generiert werden. Diese entstehen durch wiederholte Durchläufe der Simulation, in der jeweils die Eingabeparameter, die in das Regressionsmodell einfließen sollen variiert werden und mit dem entsprechenden Ergebnis der Simulation verknüpft werden. Die Regressionsansätze werden dabei pro Durchlauf komplexer, in dem jeweils zusätzliche Eingabeparameter mit in die Datengenerierung aufgenommen werden. Es soll überprüft werden, ob diese Simulation mittels machine-learning Ansätzen reproduzierbar ist. Basierend auf diesen Surrogate Modellen soll es möglich gemacht werden, Situationen in Echtzeit zu überprüfen, ohne dabei den Weg der rechenaufwendigen Simulation zu gehen. Die Ergebnisse bestätigen, dass die mathematische Simulation mittels Regression reproduzierbar ist. Es erweist sich jedoch als sehr rechenaufwendig, Daten zu sammeln, um genügend Eingabeparameter mit in die Regressionsmethode einfließen zu lassen. Diese Arbeit gestaltet somit eine Vorstudie zur Umsetzung eines ausgereiften Surrogate Modells, welches jegliche Eingabeparameter der Simulation berücksichtigen kann.
Network effects, economies of scale, and lock-in-effects increasingly lead to a concentration of digital resources and capabilities, hindering the free and equitable development of digital entrepreneurship, new skills, and jobs, especially in small communities and their small and medium-sized enterprises (“SMEs”). To ensure the affordability and accessibility of technologies, promote digital entrepreneurship and community well-being, and protect digital rights, we propose data cooperatives as a vehicle for secure, trusted, and sovereign data exchange. In post-pandemic times, community/SME-led cooperatives can play a vital role by ensuring that supply chains to support digital commons are uninterrupted, resilient, and decentralized. Digital commons and data sovereignty provide communities with affordable and easy access to information and the ability to collectively negotiate data-related decisions. Moreover, cooperative commons (a) provide access to the infrastructure that underpins the modern economy, (b) preserve property rights, and (c) ensure that privatization and monopolization do not further erode self-determination, especially in a world increasingly mediated by AI. Thus, governance plays a significant role in accelerating communities’/SMEs’ digital transformation and addressing their challenges. Cooperatives thrive on digital governance and standards such as open trusted application programming interfaces (“APIs”) that increase the efficiency, technological capabilities, and capacities of participants and, most importantly, integrate, enable, and accelerate the digital transformation of SMEs in the overall process. This review article analyses an array of transformative use cases that underline the potential of cooperative data governance. These case studies exemplify how data and platform cooperatives, through their innovative value creation mechanisms, can elevate digital commons and value chains to a new dimension of collaboration, thereby addressing pressing societal issues. Guided by our research aim, we propose a policy framework that supports the practical implementation of digital federation platforms and data cooperatives. This policy blueprint intends to facilitate sustainable development in both the Global South and North, fostering equitable and inclusive data governance strategies.
Die Forschungs- und Weiterbildungsaktivtäten konzentrierten sich auf die Anwendung von Virtual Reality in der Lehre. Hier interessierte vor allem, wo im Maschinenbau diese Technologie sinnvoll eingesetzt werden kann. Hierzu wurden die verschiedenen Bereiche im Maschinenbau untersucht.
Des Weiteren sollte die Frage beantwortet werden, wie man die Technologie sinnvoll einsetzen kann. Hierzu wurden die Arbeitsplätze der Modellfabrik herangezogen. Die Modellfabrik bot die Möglichkeit sowohl in der industrienahen Umgebung das reale Training durchzuführen als auch das VR-Training durchzuführen.
Neben den Hauptaktivitäten im Bereich Virtual Reality erlaubte mir das Forschungssemester auch, in andere Felder der Digitalisierung und Industrie 4.0 tiefer einzusteigen. Hier sei explizit die konkrete Anbindung der Montagelinien in der Modellfabrik an das Digitalisieurngs-Tool von Forcam zu erwähnen. Die digitale Anbindung der Montagelinie ist mit interessanten Problemstellungen verbunden, auf die hier nicht weiter eingegangen werden soll, die aber zu einem deutlich tieferen Verständnis von konkreten Umsetzungsproblemen der Industrie geführt haben.
Increasing demand for sustainable, resilient, and low-carbon construction materials has highlighted the potential of Compacted Mineral Mixtures (CMMs), which are formulated from various soil types (sand, silt, clay) and recycled mineral waste. This paper presents a comprehensive inter- and transdisciplinary research concept that aims to industrialise and scale up the adoption of CMM-based construction materials and methods, thereby accelerating the construction industry’s systemic transition towards carbon neutrality. By drawing upon the latest advances in soil mechanics, rheology, and automation, we propose the development of a robust material properties database to inform the design and application of CMM-based materials, taking into account their complex, time-dependent behaviour. Advanced soil mechanical tests would be utilised to ensure optimal performance under various loading and ageing conditions. This research has also recognised the importance of context-specific strategies for CMM adoption. We have explored the implications and limitations of implementing the proposed framework in developing countries, particularly where resources may be constrained. We aim to shed light on socio-economic and regulatory aspects that could influence the adoption of these sustainable construction methods. The proposed concept explores how the automated production of CMM-based wall elements can become a fast, competitive, emission-free, and recyclable alternative to traditional masonry and concrete construction techniques. We advocate for the integration of open-source digital platform technologies to enhance data accessibility, processing, and knowledge acquisition; to boost confidence in CMM-based technologies; and to catalyse their widespread adoption. We believe that the transformative potential of this research necessitates a blend of basic and applied investigation using a comprehensive, holistic, and transfer-oriented methodology. Thus, this paper serves to highlight the viability and multiple benefits of CMMs in construction, emphasising their pivotal role in advancing sustainable development and resilience in the built environment.
Das veränderte Einkaufs- und Konsumverhalten vieler Kunden stellt den Einzelhandel vor große Herausforderungen. Dabei scheint besonders die junge Generation Z, die mit dem Internet, sozialen Medien und digitalen Anwendungen aufgewachsen ist, nicht mehr den traditionellen Konsummustern zu entsprechen und erwartet eine Anpassung des Einzelhandels an ihre Bedürfnisse. Um herauszufinden, welche Anforderungen junge Konsumentinnen und Konsumenten an den Einzelhandel stellen und wie sich diese zwischen verschiedenen Generationen unterscheiden, wurden mehr als 300 Personen aller Altersgruppen befragt. Zu den Schwerpunkten der Untersuchung zählten das Einkaufsverhalten, die Personalisierung von Kommunikation und Angeboten sowie die Nutzung digitaler Services und Technologien im Einzelhandel.
This thesis emphasizes problems that reports generated by vulnerability scanners impose on the process of vulnerability management, which are a. an overwhelming amount of data and b. an insufficient prioritization of the scan results.
To assist the process of developing means to counteract those problems and to allow for quantitative evaluation of their solutions, two metrics are proposed for their effectiveness and efficiency. These metrics imply a focus on higher severity vulnerabilities and can be applied to any simplification process of vulnerability scan results, given it relies on a severity score and time of remediation estimation for each vulnerability.
A priority score is introduced which aims to improve the widely used Common Vulnerability Scoring System (CVSS) base score of each vulnerability dependent on a vulnerability’s ease of exploit, estimated probability of exploitation and probability of its existence.
Patterns within the reports generated by the Open Vulnerability Assessment System (OpenVAS) vulnerability scanner between vulnerabilities are discovered which identify criteria by which they can be categorized from a remediation actor standpoint. These categories lay the groundwork of a final simplified report and consist of updates that need to be installed on a host, severe vulnerabilities, vulnerabilities that occur on multiple hosts and vulnerabilities that will take a lot of time for remediation. The highest potential time savings are found to exist within frequently occurring vulnerabilities, minor- and major suggested updates.
Processing of the results provided by the vulnerability scanner and creation of the report is realized in the form of a python script. The resulting reports are short, straight to the point and provide a top down remediation process which should theoretically allow to minimize the institutions attack surface as fast as possible. Evaluation of the practicality must follow as the reports are yet to be introduced into the Information Security Management Lifecycle.
In the past years, algorithms for 3D shape tracking using radial functions in spherical coordinates represented with different methods have been proposed. However, we have seen that mainly measurements from the lateral surface of the target can be expected in a lot of dynamic scenarios and only few measurements from the top and bottom parts leading to an error-prone shape estimate in the top and bottom regions when using a representation in spherical coordinates. We, therefore, propose to represent the shape of the target using a radial function in cylindrical coordinates, as these only represent regions of the lateral surface, and no information from the top or bottom parts is needed. In this paper, we use a Fourier-Chebyshev double series for 3D shape representation since a mixture of Fourier and Chebyshev series is a suitable basis for expanding a radial function in cylindrical coordinates. We investigate the method in a simulated and real-world maritime scenario with a CAD model of the target boat as a reference. We have found that shape representation in cylindrical coordinates has decisive advantages compared to a shape representation in spherical coordinates and should preferably be used if no prior knowledge of the measurement distribution on the surface of the target is available.
Das Management von Aktienfonds strebt effiziente Mischungen von Aktien an. Nachdem diese durch Optimierungsverfahren ermittelt wurden, müssen sie aus ökonomischen oder rechtlichen Gründen oft angepasst werden mit der Konsequenz, dass die Lösungen nicht mehr effizient sind. Ein rechtlicher Grund kann bei einem öffentlich angebotenen Aktienfond der Artikel 52(2) der EU-Richtlinie 2009/65/EC bzw. das KAGB § 206 sein. Ein Teil der Richtlinie besagt z.B., dass in eine Aktie nie mehr als 10% des Budgets investiert werden kann. Diese Regeln insgesamt sich auch als 5-10-40-Bedingung bekannt. Um derartige Risikobeschränkungen in der Portfoliooptimierung zu integrieren wurden zwei Optimierungsmodelle entwickelt – ein quadratisches und ein lineares. Die Modelle wurden anhand von historischen Renditedaten des HDAX getestet. Das lineare Modell zeigt, dass die Vorgaben der EU-Richtlinie die angestrebte Volatilitätsreduktion erreicht. Diese Risikobeschränkung hat aber einen Preis, der in den Währungen „Renditeverlust“ bzw. „Volatilitätszuwachs“ ausgedrückt werden kann. Bei gleicher Volatilität erzielte das nicht durch die 5-10-40-Bedingung eingeschränkte Portfolio eine ca. 10% höhere Jahresrendite. Der „Volatilitätszuwachs“ ist im Umfeld des minimalen Volatilitätspunktes (MVP) gering, kann aber bis zu 25% betragen, wenn Portfolios die unter der 5-10-40-Bedingung ermittelt wurden verglichen werden mit uneingeschränkt optimierten Portfolios bei jeweils gleicher Rendite. Das quadratische Modell baut auf dem Ansatz von H. Markowitz auf und zeigt einen flexibleren Weg der Risikobegrenzung der zu vergleichbaren Resultaten führt.
Non-volatile NAND flash memories store information as an electrical charge. Different read reference voltages are applied to read the data. However, the threshold voltage distributions vary due to aging effects like program erase cycling and data retention time. It is necessary to adapt the read reference voltages for different life-cycle conditions to minimize the error probability during readout. In the past, methods based on pilot data or high-resolution threshold voltage histograms were proposed to estimate the changes in voltage distributions. In this work, we propose a machine learning approach with neural networks to estimate the read reference voltages. The proposed method utilizes sparse histogram data for the threshold voltage distributions. For reading the information from triple-level cell (TLC) memories, several read reference voltages are applied in sequence. We consider two histogram resolutions. The simplest histogram consists of the zero-and-one ratios for the hard decision read operation, whereas a higher resolution is obtained by considering the quantization levels for soft-input decoding. This approach does not require pilot data for the voltage adaptation. Furthermore, only a few measurements of extreme points of the threshold voltage distributions are required as training data. Measurements with different conditions verify the proposed approach. The resulting neural networks perform well under other life-cycle conditions.
Die jüngeren Entscheidungen des EuGH sowie des BAG zur Arbeitszeiterfassung haben trotz ihrer eigentlich klaren Aussagen in der betrieblichen Praxis zu teils erheblichen Verunsicherungen geführt: Müssen nun wirklich die Arbeitszeiten der Beschäftigten erfasst werden und wie wirkt sich das auf die in vielen Unternehmen gelebte „Vertrauensarbeitszeit“ aus?
In 3D extended object tracking (EOT), well-established models exist for tracking the object extent using various shape priors. A single update, however, has to be performed for every measurement using these models leading to a high computational runtime for high-resolution sensors. In this paper, we address this problem by using various model-independent downsampling schemes based on distance heuristics and random sampling as pre-processing before the update. We investigate the methods in a simulated and real-world tracking scenario using two different measurement models with measurements gathered from a LiDAR sensor. We found that there is a huge potential for speeding up 3D EOT by dropping up to 95\% of the measurements in our investigated scenarios when using random sampling. Since random sampling, however, can also result in a subset that does not represent the total set very well, leading to a poor tracking performance, there is still a high demand for further research.