Refine
Year of publication
Document Type
- Conference Proceeding (595)
- Article (387)
- Other Publications (143)
- Part of a Book (135)
- Working Paper (125)
- Book (114)
- Report (107)
- Journal (Complete Issue of a Journal) (84)
- Master's Thesis (73)
- Doctoral Thesis (52)
Language
- German (1066)
- English (810)
- Multiple languages (7)
Keywords
- (Strict) sign-regularity (1)
- .NET Remoting (1)
- .NET-Plattform (1)
- 1D-CNN (1)
- 2 D environment Laser data (1)
- 360-degree coverage (1)
- 3D Extended Object Tracking (EOT) (2)
- 3D Skelett Wickeltechnik (1)
- 3D shape tracking (1)
- 3D ship detection (1)
Institute
- Fakultät Architektur und Gestaltung (38)
- Fakultät Bauingenieurwesen (95)
- Fakultät Elektrotechnik und Informationstechnik (33)
- Fakultät Informatik (118)
- Fakultät Maschinenbau (57)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (96)
- Institut für Angewandte Forschung - IAF (90)
- Institut für Naturwissenschaften und Mathematik - INM (2)
- Institut für Optische Systeme - IOS (36)
- Institut für Strategische Innovation und Technologiemanagement - IST (48)
Digitalisierung im Bauwesen
(2023)
Background
This is a systematic review protocol to identify automated features, applied technologies, and algorithms in the electronic early warning/track and triage system (EW/TTS) developed to predict clinical deterioration (CD).
Methodology
This study will be conducted using PubMed, Scopus, and Web of Science databases to evaluate the features of EW/TTS in terms of their automated features, technologies, and algorithms. To this end, we will include any English articles reporting an EW/TTS without time limitation. Retrieved records will be independently screened by two authors and relevant data will be extracted from studies and abstracted for further analysis. The included articles will be evaluated independently using the JBI critical appraisal checklist by two researchers.
Discussion
This study is an effort to address the available automated features in the electronic version of the EW/TTS to shed light on the applied technologies, automated level of systems, and utilized algorithms in order to smooth the road toward the fully automated EW/TTS as one of the potential solutions of prevention CD and its adverse consequences.
Online-Reisebewertungsplattformen sind der Treffpunkt für Touristen, um ihre Erlebnisse zu teilen und einander zu beeinflussen. Die Untersuchung des Besuchererlebnisses beim Besuch eines Museums kann sich positiv auf die Museumsentwicklung auswirken. In dieser Arbeit wurde eine qualitative Inhaltsanalyse verwendet, um die positiven und negativen Aspekte von Museumsbesuchen im indonesischen Nationalmuseum zu untersuchen. Durch die Datenanalyse von 420 TripAdvisor-Bewertungen des Nationalmuseums wurden die Aspekte ermittelt, die zur Zufriedenheit oder Unzufriedenheit der Besucher beitragen. Dadurch werden Museumsfachleute in die Lage versetzt, Museumsbesuche weiterzuentwickeln und zu verbessern.
Das Ergebnis dieser Studie zeigt, dass es 12 wichtige Themen gibt, die direkt mit der Erlebniswelt der Besucher im Museum verbunden sind, nämlich Ausstellungsdesign, Museumsidentität, First-hand Experience, Zugänglichkeit, Dienstleistungsumfeld, Architektur, Orientierung und Beschilderung, Annehmlichkeiten, Führungen, Wartungsarbeiten, Geschenkladen und Café, Mitarbeiter. Zu den positiven Aspekten der 12 Themen gehören die umfassenden Sammlungen, die Ausstellungsgestaltung, die Möglichkeit, Neues zu lernen, die günstigen Eintrittspreise, die strategische Lage des Museums, die informativen Museumsführer und die Dienstleistungen für eine Vielzahl von Museumsbesuchern. Bei den negativen Aspekten des Museums konzentrierten sich die Klagen der Besucher im Allgemeinen auf den Mangel an Interaktivität, Beschreibung, Kontext und Beleuchtung der Exponate. Darüber hinaus beklagten sich die Besucher über die Überfüllung an den Wochenenden, die ungepflegten Toiletten, das Verhalten des Personals und die Renovierungsarbeiten, die während der Öffnungszeiten des Museums durchgeführt wurden. Zur Verbesserung der Besuchsqualität sollte das Museum die Interaktivität und die Pflege der Sammlungen intensivieren, eine bessere Beleuchtung installieren, ausführliche Informationen über die Exponate bereitstellen, den Kundenservice und Mitarbeiterschulungen verbessern, Führungen für Kinder anbieten und einen offiziellen Museumsladen eröffnen.
Nowadays, information technology (IT) is a strategic asset for organizations. As a result, the IT costs are rising and there is a need for transparency about their root causes. Cost drivers as an instrument in IT cost management enable a better transparency and understanding of costs. However, there is a lack of IT cost driver research with a focus on the strategic position of IT within organizations. The goal of this paper is to develop a comprehensive overview of strategic drivers of IT costs. The Delphi study leads to the identification and validation of 17 strategic drivers. Hence, this paper builds a base for cost driver analysis and contributes to a better understanding of the causes of costs. It facilitates future research regarding cost behavior and the business value of IT. Additionally, practitioners gain awareness of levers to influence IT costs and consequences of managerial decisions on their IT spend.
Multi-faceted stresses of social, environmental, and economic nature are increasingly challenging the existence and sustainability of our societies. Cities in particular are disproportionately threatened by global issues such as climate change, urbanization, population growth, air pollution, etc. In addition, urban space is often too limited to effectively develop sustainable, nature-based solutions while accommodating growing populations. This research aims to provide new methodologies by proposing lightweight green bridges in inner-city areas as an effective land value capture mechanism. Geometry analysis was performed using geospatial and remote sensing data to provide geometrically feasible locations of green bridges. A multi-criteria decision analysis was applied to identify suitable locations for green bridges investigating Central European urban centers with a focus on German cities as representative examples. A cost-benefit analysis was performed to assess the economic feasibility using a case study. The results of the geometry analysis identified 3249 locations that were geometrically feasible to implement a green bridge in German cities. The sample locations from the geometry analysis were proved to be validated for their implementation potential. Multi-criteria decision analysis was used to select 287 sites that fall under the highest suitable class based on several criteria. The cost-benefit analysis of the case study showed that the market value of the property alone can easily outweigh the capital and maintenance costs of a green bridge, while the indirect (monetary) benefits of the green space continue to increase the overall value of the green bridge property including its neighborhood over time. Hence, we strongly recommend light green bridges as financially sustainable and nature-based solutions in cities worldwide.
Recognizing Human Activity of Daily Living Using a Flexible Wearable for 3D Spine Pose Tracking
(2023)
The World Health Organization recognizes physical activity as an influencing domain on quality of life. Monitoring, evaluating, and supervising it by wearable devices can contribute to the early detection and progress assessment of diseases such as Alzheimer’s, rehabilitation, and exercises in telehealth, as well as abrupt events such as a fall. In this work, we use a non-invasive and non-intrusive flexible wearable device for 3D spine pose measurement to monitor and classify physical activity. We develop a comprehensive protocol that consists of 10 indoor, 4 outdoor, and 8 transition states activities in three categories of static, dynamic, and transition in order to evaluate the applicability of the flexible wearable device in human activity recognition. We implement and compare the performance of three neural networks: long short-term memory (LSTM), convolutional neural network (CNN), and a hybrid model (CNN-LSTM). For ground truth, we use an accelerometer and strips data. LSTM reached an overall classification accuracy of 98% for all activities. The CNN model with accelerometer data delivered better performance in lying down (100%), static (standing = 82%, sitting = 75%), and dynamic (walking = 100%, running = 100%) positions. Data fusion improved the outputs in standing (92%) and sitting (94%), while LSTM with the strips data yielded a better performance in bending-related activities (bending forward = 49%, bending backward = 88%, bending right = 92%, and bending left = 100%), the combination of data fusion and principle components analysis further strengthened the output (bending forward = 100%, bending backward = 89%, bending right = 100%, and bending left = 100%). Moreover, the LSTM model detected the first transition state that is similar to fall with the accuracy of 84%. The results show that the wearable device can be used in a daily routine for activity monitoring, recognition, and exercise supervision, but still needs further improvement for fall detection.
Non-volatile NAND flash memories store information as an electrical charge. Different read reference voltages are applied to read the data. However, the threshold voltage distributions vary due to aging effects like program erase cycling and data retention time. It is necessary to adapt the read reference voltages for different life-cycle conditions to minimize the error probability during readout. In the past, methods based on pilot data or high-resolution threshold voltage histograms were proposed to estimate the changes in voltage distributions. In this work, we propose a machine learning approach with neural networks to estimate the read reference voltages. The proposed method utilizes sparse histogram data for the threshold voltage distributions. For reading the information from triple-level cell (TLC) memories, several read reference voltages are applied in sequence. We consider two histogram resolutions. The simplest histogram consists of the zero-and-one ratios for the hard decision read operation, whereas a higher resolution is obtained by considering the quantization levels for soft-input decoding. This approach does not require pilot data for the voltage adaptation. Furthermore, only a few measurements of extreme points of the threshold voltage distributions are required as training data. Measurements with different conditions verify the proposed approach. The resulting neural networks perform well under other life-cycle conditions.
Entwicklung und Analyse eines Turmes aus Buchenfurnierschichtholz für eine Kleinwindkraftanlage
(2023)
Die Energiepreise in Deutschland steigen und viele Immobilienbesitzer wollen unabhängiger von den Stromerzeugern werden, weshalb sie in eine eigene Stromproduktion investieren. Eine optimale Ergänzung zu einer Photovoltaikanlage stellt dabei eine Kleinwindkraftanlage dar, die im Vergleich zu den großen Anlagen geringere Umweltbelastungen verursacht. Allerdings entstehen beim Bau einer Kleinwindkraftanlage hohe Kosten, weshalb dieses Konzept kaum verbreitet ist.
Die Türme von Windkraftanlagen werden normalerweise aus Stahl hergestellt. Bei der Herstellung dieses Baustoffs werden große Mengen an Treibhausgasen freigesetzt. Ein umweltfreundlicheres Material ist der nachwachsende Rohstoff Holz. Die Herstellung der Türme in Holzbauweise ist bisher kaum zu finden. Daher wird in dieser Arbeit untersucht, ob ein Holzturm eine Alternative zum Stahlturm sein kann und ob dadurch die Investitionskosten für eine Kleinwindkraftanlage gesenkt werden können.
Um die Forschungsfrage zu beantworten, wurde ein Konzept für einen Holzturm aus Buchenfurnierschichtholz entwickelt. Zunächst wurde die Bedeutung von Buchenholz im Bauwesen erarbeitet. Anschließend wurden die Grundlagen für den Bau von Kleinwindkraftanlagen erforscht und die Abmessungen einer fiktiven Anlage festgelegt. Es wurden die relevanten Einwirkungen ermittelt und die Anlage mittels einer Finiten-Elemente-Berechnung untersucht. Zuletzt wurden die Nachweise für die Tragfähigkeit und die Ermüdungssicherheit des Querschnittes und der Verbindungsmittel geführt.
Bei den Untersuchungen der Randbedingungen konnten keine Argumente gefunden werden, die gegen die Verwendung von Holz sprechen. In einigen Punkten wie beispielsweise in der Herstellungs- und Errichtungsphase sind sogar Vorteile gegenüber dem Stahl zu erkennen. Zudem wurde in einer Kostenschätzung herausgefunden, dass ein Holzturm auch preislich mithalten kann und dass die Herstellungskosten sogar gesenkt werden können. Die Gesamtkosten für eine Kleinwindkraftanlage können dennoch nur unwesentlich gesenkt werden. Die Investition ist daher nur sinnvoll, wenn am geplanten Standort genügend Wind zur Verfügung steht und wenn der produzierte Strom größtenteils selbst genutzt werden kann.
This study aims to investigate the utilization of Bayesian techniques for the calibration of micro-electro-mechanical system (MEMS) accelerometers. These devices have garnered substantial interest in various practical applications and typically require calibration through error-correcting functions. The parameters of these error-correcting functions are determined during a calibration process. However, due to various sources of noise, these parameters cannot be determined with precision, making it desirable to incorporate uncertainty in the calibration models. Bayesian modeling offers a natural and complete way of reflecting uncertainty by treating the model parameters as variables rather than fixed values. In addition, Bayesian modeling enables the incorporation of prior knowledge, making it an ideal choice for calibration. Nevertheless, it is infrequently used in sensor calibration. This study introduces Bayesian methods for the calibration of MEMS accelerometer data in a straightforward manner using recent advances in probabilistic programming.
Mit Eis erneuerbar Heizen
(2023)
This paper introduces the third update/release of the Global Sanctions Data Base (GSDB-R3). The GSDB-R3 extends the period of coverage from 1950–2019 to 1950–2022, which includes two special periods—COVID-19 and the new sanctions against Russia. This update of the GSDB contains a total of 1325 cases. In response to multiple inquiries and requests, the GSDB-R3 has been amended with a new variable that distinguishes between unilateral and multilateral sanctions. As before, the GSDB comes in two versions, case-specific and dyadic, which are freely available upon request at GSDB@drexel.edu. To highlight one of the new features of the GSDB, we estimate the heterogeneous effects of unilateral and multilateral sanctions on trade. We also obtain estimates of the effects on trade of the 2014 sanctions on Russia.
Sanktionen stellen Zwangsmaßnahmen dar, die bei der Bewältigung politischer Spannungen zwischen Nationen eine lange und wiederkehrende Stellung einnehmen. Sie werden sowohl einseitig als auch in Staatenbündnissen verhängt und besonders nach dem 2. Weltkrieg mit zunehmender Häufigkeit eingesetzt. Während im letzten Jahrhundert, insbesondere vor dem 2. Weltkrieg, Handelsbeschränkungen und umfassende Wirtschaftsblockaden die vorherrschenden Sanktionsinstrumente darstellten, werden heute in einer stärker integrierten und globalisierten Welt Sanktionen in verschiedenen weiteren Formen verhängt, einschließlich internationaler Finanzbeschränkungen, Reiseverbote, Handelseinschränkungen für bestimmte Gütergruppen, Aufhebung militärischer Hilfen und spezifische Einschränkungen, wie beispielsweise Flugverbote und Hafensperrungen.
100 Jahre Türkische Republik
(2023)
Network effects, economies of scale, and lock-in-effects increasingly lead to a concentration of digital resources and capabilities, hindering the free and equitable development of digital entrepreneurship, new skills, and jobs, especially in small communities and their small and medium-sized enterprises (“SMEs”). To ensure the affordability and accessibility of technologies, promote digital entrepreneurship and community well-being, and protect digital rights, we propose data cooperatives as a vehicle for secure, trusted, and sovereign data exchange. In post-pandemic times, community/SME-led cooperatives can play a vital role by ensuring that supply chains to support digital commons are uninterrupted, resilient, and decentralized. Digital commons and data sovereignty provide communities with affordable and easy access to information and the ability to collectively negotiate data-related decisions. Moreover, cooperative commons (a) provide access to the infrastructure that underpins the modern economy, (b) preserve property rights, and (c) ensure that privatization and monopolization do not further erode self-determination, especially in a world increasingly mediated by AI. Thus, governance plays a significant role in accelerating communities’/SMEs’ digital transformation and addressing their challenges. Cooperatives thrive on digital governance and standards such as open trusted application programming interfaces (“APIs”) that increase the efficiency, technological capabilities, and capacities of participants and, most importantly, integrate, enable, and accelerate the digital transformation of SMEs in the overall process. This review article analyses an array of transformative use cases that underline the potential of cooperative data governance. These case studies exemplify how data and platform cooperatives, through their innovative value creation mechanisms, can elevate digital commons and value chains to a new dimension of collaboration, thereby addressing pressing societal issues. Guided by our research aim, we propose a policy framework that supports the practical implementation of digital federation platforms and data cooperatives. This policy blueprint intends to facilitate sustainable development in both the Global South and North, fostering equitable and inclusive data governance strategies.
MiniKueWeE-Abwärmenutzung
(2023)
Das Thema Energiewende ist derzeit so aktuell wie nie. Neben dem Umstieg von fossilen auf erneuerbare Energien gewinnt auch die Energieeffizienz auf allen Ebenen immer mehr an Bedeutung. Dies gilt besonders für viele Teile des Gebäudebereichs, wo heute eine beachtliche Energiemenge, nicht nur für die Wärmeerzeugung, sondern auch zur Raumkühlung benötigt wird (Umweltbundesamt 2020). In Anbetracht der Klimaveränderungen wird der Kühlbedarf in den nächsten Jahrzehnten zudem noch weiter ansteigen. Aus diesem Grund gibt es einen großen Bedarf an innovativen Lösungen, welche eine effiziente Raumkühlung unter möglichst geringem Energieeinsatz gewährleisten. Die vorliegende Projektarbeit untersucht einen Teilbereich einer solchen Lösung. Genaueres zum Hintergrund, den technischen Randbedingungen sowie den Zielen des Projekts, wird in den folgenden Abschnitten erläutert.
"KI first" braucht Verlierer
(2023)
Aktuell vergeht kaum eine Woche, in der nicht ein Unternehmen den Kampf um die Vorherrschaft im Bereich der Künstlichen Intelligenz (KI) aufnimmt. Tech-Konzerne versprechen sich auch von KI-gesteuerten Bildgeneratoren satte Gewinne. Diese ahmen mit synthetischen Mischbildern stilprägende Künstler/innen nach. Dabei wird auf die Rechtslage verwiesen, die eine zustimmungs- und vergütungsfreie Vervielfältigung ihrer Kunstwerke für Trainingszwecke angeblich zulässt. Doch Widerstand von Künstlern/innen hiergegen ist gesellschaftlich dringend geboten und wäre im Übrigen auch rechtlich gedeckt.
Sleep disorders can impact daily life, affecting physical, emotional, and cognitive well-being. Due to the time-consuming, highly obtrusive, and expensive nature of using the standard approaches such as polysomnography, it is of great interest to develop a noninvasive and unobtrusive in-home sleep monitoring system that can reliably and accurately measure cardiorespiratory parameters while causing minimal discomfort to the user’s sleep. We developed a low-cost Out of Center Sleep Testing (OCST) system with low complexity to measure cardiorespiratory parameters. We tested and validated two force-sensitive resistor strip sensors under the bed mattress covering the thoracic and abdominal regions. Twenty subjects were recruited, including 12 males and 8 females. The ballistocardiogram signal was processed using the 4th smooth level of the discrete wavelet transform and the 2nd order of the Butterworth bandpass filter to measure the heart rate and respiration rate, respectively. We reached a total error (concerning the reference sensors) of 3.24 beats per minute and 2.32 rates for heart rate and respiration rate, respectively. For males and females, heart rate errors were 3.47 and 2.68, and respiration rate errors were 2.32 and 2.33, respectively. We developed and verified the reliability and applicability of the system. It showed a minor dependency on sleeping positions, one of the major cumbersome sleep measurements. We identified the sensor under the thoracic region as the optimal configuration for cardiorespiratory measurement. Although testing the system with healthy subjects and regular patterns of cardiorespiratory parameters showed promising results, further investigation is required with the bandwidth frequency and validation of the system with larger groups of subjects, including patients.
Purpose
In order to combat climate change and safeguard a liveable future we need fundamental and rapid social change. Climate communication can play an important role to nurture the public engagement needed for this change, and higher education for sustainability can learn from climate communication.
Approach
The scientific evidence base on climate communication for effective public engagement is summarised into ten key principles, including ‘basing communication on people’s values’, ‘conscious use of framing’, and ‘turning concern into action’. Based on the author’s perspective and experience in the university context, implications are explored for sustainability in higher education.
Findings
The article provides suggestions for teaching (e.g. complement information with consistent behaviour by the lecturer, integrate local stories, and provide students with basic skills to communicate climate effectively), for research (e.g. make teaching for effective engagement the subject of applied research), for universities’ third mission to contribute to sustainable development
in the society (e.g. provide climate communication trainings to empower local stakeholders), andgreening the campus (develop a proper engagement infrastructure, e.g. by a university storytelling exchange on climate action).
Originality
The article provides an up-to-date overview of climate communication research, which is in itself original. This evidence base holds interesting learnings for institutions of higher education, and the link between climate communication and universities has so far not been explored comprehensively.
Wie kann Korpuslinguistik für den Fremdsprachenunterricht genutzt werden? Wie kann Data-driven Learning initiiert werden? Wer sich mit diesen Fragen beschäftigt und sich über den Einsatz im DaF-Unterricht informieren möchte, wird kaum fündig, denn die publizierten Materialien wurden in der Regel für den Englischunterricht verfasst. In dieser Sammelrezension werden daher vier Monografien vorgestellt, in denen der Einsatz der Korpuslinguistik zur Sprachvermittlung Englisch beschrieben wird. Es sollen die Schwerpunkte und Besonderheiten der Monografien herausgearbeitet und der mögliche Nutzen für Deutsch als Fremdsprache eruiert werden.
Der einst vorherrschende Baustoff in Deutschland war Lehm. Dieser wurde durch die erste industrielle Revolution weitgehend verdrängt und durch industrialisierte Baustoffe wie Beton ersetzt. Mit der vierten industriellen Revolution und dem steigenden Bewusstsein der Auswirkungen der Ressourcenverschwendung und Abfallproduktion auf die Umwelt, soll der traditionelle Lehmbau durch Digitalisierung und Automatisierung wieder an ökonomischem Aufschwung gewinnen. Bauen mit Lehm bietet die Chance einer systematischen Transformation der Bauindustrie in Richtung Kohlenstoffneutralität. Bisher ist die Bauindustrie für mehr als 30 % der weltweiten Treibhausgasemissionen verantwortlich. Durch die Verwendung regionaler, zirkulärer Materialien, die idealerweise aus der eigenen Baugrube gewonnen werden, könnte sich dies in Zukunft ändern. Lehm kommt in nahezu allen Teilen der Welt flächendeckend und zur Genüge vor und kann mit verschiedenen regional vorhandenen Additiven ergänzt werden. Durch Standardisierung der Produkte und technologischen Fortschritt könnte der Lehmbau in eine Massenproduktion überführt werden und in Zukunft mit dem konventionellen Stahlbetonbau oder Holzbau konkurrieren.
Diese Masterarbeit konzentriert sich auf die Modernisierung von Lehmbauweisen in Form von digitalisierten und automatisierten additiven Fertigungsverfahren wie der Stampflehmbau oder das 3D-Drucken mit Lehm für Wandbauteile. Ziel der Masterthesis ist es, einen Bauablauf für eines der genannten additiven Fertigungsverfahren zu entwickeln. Um dieses Ziel zu erreichen, werden die verschiedenen Fertigungsverfahren und Arten nach Stand der Technik miteinander verglichen und sich für das am besten bewertete entschieden. Als praktische Grundlage für die Wahl des Fertigungsverfahren dienen beispielhafte Untersuchungen mit einem Lehm 3D-Drucker. Dabei werden Prüfkörper mit und ohne Additive gedruckt sowie Prüfkörper mit unterschiedlichen Füllgraden erstellt und anschließend im Labor auf ihre Druckfestigkeit geprüft.
Die folgende Arbeit zeigt die vielen Potenziale des Lehmbaus als zirkuläre und moderne Bauweise auf und beleuchtet zugleich die Herausforderungen, die es noch zu lösen gilt.
Linear and nonlinear response functions (RF) are extracted for the climate system and the carbon cycle represented by the MPI-ESM and cGENIE models, respectively. Appropriately designed simulations are run for this purpose. Joining these RFs, we have a climate emulator with carbon emissions as the forcing and any desired observable quantity (provided the data is saved), such as the surface air temperature or precipitation, as the predictand. Like e.g. for atmospheric CO2 concentration, we also have RFs for the solar constant as a forcing — mimicking solar radiation management (SRM) geoengineering. We consider two application cases. 1. One is based on the Paris 2015 agreement, determining the necessary least amount of SRM geoengineering needed to keep the global mean surface air temperature below a certain threshold, e.g. 1.5 or 2 [oC], given a certain amount of carbon emission abatement (ABA) and carbon dioxide removal (CDR) geoengineering. 2. The other application considers the conservation of the Greenland ice sheet (GrIS). Using a zero-dimensional simplification of a complex ice sheet model, we determine (a) if we need SRM given some ABA and CDR, and, if possible, (b) the required least amount of SRM to avoid the collapse of the GrIS. Keeping temperatures below 2 [oC] even is hardly possible without sustained SRM (1.); however, the collapse of the GrIS can be avoided applying SRM even for moderate levels of CDR and ABA, an overshoot being affordable (2.).
Insecurity Refactoring is a change to the internal structure of software to inject a vulnerability without changing the observable behavior in a normal use case scenario. An implementation of Insecurity Refactoring is formally explained to inject vulnerabilities in source code projects by using static code analysis. It creates learning examples with source code patterns from known vulnerabilities.
Insecurity Refactoring is achieved by creating an Adversary Controlled Input Dataflow tree based on a Code Property Graph. The tree is used to find possible injection paths. Transformation of the possible injection paths allows to inject vulnerabilities. Insertion of data flow patterns introduces different code patterns from related Common Vulnerabilities and Exposures (CVE) reports. The approach is evaluated on 307 open source projects. Additionally, insecurity-refactored projects are deployed in virtual machines to be used as learning examples. Different static code analysis tools, dynamic tools and manual inspections are used with modified projects to confirm the presence of vulnerabilities.
The results show that in 8.1% of the open source projects it is possible to inject vulnerabilities. Different inspected code patterns from CVE reports can be inserted using corresponding data flow patterns. Furthermore the results reveal that the injected vulnerabilities are useful for a small sample size of attendees (n=16). Insecurity Refactoring is useful to automatically generate learning examples to improve software security training. It uses real projects as base whereas the injected vulnerabilities stem from real CVE reports. This makes the injected vulnerabilities unique and realistic.
The architecture, engineering and construction (AEC) industry is currently in transformation. Within this transformation, digitalization has a leading function, whereby a higher level of efficiency is pursued. In order to ensure a coordinated information exchange within the digitalization, the concept of the Common Data Environment (CDE) has been developed in the last years. A CDE is a cloud based collaborative platform that is used to exchange project information and data between the different stakeholders of a construction project. The main objective of this thesis is the implementation of a suitable CDE solution for the purpose of a construction management company.
For this purpose, an evaluation of different CDE software on the market, based on the functions and usability of the different software, has been complied to identify the most suitable solution. Secondly, a concept for the setup and implementation of a CDE solution has been developed. Therefore, advice for a successful change-management has been established to ensure the good implementation of the CDE.
The first part of the thesis includes a literature review through which the current state of the information management in the AEC industry is analyzed. The advantages of a CDE for the information management are also analyzed. Therefore, a synthesis of the functions and requirements to a CDE has been complied.
The second part of the thesis links the concept of Building Information Modelling (BIM) with the CDE. The advantages of a CDE in the BIM process has been established.
The third part of the thesis treats the evaluation of CDE software. This evaluation has been complied with a scoring method. As basis of the evaluation, a requirement list has been developed in which all the required functions of a CDE are listed.
In the fourth part of the thesis, a concept for the establishment of a CDE has been developed. The developed concept is a practical application of the standards specifications to CDE. The concept has been developed with CDE expert and CDE power users. The developed concept treats overall of the structuration, the standardization, and the implementation of a CDE.
The last part treats of the change process engender by the implementation of a CDE.
Summary, this thesis provides a structure for the implementation of a CDE software and serves as framework for companies of the AEC industry to select and establish a CDE.
Motion estimation is an essential element for autonomous vessels. It is used e.g. for lidar motion compensation as well as mapping and detection tasks in a maritime environment. Because the use of gyroscopes is not reliable and a high performance inertial measurement unit is quite expensive, we present an approach for visual pitch and roll estimation that utilizes a convolutional neural network for water segmentation, a stereo system for reconstruction and simple geometry to estimate pitch and roll. The algorithm is validated on a novel, publicly available dataset recorded at Lake Constance. Our experiments show that the pitch and roll estimator provides accurate results in comparison to an Xsens IMU sensor. We can further improve the pitch and roll estimation by sensor fusion with a gyroscope. The algorithm is available in its implementation as a ROS node.
Increasing demand for sustainable, resilient, and low-carbon construction materials has highlighted the potential of Compacted Mineral Mixtures (CMMs), which are formulated from various soil types (sand, silt, clay) and recycled mineral waste. This paper presents a comprehensive inter- and transdisciplinary research concept that aims to industrialise and scale up the adoption of CMM-based construction materials and methods, thereby accelerating the construction industry’s systemic transition towards carbon neutrality. By drawing upon the latest advances in soil mechanics, rheology, and automation, we propose the development of a robust material properties database to inform the design and application of CMM-based materials, taking into account their complex, time-dependent behaviour. Advanced soil mechanical tests would be utilised to ensure optimal performance under various loading and ageing conditions. This research has also recognised the importance of context-specific strategies for CMM adoption. We have explored the implications and limitations of implementing the proposed framework in developing countries, particularly where resources may be constrained. We aim to shed light on socio-economic and regulatory aspects that could influence the adoption of these sustainable construction methods. The proposed concept explores how the automated production of CMM-based wall elements can become a fast, competitive, emission-free, and recyclable alternative to traditional masonry and concrete construction techniques. We advocate for the integration of open-source digital platform technologies to enhance data accessibility, processing, and knowledge acquisition; to boost confidence in CMM-based technologies; and to catalyse their widespread adoption. We believe that the transformative potential of this research necessitates a blend of basic and applied investigation using a comprehensive, holistic, and transfer-oriented methodology. Thus, this paper serves to highlight the viability and multiple benefits of CMMs in construction, emphasising their pivotal role in advancing sustainable development and resilience in the built environment.
An inter- and transdisciplinary concept has been developed, focusing on the scaling of industrial circular construction using innovative compacted mineral mixtures (CMM) derived from various soil types (sand, silt, clay) and recycled mineral waste. The concept aims to accelerate the systemic transformation of the construction industry towards carbon neutrality by promoting the large-scale adoption and automation of CMM-based construction materials, which incorporate natural mineral components and recycled aggregates or industrial by-products. In close collaboration with international and domestic stakeholders in the construction sector, the concept explores the integration of various CMM-based construction methods for producing wall elements in conventional building construction. Leveraging a digital urban mining platform, the concept aims to standardize the production process and enable mass-scale production. The ultimate goal is to fully harness the potential of automated CMM-based wall elements as a fast, competitive, emission-free, and recyclable alternative to traditional masonry and concrete construction techniques. To achieve this objective, the concept draws upon the latest advances in soil mechanics, rheology, and automation and incorporates open-source digital platform technologies to enhance data accessibility, processing, and knowledge acquisition. This will bolster confidence in CMM-based technologies and facilitate their widespread adoption. The extraordinary transfer potential of this approach necessitates both basic and applied research. As such, the proposed transformative, inter- and transdisciplinary concept will be conducted and synthesized using a comprehensive, holistic, and transfer-oriented methodology.
Die Berücksichtigung ökologischer und sozialer Gesichtspunkte in der Konzeption, Planung und Errichtung von Gebäuden hat in den vergangenen Jahren großen Einfluss auf Marktfähigkeit der Immobilien gewonnen. Regulatorische Rahmenwerke wie die Taxonomie-Verordnung der Europäischen Union formulieren die klare Anforderung an die Bauwirtschaft dem Schutz von Mensch und Natur mehr Bedeutung einzuräumen. Nur mit einem wesentlichen Beitrag zu den Klimazielen der Europäischen Union wird es der Branche langfristig möglich sein sich einen uneingeschränkten Zugang zum Investorenmarkt zu sichern.
Die vorliegende wissenschaftliche Arbeit widmet sich dem Kriterienkatalog der Deutschen Gesellschaft für Nachhaltiges Bauen e.V. und legt Übereinstimmungen mit den technischen Bewertungskriterien der EU-Taxonomie Verordnung offen. Der im Frühjahr 2023 erschienen Kriterienkatalog umfasst eine Vielzahl von Kriterien, anhand derer Gebäude auf Nachhaltigkeit geprüft werden. Im Vergleich zu der Vorgängerversion aus dem Jahr 2018 wurden erhebliche Änderungen eingearbeitet. Besonders hervorzuheben sind neue technische Prüfkriterien im Bereich Klimaschutz, Ressourcengewinnung, Biodiversität und Kreislaufwirtschaft. Die Angleichung der Berechnungsmethode für die Ökobilanzen an das bundeseigene „Qualitätssiegel Nachhaltiges Gebäude“, die Mindestanforderung nach dem erhöhten Einsatz von nachhaltig gewachsenem Holz, die Prüfung spezifischer Zielquoten bei dem Einsatz von Recyclingbeton sowie Anforderungen an die Zirkularität sind nur ein Teil der Neuerungen. Für die zusätzlichen Anforderung müssen Projektentwickler mit Mehrkosten im hohen sechsstelligen Bereich im Vergleich zu der Vorgängerversion rechnen. Vorteile der Neuauflage des Kriterienkataloges sind eine erhöhte Übereinstimmung mit den Nachhaltigkeitsanforderungen der Europäischen Union. Es werden jedoch nicht alle Anforderungen erfüllt. Nachweise für den Primärenergiebedarf, die Schadstoffbelastung von Bauteilen bzw. -materialien und eine Umweltverträglichkeitsprüfung müssen zusätzlich zu dem Kriterienkatalog der Deutschen Gesellschaft für Nachhaltiges Bauen geleistet werden. Insgesamt ebnen die Kriterien der Deutschen Gesellschaft für Nachhaltiges Bauen aber den Weg hin zu einer EU-Konformität und helfen Projektentwicklern Immobilien erfolgreich auf dem Markt zu positionieren.
Das veränderte Einkaufs- und Konsumverhalten vieler Kunden stellt den Einzelhandel vor große Herausforderungen. Dabei scheint besonders die junge Generation Z, die mit dem Internet, sozialen Medien und digitalen Anwendungen aufgewachsen ist, nicht mehr den traditionellen Konsummustern zu entsprechen und erwartet eine Anpassung des Einzelhandels an ihre Bedürfnisse. Um herauszufinden, welche Anforderungen junge Konsumentinnen und Konsumenten an den Einzelhandel stellen und wie sich diese zwischen verschiedenen Generationen unterscheiden, wurden mehr als 300 Personen aller Altersgruppen befragt. Zu den Schwerpunkten der Untersuchung zählten das Einkaufsverhalten, die Personalisierung von Kommunikation und Angeboten sowie die Nutzung digitaler Services und Technologien im Einzelhandel.
Die digitale Transformation von Geschäftsprozessen und die stärkere Integration von IT-Systemen führen zu Chancen und Risiken für kleine und mittlere Unternehmen (KMU). Risiken, die zu fehlender IT-Governance, Risk und Compliance (GRC) führen können. Ziel dieses Beitrags ist es, die Design- und Evaluierungsphase der Erstellung eines Artefakts darzustellen. Dabei wird der Design Science Research Ansatz nach Hevner verwendet. Das Artefakt wird für die Auswahl von Standards entwickelt, indem KMU-relevante Ausprägungen und bestehende Rahmenwerke auf die definierten Kriterien angepasst werden.
Die Vermessung der Stadt
(2023)
Digital federated platforms and data cooperatives for secure, trusted and sovereign data exchange will play a central role in the construction industry of the future. With the help of platforms, cooperatives and their novel value creation, the digital transformation and the degree of organization of the construction value chain can be taken to a new level of collaboration. The goal of this research project was to develop an experimental prototype for a federated innovation data platform along with a suitable exemplary use case. The prototype is to serve the construction industry as a demonstrator for further developments and form the basis for an innovation platform. It exemplifies how an overall concept is concretely implemented along one or more use cases that address high-priority industry pain points. This concept will create a blueprint and a framework for further developments, which will then be further established in the market. The research project illuminates the perspective of various governance innovations to increase industry collaboration, productivity and capital project performance and transparency as well as the overall potential of possible platform business models. However, a comprehensive expert survey revealed that there are considerable obstacles to trust-based data exchange between the key stakeholders in the industry value network. The obstacles to cooperation are predominantly not of a technical nature but rather of a competitive, predominantly trust-related nature. To overcome these obstacles and create a pre-competitive space of trust, the authors therefore propose the governance structure of a data cooperative model, which is discussed in detail in this paper.
Das Management von Aktienfonds strebt effiziente Mischungen von Aktien an. Nachdem diese durch Optimierungsverfahren ermittelt wurden, müssen sie aus ökonomischen oder rechtlichen Gründen oft angepasst werden mit der Konsequenz, dass die Lösungen nicht mehr effizient sind. Ein rechtlicher Grund kann bei einem öffentlich angebotenen Aktienfond der Artikel 52(2) der EU-Richtlinie 2009/65/EC bzw. das KAGB § 206 sein. Ein Teil der Richtlinie besagt z.B., dass in eine Aktie nie mehr als 10% des Budgets investiert werden kann. Diese Regeln insgesamt sich auch als 5-10-40-Bedingung bekannt. Um derartige Risikobeschränkungen in der Portfoliooptimierung zu integrieren wurden zwei Optimierungsmodelle entwickelt – ein quadratisches und ein lineares. Die Modelle wurden anhand von historischen Renditedaten des HDAX getestet. Das lineare Modell zeigt, dass die Vorgaben der EU-Richtlinie die angestrebte Volatilitätsreduktion erreicht. Diese Risikobeschränkung hat aber einen Preis, der in den Währungen „Renditeverlust“ bzw. „Volatilitätszuwachs“ ausgedrückt werden kann. Bei gleicher Volatilität erzielte das nicht durch die 5-10-40-Bedingung eingeschränkte Portfolio eine ca. 10% höhere Jahresrendite. Der „Volatilitätszuwachs“ ist im Umfeld des minimalen Volatilitätspunktes (MVP) gering, kann aber bis zu 25% betragen, wenn Portfolios die unter der 5-10-40-Bedingung ermittelt wurden verglichen werden mit uneingeschränkt optimierten Portfolios bei jeweils gleicher Rendite. Das quadratische Modell baut auf dem Ansatz von H. Markowitz auf und zeigt einen flexibleren Weg der Risikobegrenzung der zu vergleichbaren Resultaten führt.
As one of the most important branches of the industry in Germany and
the European Union, the mechanical and plant engineering sector is confronted with fundamental changes due to ever shorter innovation cycles and increased competitive pressure. This makes it even more important to increase the level of service components in business models with a low service level, which are still frequently found in SMEs. This paper is dedicated to the changes that the individual components of a business model have experienced and will experience. Special attention is paid to economic sustainability, since service business models can also positively influence the long-term nature of a business. Seven interviews conducted with relevant companies serve as the empirical basis of this paper. The analysed effects of smart services and active customer integration are structured and summarized within the three pillars of every business model (value proposition, the value creation architecture and the revenue mechanic).
Random matrices are used to filter the center of gravity (CoG) and the covariance matrix of measurements. However, these quantities do not always correspond directly to the position and the extent of the object, e.g. when a lidar sensor is used.In this paper, we propose a Gaussian processes regression model (GPRM) to predict the position and extension of the object from the filtered CoG and covariance matrix of the measurements. Training data for the GPRM are generated by a sampling method and a virtual measurement model (VMM). The VMM is a function that generates artificial measurements using ray tracing and allows us to obtain the CoG and covariance matrix that any object would cause. This enables the GPRM to be trained without real data but still be applied to real data due to the precise modeling in the VMM. The results show an accurate extension estimation as long as the reality behaves like the modeling and e.g. lidar measurements only occur on the side facing the sensor.
The scoring of sleep stages is one of the essential tasks in sleep analysis. Since a manual procedure requires considerable human and financial resources, and incorporates some subjectivity, an automated approach could result in several advantages. There have been many developments in this area, and in order to provide a comprehensive overview, it is essential to review relevant recent works and summarise the characteristics of the approaches, which is the main aim of this article. To achieve it, we examined articles published between 2018 and 2022 that dealt with the automated scoring of sleep stages. In the final selection for in-depth analysis, 125 articles were included after reviewing a total of 515 publications. The results revealed that automatic scoring demonstrates good quality (with Cohen's kappa up to over 0.80 and accuracy up to over 90%) in analysing EEG/EEG + EOG + EMG signals. At the same time, it should be noted that there has been no breakthrough in the quality of results using these signals in recent years. Systems involving other signals that could potentially be acquired more conveniently for the user (e.g. respiratory, cardiac or movement signals) remain more challenging in the implementation with a high level of reliability but have considerable innovation capability. In general, automatic sleep stage scoring has excellent potential to assist medical professionals while providing an objective assessment.
Contemporary empirical applications frequently require flexible regression models for complex response types and large tabular or non-tabular, including image or text, data. Classical regression models either break down under the computational load of processing such data or require additional manual feature extraction to make these problems tractable. Here, we present deeptrafo, a package for fitting flexible regression models for conditional distributions using a tensorflow backend with numerous additional processors, such as neural networks, penalties, and smoothing splines. Package deeptrafo implements deep conditional transformation models (DCTMs) for binary, ordinal, count, survival, continuous, and time series responses, potentially with uninformative censoring. Unlike other available methods, DCTMs do not assume a parametric family of distributions for the response. Further, the data analyst may trade off interpretability and flexibility by supplying custom neural network architectures and smoothers for each term in an intuitive formula interface. We demonstrate how to set up, fit, and work with DCTMs for several response types. We further showcase how to construct ensembles of these models, evaluate models using inbuilt cross-validation, and use other convenience functions for DCTMs in several applications. Lastly, we discuss DCTMs in light of other approaches to regression with non-tabular data.
Trotz des seit über zehn Jahren anhaltend negativen Trends im traditionellen Kameramarkt werden in Zukunft exponentiell mehr Bilder mit technischen Hilfsmitteln produziert und veröffentlicht werden, nur eben auf eine fundamental andere Weise, mit anderen, vermeintlich komfortableren Geräten, im Hintergrund unterstützt durch sogenannte »smarte« Technologien. Die blitzschnelle Verrechnung von kurzen Bildserien zu einem einzigen Bild, unter Zuhilfenahme von leistungsfähigen Algorithmen aus dem Bereich des maschinellen Sehens, simuliert eine handwerkliche Perfektion, die auf optisch, chemischem Weg so nicht möglich wäre. Auch wenn die analoge Fotografie, teils im Rückgriff auf Jahrhunderte alte Praktiken der Bildenden Kunst, einstmals die Vorbilder und Standards etabliert hat, auf die KI-Modelle derzeit trainiert werden, spielen analoge Bildgebungsverfahren heutzutage quantitativ kaum mehr eine Rolle. Qualitativ erfährt die analoge Fotografie, sowohl im Sinne einer entschleunigenden Gegenbewegung, als auch auf Grund ihrer vermeintlich höheren Authentizität und ihrer haptischen und materiellen Qualitäten, eine überraschend starke Aufmerksamkeit. Diese richtet sich auf die Auseinandersetzung mit fotografischen Wahrnehmungsweisen, die Erforschung unserer realen Umgebung und nicht zuletzt auf die Begegnung mit uns selbst. Analoge Kameras, die Arbeit in der Dunkelkammer und historische Verfahren, wie das Nasse-Kollodion-Verfahren oder die Cyanotypie haben seit einigen Jahren weltweit wieder Konjunktur unter Photoenthusiasten und Studierenden. Was die Protagonisten eines vermeintlich nostalgischen Retro-Trends indes nicht davon abhält, in ihrem Alltag ganz selbstverständlich in »Echtzeit« mit Handys und häufig unter strategisch diversifizierten, mehr oder weniger privaten User-Profilen und Identitäten in den sogenannten sozialen Netzwerken mit anderen (und auch sich selbst) in Form von digitalen bzw. digitalisierten Bildern in einen möglichst flüchtigen Kontakt zu treten.
Creative Coding - void draw
(2023)
Creative Coding ist eines der vielen trendigen Schlagwörter, die in letzter Zeit in der Designbranche auftauchen. Wie so oft ist Creative Coding aber prinzipiell gar nicht so neu, sondern eine Wortschöpfung, die etwas beschreibt, was DesignerInnen schon lange betreiben, was jedoch nun breiter diskutiert wird und als wichtiges Konzept für Designer anerkannt ist.
Die Forschungs- und Weiterbildungsaktivtäten konzentrierten sich auf die Anwendung von Virtual Reality in der Lehre. Hier interessierte vor allem, wo im Maschinenbau diese Technologie sinnvoll eingesetzt werden kann. Hierzu wurden die verschiedenen Bereiche im Maschinenbau untersucht.
Des Weiteren sollte die Frage beantwortet werden, wie man die Technologie sinnvoll einsetzen kann. Hierzu wurden die Arbeitsplätze der Modellfabrik herangezogen. Die Modellfabrik bot die Möglichkeit sowohl in der industrienahen Umgebung das reale Training durchzuführen als auch das VR-Training durchzuführen.
Neben den Hauptaktivitäten im Bereich Virtual Reality erlaubte mir das Forschungssemester auch, in andere Felder der Digitalisierung und Industrie 4.0 tiefer einzusteigen. Hier sei explizit die konkrete Anbindung der Montagelinien in der Modellfabrik an das Digitalisieurngs-Tool von Forcam zu erwähnen. Die digitale Anbindung der Montagelinie ist mit interessanten Problemstellungen verbunden, auf die hier nicht weiter eingegangen werden soll, die aber zu einem deutlich tieferen Verständnis von konkreten Umsetzungsproblemen der Industrie geführt haben.
Sleep is essential to physical and mental health. However, the traditional approach to sleep analysis—polysomnography (PSG)—is intrusive and expensive. Therefore, there is great interest in the development of non-contact, non-invasive, and non-intrusive sleep monitoring systems and technologies that can reliably and accurately measure cardiorespiratory parameters with minimal impact on the patient. This has led to the development of other relevant approaches, which are characterised, for example, by the fact that they allow greater freedom of movement and do not require direct contact with the body, i.e., they are non-contact. This systematic review discusses the relevant methods and technologies for non-contact monitoring of cardiorespiratory activity during sleep. Taking into account the current state of the art in non-intrusive technologies, we can identify the methods of non-intrusive monitoring of cardiac and respiratory activity, the technologies and types of sensors used, and the possible physiological parameters available for analysis. To do this, we conducted a literature review and summarised current research on the use of non-contact technologies for non-intrusive monitoring of cardiac and respiratory activity. The inclusion and exclusion criteria for the selection of publications were established prior to the start of the search. Publications were assessed using one main question and several specific questions. We obtained 3774 unique articles from four literature databases (Web of Science, IEEE Xplore, PubMed, and Scopus) and checked them for relevance, resulting in 54 articles that were analysed in a structured way using terminology. The result was 15 different types of sensors and devices (e.g., radar, temperature sensors, motion sensors, cameras) that can be installed in hospital wards and departments or in the environment. The ability to detect heart rate, respiratory rate, and sleep disorders such as apnoea was among the characteristics examined to investigate the overall effectiveness of the systems and technologies considered for cardiorespiratory monitoring. In addition, the advantages and disadvantages of the considered systems and technologies were identified by answering the identified research questions. The results obtained allow us to determine the current trends and the vector of development of medical technologies in sleep medicine for future researchers and research.
Sleep is extremely important for physical and mental health. Although polysomnography is an established approach in sleep analysis, it is quite intrusive and expensive. Consequently, developing a non-invasive and non-intrusive home sleep monitoring system with minimal influence on patients, that can reliably and accurately measure cardiorespiratory parameters, is of great interest. The aim of this study is to validate a non-invasive and unobtrusive cardiorespiratory parameter monitoring system based on an accelerometer sensor. This system includes a special holder to install the system under the bed mattress. The additional aim is to determine the optimum relative system position (in relation to the subject) at which the most accurate and precise values of measured parameters could be achieved. The data were collected from 23 subjects (13 males and 10 females). The obtained ballistocardiogram signal was sequentially processed using a sixth-order Butterworth bandpass filter and a moving average filter. As a result, an average error (compared to reference values) of 2.24 beats per minute for heart rate and 1.52 breaths per minute for respiratory rate was achieved, regardless of the subject’s sleep position. For males and females, the errors were 2.28 bpm and 2.19 bpm for heart rate and 1.41 rpm and 1.30 rpm for respiratory rate. We determined that placing the sensor and system at chest level is the preferred configuration for cardiorespiratory measurement. Further studies of the system’s performance in larger groups of subjects are required, despite the promising results of the current tests in healthy subjects.
In order to ensure sufficient recovery of the human body and brain, healthy sleep is indispensable. For this purpose, appropriate therapy should be initiated at an early stage in the case of sleep disorders. For some sleep disorders (e.g., insomnia), a sleep diary is essential for diagnosis and therapy monitoring. However, subjective measurement with a sleep diary has several disadvantages, requiring regular action from the user and leading to decreased comfort and potential data loss. To automate sleep monitoring and increase user comfort, one could consider replacing a sleep diary with an automatic measurement, such as a smartwatch, which would not disturb sleep. To obtain accurate results on the evaluation of the possibility of such a replacement, a field study was conducted with a total of 166 overnight recordings, followed by an analysis of the results. In this evaluation, objective sleep measurement with a Samsung Galaxy Watch 4 was compared to a subjective approach with a sleep diary, which is a standard method in sleep medicine. The focus was on comparing four relevant sleep characteristics: falling asleep time, waking up time, total sleep time (TST), and sleep efficiency (SE). After evaluating the results, it was concluded that a smartwatch could replace subjective measurement to determine falling asleep and waking up time, considering some level of inaccuracy. In the case of SE, substitution was also proved to be possible. However, some individual recordings showed a higher discrepancy in results between the two approaches. For its part, the evaluation of the TST measurement currently does not allow us to recommend substituting the measurement method for this sleep parameter. The appropriateness of replacing sleep diary measurement with a smartwatch depends on the acceptable levels of discrepancy. We propose four levels of similarity of results, defining ranges of absolute differences between objective and subjective measurements. By considering the values in the provided table and knowing the required accuracy, it is possible to determine the suitability of substitution in each individual case. The introduction of a “similarity level” parameter increases the adaptability and reusability of study findings in individual practical cases.
Scheinselbständigkeit
(2023)
Jahresbericht 2023
(2023)
Effiziente Energienutzung ist eine bestehende Problematik, welche nicht nur Privathaushalte, sondern auch Institute und Unternehmen betrifft. Die Thematik, mit der sich diese Bachelorarbeit beschäftigt, ist intelligente Regelung von Wärmeenergie für Nichtwohngebäude. Das Ziel hierbei ist die Einsparung von Energie und die daraus folgenden Kosten. Hierfür wird mittels theoretischer Arbeit, Recherche für vorhandene Konzepte durchgeführt. Mit MATLAB Simulink soll anschließend ein eigenes Konzept für eine intelligente, vorausschauende Regelung aufgebaut und simuliert werden. Dabei soll die Raumlufttemperatur eines Raumes in einem Nichtwohngebäude, mithilfe eines modellbasierten prädiktiven Reglers (MPC), auf eine bestimmte Wunschtemperatur geregelt werden. Zum Schluss wird diese mit einer herkömmlichen Regelung (PID-Regelung) verglichen. Als Ergebnis kam dabei heraus, dass sich bei der vorausschauenden Regelung, im Vergleich zur herkömmlichen Regelung, ein deutlich besserer Temperaturverlauf ergibt. Die Raumtemperatur liegt im gewünschten Sollbereich, jedoch sind in den Ergebnissen keine nennenswerten Energieeinsparungen zu sehen. Durch zukünftige Erweiterungen in den MPC, sollte dies aber definitiv möglich sein. Deshalb und aufgrund der genaueren Regelung der Temperatur, wird eine Empfehlung zur Anwendung von MPC-Reglern an Nichtwohngebäude abgegeben.
In the past years, algorithms for 3D shape tracking using radial functions in spherical coordinates represented with different methods have been proposed. However, we have seen that mainly measurements from the lateral surface of the target can be expected in a lot of dynamic scenarios and only few measurements from the top and bottom parts leading to an error-prone shape estimate in the top and bottom regions when using a representation in spherical coordinates. We, therefore, propose to represent the shape of the target using a radial function in cylindrical coordinates, as these only represent regions of the lateral surface, and no information from the top or bottom parts is needed. In this paper, we use a Fourier-Chebyshev double series for 3D shape representation since a mixture of Fourier and Chebyshev series is a suitable basis for expanding a radial function in cylindrical coordinates. We investigate the method in a simulated and real-world maritime scenario with a CAD model of the target boat as a reference. We have found that shape representation in cylindrical coordinates has decisive advantages compared to a shape representation in spherical coordinates and should preferably be used if no prior knowledge of the measurement distribution on the surface of the target is available.
Service in der Investitionsgüterindustrie wird heutzutage in der Regel immer noch manuell und vor Ort beim Kunden ausgeführt. Dazu braucht es qualifizierte Service-Techniker:innen, die über das nötige Produkt- Prozesswissen verfügen. Für kleine und mittelständische Unternehmen (KMU) der Investitionsgüterindustrie stellt insbesondere die Internationalisierung eine Herausforderung dar, da qualifizierte Service-Techniker:innen eine rare Ressource sind. Es gilt sie möglichst effektiv und effizient einzusetzen. Zu diesem Zweck wurde im Rahmen des SerWiss-Projektes eine Lösung entwickelt, die es KMU ermöglicht, service-rele-
vantes Wissen effizient zu generieren, zu strukturieren und am Point-of-Service bereitzustellen sowie im Rahmen geeigneter Geschäftsmodelle zu vermarkten. Im Beitrawird erläutert, wie sich dieses erfasste Wissen als kundenorientiertes Wertangebot einsetzen und erlöswirksam in entsprechenden Geschäftsmodellen umsetzen lässt.
This thesis emphasizes problems that reports generated by vulnerability scanners impose on the process of vulnerability management, which are a. an overwhelming amount of data and b. an insufficient prioritization of the scan results.
To assist the process of developing means to counteract those problems and to allow for quantitative evaluation of their solutions, two metrics are proposed for their effectiveness and efficiency. These metrics imply a focus on higher severity vulnerabilities and can be applied to any simplification process of vulnerability scan results, given it relies on a severity score and time of remediation estimation for each vulnerability.
A priority score is introduced which aims to improve the widely used Common Vulnerability Scoring System (CVSS) base score of each vulnerability dependent on a vulnerability’s ease of exploit, estimated probability of exploitation and probability of its existence.
Patterns within the reports generated by the Open Vulnerability Assessment System (OpenVAS) vulnerability scanner between vulnerabilities are discovered which identify criteria by which they can be categorized from a remediation actor standpoint. These categories lay the groundwork of a final simplified report and consist of updates that need to be installed on a host, severe vulnerabilities, vulnerabilities that occur on multiple hosts and vulnerabilities that will take a lot of time for remediation. The highest potential time savings are found to exist within frequently occurring vulnerabilities, minor- and major suggested updates.
Processing of the results provided by the vulnerability scanner and creation of the report is realized in the form of a python script. The resulting reports are short, straight to the point and provide a top down remediation process which should theoretically allow to minimize the institutions attack surface as fast as possible. Evaluation of the practicality must follow as the reports are yet to be introduced into the Information Security Management Lifecycle.
Die durch kleine und mittelständische Unternehmen geprägte Investitionsgüterindustrie steht aufgrund der zunehmenden Internationalisierung im Servicegeschäft vor großen Herausforderungen. Mitarbeiterengpässe, hohe Prozesskosten und unzureichendes Wissensmanagement machen den Service zur potenziellen betriebs- und volkswirtschaftlichen Wachstumsbremse. Durch die Digitalisierung entstehen aber auch große Nutzenpotenziale im Servicegeschäft. Ziel des im Projekt SerWiss entwickelten integrierten Ansatzes ist es, kleine und mittelständische Anbieter von Investitionsgütern zu befähigen, Servicewissen auf der Basis eines digitalen Lösungsansatzes unter Gewährleistung einer humanen Arbeitsgestaltung effizient zu generieren, zu strukturieren und international bereitzustellen bzw. zu vermarkten.
Short-Term Density Forecasting of Low-Voltage Load using Bernstein-Polynomial Normalizing Flows
(2023)
The transition to a fully renewable energy grid requires better forecasting of demand at the low-voltage level to increase efficiency and ensure reliable control. However, high fluctuations and increasing electrification cause huge forecast variability, not reflected in traditional point estimates. Probabilistic load forecasts take uncertainties into account and thus allow more informed decision-making for the planning and operation of low-carbon energy systems. We propose an approach for flexible conditional density forecasting of short-term load based on Bernstein polynomial normalizing flows, where a neural network controls the parameters of the flow. In an empirical study with 3639 smart meter customers, our density predictions for 24h-ahead load forecasting compare favorably against Gaussian and Gaussian mixture densities. Furthermore, they outperform a non-parametric approach based on the pinball loss, especially in low-data scenarios.
Gegenstand der hier vorgestellten Arbeit ist ein Überblick über die Unterschiede zwischen der aktuell in Baden-Württemberg bauaufsichtlich gültigen Erdbebennorm DIN 4149 und der DIN EN 1998-1/NA 2021-07, die Sie künftig ersetzen soll und bereits dem aktuellen Stand der Technik entspricht. Es wird darauf eingegangen, welche Umstände hinter dem Umstieg auf die Europäische Norm und die Neuauflegung des Nationalen Anhangs stehen und ein Faktor ausgearbeitet, mit dem beide Normen direkt verglichen werden können. Zudem werden gängige Berechnungsverfahren zur Ermittlung von Erdbebenbeanspruchungen vorgestellt und anhand des Berechnungsprogramms Minea Design die Unterschiede zwischen vereinfachter 2D-Berechnung und 3D-Berechnung mit finiten Elementen untersucht. Daraus wird eine Aussage darüber abgeleitet, welches der Berechnungsverfahren auf der „sicheren Seite“ liegt und wie sich die Ergebnisse verifizieren lassen. An einem realen Projekt werden diese Erkenntnisse in Form einer Erdbebenbemessung angewandt.
This paper aims to apply the basics of the Service-Dominant Logic, especially the concept of creating benefits through serving, to the stationary retail industry. In the industrial context, the shift from a product-driven point of view to a service-driven perspective has been discussed widely. However, there are only few connections to how this can be applied to the retail sector on a B2C-level and how retailers can use smart services in order to enable customer engagement, loyalty and retention. The expectations of customers towards future stationary retail develop significantly as consumers got used to the comfort of online shopping. Especially the younger generation—the Generation Z—seems to have changed their priorities from the bare purchase of products to an experience- and service-driven approach when shopping over-the-counter. To stay successful long-term, companies from this sector need to adapt to the expectations of their future main customer group. Therefore, this paper will analyse the specific needs of Generation Z, explain how smart services contribute to creating benefit for this customer group and how this affects the economic sustainability of these firms.
Im Investitionsgüterservice ist Wissen längst zu einem zentralen Erfolgshebel geworden, sowohl zur Steigerung der Prozesseffektivität und -effizienz als auch als Fundament für werthaltige Geschäftsmodelle. Das Management Service-relevanten Wissens ist für kleine und mittelständische Unternehmen der Investitionsgüterindustrie jedoch oftmals eine nicht zu unterschätzende Herausforderung, welche weit über IT-technische Aspekte hinausreicht. In dem vom BMBF sowie vom ESF (ko)finanzierten Projekt „SerWiss“ wurde vor diesem Hintergrund ein umfassender Lösungsansatz entwickelt und bei zwei Projektpartnern aus der Investitionsgüterindustrie prototypisch umgesetzt.
Die durch KMU geprägte Investitionsgüterindustrie steht aufgrund der zunehmenden Internationalisierung im Servicegeschäft, Mitarbeiterengpässen, hohen Prozesskosten sowie fehlendem Wissensmanagment vor großen Herausforderungen. Durch die Digitalisierung entstehen große Nutzenpotenziale im Servicegeschäft. Vor diesem Hintergrund wurde ein auf den Methoden Intelligent Swarming und Knowledge Centered Service basierender, integrierter Ansatz entwickelt, der KMU aus der Investitionsgüterindustrie befähigt, Servicewissen effizient zu generieren, zu strukturieren und international zu vermarkten.
Entwicklung eines Prozesses für die Software-Funktionsvorentwicklung am Fahrzeug mittels Matlab/Simulink, um einen Machbarkeitsnachweis neuer Funktionen vor Beginn der Software-Serienentwicklung sicherzustellen. Der Prozess beinhaltet die Anforderungserhebung, die Systementwicklung in den Bereichen Hydraulik und Elektrik, die Software-Funktionsentwicklung in Matlab/Simulink sowie die Funktionsprüfung am Fahrzeug.
AbstractSanctions encompass a wide set of policy instruments restricting cross‐border economic activities. In this paper, we study how different types of sanctions affect the export behavior of firms to the targeted countries. We combine Danish register data, including information on firm‐destination‐specific exports, with information on sanctions imposed by Denmark from the Global Sanctions Database. Our data allow us to study firms' export behavior in 62 sanctioned countries, amounting to a total of 453 country‐years with sanctions over the period 2000–2015. Methodologically, we apply a two‐stage estimation strategy to properly account for multilateral resistance terms. We find that, on average, sanctions lead to a significant reduction in firms' destination‐specific exports and a significant increase in firms' probability to exit the destination. Next, we study heterogeneity in the effects of sanctions across (i) sanction types and sanction packages, (ii) the objectives of sanctions, and (iii) countries subject to sanctions. Results confirm that the effects of sanctions on firms' export behavior vary considerably across these three dimensions.
Background: Polysomnography (PSG) is the gold standard for detecting obstructive sleep apnea (OSA). However, this technique has many disadvantages when using it outside the hospital or for daily use. Portable monitors (PMs) aim to streamline the OSA detection process through deep learning (DL).
Materials and methods: We studied how to detect OSA events and calculate the apnea-hypopnea index (AHI) by using deep learning models that aim to be implemented on PMs. Several deep learning models are presented after being trained on polysomnography data from the National Sleep Research Resource (NSRR) repository. The best hyperparameters for the DL architecture are presented. In addition, emphasis is focused on model explainability techniques, concretely on Gradient-weighted Class Activation Mapping (Grad-CAM).
Results: The results for the best DL model are presented and analyzed. The interpretability of the DL model is also analyzed by studying the regions of the signals that are most relevant for the model to make the decision. The model that yields the best result is a one-dimensional convolutional neural network (1D-CNN) with 84.3% accuracy.
Conclusion: The use of PMs using machine learning techniques for detecting OSA events still has a long way to go. However, our method for developing explainable DL models demonstrates that PMs appear to be a promising alternative to PSG in the future for the detection of obstructive apnea events and the automatic calculation of AHI.
BACKGROUND:
Future of digital public health and smart cities is interwoven and deeply linked. Citizen's and pet's conditions in their urban environment are critical for managing urbanization challenges and digital transformation. Inter- and Intra-connectivity of humans and animals take place in a dynamic space. In this environment, each one can share feelings and news over social media, and report an event happening at any time passively or actively via sensors or multimedia channels, respectively. One Digital Health (ODH) proposes a framework for collecting, managing, analyzing data, and supporting health-oriented policy development and implementation. Accident and Emergency Informatics gives tools to identify and manage overtime hazards and disruptive events, their victims and collaterals.
OBJECTIVE:
We aim to show how ODH framework, through implementing dynamic point of perceptions, supports the analysis of a use case involving a human and an animal in a technological environment-based urban, i.e., smart environment.
METHODS:
We describe an example of One Digital Health intervention wherein Accident and Emergency Informatics mechanisms run in the background. A One Digital Health Intervention is the implementation of a set of digital functionalities designed and deployed to (1) support specific initiatives that address human, animal, and environmental systems' needs and challenges; (2) assess and study these systems' outcomes and effects, and collect related data; (3) select timely metrics for the outcomes of multi-criteria decision analyses. This example intervention is based on the daily journey of two personas: Tracy (a human) and Mego (Tracy's dog). They live in a metropolis, and their activities are monitored and analyzed with IoT sensors, devices, and tools for preventing and managing any health-related abnormality.
RESULTS:
We built an example of an ODH Intervention summary table showing examples of "how to" analyze activities of daily living as part of an ODH Intervention. For each activity, its relations to the ODH dimensions are scored, and the relevant technical fields are evaluated in the light of the FAIR (Findable, Accessible, Interoperable, Reusable) principles prism.
CONCLUSIONS:
The example showcased of ODH intervention provides the basics to build real-world data-based research in a FAIR (Findable, Accessible, Interoperable, Reusable) context to improve continuous health monitoring policies and systems, also for enhancing emergency management. One Digital Health framework provides medical and environmental informaticians, decision-makers, and citizens with tools for improving their daily actions. The additional, integrating Accident and Emergency Informatics layer allows them to better set forth their preparedness and response to potentially acute health-related events. The whole data management cycle must also be processed in a FAIRness way.
Driver assistance systems are increasingly becoming part of the standard equipment of vehicles and thus contribute to road safety. However, as they become more widespread, the requirements for cost efficiency are also increasing, and so few and inexpensive sensors are used in these systems. Especially in challenging situations, this leads to the fact that target discrimination cannot be ensured which may lead to false reactions of the driver assistance system. In this paper, the Boids flocking algorithm is used to generate semantic neighborhood information between tracked objects which in turn can significantly improve the overall performance. Two different variants were developed: First, a free-moving flock whereby a separate flock is generated per tracked object and second, a formation-controlled flock where boids of a single flock move along the future road course in a pre-defined formation. In the first approach, the interaction between the flocks as well as the interaction between the boids within a flock is used to generate additional information, which in turn can be used to improve, for example, lane change detection. For the latter approach, new behavioral rules have been developed, so that the boids can reliably identify control-relevant objects to a driver assistance system. Finally, the performance of the presented methods is verified through extensive simulations.
Cities around the world are facing the implications of a changing climate as an increasingly pressing issue. The negative effects of climate change are already being felt today. Therefore, adaptation to these changes is a mission that every city must master. Leading practices worldwide demonstrate various urban efforts on climate change adaptation (CCA) which are already underway. Above all, the integration of climate data, remote sensing, and in situ data is key to a successful and measurable adaptation strategy. Furthermore, these data can act as a timely decision support tool for municipalities to develop an adaptation strategy, decide which actions to prioritize, and gain the necessary buy-in from local policymakers. The implementation of agile data workflows can facilitate the integration of climate data into climate-resilient urban planning. Due to local specificities, (supra)national, regional, and municipal policies and (by) laws, as well as geographic and related climatic differences worldwide, there is no single path to climate-resilient urban planning. Agile data workflows can support interdepartmental collaboration and, therefore, need to be integrated into existing management processes and government structures. Agile management, which has its origins in software development, can be a way to break down traditional management practices, such as static waterfall models and sluggish stage-gate processes, and enable an increased level of flexibility and agility required when urgent. This paper presents the findings of an empirical case study conducted in cooperation with the City of Constance in southern Germany, which is pursuing a transdisciplinary and trans-sectoral co-development approach to make management processes more agile in the context of climate change adaptation. The aim is to present a possible way of integrating climate data into CCA planning by changing the management approach and implementing a toolbox for low-threshold access to climate data. The city administration, in collaboration with the University of Applied Sciences Constance, the Climate Service Center Germany (GERICS), and the University of Stuttgart, developed a co-creative and participatory project, CoKLIMAx, with the objective of integrating climate data into administrative processes in the form of a toolbox. One key element of CoKLIMAx is the involvement of the population, the city administration, and political decision-makers through targeted communication and regular feedback loops among all involved departments and stakeholder groups. Based on the results of a survey of 72 administrative staff members and a literature review on agile management in municipalities and city administrations, recommendations on a workflow and communication structure for cross-departmental strategies for resilient urban planning in the City of Constance were developed.
Das Projekt eFlow, an dem unter anderem die HTWG Konstanz seit 2012 forscht, simuliert mit Hilfe einer mathematischen Simulation wie sich Menschenmassen verhalten, wenn sie ein vorgegebenes Gelände verlassen sollen. Die Simulation baut auf einen Ansatz der Finite Elemente Methode auf, in der mehrere gekoppelte Differenzialgleichungen berechnet werden müssen. Diese Berechnungen erweisen sich gerade bei komplexen Szenarien mit großem Gelände und vielen Personen als sehr rechenintensiv. Ziel dieser Bachelorarbeit ist es ein Surrogate Modell zu erstellen, welches basierend auf machine-learning Ansätzen im spezifischen auf Regressionsmethoden Ergebnisse der Simulation vorhersagen soll. Somit müssen Datensätze generiert werden. Diese entstehen durch wiederholte Durchläufe der Simulation, in der jeweils die Eingabeparameter, die in das Regressionsmodell einfließen sollen variiert werden und mit dem entsprechenden Ergebnis der Simulation verknüpft werden. Die Regressionsansätze werden dabei pro Durchlauf komplexer, in dem jeweils zusätzliche Eingabeparameter mit in die Datengenerierung aufgenommen werden. Es soll überprüft werden, ob diese Simulation mittels machine-learning Ansätzen reproduzierbar ist. Basierend auf diesen Surrogate Modellen soll es möglich gemacht werden, Situationen in Echtzeit zu überprüfen, ohne dabei den Weg der rechenaufwendigen Simulation zu gehen. Die Ergebnisse bestätigen, dass die mathematische Simulation mittels Regression reproduzierbar ist. Es erweist sich jedoch als sehr rechenaufwendig, Daten zu sammeln, um genügend Eingabeparameter mit in die Regressionsmethode einfließen zu lassen. Diese Arbeit gestaltet somit eine Vorstudie zur Umsetzung eines ausgereiften Surrogate Modells, welches jegliche Eingabeparameter der Simulation berücksichtigen kann.
Unter bestimmten Kontaktbedingungen zwischen Rad und Schiene können selbsterregte Schwingungen angeregt werden, die zu gegenphasigen Drehbewegungen der Radscheiben und hohen Torsionsmomenten in der Radsatzwelle führen. Zur Bestimmung des maximalen Torsionsmoments sind bislang aufwendige Testfahrten erforderlich, da keine Verfahren bekannt waren, die eine konservative Berechnung des Torsionsmoments ermöglichen [1]. In den vergangenen Jahren wurden die drei folgenden Berechnungsmethoden vertieft untersucht, um das maximale, dynamische Torsionsmoment zu berechnen:
- Simulationen von komplexen Mehrkörpersystemen (MKS)
- Differentialgleichungssysteme mit numerischer Berechnung
- Analytische Berechnung durch Reduktion auf ein Minimalmodell
In dieser Publikation sollen diese Berechnungsmethoden näher vorgestellt werden und durch eine Gegenüberstellung der jeweils berechneten und gemessenen Ergebnisse deren Möglichkeiten aber auch Limitationen aufgezeigt werden.
Der Kundenservice von morgen
(2023)
Die digitale Selbstbedienung im Einzelhandel und anderen Dienstleistungsbereichen verändert die Konsumwelt. Self-Services werden zunehmend von Konsumenten aller Altersklassen genutzt. Der Handel muss seine Servicekanäle hinterfragen und vermehrt auf Self-Service als Kundenkontaktpunkt setzen. Andere Branchen haben diesbezüglich bereits Lösungen umgesetzt. Vor diesem Hintergrund analysiert der Beitrag die Nutzung von Self-Service-Lösungen in Abhängigkeit von der Generationen-Zugehörigkeit und gibt Handlungsempfehlungen für KMU aus dem Einzelhandel.
Erscheinungsverlauf:
Ausgabe Nr. 1, Herbst 2012
Ausgabe Nr. 2, Frühjahr 2013
Ausgabe Nr. 3, Herbst 2013
Ausgabe Nr. 4, Frühjahr 2014
Ausgabe Nr. 5, Herbst 2014
Ausgabe Nr. 6, Frühjahr 2015
Ausgabe Nr. 7, Herbst 2015
Doppelausgabe Nr. 8. und 9, Herbst 2016
Ausgabe Nr. 10, Frühjahr 2017
Ausgabe Nr. 11, Herbst 2017
Doppelausgabe Nr. 12 und 13, Frühjahr 2018
Doppelausgabe Nr. 14 und 15, Herbst 2019
Doppelausgabe Nr. 16 und 17, Herbst 2020
Ausgabe Nr. 18, Frühjahr 2021
Doppelausgabe Nr. 19 und 20, Frühjahr 2022
Ausgabe Nr. 21, Herbst 2022
Mutual Information Analysis for Generalized Spatial Modulation Systems With Multilevel Coding
(2022)
Generalized Spatial Modulation (GSM) enables a trade-off between very high spectral efficiencies and low hardware costs for massive MIMO systems. This is achieved by transmitting information via the selection of active antennas from a set of available antennas besides the transmission of conventional data symbols. GSM systems have been investigated concerning various aspects like suitable signal constellations, efficient detection algorithms, hardware implementations, spatial precoding, and error control coding. On the other hand, determining the capacity of GSM is challenging because no closed-form expressions have been found so far. This paper investigates the mutual information for different GSM variants. We consider a multilevel coding approach, where the antenna selection and IQ modulation are encoded independently. Combined with multistage decoding, such an approach enables low-complexity capacity-achieving coded modulation. The influence of the data symbols on the mutual information is illuminated. We analyze the portions of mutual information related to antenna selection and the IQ modulation processes which depend on the GSM variant and the signal constellation. Moreover, the potential of spatial modulation for massive MIMO systems with many transmit antennas is investigated. Especially in systems with many transmit antennas much information can be conveyed by antenna selection.
Driver assistance systems are increasingly becoming part of the standard equipment of vehicles and thus contribute to road safety. However, as they become more widespread, the requirements for cost efficiency are also increasing, and so few and inexpensive sensors are used in these systems. Especially in challenging situations, this leads to the fact that target discrimination cannot be ensured which in turn leads to a false reaction of the driver assistance system. Typically, the interaction between moving traffic participants is not modeled directly in the environmental model so that tracked objects can split, merge or disappear. The Boids flocking algorithm is used to model the interaction between road users on already tracked objects by applying the movement rules (separation, cohesion, alignment) on the boids. This facilitates the creation of semantic neighborhood information between road users. We show in a comprehensive simulation that with only 7 boids per traffic participant, the estimated median separation between objects can improve from 2.4 m to 3 m for a ground truth of 3.7 m. The bottom percentile improves from 1.85 m to 2.8 m.
This research project has been awarded as part of the research competition organized by Connect2Recover, which is a global initiative by the International Telecommunication Union (ITU) with the priority of reinforcing and strengthening the digital infrastructure and ecosystems of developing countries. Carried out by an international and transdisciplinary research consortium, the project sets out to analyze the prospects of digital federation and data sharing within the context of Botswana. Considering the country’s stage of economic and digital development, the project team identified Botswana’s smallholder agricultural sector as the most important area of digital transformation given the development need of the country’s primary sector.
Derived from semi-structured interviews, a focus group, as well as secondary research, the project team developed a digital transformation roadmap based on three development stages: (a) crowdfarming pilot, (b) crowdfarming marketplace, and (c) digital ecosystem for smallholder agriculture. Based on a detailed review of Botswana’s smallholder agriculture and the government’s digitalization strategy, the report envisions each phase, especially the pilot project, in terms of a minimal viable product. This is to consider the low level of digital penetration of Botswana’s primary sector, while providing an incentive to connect smallholders with consumers, traders, and retailers.
The project team has been successful in receiving commitment from actual smallholder farmers, the farmer association and government, as well as support for the idea of developing a crowdfarming marketplace as a novel production model and, eventually, a digital agriculture ecosystem for smallholder farmers, livestock producers, and agricultural technology companies and start-ups. The report is a proposal for a phase-one pilot project with the objective to advance smallholder agribusiness in Botswana.
Purpose
The goal of this research survey was to propose an entrepreneurship education model for students in higher education institutions.
Methodology
A questionnaire was distributed to 246 randomly sampled students at the Universitas Negeri Jakarta. The data was analyzed through Structural Equation Modeling to study the variables of entrepreneurship education for higher education students and examine whether it can be predicted by the university leadership as a facilitator of entrepreneurial culture, university departments as promoters of entrepreneurial skills, and university research as an incubator of local business
development.
Findings
The results show that university leadership as a facilitator of entrepreneurial culture is supported by the university leadership’s fostering a culture of entrepreneurial thinking. It was also evident that the university placed sufficient emphasis on entrepreneurial education, and it successfully motivated lecturers to embrace entrepreneurship education, and students to embrace entrepreneurship education. The results also indicated that university departments acted as promoters of entrepreneurial skills and stimulated students to attain sufficient entrepreneurial skills during their university education. Lastly, the university research also proved as an incubator of local business development and was found influenced by the university conducting research projects with local
private sector businesses and supporting graduates planning to launch start-ups.
Implications to Research and Practice
The survey results will provide valuable policy insights to improve entrepreneurship education. The university faculty and students would have opportunities to gain practical experience in local private sector businesses. The model of entrepreneurship education proposed herein can be applied for higher education students.
Ein Wandel weg von der linearen und hin zu einer Kreislaufwirtschaft, wie man ihn bereits in verschiedenen Bereichen erkennen kann, hat positive Auswirkungen auf das Klima und die Umwelt. Die Baubranche könnte durch ihre hohe Ressourcen- und Energieintensität ein wichtiger Beitrag zur Klima- und Umweltschonung durch Kreislaufpraktiken leisten. Im Fokus sollte nicht mehr nur eine effiziente Gebäudehülle stehen, sondern eine ganzheitliche Nachhaltigkeitsbetrachtung.
Aufgrund mangelnden Bewusstseins, fehlender rechtlicher Rahmenbedingungen, Organisationen, Softwaretools und fehlender Anreize durch Förderungen oder Geschäftsmodelle kann und wird eine ganzheitliche Kreislaufwirtschaft derzeit noch nicht in der Baubranche umgesetzt. Ein weiterer bedeutsamer Grund sind fehlende Materialpässe und deren Umsetzungsmöglichkeiten in der Praxis.
Ziel dieser Arbeit ist es, die Lücke zwischen den Anforderungen an Materialpässe und deren Umsetzung in der Praxis, speziell für WeberHaus und somit den Holz-Fertighausbau, frühzeitig zu schließen. Durch Experteninterviews werden der Ist-Zustand des Material- und Informationsflusses beschrieben und gleichzeitig die Themen Kreislaufwirtschaft, Rückverfolgung und Materialpässe mit den Mitarbeitern diskutiert und nähergebracht. Aus dem Ist- Zustand des Material- und Informationsflusses werden Möglichkeiten einer Umsetzung in Form von zwei Varianten für Materialpässe geliefert, welche die zuvor festgelegten Anforderungen erfüllen.
Zur Beschreibung des Materialflusses hat es sich als sinnvoll erwiesen, eine Einteilung des gesamten Unternehmens auf Gebäude- und Elementebene vorzunehmen. Der Informationsfluss wird für den Materialpass hauptsächlich durch die vorhandenen Softwaresysteme Bentley, Dietrich´s, SAP und WeKo bestimmt. Um die Anforderungen, die an die Materialpässe gestellt werden, bestmöglich und mit geringem Aufwand erfüllen zu können, stellt sich BIM in Kombination mit der Plattform Madaster als sinnvolles Instrument heraus. Hierzu sind jedoch aufwendige Fachmodelle oder ein Koordinationsmodell nötig, welche von WeberHaus noch nicht vollständig realisiert werden. Als Übergangslösung bietet sich ein Materialpass auf Elementebene an, der durch diese Betrachtung standardisiert und ergänzt werden kann. Eine Ergänzung dieser Variante durch QR-Codes bietet zusätzlich eine direkte Verknüpfung von Informationen mit Bauteilen.
The detection of anomalous or novel images given a training dataset of only clean reference data (inliers) is an important task in computer vision. We propose a new shallow approach that represents both inlier and outlier images as ensembles of patches, which allows us to effectively detect novelties as mean shifts between reference data and outliers with the Hotelling T2 test. Since mean-shift can only be detected when the outlier ensemble is sufficiently separate from the typical set of the inlier distribution, this typical set acts as a blind spot for novelty detection. We therefore minimize its estimated size as our selection rule for critical hyperparameters, such as, e.g., the size of the patches is crucial. To showcase the capabilities of our approach, we compare results with classical and deep learning methods on the popular datasets MNIST and CIFAR-10, and demonstrate its real-world applicability in a large-scale industrial inspection scenario.
Image novelty detection is a repeating task in computer vision and describes the detection of anomalous images based on a training dataset consisting solely of normal reference data. It has been found that, in particular, neural networks are well-suited for the task. Our approach first transforms the training and test images into ensembles of patches, which enables the assessment of mean-shifts between normal data and outliers. As mean-shifts are only detectable when the outlier ensemble and inlier distribution are spatially separate from each other, a rich feature space, such as a pre-trained neural network, needs to be chosen to represent the extracted patches. For mean-shift estimation, the Hotelling T2 test is used. The size of the patches turned out to be a crucial hyperparameter that needs additional domain knowledge about the spatial size of the expected anomalies (local vs. global). This also affects model selection and the chosen feature space, as commonly used Convolutional Neural Networks or Vision Image Transformers have very different receptive field sizes. To showcase the state-of-the-art capabilities of our approach, we compare results with classical and deep learning methods on the popular dataset CIFAR-10, and demonstrate its real-world applicability in a large-scale industrial inspection scenario using the MVTec dataset. Because of the inexpensive design, our method can be implemented by a single additional 2D-convolution and pooling layer and allows particularly fast prediction times while being very data-efficient.
We are interested in computing a mini-batch-capable end-to-end algorithm to identify statistically independent components (ICA) in large scale and high-dimensional datasets. Current algorithms typically rely on pre-whitened data and do not integrate the two procedures of whitening and ICA estimation. Our online approach estimates a whitening and a rotation matrix with stochastic gradient descent on centered or uncentered data. We show that this can be done efficiently by combining Batch Karhunen-Löwe-Transformation [1] with Lie group techniques. Our algorithm is recursion-free and can be organized as feed-forward neural network which makes the use of GPU acceleration straight-forward. Because of the very fast convergence of Batch KLT, the gradient descent in the Lie group of orthogonal matrices stabilizes quickly. The optimization is further enhanced by integrating ADAM [2], an improved stochastic gradient descent (SGD) technique from the field of deep learning. We test the scaling capabilities by computing the independent components of the well-known ImageNet challenge (144 GB). Due to its robustness with respect to batch and step size, our approach can be used as a drop-in replacement for standard ICA algorithms where memory is a limiting factor.
There have been substantial research efforts for algorithms to improve continuous and automated assessment of various health-related questions in recent years. This paper addresses the deployment gap between those improving algorithms and their usability in care and mobile health applications. In practice, most algorithms require significant and founded technical knowledge to be deployed at home or support healthcare professionals. Therefore, the digital participation of persons in need of health care professionals lacks a usable interface to use the current technological advances. In this paper, we propose applying algorithms taken from research as web-based microservices following the common approach of a RESTful service to bridge the gap and make algorithms accessible to caregivers and patients without technical knowledge and extended hardware capabilities. We address implementation details, interpretation and realization of guidelines, and privacy concerns using our self-implemented example. Also, we address further usability guidelines and our approach to those.
In many cases continuous monitoring of vital signals is required and low intrusiveness is an important requirement. Incorporating monitoring systems in the hospital or home bed could have benefits for patients and caregivers. The objective of this work is the definition of a measurement protocol and the creation of a data set of measurements using commercial and low-cost prototypes devices to estimate heart rate and breathing rate. The experimental data will be used to compare results achieved by the devices and to develop algorithms for feature extraction of vital signals.
The digital twin concept has been widely known for asset monitoring in the industry for a long time. A clear example is the automotive industry. Recently, there has also been significant interest in the application of digital twins in healthcare, especially in genomics in what is known as precision medicine. This work focuses on another medical speciality where digital twins can be applied, sleep medicine. However, there is still great controversy about the fundamentals that constitute digital twins, such as what this concept is based on and how it can be included in healthcare effectively and sustainably. This article reviews digital twins and their role so far in what is known as personalized medicine. In addition, a series of steps will be exposed for a possible implementation of a digital twin for a patient suffering from sleep disorders. For this, artificial intelligence techniques, clinical data management, and possible solutions for explaining the results derived from artificial intelligence models will be addressed.
In recent decades, it can be observed that a steady increase in the volume of tourism is a stable trend. To offer travel opportunities to all groups, it is also necessary to prepare offers for people in need of long-term care or people with disabilities. One of the ways to improve accessibility could be digital technologies, which could help in planning as well as in carrying out trips. In the work presented, a study of barriers was first conducted, which led to selecting technologies for a test setup after analysis. The main focus was on a mobile app with travel information and 360° tours. The evaluation results showed that both technologies could increase accessibility, but some essential aspects (such as usability, completeness, relevance, etc.) need to be considered when implementing them.
Gamification is one of the recognized methods of motivating people in various life processes, and it has spread to many spheres of life, including healthcare. This article proposes a system design for long-term care patients using the method mentioned. The proposed system aims to increase patient engagement in the treatment and rehabilitation process via gamification. Literature research on available and earlier proposed systems was conducted to develop a suited system design. The primary target group includes bedridden patients and a sedentary lifestyle (predominantly lying in bed). One of the main criteria for selecting a suitable option was its contactless realization for the mentioned target groups in long-term care cases. As a result, we developed the system design for hardware and software that could prevent bedsores and other health problems from occurring because of low activity. The proposed design can be tested in hospitals, nursing homes, and rehabilitation centers.
Personalized remote healthcare monitoring is in continuous development due to the technology improvements of sensors and wearable electronic systems. A state of the art of research works on wearable sensors for healthcare applications is presented in this work. Furthermore, a state of the art of wearable devices, chest and wrist band and smartwatches available on the market for health and sport monitoring is presented in this paper. Many activity trackers are commercially available. The prices are continuously reducing and the performances are improving, but commercial devices do not provide raw data and are therefore not useful for research purposes.
Analyse der Nachhaltigkeit verschiedener Redevelopmentszenarien einer Unternehmensbestandsimmobilie
(2022)
Ziel dieser Arbeit ist es einen Beitrag dazu zu leisten, dass auch Argumente der Nachhaltigkeit in Investitions- und Projektentscheidungen der Immobilienbranche leichter einfließen können, indem sie besser messbar gemacht werden, und somit an Einfluss gewinnen. Betrachtet werden sollen hierbei Entscheidungen zwischen verschiedenen Redevelopmentszenarien. Wann ergibt es mehr Sinn, eine bestehende Immobilie zu modernisieren? Wann lohnt sich ein Neubau eher? Zur Beantwortung dieser Fragen soll im Rahmen dieser Arbeit eine Entscheidungshilfe entwickelt werden. Konkret soll sich diese Entscheidungshilfe auf verschiedene Redevelopmentszenarien von speziell denjenigen Bürogebäuden beziehen, welche Teil von Unternehmensimmobilien sind. Entwickelt wird die Entscheidungshilfe aus einem bestehenden „Nachhaltigkeitsrating zur Bewertung der Zukunftsfähigkeit von Immobilien“, welches von Sarah Ok Kyu Strunk im Rahmen ihrer Dissertation an der Universität Stuttgart erstellt wurde. Die Besonderheit dieses Ratings liegt darin, dass es verschiedene nachhaltigkeitsrelevante Standortund Gebäudeeigenschaften im Hinblick auf ihr Wertentwicklungsrisiko betrachtet. Dies bedeutet, dass es eine Übersicht über diejenigen Nachhaltigkeitsmerkmale einer Immobilie gibt, welche nicht nur nachhaltigkeitsrelevant sind, sondern gleichzeitig maßgeblichen Einfluss auf das wirtschaftliche Risiko und somit die Wirtschaftlichkeit der Projektentwicklung haben. Ausgelegt ist das Rating auf die Betrachtung einzelner deutscher Büroimmobilien jeglichen Alters. Im Rahmen dieser Arbeit soll hieraus eine Entscheidungshilfe für Büroimmobilien als Teil von Unternehmensimmobilien entwickelt werden, bei welcher mehrere Redevelopmentszenarien verglichen werden können, um schließlich festzustellen, welches Szenario das geringere Wertentwicklungsrisiko mit sich bringt. Das Ergebnis hieraus soll nicht die abschließende Entscheidung zwischen den beiden Redevelopmentszenarien darstellen. Es soll vielmehr neben anderen Vergleichen, beispielsweise dem Vergleich der Wirtschaftlichkeit oder der Nachhaltigkeit der Bausubstanz der beiden Szenarien, eine stichhaltige Grundlage für eine wirtschaftlich und nachhaltig sinnvolle Entscheidung bieten.
Die vorliegende Arbeit soll durch einen möglichst gesamtheitlichen Vergleich von Fertigbadzellen und der konventionellen Ausführung von Bädern als eine Entscheidungshilfe für zukünftige Projekte dienen. Durch den immer stärker werdenden Fachkräftemangel sind Unternehmen auf Methoden angewiesen, welche diesem Mangel entgegenwirken. Eine Möglichkeit bietet die Verwendung von Fertigbadmodulen, welche noch viele weitere Vorteile sowohl für den Nutzer als auch den Generalunternehmer darstellt. Ziel der Arbeit ist es, neben der Ermittlung der Mindeststückzahl für eine sinnvolle Anwendung, eines Kosten- und Bauzeitenvergleichs auch einen Ausblick auf einen vermehrten Einsatz von Fertigbädern im Wohnungsbau zu geben. Im Rahmen der Arbeit wurden Experteninterviews geführt, um die gesammelten Erfahrungen auf den Baustellen sowie die Informationen aus Internet- und Literaturrecherchen mit aktuellen und aussagekräftigen Informationen zu stärken. Zuletzt fasst ein Leitfaden alle wichtigen Aspekte zusammen, die berücksichtigt werden sollten, wenn es um die Frage geht, ob der Einsatz von Fertigbädern sinnvoll ist. Zu den wichtigsten Erkenntnissen gehört die Tatsache, dass beim betrachteten Beispielprojekt eine deutliche Kosteneinsparung durch eine Verkürzung der Gesamtbauzeit sowie durch einen reduzierten Koordinationsaufwand ermittelt werden konnte. Weiterhin zeigen die Erkenntnisse aus den Interviews eine zukünftig verstärkte Orientierung in Richtung des Wohnungsbaus. Dies zeigt sich in den Anwendungszahlen sowie durch Maßnahmen zur stärkeren Etablierung im Wohnungsbau. Zusammenfassend kann die Anwendung von Fertigbadzellen besonders bei Projekten mit hoher Wiederholungsrate empfohlen werden, jedoch sollte auch hier in Zukunft der Wohnungsbau unter Berücksichtigung bestimmter Prämissen nicht vernachlässigt werden.
Unternehmenskultur
(2022)
Unternehmenskultur als die zentrale informeller Steuerungsgröße von Organisationen spielt insbesondere bei der Verankerung ethischer Werte und Prinzipien in Unternehmen eine unverzichtbare Rolle. Warum dies so ist und welchen konkreten Beitrag eine bewusste Kulturentwicklung im Kontext angewandter Unternehmensethik leisten kann, ist Gegenstand des Artikels.