Refine
Year of publication
- 2024 (12)
- 2023 (64)
- 2022 (61)
- 2021 (56)
- 2020 (33)
- 2019 (24)
- 2018 (32)
- 2017 (15)
- 2016 (11)
- 2015 (21)
- 2014 (23)
- 2013 (16)
- 2012 (17)
- 2011 (19)
- 2010 (18)
- 2009 (14)
- 2008 (14)
- 2007 (14)
- 2006 (17)
- 2005 (10)
- 2004 (23)
- 2003 (28)
- 2002 (19)
- 2001 (7)
- 2000 (2)
- 1999 (1)
- 1996 (1)
- 1995 (2)
- 1992 (2)
- 1991 (1)
- 1987 (1)
- 1980 (2)
- 1979 (1)
- 1973 (1)
- 1917 (2)
- 1916 (1)
Document Type
- Report (103)
- Working Paper (88)
- Journal (Complete Issue of a Journal) (84)
- Master's Thesis (76)
- Article (73)
- Book (49)
- Bachelor Thesis (44)
- Conference Proceeding (34)
- Study Thesis (8)
- Other Publications (7)
Language
- German (447)
- English (138)
- Multiple languages (1)
Has Fulltext
- yes (586) (remove)
Keywords
- .NET Remoting (1)
- .NET-Plattform (1)
- 1D-CNN (1)
- 2 D environment Laser data (1)
- 3D Extended Object Tracking (1)
- 3D shape tracking (1)
- 3D-Druck (1)
- 5-10-40-Bedingung (1)
- ADO.NET (1)
- ASP.NET (1)
Institute
- Fakultät Architektur und Gestaltung (27)
- Fakultät Bauingenieurwesen (77)
- Fakultät Elektrotechnik und Informationstechnik (23)
- Fakultät Informatik (59)
- Fakultät Maschinenbau (33)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (40)
- Institut für Angewandte Forschung - IAF (44)
- Institut für Naturwissenschaften und Mathematik - INM (2)
- Institut für Optische Systeme - IOS (14)
- Institut für Strategische Innovation und Technologiemanagement - IST (2)
Black-box variational inference (BBVI) is a technique to approximate the posterior of Bayesian models by optimization. Similar to MCMC, the user only needs to specify the model; then, the inference procedure is done automatically. In contrast to MCMC, BBVI scales to many observations, is faster for some applications, and can take advantage of highly optimized deep learning frameworks since it can be formulated as a minimization task. In the case of complex posteriors, however, other state-of-the-art BBVI approaches often yield unsatisfactory posterior approximations. This paper presents Bernstein flow variational inference (BF-VI), a robust and easy-to-use method flexible enough to approximate complex multivariate posteriors. BF-VI combines ideas from normalizing flows and Bernstein polynomial-based transformation models. In benchmark experiments, we compare BF-VI solutions with exact posteriors, MCMC solutions, and state-of-the-art BBVI methods, including normalizing flow-based BBVI. We show for low-dimensional models that BF-VI accurately approximates the true posterior; in higher-dimensional models, BF-VI compares favorably against other BBVI methods. Further, using BF-VI, we develop a Bayesian model for the semi-structured melanoma challenge data, combining a CNN model part for image data with an interpretable model part for tabular data, and demonstrate, for the first time, the use of BBVI in semi-structured models.
IT-Kosten machen heute einen immer größeren Anteil an den Gesamtkosten von Unternehmen aus. Die Verantwortlichen sind aufgefordert die IT-Kosten zu senken oder zumindest ein effizientes Management sicherzustellen. Oftmals fehlt es dafür an Transparenz und Verständnis für diese Ausgaben. Die Analyse der IT-Kostentreiber ermöglicht ein tieferes Verständnis der Ursachen und Auswirkungen strategischer Entscheidungen. Dieser Beitrag zielt darauf ab, die strategischen IT-Kostentreiber bezüglich des Wirkungshorizonts und des Entscheidungsortes zu analysieren. Die durchgeführte Delphi-Studie zeigt, dass Entscheidungen über diese Kostentreiber größtenteils mittel- bis langfristige Auswirkungen haben. Zudem wird deutlich, dass die IT-Abteilung zwar in den Entscheidungsprozess eingebunden ist, während die finalen Entscheidungen häufig stärker im Fachbereich liegen. Zusammenarbeit und effektive Kommunikation sind deshalb entscheidend und die Verantwortung für IT-Kosten sollte von allen EntscheidungsträgerInnen getragen werden. Dieser Beitrag erweitert die Forschung im IT-Kostenmanagement und sensibilisiert PraktikerInnen für Kostenbeeinflussungshebel und die strategische Diskussion über IT-Kosten und das Wertversprechen der IT.
Die folgende Masterarbeit gibt eine Übersicht zu modernen AR-Technologien für den Einsatz in der Lehre mit dem Ziel eine geeignete Software zu identifizieren, die eine AR-Anwendungserstellung sowie die Integration dieser in das Vorlesungsgeschehen der HTWG ermöglicht. Diese Arbeit baut auf einer Literaturrecherche auf, welche den gegenwärtigen Einsatz von AR in der Lehrpraxis analysiert. Es wird der aktuelle Stand der Entwicklung in Bezug auf verschiedenste Hard- und Softwarelösungen dargestellt, einschließlich der Funktionsweise von AR-Anwendungen sowie relevanter Systemkomponenten. Anschließend werden sowohl der Einsatz von Augmented Reality im Bildungsbereich betrachtet als auch andere Sektoren wie Medizin und Industrie einbezogen, um eine umfassende Übersicht zu Fallstudien sowie Praxisbeispielen zu gewährleisten. Der Auswahlprozess der Software wird ebenfalls thematisiert und eine Anleitung zur Benutzung des gewählten Tools, Vuforia Studio, wird dargeboten.
Die Analyse ergab, dass AR-Anwendungen es den Schülern und Studierenden ermöglichen, aktiv am Unterricht bzw. den Vorlesungen teilzunehmen und Inhalte interaktiv zu erkunden, was das Interesse am Lehrinhalt steigert sowie eigenständiges Lernen fördert. Dem Einsatz von AR in der Lehre stehen jedoch Herausforderungen gegenüber. Insbesondere eine pädagogisch angemessene AR-Inhaltserstellung erweist sich als schwierig. Sowohl die Anfertigung
eines 3D-Modells als auch das Arbeiten mit Programmen wie Vuforia Studio selbst stellen sich als zeitintensiv und technologisch anspruchsvoll heraus. Von Seiten der Bildungseinrichtung müssen finanzielle Mittel bereitgestellt werden, denn ohne entsprechende Schulungen und Ressourcen wird auch die Bereitschaft der Lehrenden, sich mit neuen Technologien auseinanderzusetzen, nicht ausreichend sein, um hochwertige AR-Inhalte zu konzipieren. Obwohl die
technologische Infrastruktur zwar deutlich besser ausgebaut ist als noch vor einigen Jahren, vor allem, weil flächendeckendes Internet zur Verfügung steht und die Lernenden zum Großteil eigene Smartgeräte besitzen, ist eine kontinuierliche Investition in Hard- und Software sowie das Pflegen der gesammelten Daten und genutzten Server unerlässlich.
Insgesamt bietet der Einsatz von Augmented Reality in der Lehre vielversprechende Möglichkeiten, um das Lernerlebnis zu verbessern und die Bildungsergebnisse zu optimieren, jedoch müssen die genannten Herausforderungen überwunden werden, um das gesamte Potenzial von Augmented Reality Technologien in der Lehre auszuschöpfen.
Das Freistellungssemester 2020 wurde für Recherchen zu unterschiedlichen Aufmaßsystemen in der historischen Bauforschung genutzt. Durch die Covid-19-Pandemie entwickelte sich das Arbeitsprogramm jedoch anders als geplant und verlagerte sich weitgehend in den virtuellen Raum. In der Disziplin der historischen Bauforschung entstand gerade durch die zeitweise Unmöglichkeit des Reisens und der Präsenzlehre ein intensiver Austausch zur Methodik in zahlreichen Onlinekonferenzen.
Using multi-camera matching techniques for 3d reconstruction there is usually the trade-off between the quality of the computed depth map and the speed of the computations. Whereas high quality matching methods take several seconds to several minutes to compute a depth map for one set of images, real-time methods achieve only low quality results. In this paper we present a multi-camera matching method that runs in real-time and yields high resolution depth maps. Our method is based on a novel multi-level combination of normalized cross correlation, deformed matching windows based on the multi-level depth map information, and sub-pixel precise disparity maps. The whole process is implemented completely on the GPU. With this approach we can process four 0.7 megapixel images in 129 milliseconds to a full resolution 3d depth map. Our technique is tailored for the recognition of non-technical shapes, because our target application is face recognition.
Diese Masterarbeit erforscht das Potenzial großer Sprachmodelle in der Bauindustrie mit einem Fokus auf digitale Transformation, Effizienzsteigerung und Nachhaltigkeit. Durch eine umfassende Literaturanalyse und qualitative Experteninterviews werden spezifische Anwendungsfälle, Herausforderungen bei der Implementierung und ethische sowie datenschutzrechtliche Überlegungen untersucht.
Die Arbeit hebt hervor, wie große Sprachmodelle die Planungsprozesse optimieren, das Risikomanagement verbessern und maßgeschneiderte Lösungen entwickeln können, um ökonomische und ökologische Vorteile zu erzielen. Zudem werden praxisorientierte Empfehlungen für eine erfolgreiche Integration dieser Technik in das Bauwesen präsentiert, die sowohl die technologische Machbarkeit als auch soziale Akzeptanz berücksichtigen.
Abschließend werden zukünftige Forschungsrichtungen aufgezeigt, die darauf abzielen, die digitale Transformation im Bauwesen unter Einbeziehung ethischer Standards und Datenschutz zu beschleunigen.
Die Ergebnisse dieser Arbeit demonstrieren das Potenzial von großen Sprachmodellen, traditionelle Bauprozesse zu revolutionieren, und betonen die Notwendigkeit einer sorgfältigen Implementierung, um die Vorteile dieser Technologie vollständig auszuschöpfen.
Research Report
(2024)
Der Bericht dokumentiert die Aktivitäten, die ich während des Wintersemesters 2023/24 im Rahmen meines Fortbildungssemesters durchgeführt habe. Der Forschungsschwerpunkt lag dabei auf der Umsetzung eines gemeinschaftlichen Projekts zur Bewertung mündlicher Prüfungen. Zusätzlich erfolgten Aufenthalte zur Förderung der internationalen Kooperationen an Partnerhochschulen.
While driving, stress is caused by situations in which the driver estimates their ability to manage the driving demands as insufficient or loses the capability to handle the situation. This leads to increased numbers of driver mistakes and traffic violations. Additional stressing factors are time pressure, road conditions, or dislike for driving. Therefore, stress affects driver and road safety. Stress is classified into two categories depending on its duration and the effects on the body and psyche: short-term eustress and constantly present distress, which causes degenerative effects. In this work, we focus on distress. Wearable sensors are handy tools for collecting biosignals like heart rate, activity, etc. Easy installation and non-intrusive nature make them convenient for calculating stress. This study focuses on the investigation of stress and its implications. Specifically, the research conducts an analysis of stress within a select group of individuals from both Spain and Germany. The primary objective is to examine the influence of recognized psychological factors, including personality traits such as neuroticism, extroversion, psychoticism, stress and road safety. The estimation of stress levels was accomplished through the collection of physiological parameters (R-R intervals) using a Polar H10 chest strap. We observed that personality traits, such as extroversion, exhibited similar trends during relaxation, with an average heart rate 6% higher in Spain and 3% higher in Germany. However, while driving, introverts, on average, experienced more stress, with rates 4% and 1% lower than extroverts in Spain and Germany, respectively.
Low-Code Development Plattformen (LCDPs) fördern die digitale Transformation von Organisationen, indem sie die Applikationsentwicklung durch FachbereichsmitarbeiterInnen ohne tiefgreifende Programmierkenntnisse – sogenannte Citizen Developer – ermöglichen. Marktforschungsinstitute prognostizieren, dass in den nächsten Jahren mehr als die Hälfte aller Applikationen mit LCDPs entwickelt werden. Nichtsdestotrotz stehen Organisationen vor der Herausforderung, sich für die richtigen Implementierungs- und Anwendungsansätze von LCDPs zu entscheiden. Dieser Artikel liefert daher ein umfassendes Bild über das praktische Verständnis und aktuelle Ansätze in verschiedenen Organisationen und leitet daraus Handlungsempfehlungen ab. Dafür wurden 16 Experteninterviews durchgeführt und wissenschaftlich analysiert. Die Ergebnisse zeigen, dass die Praxis grundsätzlich ein ähnliches Verständnis des Begriffs LCDP hat. Die Initiative für die Einführung kommt meist aus den Fachbereichen, die Entscheidung für oder gegen die LCDP-Implementierung wird jedoch meist von der Geschäftsführung in Kooperation mit der IT-Abteilung getroffen. Dabei unterscheiden sich die aktuellen Anwendungsansätze: Unternehmen nutzen entweder einen Self-Service-Ansatz durch die Fachbereiche oder integrieren die Entscheidung über eine potenzielle LCDP-Entwicklung durch die Citizen Developer in das bestehende Demand-Management der IT-Abteilung. Eine etablierte und adaptive Governance ist für beide Ansätze eine wichtige Voraussetzung. Die Erkenntnisse des Beitrags tragen zur wissenschaftlichen Diskussion bei, da dieser Artikel eine der ersten umfassenden und wissenschaftlich fundierten qualitativen Analysen über aktuelle praktische Adoptionsansätze der Praxis liefert. PraktikerInnen erfahren zudem, wie andere Unternehmen mit aktuellen Herausforderungen umgehen und welche Ansätze erfolgversprechend sind.
Urlaub, Urlaub und kein Ende – Die aktuelle Rechtslage auf Basis der Rechtsprechung von EuGH und BAG
(2023)
Die jüngeren Entscheidungen des EuGH sowie des BAG zur Arbeitszeiterfassung haben trotz ihrer eigentlich klaren Aussagen in der betrieblichen Praxis zu teils erheblichen Verunsicherungen geführt: Müssen nun wirklich die Arbeitszeiten der Beschäftigten erfasst werden und wie wirkt sich das auf die in vielen Unternehmen gelebte „Vertrauensarbeitszeit“ aus?
Teilzeitmodelle sind beliebt und haben für viele Mitarbeiter einen ernsten Hintergrund. Ihre Lebensentwürfe lassen schlicht keine andere Form der Arbeit zu. Arbeitgeber sollten einerseits auf die Flexibilisierungswünsche der Betroffenen eingehen, um das Betriebsklima zu fördern und eine Unternehmensbindung herzustellen. Andererseits sind sie aber (mit wenigen Ausnahmen) verpflichtet, Teilzeit zu ermöglichen. Eine Variante ist dabei die Brückenteilzeit, also eine zuvor festgelegte (nur) zeitlich begrenzte Verringerung der Arbeitszeit.
In 3D extended object tracking (EOT), well-established models exist for tracking the object extent using various shape priors. A single update, however, has to be performed for every measurement using these models leading to a high computational runtime for high-resolution sensors. In this paper, we address this problem by using various model-independent downsampling schemes based on distance heuristics and random sampling as pre-processing before the update. We investigate the methods in a simulated and real-world tracking scenario using two different measurement models with measurements gathered from a LiDAR sensor. We found that there is a huge potential for speeding up 3D EOT by dropping up to 95\% of the measurements in our investigated scenarios when using random sampling. Since random sampling, however, can also result in a subset that does not represent the total set very well, leading to a poor tracking performance, there is still a high demand for further research.
In the past years, algorithms for 3D shape tracking using radial functions in spherical coordinates represented with different methods have been proposed. However, we have seen that mainly measurements from the lateral surface of the target can be expected in a lot of dynamic scenarios and only few measurements from the top and bottom parts leading to an error-prone shape estimate in the top and bottom regions when using a representation in spherical coordinates. We, therefore, propose to represent the shape of the target using a radial function in cylindrical coordinates, as these only represent regions of the lateral surface, and no information from the top or bottom parts is needed. In this paper, we use a Fourier-Chebyshev double series for 3D shape representation since a mixture of Fourier and Chebyshev series is a suitable basis for expanding a radial function in cylindrical coordinates. We investigate the method in a simulated and real-world maritime scenario with a CAD model of the target boat as a reference. We have found that shape representation in cylindrical coordinates has decisive advantages compared to a shape representation in spherical coordinates and should preferably be used if no prior knowledge of the measurement distribution on the surface of the target is available.
The transformation to an Industry 4.0, which is in general seen as a solution to increasing market challenges, is forcing companies to radically change their way of thinking and to be open to new forms of cooperation. In this context, the opening-up of the innovation process is widely seen as a necessity to meet these challenges, especially for small and medium enterprises (SMEs). The aim of the study therefore is to analyze how cooperation today can be characterized, how this character has changed since the establishment of the term Industry 4.0 at Hanover Fair in 2011 and which cooperation strategies have proven successful. The analysis consists of a quantitative, secondary data analysis that includes country-specific data from 35 European countries of 2010 and 2016 collected by the European Commission and the OECD. The research, focusing on the secondary sector, shows that multinational enterprises MNEs still tend to cooperate more than SMEs, with a slight overall trend towards protectionism. Nevertheless, there is a clear tendency towards the opening-up of SMEs. In this regard, especially universities, competitors and suppliers have become increasingly attractive as cooperation partners for SMEs.
Jahresbericht 2023
(2023)
Cities around the world are facing the implications of a changing climate as an increasingly pressing issue. The negative effects of climate change are already being felt today. Therefore, adaptation to these changes is a mission that every city must master. Leading practices worldwide demonstrate various urban efforts on climate change adaptation (CCA) which are already underway. Above all, the integration of climate data, remote sensing, and in situ data is key to a successful and measurable adaptation strategy. Furthermore, these data can act as a timely decision support tool for municipalities to develop an adaptation strategy, decide which actions to prioritize, and gain the necessary buy-in from local policymakers. The implementation of agile data workflows can facilitate the integration of climate data into climate-resilient urban planning. Due to local specificities, (supra)national, regional, and municipal policies and (by) laws, as well as geographic and related climatic differences worldwide, there is no single path to climate-resilient urban planning. Agile data workflows can support interdepartmental collaboration and, therefore, need to be integrated into existing management processes and government structures. Agile management, which has its origins in software development, can be a way to break down traditional management practices, such as static waterfall models and sluggish stage-gate processes, and enable an increased level of flexibility and agility required when urgent. This paper presents the findings of an empirical case study conducted in cooperation with the City of Constance in southern Germany, which is pursuing a transdisciplinary and trans-sectoral co-development approach to make management processes more agile in the context of climate change adaptation. The aim is to present a possible way of integrating climate data into CCA planning by changing the management approach and implementing a toolbox for low-threshold access to climate data. The city administration, in collaboration with the University of Applied Sciences Constance, the Climate Service Center Germany (GERICS), and the University of Stuttgart, developed a co-creative and participatory project, CoKLIMAx, with the objective of integrating climate data into administrative processes in the form of a toolbox. One key element of CoKLIMAx is the involvement of the population, the city administration, and political decision-makers through targeted communication and regular feedback loops among all involved departments and stakeholder groups. Based on the results of a survey of 72 administrative staff members and a literature review on agile management in municipalities and city administrations, recommendations on a workflow and communication structure for cross-departmental strategies for resilient urban planning in the City of Constance were developed.
Entwicklung eines Prozesses für die Software-Funktionsvorentwicklung am Fahrzeug mittels Matlab/Simulink, um einen Machbarkeitsnachweis neuer Funktionen vor Beginn der Software-Serienentwicklung sicherzustellen. Der Prozess beinhaltet die Anforderungserhebung, die Systementwicklung in den Bereichen Hydraulik und Elektrik, die Software-Funktionsentwicklung in Matlab/Simulink sowie die Funktionsprüfung am Fahrzeug.
Das Projekt eFlow, an dem unter anderem die HTWG Konstanz seit 2012 forscht, simuliert mit Hilfe einer mathematischen Simulation wie sich Menschenmassen verhalten, wenn sie ein vorgegebenes Gelände verlassen sollen. Die Simulation baut auf einen Ansatz der Finite Elemente Methode auf, in der mehrere gekoppelte Differenzialgleichungen berechnet werden müssen. Diese Berechnungen erweisen sich gerade bei komplexen Szenarien mit großem Gelände und vielen Personen als sehr rechenintensiv. Ziel dieser Bachelorarbeit ist es ein Surrogate Modell zu erstellen, welches basierend auf machine-learning Ansätzen im spezifischen auf Regressionsmethoden Ergebnisse der Simulation vorhersagen soll. Somit müssen Datensätze generiert werden. Diese entstehen durch wiederholte Durchläufe der Simulation, in der jeweils die Eingabeparameter, die in das Regressionsmodell einfließen sollen variiert werden und mit dem entsprechenden Ergebnis der Simulation verknüpft werden. Die Regressionsansätze werden dabei pro Durchlauf komplexer, in dem jeweils zusätzliche Eingabeparameter mit in die Datengenerierung aufgenommen werden. Es soll überprüft werden, ob diese Simulation mittels machine-learning Ansätzen reproduzierbar ist. Basierend auf diesen Surrogate Modellen soll es möglich gemacht werden, Situationen in Echtzeit zu überprüfen, ohne dabei den Weg der rechenaufwendigen Simulation zu gehen. Die Ergebnisse bestätigen, dass die mathematische Simulation mittels Regression reproduzierbar ist. Es erweist sich jedoch als sehr rechenaufwendig, Daten zu sammeln, um genügend Eingabeparameter mit in die Regressionsmethode einfließen zu lassen. Diese Arbeit gestaltet somit eine Vorstudie zur Umsetzung eines ausgereiften Surrogate Modells, welches jegliche Eingabeparameter der Simulation berücksichtigen kann.
This thesis emphasizes problems that reports generated by vulnerability scanners impose on the process of vulnerability management, which are a. an overwhelming amount of data and b. an insufficient prioritization of the scan results.
To assist the process of developing means to counteract those problems and to allow for quantitative evaluation of their solutions, two metrics are proposed for their effectiveness and efficiency. These metrics imply a focus on higher severity vulnerabilities and can be applied to any simplification process of vulnerability scan results, given it relies on a severity score and time of remediation estimation for each vulnerability.
A priority score is introduced which aims to improve the widely used Common Vulnerability Scoring System (CVSS) base score of each vulnerability dependent on a vulnerability’s ease of exploit, estimated probability of exploitation and probability of its existence.
Patterns within the reports generated by the Open Vulnerability Assessment System (OpenVAS) vulnerability scanner between vulnerabilities are discovered which identify criteria by which they can be categorized from a remediation actor standpoint. These categories lay the groundwork of a final simplified report and consist of updates that need to be installed on a host, severe vulnerabilities, vulnerabilities that occur on multiple hosts and vulnerabilities that will take a lot of time for remediation. The highest potential time savings are found to exist within frequently occurring vulnerabilities, minor- and major suggested updates.
Processing of the results provided by the vulnerability scanner and creation of the report is realized in the form of a python script. The resulting reports are short, straight to the point and provide a top down remediation process which should theoretically allow to minimize the institutions attack surface as fast as possible. Evaluation of the practicality must follow as the reports are yet to be introduced into the Information Security Management Lifecycle.
Die durch kleine und mittelständische Unternehmen geprägte Investitionsgüterindustrie steht aufgrund der zunehmenden Internationalisierung im Servicegeschäft vor großen Herausforderungen. Mitarbeiterengpässe, hohe Prozesskosten und unzureichendes Wissensmanagement machen den Service zur potenziellen betriebs- und volkswirtschaftlichen Wachstumsbremse. Durch die Digitalisierung entstehen aber auch große Nutzenpotenziale im Servicegeschäft. Ziel des im Projekt SerWiss entwickelten integrierten Ansatzes ist es, kleine und mittelständische Anbieter von Investitionsgütern zu befähigen, Servicewissen auf der Basis eines digitalen Lösungsansatzes unter Gewährleistung einer humanen Arbeitsgestaltung effizient zu generieren, zu strukturieren und international bereitzustellen bzw. zu vermarkten.
Das Management von Aktienfonds strebt effiziente Mischungen von Aktien an. Nachdem diese durch Optimierungsverfahren ermittelt wurden, müssen sie aus ökonomischen oder rechtlichen Gründen oft angepasst werden mit der Konsequenz, dass die Lösungen nicht mehr effizient sind. Ein rechtlicher Grund kann bei einem öffentlich angebotenen Aktienfond der Artikel 52(2) der EU-Richtlinie 2009/65/EC bzw. das KAGB § 206 sein. Ein Teil der Richtlinie besagt z.B., dass in eine Aktie nie mehr als 10% des Budgets investiert werden kann. Diese Regeln insgesamt sich auch als 5-10-40-Bedingung bekannt. Um derartige Risikobeschränkungen in der Portfoliooptimierung zu integrieren wurden zwei Optimierungsmodelle entwickelt – ein quadratisches und ein lineares. Die Modelle wurden anhand von historischen Renditedaten des HDAX getestet. Das lineare Modell zeigt, dass die Vorgaben der EU-Richtlinie die angestrebte Volatilitätsreduktion erreicht. Diese Risikobeschränkung hat aber einen Preis, der in den Währungen „Renditeverlust“ bzw. „Volatilitätszuwachs“ ausgedrückt werden kann. Bei gleicher Volatilität erzielte das nicht durch die 5-10-40-Bedingung eingeschränkte Portfolio eine ca. 10% höhere Jahresrendite. Der „Volatilitätszuwachs“ ist im Umfeld des minimalen Volatilitätspunktes (MVP) gering, kann aber bis zu 25% betragen, wenn Portfolios die unter der 5-10-40-Bedingung ermittelt wurden verglichen werden mit uneingeschränkt optimierten Portfolios bei jeweils gleicher Rendite. Das quadratische Modell baut auf dem Ansatz von H. Markowitz auf und zeigt einen flexibleren Weg der Risikobegrenzung der zu vergleichbaren Resultaten führt.
Die digitale Transformation von Geschäftsprozessen und die stärkere Integration von IT-Systemen führen zu Chancen und Risiken für kleine und mittlere Unternehmen (KMU). Risiken, die zu fehlender IT-Governance, Risk und Compliance (GRC) führen können. Ziel dieses Beitrags ist es, die Design- und Evaluierungsphase der Erstellung eines Artefakts darzustellen. Dabei wird der Design Science Research Ansatz nach Hevner verwendet. Das Artefakt wird für die Auswahl von Standards entwickelt, indem KMU-relevante Ausprägungen und bestehende Rahmenwerke auf die definierten Kriterien angepasst werden.
Contemporary empirical applications frequently require flexible regression models for complex response types and large tabular or non-tabular, including image or text, data. Classical regression models either break down under the computational load of processing such data or require additional manual feature extraction to make these problems tractable. Here, we present deeptrafo, a package for fitting flexible regression models for conditional distributions using a tensorflow backend with numerous additional processors, such as neural networks, penalties, and smoothing splines. Package deeptrafo implements deep conditional transformation models (DCTMs) for binary, ordinal, count, survival, continuous, and time series responses, potentially with uninformative censoring. Unlike other available methods, DCTMs do not assume a parametric family of distributions for the response. Further, the data analyst may trade off interpretability and flexibility by supplying custom neural network architectures and smoothers for each term in an intuitive formula interface. We demonstrate how to set up, fit, and work with DCTMs for several response types. We further showcase how to construct ensembles of these models, evaluate models using inbuilt cross-validation, and use other convenience functions for DCTMs in several applications. Lastly, we discuss DCTMs in light of other approaches to regression with non-tabular data.
AbstractSanctions encompass a wide set of policy instruments restricting cross‐border economic activities. In this paper, we study how different types of sanctions affect the export behavior of firms to the targeted countries. We combine Danish register data, including information on firm‐destination‐specific exports, with information on sanctions imposed by Denmark from the Global Sanctions Database. Our data allow us to study firms' export behavior in 62 sanctioned countries, amounting to a total of 453 country‐years with sanctions over the period 2000–2015. Methodologically, we apply a two‐stage estimation strategy to properly account for multilateral resistance terms. We find that, on average, sanctions lead to a significant reduction in firms' destination‐specific exports and a significant increase in firms' probability to exit the destination. Next, we study heterogeneity in the effects of sanctions across (i) sanction types and sanction packages, (ii) the objectives of sanctions, and (iii) countries subject to sanctions. Results confirm that the effects of sanctions on firms' export behavior vary considerably across these three dimensions.
Die Berücksichtigung ökologischer und sozialer Gesichtspunkte in der Konzeption, Planung und Errichtung von Gebäuden hat in den vergangenen Jahren großen Einfluss auf Marktfähigkeit der Immobilien gewonnen. Regulatorische Rahmenwerke wie die Taxonomie-Verordnung der Europäischen Union formulieren die klare Anforderung an die Bauwirtschaft dem Schutz von Mensch und Natur mehr Bedeutung einzuräumen. Nur mit einem wesentlichen Beitrag zu den Klimazielen der Europäischen Union wird es der Branche langfristig möglich sein sich einen uneingeschränkten Zugang zum Investorenmarkt zu sichern.
Die vorliegende wissenschaftliche Arbeit widmet sich dem Kriterienkatalog der Deutschen Gesellschaft für Nachhaltiges Bauen e.V. und legt Übereinstimmungen mit den technischen Bewertungskriterien der EU-Taxonomie Verordnung offen. Der im Frühjahr 2023 erschienen Kriterienkatalog umfasst eine Vielzahl von Kriterien, anhand derer Gebäude auf Nachhaltigkeit geprüft werden. Im Vergleich zu der Vorgängerversion aus dem Jahr 2018 wurden erhebliche Änderungen eingearbeitet. Besonders hervorzuheben sind neue technische Prüfkriterien im Bereich Klimaschutz, Ressourcengewinnung, Biodiversität und Kreislaufwirtschaft. Die Angleichung der Berechnungsmethode für die Ökobilanzen an das bundeseigene „Qualitätssiegel Nachhaltiges Gebäude“, die Mindestanforderung nach dem erhöhten Einsatz von nachhaltig gewachsenem Holz, die Prüfung spezifischer Zielquoten bei dem Einsatz von Recyclingbeton sowie Anforderungen an die Zirkularität sind nur ein Teil der Neuerungen. Für die zusätzlichen Anforderung müssen Projektentwickler mit Mehrkosten im hohen sechsstelligen Bereich im Vergleich zu der Vorgängerversion rechnen. Vorteile der Neuauflage des Kriterienkataloges sind eine erhöhte Übereinstimmung mit den Nachhaltigkeitsanforderungen der Europäischen Union. Es werden jedoch nicht alle Anforderungen erfüllt. Nachweise für den Primärenergiebedarf, die Schadstoffbelastung von Bauteilen bzw. -materialien und eine Umweltverträglichkeitsprüfung müssen zusätzlich zu dem Kriterienkatalog der Deutschen Gesellschaft für Nachhaltiges Bauen geleistet werden. Insgesamt ebnen die Kriterien der Deutschen Gesellschaft für Nachhaltiges Bauen aber den Weg hin zu einer EU-Konformität und helfen Projektentwicklern Immobilien erfolgreich auf dem Markt zu positionieren.
Effiziente Energienutzung ist eine bestehende Problematik, welche nicht nur Privathaushalte, sondern auch Institute und Unternehmen betrifft. Die Thematik, mit der sich diese Bachelorarbeit beschäftigt, ist intelligente Regelung von Wärmeenergie für Nichtwohngebäude. Das Ziel hierbei ist die Einsparung von Energie und die daraus folgenden Kosten. Hierfür wird mittels theoretischer Arbeit, Recherche für vorhandene Konzepte durchgeführt. Mit MATLAB Simulink soll anschließend ein eigenes Konzept für eine intelligente, vorausschauende Regelung aufgebaut und simuliert werden. Dabei soll die Raumlufttemperatur eines Raumes in einem Nichtwohngebäude, mithilfe eines modellbasierten prädiktiven Reglers (MPC), auf eine bestimmte Wunschtemperatur geregelt werden. Zum Schluss wird diese mit einer herkömmlichen Regelung (PID-Regelung) verglichen. Als Ergebnis kam dabei heraus, dass sich bei der vorausschauenden Regelung, im Vergleich zur herkömmlichen Regelung, ein deutlich besserer Temperaturverlauf ergibt. Die Raumtemperatur liegt im gewünschten Sollbereich, jedoch sind in den Ergebnissen keine nennenswerten Energieeinsparungen zu sehen. Durch zukünftige Erweiterungen in den MPC, sollte dies aber definitiv möglich sein. Deshalb und aufgrund der genaueren Regelung der Temperatur, wird eine Empfehlung zur Anwendung von MPC-Reglern an Nichtwohngebäude abgegeben.
Trotz des seit über zehn Jahren anhaltend negativen Trends im traditionellen Kameramarkt werden in Zukunft exponentiell mehr Bilder mit technischen Hilfsmitteln produziert und veröffentlicht werden, nur eben auf eine fundamental andere Weise, mit anderen, vermeintlich komfortableren Geräten, im Hintergrund unterstützt durch sogenannte »smarte« Technologien. Die blitzschnelle Verrechnung von kurzen Bildserien zu einem einzigen Bild, unter Zuhilfenahme von leistungsfähigen Algorithmen aus dem Bereich des maschinellen Sehens, simuliert eine handwerkliche Perfektion, die auf optisch, chemischem Weg so nicht möglich wäre. Auch wenn die analoge Fotografie, teils im Rückgriff auf Jahrhunderte alte Praktiken der Bildenden Kunst, einstmals die Vorbilder und Standards etabliert hat, auf die KI-Modelle derzeit trainiert werden, spielen analoge Bildgebungsverfahren heutzutage quantitativ kaum mehr eine Rolle. Qualitativ erfährt die analoge Fotografie, sowohl im Sinne einer entschleunigenden Gegenbewegung, als auch auf Grund ihrer vermeintlich höheren Authentizität und ihrer haptischen und materiellen Qualitäten, eine überraschend starke Aufmerksamkeit. Diese richtet sich auf die Auseinandersetzung mit fotografischen Wahrnehmungsweisen, die Erforschung unserer realen Umgebung und nicht zuletzt auf die Begegnung mit uns selbst. Analoge Kameras, die Arbeit in der Dunkelkammer und historische Verfahren, wie das Nasse-Kollodion-Verfahren oder die Cyanotypie haben seit einigen Jahren weltweit wieder Konjunktur unter Photoenthusiasten und Studierenden. Was die Protagonisten eines vermeintlich nostalgischen Retro-Trends indes nicht davon abhält, in ihrem Alltag ganz selbstverständlich in »Echtzeit« mit Handys und häufig unter strategisch diversifizierten, mehr oder weniger privaten User-Profilen und Identitäten in den sogenannten sozialen Netzwerken mit anderen (und auch sich selbst) in Form von digitalen bzw. digitalisierten Bildern in einen möglichst flüchtigen Kontakt zu treten.
Digitization and sustainability are the two big topics of our current time. As the usage of digital products like IoT devices continues to grow, it affects the energy consumption caused by the Internet. At the same time, more and more companies feel the need to become carbon neutral and sustainable. Determining the environmental impact of an IoT device is challenging, as the production of the hardware components should be considered and the electricity consumption of the Internet since this is the primary communication medium of an IoT device. Estimating the electricity consumption of the Internet itself is a complex task. We performed a life cycle assessment (LCA) to determine the environmental impact of an intelligent smoke detector sold in Germany, taking its whole life-cycle from cradle-to-grave into account. We applied the impact assessment method ReCiPe 2016 Midpoint and compared its results with ILCD 2011 Midpoint+ to check the robustness of our results. The LCA results showed that electricity consumption during the use phase is the main contributor to environmental impacts. The mining of coal causes this contribution, which is a part of the German electricity mix. Consequently, the smoke detector mainly contributes to the impact categories of freshwater and marine ecotoxicity, but only marginally to global warming.