Refine
Year of publication
Document Type
- Conference Proceeding (642)
- Article (429)
- Other Publications (143)
- Part of a Book (141)
- Working Paper (128)
- Book (118)
- Report (115)
- Journal (Complete Issue of a Journal) (85)
- Master's Thesis (77)
- Doctoral Thesis (58)
Language
- German (1115)
- English (883)
- Multiple languages (8)
Keywords
Institute
- Fakultät Architektur und Gestaltung (41)
- Fakultät Bauingenieurwesen (105)
- Fakultät Elektrotechnik und Informationstechnik (34)
- Fakultät Informatik (121)
- Fakultät Maschinenbau (60)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (106)
- Institut für Angewandte Forschung - IAF (115)
- Institut für Naturwissenschaften und Mathematik - INM (3)
- Institut für Optische Systeme - IOS (40)
- Institut für Strategische Innovation und Technologiemanagement - IST (60)
Lean Digitalization
(2020)
Schreiben im Studium
(2020)
Sollte das wissenschaftliche Schreiben als allgemeine Wissenschaftssprache vermittelt werden oder sollten die sprachlichen Anforderungen in den jeweiligen Disziplinen berücksichtigt werden? Die Antwort auf diese Frage hängt auch davon ab, wie stark sich die Wissenschaftssprachen unterscheiden. In der vorliegenden Studie wurden wissenschaftssprachliche Besonderheiten anhand zweier Korpora untersucht, die deutschsprachige Dissertationen der Fächer Betriebswirtschaftslehre (BWL) bzw. Maschinenbau (MB) umfassten und in denen der Gebrauch von Mehrworteinheiten (z.B. im vergleich zu den) verglichen wurde. Die Untersuchung verdeutlicht den unterschiedlichen Gebrauch der Mehrworteinheiten zwischen den Disziplinen: Nur vierzehn der 50 häufigsten Mehrworteinheiten wurden in beiden Korpora genutzt. Die Ergebnisse werden mit Blick auf die Vermittlung des wissenschaftlichen Schreibens erörtert. Es werden Überlegungen zur Weiterentwicklung der Methode angestellt und es wird diskutiert, wie die Korpuslinguistik die Schreibvermittlung im Studium unterstützen könnte.
Which testing formats are most appropriate for assessing academic language skills? Christian Krekeler addresses this question for informal language assessment in the classroom. In the first part of this chapter discrete items, isolated tests of writing, and integrated tests, three formats which are frequently used in standardised assessment, are investigated and their usefulness for classroom assessment, where diagnosis, achievement and learning are important test functions, is discussed. Because academic language use is cognitively demanding, it is argued that assessment of academic language skills should include authentic and complex tasks as well as subject specific content. The resulting tensions between complex, authentic and context sensitive tasks and the requirements of language assessment methodology are discussed in the second part of the chapter.
For a long time, the use of intermediate products in production has been growing more rapidly in most countries than domestic production. This is a strong indication of more interdependency in production. The main purpose of input-output analysis is to study the interdependency of industries in an economy. Often the term interindustry analysis is also used. Therefore, the exchange of intermediate products is a key issue of input-output analysis. We will use input–output data for this study that the author prepared for the new ‘Handbook on Supply, Use and Input–Output Tables with Extensions and Applications’ of the United Nations. The supply use and input–output tables contain separate valuation matrices for trade margins, transport margins, value added tax, other taxes on products and subsidies on products. For the study, two input–output models were developed to evaluate the impact of fuel subsidy and taxation reform on output, gross domestic product, inflation and trade. Six scenarios are discussed covering different aspects of the reform.
The evaluation of the effectiveness of different machine learning algorithms on a publicly available database of signals derived from wearable devices is presented with the goal of optimizing human activity recognition and classification. Among the wide number of body signals we choose a couple of signals, namely photoplethysmographic (optically detected subcutaneous blood volume) and tri-axis acceleration signals that are easy to be simultaneously acquired using commercial widespread devices (e.g. smartwatches) as well as custom wearable wireless devices designed for sport, healthcare, or clinical purposes. To this end, two widely used algorithms (decision tree and k-nearest neighbor) were tested, and their performance were compared to two new recent algorithms (particle Bernstein and a Monte Carlo-based regression) both in terms of accuracy and processing time. A data preprocessing phase was also considered to improve the performance of the machine learning procedures, in order to reduce the problem size and a detailed analysis of the compression strategy and results is also presented.
Good sleep is crucial for a healthy life of every person. Unfortunately, its quality often decreases with aging. A common approach to measuring the sleep characteristics is based on interviews with the subjects or letting them fill in a daily questionnaire and afterward evaluating the obtained data. However, this method has time and personal costs for the interviewer and evaluator of responses. Therefore, it would be important to execute the collection and evaluation of sleep characteristics automatically. To do that, it is necessary to investigate the level of agreement between measurements performed in a traditional way using questionnaires and measurements obtained using electronic monitoring devices. The study presented in this manuscript performs this investigation, comparing such sleep characteristics as "time going to bed", "total time in bed", "total sleep time" and "sleep efficiency". A total number of 106 night records of elderly persons (aged 65+) were analyzed. The results achieved so far reveal the fact that the degree of agreement between the two measurement methods varies substantially for different characteristics, from 31 minutes of mean difference for "time going to bed" to 77 minutes for "total sleep time". For this reason, a direct exchange of objective and subjective measuring methods is currently not possible.
Polysomnography is a gold standard for a sleep study, and it provides very accurate results, but its cost (both personnel and material) are quite high. Therefore, the development of a low-cost system for overnight breathing and heartbeat monitoring, which provides more comfort while recording the data, is a well-motivated challenge. The system proposed in this manuscript is based on the usage of resistive pressure sensors installed under the mattress. These sensors can measure slight pressure changes provoked during breathing and heartbeat. The captured signal requires advanced processing, like applying filters and amplifiers before the analog signal is ready for the next step. Then, the output signal is digitalized and further processed by an algorithm that performs a custom filtering before it can recognize breathing and heart rate in real-time. The result can be directly visualized. Furthermore, a CSV file is created containing the raw data, timestamps, and unique IDs to facilitate further processing. The achieved results are promising, and the average deviation from a reference device is about 4bpm.
Cardiovascular diseases are directly or indirectly responsible for up to 38.5% of all deaths in Germany and thus represent the most frequent cause of death. At present, heart diseases are mainly discovered by chance during routine visits to the doctor or when acute symptoms occur. However, there is no practical method to proactively detect diseases or abnormalities of the heart in the daily environment and to take preventive measures for the person concerned. Long-term ECG devices, as currently used by physicians, are simply too expensive, impractical, and not widely available for everyday use. This work aims to develop an ECG device suitable for everyday use that can be worn directly on the body. For this purpose, an already existing hardware platform will be analyzed, and the corresponding potential for improvement will be identified. A precise picture of the existing data quality is obtained by metrological examination, and corresponding requirements are defined. Based on these identified optimization potentials, a new ECG device is developed. The revised ECG device is characterized by a high integration density and combines all components directly on one board except the battery and the ECG electrodes. The compact design allows the device to be attached directly to the chest. An integrated microcontroller allows digital signal processing without the need for an additional computer. Central features of the evaluation are a peak detection for detecting R-peaks and a calculation of the current heart rate based on the RR interval. To ensure the validity of the detected R-peaks, a model of the anatomical conditions is used. Thus, unrealistic RR-intervals can be excluded. The wireless interface allows continuous transmission of the calculated heart rate. Following the development of hardware and software, the results are verified, and appropriate conclusions about the data quality are drawn. As a result, a very compact and wearable ECG device with different wireless technologies, data storage, and evaluation of RR intervals was developed. Some tests yelled runtimes up to 24 hours with wireless Lan activated and streaming.
In previous studies, we used a method for detecting stress that was based exclusively on heart rate and ECG for differentiation between such situations as mental stress, physical activity, relaxation, and rest. As a response of the heart to these situations, we observed different behavior in the Root Mean Square of the Successive differences heartbeats (RMSSD). This study aims to analyze Virtual Reality via a virtual reality headset as an effective stressor for future works. The value of the Root Mean Square of the Successive Differences is an important marker for the parasympathetic effector on the heart and can provide information about stress. For these measurements, the RR interval was collected using a breast belt. In these studies, we can observe the Root Mean Square of the successive differences heartbeats. Additional sensors for the analysis were not used. We conducted experiments with ten subjects that had to drive a simulator for 25 minutes using monitors and 25 minutes using virtual reality headset. Before starting and after finishing each simulation, the subjects had to complete a survey in which they had to describe their mental state. The experiment results show that driving using virtual reality headset has some influence on the heart rate and RMSSD, but it does not significantly increase the stress of driving.
This work is a study about a comparison of survey tools and it should help developers in selecting a suited tool for application in an AAL environment. The first step was to identify the basic required functionality of the survey tools used for AAL technologies and to compare these tools by their functionality and assignments. The comparative study was derived from the data obtained, previous literature studies and further technical data. A list of requirements was stated and ordered in terms of relevance to the target application domain. With the help of an integrated assessment method, the calculation of a generalized estimate value was performed and the result is explained. Finally, the planned application of this tool in a running project is explained.
This paper presents the implementation of deep learning methods for sleep stage detection by using three signals that can be measured in a non-invasive way: heartbeat signal, respiratory signal, and movement signal. Since signals are measurements taken during the time, the problem is seen as time-series data classification. Deep learning methods are chosen to solve the problem are convolutional neural network and long-short term memory network. Input data is structured as a time-series sequence of mentioned signals that represent 30 seconds epoch, which is a standard interval for sleep analysis. The records used belong to the overall 23 subjects, which are divided into two subsets. Records from 18 subjects were used for training the data and from 5 subjects for testing the data. For detecting four sleep stages: REM (Rapid Eye Movement), Wake, Light sleep (Stage 1 and Stage 2), and Deep sleep (Stage 3 and Stage 4), the accuracy of the model is 55%, and F1 score is 44%. For five stages: REM, Stage 1, Stage 2, Deep sleep (Stage 3 and 4), and Wake, the model gives an accuracy of 40% and F1 score of 37%.
Für die Überwachung des Schlafs zu Hause sind nichtinvasive Methoden besonders gut anwendbar. Die Signale, die häufig überwacht werden, sind Herzfrequenz und Atemfrequenz. Die Ballistokardiographie (BCG)ist eine Technik, bei der die Herzfrequenz aus den mechanischen Schwingungen des Körpers bei jedem Herzzyklus gemessen wird. Kürzlich wurden Übersichtsarbeiten veröffentlicht. Die Untersuchung soll in einem ersten Ansatz bewerten, ob die Herzfrequenz anhand von BCG erkannt werden kann. Die wesentlichen Randbedingungen sind, ob dies gelingt, wenn der Sensor unter der Matratze positioniert wird und kostengünstige Sensoren zum Einsatz kommen.
Die Schlafapnoe ist eine häufig auftretende Schlafstörung,
die unterschiedliche Auswirkungen auf unseren Alltag hat; so wurde z. B.
über eine Tagesschläfrigkeit von etwa 25 % der Patienten mit obstruktiver
Schlafapnoe (OSA) berichtet. Ziel dieser Arbeit ist die Entwicklung eines
Systems, das eine nichtinvasive Erkennung der Schlafapnoe in häuslicher
Umgebung ermöglichen soll.
In diesem Beitrag wird eine Methode des maschinellen Lernens entwickelt, die die Schlafstadienerkennung untersucht. Übliche Methoden der Schlafanalyse basieren auf der Polysomnographie (PSG). Der präsentierte Ansatz basiert auf Signalen, die ausschließlich nicht-invasiv in einer häuslichen Umgebung gemessen werden können. Bewegungs-, Herzschlags- und Atmungssignale können vergleichsweise leicht erfasst werden aber die Erkennung der Schlafstadien ist dadurch erschwert. Die Signale werden als Zeitreihenfolge strukturiert und in Epochen überführt. Die Leistungsfähigkeit von maschinellem Lernen wird der Polysomnographie gegenübergestellt und bewertet.
Due to its economic size, economic policy measures, in particular trade policies, have a far‐reaching impact on global economic developments. This chapter quantifies the economic consequences of US protectionist trade aspirations. It focuses on trade policy scenarios, which have been communicated by the current US administration as potential new trade policies. The chapter draws on the results of a study of the ifo Institute conducted on behalf of the Bertelsmann Foundation. In the first simulation, a retraction from the North American Free Trade Agreement is considered. The chapter then illustrates the potential consequences of a “border tax adjustment” policy. It also simulates further measures to protect the US market by presuming an increase in American duties. The chapter presents robust quantitative results that can be expected if an increasingly protectionist US trade policy were to be implemented.
This article introduces the Global Sanctions Data Base (GSDB), a new dataset of economic sanctions that covers all bilateral, multilateral, and plurilateral sanctions in the world during the 1950–2016 period across three dimensions: type, political objective, and extent of success. The GSDB features by far the most cases amongst data bases that focus on effective sanctions (i.e., excluding threats) and is particularly useful for analysis of bilateral international transactional data (such as trade flows). We highlight five important stylized facts: (i) sanctions are increasingly used over time; (ii) European countries are the most frequent users and African countries the most frequent targets; (iii) sanctions are becoming more diverse, with the share of trade sanctions falling and that of financial or travel sanctions rising; (iv) the main objectives of sanctions are increasingly related to democracy or human rights; (v) the success rate of sanctions has gone up until 1995 and fallen since then. Using state-of-the-art gravity modeling, we highlight the usefulness of the GSDB in the realm of international trade. Trade sanctions have a negative but heterogeneous effect on trade, which is most pronounced for complete bilateral sanctions, followed by complete export sanctions.
Seamless-Learning-Plattform
(2020)
Die Überwindung des Bruchs (Seam) beim Lernen im Studium zwischen dem Hochschulkontext und der beruflichen Praxis ist durch die zeitlich, räumlich und organisatorisch bedingte Trennung der relevanten Akteure (u. a. Lehrende, Lernende, Unternehmensvertreter) eine sehr große Herausforderung (Milrad et al., 2013). Eine seamless-learning-basierte Konzeption einer Lehrveranstaltung auf Basis agiler Werte und Methoden (u. a. inkrementelles Vorgehen, Fokus auf lernendenzentrierte Veranstaltungen, individualisiertes Lernenden-Feedback) kann bei der Überwindung dieses bedeutenden Bruchs helfen. In dem Poster wird das grundsätzliche Design eines derartigen agilen SL-Konzepts auf Basis eines iterativ, inkrementellen Vorgehens innerhalb eines Semesterzyklus von 15 Wochen in drei Lernsprints erörtert. Darüber hinaus wird über erste Lehrerfahrungen der Dozierenden sowohl aus der Hochschule als auch aus dem industriellen Umfeld und Lernerfahrungen der Studierenden aus den vergangenen zwei Jahren berichtet.
The Montgomery multiplication is an efficient method for modular arithmetic. Typically, it is used for modular arithmetic over integer rings to prevent the expensive inversion for the modulo reduction. In this work, we consider modular arithmetic over rings of Gaussian integers. Gaussian integers are subset of the complex numbers such that the real and imaginary parts are integers. In many cases Gaussian integer rings are isomorphic to ordinary integer rings. We demonstrate that the concept of the Montgomery multiplication can be extended to Gaussian integers. Due to independent calculation of the real and imaginary parts, the computation complexity of the multiplication is reduced compared with ordinary integer modular arithmetic. This concept is suitable for coding applications as well as for asymmetric key cryptographic systems, such as elliptic curve cryptography or the Rivest-Shamir-Adleman system.
In this work, we investigate a hybrid decoding approach that combines algebraic hard-input decoding of binary block codes with soft-input decoding. In particular, an acceptance criterion is proposed which determines the reliability of a candidate codeword. For many received codewords the stopping criterion indicates that the hard-decoding result is sufficiently reliable, and the costly soft-input decoding can be omitted. The proposed acceptance criterion significantly reduces the decoding complexity. For simulations we combine the algebraic hard-input decoding with ordered statistics decoding, which enables near maximum likelihood soft-input decoding for codes of small to medium block lengths.
Multi-dimensional spatial modulation is a multipleinput/ multiple-output wireless transmission technique, that uses only a few active antennas simultaneously. The computational complexity of the optimal maximum-likelihood (ML) detector at the receiver increases rapidly as more transmit antennas or larger modulation orders are employed. ML detection may be infeasible for higher bit rates. Many suboptimal detection algorithms for spatial modulation use two-stage detection schemes where the set of active antennas is detected in the first stage and the transmitted symbols in the second stage. Typically, these detection schemes use the ML strategy for the symbol detection. In this work, we consider a suboptimal detection algorithm for the second detection stage. This approach combines equalization and list decoding. We propose an algorithm for multi-dimensional signal constellations with a reduced search space in the second detection stage through set partitioning. In particular, we derive a set partitioning from the properties of Hurwitz integers. Simulation results demonstrate that the new algorithm achieves near-ML performance. It significantly reduces the complexity when compared with conventional two-stage detection schemes. Multi-dimensional constellations in combination with suboptimal detection can even outperform conventional signal constellations in combination with ML detection.
Spatial modulation is a low-complexity multipleinput/ multipleoutput transmission technique. The recently proposed spatial permutation modulation (SPM) extends the concept of spatial modulation. It is a coding approach, where the symbols are dispersed in space and time. In the original proposal of SPM, short repetition codes and permutation codes were used to construct a space-time code. In this paper, we propose a similar coding scheme that combines permutation codes with codes over Gaussian integers. Short codes over Gaussian integers have good distance properties. Furthermore, the code alphabet can directly be applied as signal constellation, hence no mapping is required. Simulation results demonstrate that the proposed coding approach outperforms SPM with repetition codes.
Many resource-constrained systems still rely on symmetric cryptography for verification and authentication. Asymmetric cryptographic systems provide higher security levels, but are very computational intensive. Hence, embedded systems can benefit from hardware assistance, i.e., coprocessors optimized for the required public key operations. In this work, we propose an elliptic curve cryptographic coprocessors design for resource-constrained systems. Many such coprocessor designs consider only special (Solinas) prime fields, which enable a low-complexity modulo arithmetic. Other implementations support arbitrary prime curves using the Montgomery reduction. These implementations typically require more time for the point multiplication. We present a coprocessor design that has low area requirements and enables a trade-off between performance and flexibility. The point multiplication can be performed either using a fast arithmetic based on Solinas primes or using a slower, but flexible Montgomery modular arithmetic.
Side Channel Attack Resistance of the Elliptic Curve Point Multiplication using Gaussian Integers
(2020)
Elliptic curve cryptography is a cornerstone of embedded security. However, hardware implementations of the elliptic curve point multiplication are prone to side channel attacks. In this work, we present a new key expansion algorithm which improves the resistance against timing and simple power analysis attacks. Furthermore, we consider a new concept for calculating the point multiplication, where the points of the curve are represented as Gaussian integers. Gaussian integers are subset of the complex numbers, such that the real and imaginary parts are integers. Since Gaussian integer fields are isomorphic to prime fields, this concept is suitable for many elliptic curves. Representing the key by a Gaussian integer expansion is beneficial to reduce the computational complexity and the memory requirements of a secure hardware implementation.
Dieses besondere Lehrbuch führt in die Berechnung von Verbrennungsmotoren ein, geht dabei von aktuellen Fragestellungen z. B. zur Fahrzeugdynamik oder Motorthermodynamik aus und stellt bei der Lösung die notwendige Theorie mit bereit. Damit auch Quereinsteiger erfolgreich sind, ist in einem Verzeichnis aufgeführt, welche theoretischen Kenntnisse man für die Lösung der jeweiligen Aufgabe benötigt und in welchem Abschnitt des Buches diese hergeleitet werden. Alle Berechnungen werden in Excel durchgeführt.
In der vorliegenden Auflage wurden aktuelle Beispiele zur Motoreffizienz, zum Motorkennfeld, zur Lastpunktanhebung, zum Fahrzyklus WLTC und zu realen Fahrzyklen (RDE) ergänzt.
Der Inhalt:
- Fahrwiderstand und Motorleistung
- Kraftstoffe und Stöchiometrie
- Motorleistung und Mitteldruck
- Motorthermodynamik
- Motormechanik
- Fahrzeugdynamik
- Hybrid- und Elektrofahrzeuge
- Aufladung von Verbrennungsmotoren
Die Zielgruppen:
Studierende des Maschinenbaus und der Kfz-Technik an Hochschulen in Bachelor- und Masterstudiengängen; Motoreningenieure, die sich mit verbrennungsmotorischen Fragestellungen beschäftigen; Absolventen von Weiterbildungskursen auf Meisterniveau
Der Autor Dr.-Ing. Klaus Schreiner ist Professor an der HTWG Konstanz und Leiter des Labors für Verbrennungsmotoren in der Fakultät Maschinenbau. Er war viele Jahre lang Didaktikbeauftragter seiner Hochschule. Im Jahr 2008 erhielt er den Lehrpreis des Landes Baden-Württemberg.
„All organizations are inherently criminogenic“. Wenngleich diese Aussage durchaus übertrieben klingen mag, zeigen neuere Untersuchungen, dass über die Hälfte der Manager in Deutschland bereits mit unethischem Verhalten in Unternehmen konfrontiert wurden. Aktuelle Skandale in der Automobil- (sog. „Abgasskandal“) oder der Finanzindustrie (zuletzt sog. „Cum ex-“ und „Cum-Cum-Geschäfte“) scheinen darüber hinaus zu belegen, dass auch Organisationen mit einem etablierten Compliance-Management, immer wieder nur die Reaktion auf delinquente Handlungen bleibt. Die Prävention wirtschaftskrimineller und unmoralischer Verhaltensweisen hingegen scheitert regelmäßig, trotz zum Teil umfangreich ausgestalteter Compliance-Management-Systeme (CMS).
Die Themen Compliance und wertebasiertes unternehmerisches Handeln sind spätestens seit dem sogenannten „Abgasskandal“, der den Volkswagen-Konzern bereits Strafzahlungen und Schadensersatz in Milliardenhöhe kostete, auch in Unternehmen des Mittelstands und bei Verbrauchern präsenter denn je.
Im Juni 2018 verhängte die Staatsanwaltschaft Braunschweig im Zusammenhang mit der Manipulation von Abgaswerten ein Bußgeld i. H. v. einer Milliarde Euro gegen Volkswagen. Anfang 2017 einigte sich VW mit dem US-amerikanischen Justizministerium auf einen Vergleich, der die Zahlung von 4,3 Mrd. US-Dollar (2,8 Mrd. Dollar Strafzahlungen, 1,5 Mrd. Dollar für zivilrechtliche Bußgelder) vorsieht. Durch weitere Vergleiche mit Kunden und Autohändlern in den USA belaufen sich die Gesamtkosten für Strafen, Bußgelder und Vergleichszahlungen auf etwa 25 Mrd. Dollar. Daneben sind weitere Kosten aus der Dieselaffäre zu erwarten, die sich im Wesentlichen aus dem Kapitalmarktrecht (ggf. versäumte Ad-hoc-Mitteilungen), aus Schadensersatzklagen, Motornachrüstungen und eventuell weiteren Strafzahlungen in anderen Jurisdiktionen ergeben. Hinzukommen die Kosten für die Aufarbeitung der Vorgänge und die sogenannte „Remediation“ des Compliance-Management-Systems (CMS), die der Gesamtschadenssumme ebenso zuzurechnen sind, wie die internen Kosten (Prozessverbesserungen, Management Attention etc.).
Der „Dieselskandal“ und seine Folgen belegen damit eindrucksvoll die Relevanz der Compliance.
Um die Antwort zu der Frage nach der Notwendigkeit von Compliance- Management für mittelständische Unternehmen gleich vorweg zu nehmen: ja, auch mittelständische Unternehmen tun gut daran, sich mit Compliance-Management auseinander zu setzen. Die Notwendigkeit für Compliance-Management verstanden als die Sicherstellung von Compliance, d. h. der Einhaltung gesetzlicher Regelungen, von Soft Law sowie interner Regeln und Verhaltensstandards, ergibt sich bereits allein aus der Verantwortung der Unternehmensleitung, das Unternehmen vor Bedrohungen zu schützen und den Fortbestand des Unternehmens sowie die Kooperationsbeziehungen mit den verschiedenen Stakeholdergruppen langfristig zu sichern. Anders formuliert: Compliance-Management ist Risikomanagement und somit von strategischer Bedeutung für eine verantwortungsvolle Unternehmensführung (good Corporate Governance) – in Großunternehmen wie in mittelständischen Unternehmen. Einzig die Frage nach dem „Wie“ von Compliance-Management in mittelständischen Unternehmen hat ihre Berechtigung.
Compliance Governance
(2020)
Für die Funktionsfähigkeit und Wirksamkeit eines Compliance-Management-Systems (CMS) – und damit verbunden, einer guten und verantwortungsvollen Corporate Governance – ist die Compliance Governance von fundamentaler Bedeutung. Damit sind passende Compliance-Strukturen und eine positive Compliance-Kultur gemeint, die in den Mittelpunkt der Aufmerksamkeit rücken. Im vorliegenden Beitrag wird dieser Themenkomplex aus unterschiedlichen Perspektiven beleuchtet. Zunächst nimmt Stephan Grüninger eine Begriffsbestimmung zur „Compliance Governance“ vor (1.3.1), um darauf aufbauend die wesentlichen Erfolgsprinzipien wirksamer Compliance-Struktur und -Kultur aus betriebswirtschaftlicher und organisationstheoretischer Perspektive herauszuarbeiten (1.3.2). Der Kontrolle und Aufsicht im Rahmen einer guten „Compliance Governance“ kommt eine wichtige Funktion zu, so dass Roland Steinmeyer darauf aufbauend (1.3.3) aus rechtlicher Perspektive die Verantwortlichkeiten des Aufsichtsrats im Rahmen des Compliance- Managements (CM) beschreibt. Abschließend (1.3.4) gibt Christian Strenger Einblicke in die Praxis der Compliance-Aufsicht und benennt Anforderungen, die Aufsichtsräte bei der Ausübung ihrer Überwachungsfunktion zu erfüllen haben und Herausforderungen, denen sie dabei gegenüberstehen.
Compliance ist in aller Munde, nicht zuletzt dank des Abgasskandals in der Automobilindustrie. Zahlreiche weitere und häufig auch spektakuläre Unternehmensskandale der letzten Jahre (v. a. aufgrund von Kartellverstößen, Korruptions-, Betrugs- und Bilanzierungsdelikten) haben weltweit eine Welle der Regulierung und verschärfter Durchsetzung bereits vorhandener rechtlicher und regulatorischer Anforderungen ausgelöst. Unternehmen suchen daher verstärkt nach Wegen der Prävention rechtlich sanktionierbaren Fehlverhaltens im Unternehmensbereich, nicht zuletzt, um die Haftung für Unternehmen, Organe und Mitarbeiter zu vermeiden. Dabei ist wichtig zu erkennen, dass über das rechtliche Haftungsrisiko (Geldstrafen und Bußgelder, Verfall/Gewinnabschöpfungen, Gefängnisstrafen) hinaus insbesondere auch die Vermeidung des ökonomischen Haftungsfalles aufgrund von Non-Compliance gemeint ist. Diese ökonomische Haftung stellt sich als Reputationsschaden ein und kann sich konkret zeigen an z. B. fallenden Börsenkursen, dem Abbruch von Geschäftsbeziehungen oder dem Ausschluss von öffentlichen Ausschreibungen 5 sowie durch Probleme bei der Rekrutierung von Spitzenpersonal oder der Demission von Managern und Mitarbeitern. Hinzu kommen die Kosten für die Untersuchung von entdeckten Fällen von Non-Compliance (Kosten für externe Anwälte, Wirtschaftsprüfer etc.), die Kosten für die Beseitigung der Ursachen (z. B. Schließung von Lücken im Internen Kontrollsystem: sog. „Remediation“) und die durch die Absorption von Management- und Mitarbeiterkapazitäten aufgrund der Aufarbeitung eines Falles von Non-Compliance verursachten Kosten.
Compliance ist als Integritätsmanagement heute ein wesentlicher Aspekt erfolgreichen unternehmerischen Handelns. Unter den Bedingungen der digitalen Transformation, die neue Geschäftsmodelle ermöglicht, die Welt verbindet und vielseitige ungekannte Risiken birgt, ist ein robustes Compliance-Management gefragt, das sich nicht nur mit klassischer Korruptionsbekämpfung auseinandersetzt – auch Themen der Cyber- und Privacy-, Produkt- und Technik-Compliance, Geldwäsche und die Einhaltung von Menschen- und Arbeitnehmerrechten in internationalen Wertschöpfungsketten stehen immer mehr im Fokus. Die Neubearbeitung dieses Handbuchs spiegelt diese beispiellose Dynamik der letzten Jahren praxisgerecht wider: Mit internationalem Blick (Sie finden Länderstudien u.a. zu China, Lateinamerika, Russland, Afrika) und über 40 neuen Beiträgen zu den aktuell wichtigsten Compliance-Topics.
Climate protection in Seychelles through tourism: the advantages of a small-sized destination
(2020)
CO2 abatement costs are often low in developing countries. This is why most carbon offset projects are being implemented there. Nevertheless, this does not mean that the holiday resort and the project country are in any way related to each other. Linking compensation projects with the destination country could increase the willingness of air travellers to finance voluntary CO2 compensation measures.
This paper describes how a possible combination of CO2 compensation projects in the Seychelles could affect the voluntary carbon offset behaviour of Seychelles tourists. On the one hand, the issue of whether the voluntary willingness of Seychelles travellers to compensate can be increased is examined; on the other hand, whether tourists would be willing to visit a co-financed project in the Seychelles.
As a result, the willingness of tourists to offset air-travel carbon emissions can be increased. Important factors for this are e.g. that all persons have adequate information and that the carbon offset providers display a high degree of transparency. In addition, a broad interest in visiting the projects in the Seychelles during the holiday was expressed. An important condition for this is the spatial vicinity to the project. Due to its small size, the Seychelles are an ideal location for fulfilling this premise.
设计城市
(2019)
Globalization has increased the number of road trips and vehicles. The result has been an intensification of traffic accidents, which are becoming one of the most important causes of death worldwide. Traffic accidents are often due to human error, the probability of which increases when the cognitive ability of the driver decreases. Cognitive capacity is closely related to the driver’s mental state, as well as other external factors such as the CO2 concentration inside the vehicle. The objective of this work is to analyze how these elements affect driving. We have conducted an experiment with 50 drivers who have driven for 25 min using a driving simulator. These drivers completed a survey at the start and end of the experiment to obtain information about their mental state. In addition, during the test, their stress level was monitored using biometric sensors and the state of the environment (temperature, humidity and CO2 level) was recorded. The results of the experiment show that the initial level of stress and tiredness of the driver can have a strong impact on stress, driving behavior and fatigue produced by the driving test. Other elements such as sadness and the conditions of the interior of the vehicle also cause impaired driving and affect compliance with traffic regulations.
This document presents a new complete standalone system for a recognition of sleep apnea using signals from the pressure sensors placed under the mattress. The developed hardware part of the system is tuned to filter and to amplify the signal. Its software part performs more accurate signal filtering and identification of apnea events. The overall achieved accuracy of the recognition of apnea occurrence is 91%, with the average measured recognition delay of about 15 seconds, which confirms the suitability of the proposed method for future employment. The main aim of the presented approach is the support of the healthcare system with the cost-efficient tool for recognition of sleep apnea in the home environment.
The ballistocardiography is a technique that measures the heart rate from the mechanical vibrations of the body due to the heart movement. In this work a novel noninvasive device placed under the mattress of a bed estimates the heart rate using the ballistocardiography. Different algorithms for heart rate estimation have been developed.
Methods based exclusively on heart rate hardly allow to differentiate between physical activity, stress, relaxation, and rest, that is why an additional sensor like activity/movement sensor added for detection and classification. The response of the heart to physical activity, stress, relaxation, and no activity can be very similar. In this study, we can observe the influence of induced stress and analyze which metrics could be considered for its detection. The changes in the Root Mean Square of the Successive Differences provide us with information about physiological changes. A set of measurements collecting the RR intervals was taken. The intervals are used as a parameter to distinguish four different stages. Parameters like skin conductivity or skin temperature were not used because the main aim is to maintain a minimum number of sensors and devices and thereby to increase the wearability in the future.
Im vorliegenden Beitrag wird der Einfluss der Modellierung des Kellergeschosses auf die Querkraft und die Verformungen von im Kellergeschoss eingespannten Stahlbeton‐Aussteifungswänden untersucht. Der Querkraftverlauf der Wand und die Verschiebung am Kopf der Wand werden mit den entsprechenden, am vereinfachten Kragwandmodell ermittelten Werten verglichen, bei dem die Wand auf Höhe der Kellerdecke voll eingespannt ist und die Weiterleitung der Schnittkräfte im Kellergeschoss nicht näher betrachtet wird. Für die Berücksichtigung des Kellergeschosses wird zunächst eine gelenkige Festhaltung durch die Kellerdecke und die Bodenplatte betrachtet, wodurch sich eine unrealistisch große Wandquerkraft im Kellergeschoss ergibt. Danach wird ein verfeinertes Modell mit Teileinspannung in der Bodenplatte und nachgiebiger Halterung durch die Kellerdecke untersucht. Es werden Empfehlungswerte für die Federkonstante der Drehfeder auf Höhe der Bodenplatte und der horizontalen Translationsfeder auf Höhe der Kellerdecke angegeben, die in der Praxis Anwendung finden können. Es wird besonders der Frage nachgegangen, welche Einflüsse die Berücksichtigung des Kellergeschosses bei der Erdbebenbemessung der Aussteifungswände hat. Dabei wird einerseits die Systemsteifigkeit, von der die Erdbebenersatzlasten abhängen, und andererseits die mögliche Verschiebungsduktilität, von der der mögliche Verhaltensbeiwert q abhängt, betrachtet.
Gesellschaftsrecht
(2020)
Die vorliegende Veröffentlichung gibt einen kompakten Überblick über wesentliche Regelungen des Personen- und Kapitalgesellschaftsrechts. Nach den gesellschaftsrechtlichen Grundprinzipien werden zunächst die Personengesellschaften (GbR, OHG, KG, Stille Gesellschaft und Partnerschaft) und hieran anschließend die Kapitalgesellschaften (GmbH und AG) behandelt. Abschließend geht es um die diesbezüglichen Einflüsse des europäischen Rechts. Sie wendet sich in Lehrbuchform vornehmlich an Studierende von Universitäten, Hochschulen, Berufsakademien und anderen Bildungseinrichtungen.
Sabbatical semester report
(2015)
BIM im Membranbau
(2019)
Die fortschreitende Digitalisierung wird zurzeit zu einem der wichtigsten Themen und zugleich zu einer der größten Herausforderungen für die Bauwirtschaft. Building Information Modeling (BIM) kommt eine immer größere Bedeutung zu.
Es ist sicherlich richtig, dass derzeit nur wenige Projekte im Bauwesen den geforderten BIM-Anforderungen der Bauherrschaft genügen. Es ist zu erwarten, dass in den kommenden Jahren auch an Membranbauprojekte immer mehr Anforderungen bezüglich BIM gestellt werden. Aus diesem Grund ist es wichtig, dass sich Planungsbüros für leichte Flächentragwerke mit dem Thema BIM befassen.
Ziel dieser Arbeit ist die Ausarbeitung eines Konzepts für die effiziente durchgehende Umsetzung der Building Information Modeling-Arbeitsmethode bei der Tragwerksplanung im Membranbau.
Es werden vorhandene Funktionalitäten untersucht und alternative Interoperabilitätskomponenten entwickelt. Aufbauend auf den möglichen Werkzeugketten werden verschiedene Einsatzverfahren vorgeschlagen. Darauffolgend wird eines der möglichen Verfahren an einem realen Tragwerk implementiert. Die erhaltenen Ergebnisse werden einer kritischen Analyse unterzogen.
Abschließende Rückschlüsse, Beurteilung der angewandten Planungsmethoden und Ausblick fassen das behandelte Thema zusammen.
Bei der Arbeit verwendete Methoden schließen den parametrischen Entwurf, manuelle Modellierung in zwei verschiedenen Softwareumgebungen und textliche Programmierung mit C#-Sprache ein.
Die Relevanz des untersuchten Themas erstreckt sich überwiegend auf praktisch tätige Ingenieure aus den Bereichen leichte Flächentragwerke, Sondertragwerke, Membranbau, wird aber auch für wissenschaftliche Mitarbeiter der Forschungsinstitutionen, BIM-Spezialisten und Produkthersteller von Interesse sein.
Sabbatical semester report
(2020)
Many countries offer state credit guarantees to support credit-constrained exporters. The policy instrument is commonly justified by governments as a means to mitigating adverse outcomes of financial market frictions for exporting firms. Accumulated returns to the German state credit guarantee scheme deriving from risk-compensating premia have outweighed accumulated losses over the past 60 years. Why do private financial agents not step in and provide insurance given that the state-run program yields positive returns? We argue that costs of risk diversification, liquidity management, and coordination among creditors limit the ability of private financial agents to offer comparable insurance products. Moreover, we suggest that the government’s greater effectiveness in recovering claims in foreign countries endows the state with a cost advantage in dealing with the risks involved in large export projects. We test these hypotheses using monthly firm-level data combined with official transaction-level data on covered exports of German firms and find suggestive evidence that positive effects on trade are due to mitigated financial constraints: State credit guarantees benefit firms that are dependent on external finance, if the value at risk which they seek to cover is large, and at times when refinancing conditions on the private financial market are tight.
The recovery of our body and brain from fatigue directly depends on the quality of sleep, which can be determined from the results of a sleep study. The classification of sleep stages is the first step of this study and includes the measurement of vital data and their further processing. The non-invasive sleep analysis system is based on a hardware sensor network of 24 pressure sensors providing sleep phase detection. The pressure sensors are connected to an energy-efficient microcontroller via a system-wide bus. A significant difference between this system and other approaches is the innovative way in which the sensors are placed under the mattress. This feature facilitates the continuous use of the system without any noticeable influence on the sleeping person. The system was tested by conducting experiments that recorded the sleep of various healthy young people. Results indicate the potential to capture respiratory rate and body movement.
Das Potential der Offshore-Windenergie, welches hauptsächlich auf hohe mittlere Windgeschwindigkeiten zurückzuführen ist, kann nicht ignoriert werden. Trotzdem zeigt die Betrachtung der aktuell installierten Leistung und der Stromgestehungskosten, dass zusätzliche Risiko- und Kostenfaktoren existieren. Diese sind vor allem auf die Installation, die Energiewandlersysteme und die Netzanbindung zurückzuführen. Getriebeschäden sind einer dieser großen Kostenfaktoren. Aus diesem Grund gewinnen getriebelosen Windkraftanlagen mit permanentmagneterregten Synchrongeneratoren immer mehr an Relevanz. In der Netzanbindung von ganzen Offshore-Windparks überwiegt die Hochspannungs-Gleichstrom-Übertragung (HGÜ) ab einer Übertragungsdistanz von 80 km. Diese Tendenz ist sinkend. Steigende windparkinterne Spannungen auf 66 kV fördern zusätzlich den Verzicht auf Umspannplattformen, welche für die HGÜ-Technik aktuell sinnvoll sind. Diese und weitere bereits in Aussicht stehenden Entwicklungen führen zu einer Einschränkung der Risiko- und Kostenfaktoren. Es wird demnach davon ausgegangen, dass die Offshore-Windenergie, als Ergänzung zur Onshore-Windenergie, eine wichtige Rolle im Rahmen der Energiewende einnimmt.
In my research sabbatical I was working on three different topics, namely orthogonal polynomials in geometric modeling, re-parametrized univariate subdivision curves, and reconstruction of 3d-fish-models and other zoological artifacts. In the subsequent Sections, I will describe my particular activity in these different fields. The sections are meant to present an overview of my research activities, leaving out the technical details.
Section 1 is on orthogonal polynomials and other related generating systems for functions systems of smooth function.
In Section 2, I will discuss the application of various re-parametrization schemes for interpolatory subdivision algorithms for the generation of space curves.
The next Section 3 is concerned with my research at the University of Queensland, Brisbane, in collaboration with Dr. Ulrike Siebeck from the School of Biomedical Sciences on fish behavior and reconstruction of 3d-fish models in particular.
In the last Section 4, I will describe what effects this research will have on in my subsequent teaching at the University of Applied Science Konstanz (HTWG).
The actual task of electrocardiographic examinations is to increase the reliability of diagnosing the condition of the heart. Within the framework of this task, an important direction is the solution of the inverse problem of electrocardiography, based on the processing of electrocardiographic signals of multichannel cardio leads at known electrode coordinates in these leads (Titomir et al. Noninvasiv electrocardiotopography, 2003), (Macfarlane et al. Comprehensive Electrocardiology, 2nd ed. (Chapter 9), 2011).
Putze und Fugenmoertel, insbesondere in Sichtmauerwerken uebernehmen wesentliche technische, bauphysikalische und aesthetische Aufgaben fuer die Fassade und tragen massgeblich zum Erhalt der historischen Bausubstanz bei. Dabei sind an Denkmalen haeufig Befunde historischer Putze und Fugenmoertel sowie Verarbeitungsweisen und Handwerkstechniken vorhanden, die heute nicht mehr gebraeuchlich sind und beherrscht werden. Deshalb kommt ihrer Erhaltung besondere Bedeutung zu. Als aeusserster 'Angriffspunkt' der Gebaeudehuelle sind die Putze und Fugenmoertel der Witterung und zum Teil chemischen, biologischen und mechanischen Belastungen frei ausgesetzt und werden in Spritzwasserbereichen auch durch Tausalze beansprucht. Die dadurch sowie durch Alterung und Ermuedung entstehenden Schaeden werden beschrieben und Moeglichkeiten fuer die Erhaltung und Instandsetzung der Putze aufgezeigt.
Mauermörtel und Putze
(2018)
Für mehr Qualität am Bau
(2018)
Die Putzstrukturen an Fassaden werden maßgeblich durch die Fachhandwerker geprägt. Deshalb wird ihre Ebenmäßigkeit auch nie mit der von industriell gefertigten Fassadenplatten und Ähnlichem vergleichbar sein – aber genau das macht einen Teil des Charmes von Putzfassaden aus. Dies ist auch bei der Bearbeitung von Schadstellen zu berücksichtigen.
Ziegelsplittbetone der Nachkriegsjahre und moderne RC-Betone - Nachhaltigkeit an Objektbeispielen
(2018)
Das Bauwesen gehört zu den größten Verbrauchern an natürlichen Ressourcen und Energie in der deutschen Wirtschaft. Das ist in vielen Fällen trotzdem ökologisch und ökonomisch vertretbar, weil die Bauteile und Bauwerke verglichen mit anderen "Produkten" eine deutlich längere technische Lebensdauer haben - im Fall des Betons zwischen ca. 25 und 100 Jahren - und wenn nach dem Rückbau hohe Recyclingquoten erzielt werden. In Bezug auf Einsparmöglichkeiten spielt der Massenbaustoff Beton eine ganz zentrale Rolle. Neben der Einsparung des sehr energieintensiven Zements und der Entwicklung von Substitutionsbindemitteln, stehen auch die Gesteinskörnungen im Fokus, die den größten Anteil am Beton ausmachen. Im Artikel werden auf der Basis eigener Ergebnisse aus einem DBU?geförderten Forschungsprojekt zu RC?Betonen die Nachhaltigkeit von Beton an Objektbeispielen vorgestellt und über den Sachstand zur aktuellen Nutzung von R-Betonen in Deutschland informiert. Der Fokus liegt dabei auf der Wertigkeit mineralischer Baustoffe aus vergleichsweise wenigen, überwiegend natürlichen Komponenten wie beim Beton, dessen Instandsetzungsmöglichkeiten und bessere Voraussetzungen für späteres Recycling gegenüber vielen modernen, kunststoffhaltigen Verbundbaustoffen.
Was in Kommunen im benachbarten Ausland, bspw. der Schweiz, Oesterreich oder den Niederlanden, offenbar seit vielen Jahren Stand der Technik ist, ist auf Deutschlands Kommunalstrassen eine 'Sonderbauweise': Verkehrsflaechen aus Beton. Die Gruende fuer die Vernachlaessigung der Betonbauweise im kommunalen Umfeld liegen offenbar in einer aufwendigeren Planung, hoeheren Ausfuehrungskosten, einem komplexeren Einbau (gerade in Zusammenhang mit Einbauten), Instandhaltungsmassnahmen und Massnahmen Dritter an den Ver- und Entsorgungseinrichtungen. Offen ist auch die Frage, inwieweit sich die hoeheren Aufwendungen bei der Betonbauweise hinsichtlich Planung und Ausfuehrung im Rahmen einer Lebenszyklusbetrachtung im Vergleich zur Asphaltbauweise durch einen geringeren Erhaltungsbedarf amortisieren oder ggf. sogar guenstiger darstellen. Infolge vermehrt auftretender typischer Schaeden wie Spurrinnen und Verdrueckungen werden hochbelastete kommunale Verkehrsflaechen wie Bushaltestellen, Busspuren und Kreisverkehre immer haeufiger anstatt in Asphalt oder Pflaster in Beton ausgefuehrt. Die Thematik 'Einsatz von Betonflaechen in Kommunen' ist sehr umfangreich und weitlaeufig. Generell wird hier auch auf die spezifischen Merkblaetter der FGSV verwiesen. Mit den Ausfuehrungen im Fachbeitrag soll demnach grundsaetzlich auf die Belange der Planung, des Baus und die Wirtschaftlichkeit kommunaler Verkehrsflaechen in Betonbauweise eingegangen werden. Es koennen leider nicht alle Besonderheiten und Einzelheiten wie bspw. Baustoffe (Glasfaser) Beruecksichtigung finden. Ziel ist, generelle Moeglichkeiten hinsichtlich des Einsatzes von Betonflaechen im kommunalen Bereich aufzuzeigen. Besonderer Dank gilt dem Strassenbauamt Boeblingen sowie Herrn Baudirektor Andreas Klein, dessen persoenliche Erfahrungen hier einfliessen durften.
Was in Kommunen im benachbarten Ausland, bspw. der Schweiz, Österreich oder den Niederlanden offenbar seit vielen Jahren Stand der Technik ist, ist auf Deutschlands Kommunalstraßen eine „Sonderbauweise“: Betonfahrbahnen. Obwohl, gerade in den neuen Bundesländern diese Bauweise häufig zum Einsatz kam, wird sie heute auf größeren Flächen wie gesamte Straßenzüge, bspw. in Wohngebieten, kaum noch angewendet (Bild 1). Die Gründe liegen offenbar in den schlechten Erfahrungen hinsichtlich einer komfortablen Nutzungsdauer sowie der Notwendigkeit, einen „leichteren“ Zugriff auf die unter der Straßenoberfläche liegenden Ver- und Entsorgungseinrichtungen zu haben. Infolge vermehrt auftretender Schäden wie Spurrinnen, Verdrückungen und weiteren Schäden werden hochbelastete Verkehrsflächen wie Bushaltestellen, Busspuren und Kreisverkehre immer häufiger anstatt in Asphalt- oder Pflaster in Betonbauweise ausgeführt. Die Gründe für die Vernachlässigung der Betonbauweise im kommunalen Umfeld liegen neben einem geringen Erfahrungsschatz sicherlich auch in einer aufwändigeren Planung, höheren Ausführungskosten, einem komplexeren Einbau, gerade in Zusammenhang mit Einbauten, Instandhaltungsmaßnahmen und Maßnahmen Dritter an den Ver- und Entsorgungseinrichtungen. Offen ist auch der Nachweis, dass die Betonbauweise im Lebenszyklus wirtschaftlicher als beispielsweise die Asphaltbauweise ist. Die Thematik „Einsatz von Betonflächen in Kommunen“ ist sehr umfangreich und weitläufig und lässt sich mit einem Vortrag generell nicht behandeln. Mit nachfolgenden Ausführungen soll demnach grundsätzlich auf die Belange der Planung, dem Bau und der Wirtschaftlichkeit kommunaler Verkehrsflächen in Betonbauweise eingegangen werden. Es können leider nicht alle Besonderheiten und Einzelheiten wie Baustoffe (Glasfaser) Berücksichtigung finden. Ziel des Vortrages ist, generelle Möglichkeiten hinsichtlich dem Einsatz von Betonflächen im kommunalen Bereich aufzuzeigen. Besonderer Dank gilt dem Straßenbauamt Böblingen sowie Herrn Baudirektor Andreas Klein, dessen persönliche Erfahrungen hier einfließen durften.
Low temperature carburizing of a series of austenitic stainless with various combinations of chromium and nickel equivalents was performed. The investigation of the response towards low temperature carburized for three stainless steels with various Cr- and Ni-equivalents showed that the carbon uptake depends significantly on the chemical composition of the base material. The higher carbon content in the expanded austenite layer of specimen 6 (1.4565) and specimen 4 (1.4539/AISI 904L) compared to specimen 2 (1.4404/AISI 316L) is assumed to be mainly related to the difference in the specimens’ chromium content. More chromium leads to more lattice expansion. Along with the higher carbon content, higher hardness values and higher compressive residual stresses in the expanded austenite zone are introduced than for low temperature carburized AISI 316L. The residual stresses obtained from X-ray diffraction lattice strain investigation depend strongly on the chosen X-ray elastic constants. Presently, no values are known for carbon (or nitrogen) stabilized expanded austenite. Nevertheless, first principle elastic constants for γ′&minus Fe4C appear to provide realistic residual stress values. Magnetic force microscopy and measurement with an eddy current probe indicate that austenitic stainless steels can become ferromagnetic upon carburizing, similar for low temperature nitriding. The apparent transition from para- to ferromagnetism cannot be attributed entirely to the interstitially dissolved carbon content in the formed expanded austenite layer but appears to depend also on the metallic composition of the alloy, in particular the Ni content.
A flight-like absolute optical frequency reference based on iodine for laser systems at 1064 nm
(2017)
We present an absolute optical frequency reference based on precision spectroscopy of hyperfine transitions in molecular iodine 127I2 for laser systems operating at 1064 nm. A quasi-monolithic spectroscopy setup was developed, integrated, and tested with respect to potential deployment in space missions that require frequency stable laser systems. We report on environmental tests of the setup and its frequency stability and reproducibility before and after each test. Furthermore, we report on the first measurements of the frequency stability of the iodine reference with an unsaturated absorption cell which will greatly simplify its application in space missions. Our frequency reference fulfills the requirements on the frequency stability for planned space missions such as LISA or NGGM.
Formgedächtnislegierungen
(2018)
Formgedächtnislegierungen sind »Legierungen, die nach geeigneter Behandlung aufgrund einer martensitischen Umwandlung ihre Gestalt in Abhängigkeit von der Temperatur ändern«. Derartige Materialien werden in den nächsten Jahrzehnten eine wachsende Rolle in der Technik spielen. Um die Eigenschaften dieser Werkstoffe optimal nutzen zu können, ist es wichtig, den Einfluss des Herstellungs- und Verarbeitungsprozesses auf ihre Anwendung zu kennen.
Das Buch behandelt die metallkundlichen Hintergründe und die Verwendungsmöglichkeiten der Formgedächtnislegierungen in verständlicher, auf den Anwender zugeschnittener Weise.
Compliance Management ist längst zu einem Thema in mittelständischen Unternehmen geworden. Aber was ist der richtige Ansatz, um Regeleinhaltung, Rechtschaffenheit und verantwortliches Wirtschaften als Unternehmer oder Unternehmenslenker wirksam und effizient zu organisieren? Welche Rolle spielen die Führungskräfte? Ausgehend von der Frage, was ein mittelständisch geprägtes Unternehmen im Bereich der Compliance tun kann und soll und dem dazu gehörenden Compliance Management System, wird in diesem Beitrag knapp umrissen, worauf es bei der Implementierung und Umsetzung von Maßnahmen im Unternehmensalltag besonders ankommt. Dabei wird der Schulung der Führungskräfte mittels qualitativ hochwertiger Dilemma-Trainings ein ebenso hoher Stellenwert eingeräumt, wie der auch dadurch sukzessive zu entwickelnden ethischen Unternehmenskultur.
When designing drying processes for sensitive biological foodstuffs like fruit or vegetables, energy and time efficiency as well as product quality are gaining more and more importance. These all are greatly influenced by the different drying parameters (e.g. air temperature, air velocity and dew point temperature) in the process. In sterilization of food products the cooking value is widely used as a cross-link between these parameters. In a similar way, the so-called cumulated thermal load (CTL) was introduced for drying processes. This was possible because most quality changes mainly depend on drying air temperature and drying time. In a first approach, the CTL was therefore defined as the time integral of the surface temperature of agricultural products. When conducting experiments with mangoes and pineapples, however, it was found that the CTL as it was used had to be adjusted to a more practical form. So the definition of the CTL was improved and the behaviour of the adjusted CTL (CTLad) was investigated in the drying of pineapples and mangoes. On the basis of these experiments and the work that had been done on the cooking value, it was found, that more optimization on the CTLad had to be done to be able to compare a great variety of different products as well as different quality parameters.
Flooded Edge Gateways
(2019)
Increasing numbers of internet-compatible devices, in particular in the context of IoT, usually cause increasing amounts of data. The processing and analysis of a continuously growing amount of data in real-time by means of cloud platforms cannot be guaranteed anymore. Approaches of Edge Computing decentralize parts of the data analysis logics towards the data sources in order to control the data transfer rate to the cloud through pre-processing with predefined quality-of-service parameters. In this paper, we present a solution for preventing overloaded gateways by optimizing the transfer of IoT data through a combination of Complex Event Processing and Machine Learning. The presented solution is completely based on open-source technologies and can therefore also be used in smaller companies.
With the increased deployment of biometric authentication systems, some security concerns have also arisen. In particular, presentation attacks directed to the capture device pose a severe threat. In order to prevent them, liveness features such as the blood flow can be utilised to develop presentation attack detection (PAD) mechanisms. In this context, laser speckle contrast imaging (LSCI) is a technology widely used in biomedical applications in order to visualise blood flow. We therefore propose a fingerprint PAD method based on textural information extracted from pre-processed LSCI images. Subsequently, a support vector machine is used for classification. In the experiments conducted on a database comprising 32 different artefacts, the results show that the proposed approach classifies correctly all bona fides. However, the LSCI technology experiences difficulties with thin and transparent overlay attacks.
Die Datenschutz-Grundverordnung (DSGVO) sieht in Art. 82 DSGVO einen Anspruch auf Ersatz materieller und immaterieller Schäden vor, allerdings ohne Aussagen darüber, wie die Schadenshöhe zu bestimmen ist. Der Beitrag beleuchtet die bisherige Gerichtspraxis kritisch und zeigt auf, welche Kriterien speziell in data leakage-Fällen herangezogen werden können, um die Schadenshöhe zu bestimmen. Aus der Sicht von Betroffenen stellt sich die Frage nach effektiver Rechtsdurchsetzung, aus der Sicht von Unternehmen stellt sich die Frage nach Prävention und Abwehr von Ansprüchen.
Online-based business models, such as shopping platforms, have added new possibilities for consumers over the last two decades. Aside from basic differences to other distribution channels, customer reviews on such platforms have become a powerful tool, which bestows an additional source for gaining transparency to consumers. Related research has, for the most part, been labelled under the term electronic word-of-mouth (eWOM). An approach, providing a theoretical basis for this phenomenon, will be provided here. The approach is mainly based on work in the field of consumer culture theory (CCT) and on the concept of co-creation. The work of several authors in these streams of research is used to construct a culturally informed resource-based theory, as advocated by Arnould & Thompson and Algesheimer & Gurâu.
This article describes a research project that aims at investigating individual entrepreneurial founders concerning their shift tendencies of decision-making logics - especially during the respective phases of the venture creating process. Prior studies found that team founders show a hybrid perspective on strategic decision-making. They not only combine causation (planning-based) and effectuation (flexible) logics but also show logic shifts and also re-shifts over time. Due to the fact, that founders' social identity shapes early structuring processes, this article describes the necessity of elimination of in-group influences of multi-founding ventures and focus on individuals in order to make specific assessments on logic shifts and re-shifts. Based on an extensive literature review, a pre-selection-test and a qualitative case study design from the empirical body of the paper. Insofar, this study applies a qualitative design of a process research approach to investigate shifts of decision-making logics of individual founders in new venture creation over time.
Ziel der Masterarbeit war es, die Feuchtigkeitseigenschaften von Estrichen bei unterschiedlichen Klimaten mithilfe von Sorptionsisothermen zu charakterisieren. Die wenigen Literaturangaben zu Sorptionsisothermen von mineralischen Estrichen beziehen sich im Wesentlichen auf Calciumsulfatestriche und genormte Zementestriche (ohne dass die Zementart: Portlandzemente, Hochofenzemente bzw. CEM I, CEM II, CEM III etc. unterschieden werden) und i.d.R. nur auf eine Lufttemperatur (= 20 Grad C). Anliegen der Arbeit war es, zusätzlich die seit ca. 20 Jahren marktüblichen ternären Schnellzemente mit zu untersuchen und die baupraktisch interessanten Temperaturen von 15 Grad C und 25 Grad C einzubeziehen. Ebenso wurden die Auswirkungen der Klimabedingung auf der Baustelle (Jahreszeit, Luftfeuchtigkeit, Temperatur) auf den Hydratationsvorgang der Estriche untersucht. Dabei wurden jeweils nicht nur ein Vertreter der verschiedenen Bindemittelsysteme, sondern mindestens zwei verschiedene Estriche unterschiedlicher Hersteller mit einbezogen. In Kombination mit den Ergebnissen der Gefügeuntersuchungen (u. a. Hg-Porosametrie) wird belegt, weshalb sich die zement- und schnellzementgebundenen Estriche vollkommen anders verhalten als die calciumsulfatgebundenen Estriche. Dieses unterschiedliche Verhalten ist auch einer der Gründe, warum Estriche mit der KRL-Methode in Bezug auf ihren Feuchtegehalt nicht bewertet werden können. Aus diesem Grund folgt ein Vergleich der Materialfeuchtemessungen "KRL-Methode" mit der handwerksüblichen und seit Jahrzehnten in der Praxis bewährten "CM-Methode".
Methodology
(2019)
Chapter three introduces the methodology of the study and the research design. Its nested, multi-layered methodological concept constitutes one of the major innovations of the book and enables us to map and measure peacebuilding activities of Christian church actors in the conflicts of Mindanao and Maluku (Ambon). The methodological concept draws from Katzenstein’s “analytic eclecticism,” which transcends the rigidity of existing research schools and seeks to fuse elements of several approaches into a new research agenda. The nested, multi-layered analysis of this book seamlessly combines process tracing, discourse analysis, statistical analysis of primary data generated in two field surveys, Qualitative Comparative Analysis (QCA), and statistical regression analysis.
This PhD investigation lies at the intersection of Architecture, Textile Design and Interaction Design and speculates about sustainable forms of future living, focussing on bionic principles to create alternative lightweight building structures with textiles and digital fabrication techniques. In an interdisciplinary, practice- based design approach, informed by radical case studies from the 1960s to 80s on soft architectures like Archigram, Buckminster Fuller, Cedric Price, or Yona Friedman and critical theory on new materialism, (D. Haraway 1997, K. Barad 1998, J. Bennett 2007) sociological, philosophical (B. Latour 2005, G.Deleuze F., Guattari F 1987) and phenomenological thinkers (L. Malafouris 2005, J.Rancière 2004, B. Massumi 2002, N. Bourriaud 2002 , M. Merleau-Ponty 1963) this research investigates the cultural and social rootedness (Verortung) of novel materials and technologies, exploring in between prosthetic relations between the body and the environment.
Generative Design Software - How does digitalization change the professional profile of architects
(2019)
Abstract, Poster und Vortrag
Ein Beitrag zum Beobachterentwurf und zur sensorlosen Folgeregelung translatorischer Magnetaktoren
(2020)
Untersuchung und Darstellung der Qualitätsveränderung von Agrarprodukten während der Trocknung
(2019)
Das Ziel der Arbeit war es optimale Trocknungsprozesse für verschiedene Agrarprodukte zu finden. Dazu wurden die Qualitätskriterien frischer und getrockneter Agrarprodukte analysiert und die Veränderungen durch die unterschiedlichen Trocknungsparameter, wie Luftgeschwindigkeit, Taupunkttemperatur, Trocknungstemperatur und –zeit dargestellt. In einer Literaturrecherche wurden sowohl die Faktoren für die Nachernteverluste und deren Höhe in Industrie- sowie Schwellen- und Entwicklungsländer untersucht. Zudem sind die Agrarprodukte und deren qualitätsbestimmenden Inhaltsstoffe vorgestellt. Auch die Extraktions- sowie die Analyse-Methoden werden aufgezeigt und erklärt. Dabei handelt es sich um die Hochleistungsflüssigkeit- und die Ionenausschlusschromatographie, aber auch um die UV/Vis-Spektroskopie und die Polarimetrie. Des Weiteren wurden während den Trocknungsprozessen mit der integrierten Kamera des Trockners in definierten Zeitabständen Bilder aufgenommen und diese über eine speziell entwickelte Software im Hinblick auf die Farbveränderung und die Schrumpfung der Agrarprodukte untersucht. Die Erstellung und Überprüfung der Versuchsergebnisse fand mittels Statistik-Software statt. Es wurden neue Diagramme, sogenannte Schädigungsdiagramme, eingeführt. Dabei handelt es sich um Diagramme, mit deren Hilfe die Identifizierung optimaler Trocknungsprozesse möglich ist. Für Chilis erwies sich eine Trocknungstemperatur von ~ 60 °C, für Kartoffeln von ~ 64 °C bis 74 °C, für Ananas von ~ 43 °C und Mangos von ~ 60 °C als optimal. Auch Taupunkttemperaturen von ~ <12 °C / >27 °C für Chilis, ~ 30 °C für Kartoffeln, ~ 14 °C für Ananas und ~ 20 °C Mangos waren optimal. Die Luftgeschwindigkeit wurde mit rund 1,2 m/s (Kartoffeln: ~ 1.2 m/s; Ananas: ~ 1.2 m/s und Mangos: ~ 0.9 m/s) als optimal befunden. Die Ergebnisse zeigten, dass bei jedem der vier Agrarprodukte die Trocknungstemperatur den größten Effekt auf die Reduzierung der qualitätsbestimmenden Eigenschaften hatte. Bei-spielsweise wurden die Ascorbinsäure, der Gesamtzucker-Gehalt sowie die organischen Säuren mit zunehmender Trocknungstemperatur stärker abgebaut. In Zukunft sollte neben den optimalen Trocknungsbedingungen auch beachtet werden, dass die Größe, Form, und Beschaffenheit der Proben einen entscheidenden Einfluss auf die stationären Trocknungsprozesse haben. Weiter ist es denkbar, instationäre Trocknungsprozesse zum Einsatz zu bringen. Dabei werden zuerst bei hohen Temperaturen die qualitätsreduzierenden Enzyme inaktiviert und anschließend bei geringen Temperatur und damit geringerer thermischer Belastung getrocknet. Weiter sollte darauf geachtet werden, dass Produkte nicht übertrocknen, so dass in Zukunft nur bis knapp unter den maximalen Restfeuchte-Gehalt und nicht wie in dieser Arbeit bis zur Gewichtskonstanz getrocknet wird.
Engineering and management
(2019)