Refine
Year of publication
- 2020 (139) (remove)
Document Type
- Conference Proceeding (47)
- Article (36)
- Report (14)
- Part of a Book (12)
- Book (6)
- Other Publications (6)
- Doctoral Thesis (4)
- Master's Thesis (4)
- Journal (Complete Issue of a Journal) (4)
- Bachelor Thesis (3)
Keywords
- 3D ship detection (1)
- Accelerometers (1)
- Accessible Tourism (1)
- Actions (1)
- Adaptive (1)
- Adivasi (1)
- Agiles Lehren (1)
- Agiles Management (1)
- Apnoe (1)
- Architektur (1)
Institute
- Fakultät Architektur und Gestaltung (4)
- Fakultät Bauingenieurwesen (9)
- Fakultät Elektrotechnik und Informationstechnik (1)
- Fakultät Informatik (20)
- Fakultät Maschinenbau (5)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (13)
- Institut für Angewandte Forschung - IAF (4)
- Institut für Naturwissenschaften und Mathematik - INM (2)
- Institut für Optische Systeme - IOS (8)
- Institut für Strategische Innovation und Technologiemanagement - IST (10)
40 Jahre Neuland des Denkens
(2020)
Vor 40 Jahren erschien Frederic Vesters Hauptwerk „Neuland des Denkens“. Der Beitrag beleuchtet die wesentlichen Themen dieses programmatischen Buches im Hinblick auf Vesters Biokybernetik und deren Anwendung auf zahlreiche aktuelle Fragen in der Nachhaltigkeits-Debatte, z.B. Klimawandel-Problematik und Energiewende.
This work presents a new concept to implement the elliptic curve point multiplication (PM). This computation is based on a new modular arithmetic over Gaussian integer fields. Gaussian integers are a subset of the complex numbers such that the real and imaginary parts are integers. Since Gaussian integer fields are isomorphic to prime fields, this arithmetic is suitable for many elliptic curves. Representing the key by a Gaussian integer expansion is beneficial to reduce the computational complexity and the memory requirements of secure hardware implementations, which are robust against attacks. Furthermore, an area-efficient coprocessor design is proposed with an arithmetic unit that enables Montgomery modular arithmetic over Gaussian integers. The proposed architecture and the new arithmetic provide high flexibility, i.e., binary and non-binary key expansions as well as protected and unprotected PM calculations are supported. The proposed coprocessor is a competitive solution for a compact ECC processor suitable for applications in small embedded systems.
Digitalization is one of the most frequently discussed topics in industry. New technologies, platform concepts and integrated data models do enable disruptive business models and drive changes in organization, processes, and tools. The goal is to make a company more efficient, productive and ultimately profitable. However, many companies are facing the challenge of how to approach digital transformation in a structured way and to realize these potential benefits. What they realize is that Product Lifecycle Management plays a key role in digitalization intends, as object, structure and process management along the life cycle is a foundation for many digitalization use cases. The introduced maturity model for assessing a firm’s capabilities along the product lifecycle has been used almost two hundred times. It allows a company to compare its performance with an industry specific benchmark to reveal individual strengths and weaknesses. Furthermore, an empirical study produced multidimensional correlation coefficients, which identify dependencies between business model characteristics and the maturity level of capabilities.
A conceptual framework for indigenous ecotourism projects – a case study in Wayanad, Kerala, India
(2020)
This paper analyses indigenous ecotourism in the Indian district of Wayanad, Kerala, using a conceptual framework based on a PATA 2015 study on indigenous tourism that includes the criteria: human rights, participation, business and ecology. Detailed indicator sets for each criterion are applied to a case study of the Priyadarshini Tea Environs with a qualitative research approach addressing stakeholders from the public sector, non-governmental organisations, academia, tour operators and communities including Adivasi and non-Adivasi. In-depth interviews were supported by participant and non-participant observations. The authors adapted this framework to the needs of the case study and consider that this modified version is a useful tool for academics and practitioners wishing to evaluate and develop indigenous ecotourism projects. The results show that the Adivasi involved in the Priyadarshini Tea Environs project benefit from indigenous ecotourism. But they could profit more if they had more involvement in and control of the whole tourism value chain.
This paper presents the implementation of deep learning methods for sleep stage detection by using three signals that can be measured in a non-invasive way: heartbeat signal, respiratory signal, and movement signal. Since signals are measurements taken during the time, the problem is seen as time-series data classification. Deep learning methods are chosen to solve the problem are convolutional neural network and long-short term memory network. Input data is structured as a time-series sequence of mentioned signals that represent 30 seconds epoch, which is a standard interval for sleep analysis. The records used belong to the overall 23 subjects, which are divided into two subsets. Records from 18 subjects were used for training the data and from 5 subjects for testing the data. For detecting four sleep stages: REM (Rapid Eye Movement), Wake, Light sleep (Stage 1 and Stage 2), and Deep sleep (Stage 3 and Stage 4), the accuracy of the model is 55%, and F1 score is 44%. For five stages: REM, Stage 1, Stage 2, Deep sleep (Stage 3 and 4), and Wake, the model gives an accuracy of 40% and F1 score of 37%.
Modeling a suitable birth density is a challenge when using Bernoulli filters such as the Labeled Multi-Bernoulli (LMB) filter. The birth density of newborn targets is unknown in most applications, but must be given as a prior to the filter. Usually the birth density stays unchanged or is designed based on the measurements from previous time steps.
In this paper, we assume that the true initial state of new objects is normally distributed. The expected value and covariance of the underlying density are unknown parameters. Using the estimated multi-object state of the LMB and the Rauch-Tung-Striebel (RTS) recursion, these parameters are recursively estimated and adapted after a target is detected.
The main contribution of this paper is an algorithm to estimate the parameters of the birth density and its integration into the LMB framework. Monte Carlo simulations are used to evaluate the detection driven adaptive birth density in two scenarios. The approach can also be applied to filters that are able to estimate trajectories.
Cardiovascular diseases are directly or indirectly responsible for up to 38.5% of all deaths in Germany and thus represent the most frequent cause of death. At present, heart diseases are mainly discovered by chance during routine visits to the doctor or when acute symptoms occur. However, there is no practical method to proactively detect diseases or abnormalities of the heart in the daily environment and to take preventive measures for the person concerned. Long-term ECG devices, as currently used by physicians, are simply too expensive, impractical, and not widely available for everyday use. This work aims to develop an ECG device suitable for everyday use that can be worn directly on the body. For this purpose, an already existing hardware platform will be analyzed, and the corresponding potential for improvement will be identified. A precise picture of the existing data quality is obtained by metrological examination, and corresponding requirements are defined. Based on these identified optimization potentials, a new ECG device is developed. The revised ECG device is characterized by a high integration density and combines all components directly on one board except the battery and the ECG electrodes. The compact design allows the device to be attached directly to the chest. An integrated microcontroller allows digital signal processing without the need for an additional computer. Central features of the evaluation are a peak detection for detecting R-peaks and a calculation of the current heart rate based on the RR interval. To ensure the validity of the detected R-peaks, a model of the anatomical conditions is used. Thus, unrealistic RR-intervals can be excluded. The wireless interface allows continuous transmission of the calculated heart rate. Following the development of hardware and software, the results are verified, and appropriate conclusions about the data quality are drawn. As a result, a very compact and wearable ECG device with different wireless technologies, data storage, and evaluation of RR intervals was developed. Some tests yelled runtimes up to 24 hours with wireless Lan activated and streaming.
We propose and apply a requirements engineering approach that focuses on security and privacy properties and takes into account various stakeholder interests. The proposed methodology facilitates the integration of security and privacy by design into the requirements engineering process. Thus, specific, detailed security and privacy requirements can be implemented from the very beginning of a software project. The method is applied to an exemplary application scenario in the logistics industry. The approach includes the application of threat and risk rating methodologies, a technique to derive technical requirements from legal texts, as well as a matching process to avoid duplication and accumulate all essential requirements.
In this work, we investigate a hybrid decoding approach that combines algebraic hard-input decoding of binary block codes with soft-input decoding. In particular, an acceptance criterion is proposed which determines the reliability of a candidate codeword. For many received codewords the stopping criterion indicates that the hard-decoding result is sufficiently reliable, and the costly soft-input decoding can be omitted. The proposed acceptance criterion significantly reduces the decoding complexity. For simulations we combine the algebraic hard-input decoding with ordered statistics decoding, which enables near maximum likelihood soft-input decoding for codes of small to medium block lengths.
Many resource-constrained systems still rely on symmetric cryptography for verification and authentication. Asymmetric cryptographic systems provide higher security levels, but are very computational intensive. Hence, embedded systems can benefit from hardware assistance, i.e., coprocessors optimized for the required public key operations. In this work, we propose an elliptic curve cryptographic coprocessors design for resource-constrained systems. Many such coprocessor designs consider only special (Solinas) prime fields, which enable a low-complexity modulo arithmetic. Other implementations support arbitrary prime curves using the Montgomery reduction. These implementations typically require more time for the point multiplication. We present a coprocessor design that has low area requirements and enables a trade-off between performance and flexibility. The point multiplication can be performed either using a fast arithmetic based on Solinas primes or using a slower, but flexible Montgomery modular arithmetic.
For a long time, the use of intermediate products in production has been growing more rapidly in most countries than domestic production. This is a strong indication of more interdependency in production. The main purpose of input-output analysis is to study the interdependency of industries in an economy. Often the term interindustry analysis is also used. Therefore, the exchange of intermediate products is a key issue of input-output analysis. We will use input–output data for this study that the author prepared for the new ‘Handbook on Supply, Use and Input–Output Tables with Extensions and Applications’ of the United Nations. The supply use and input–output tables contain separate valuation matrices for trade margins, transport margins, value added tax, other taxes on products and subsidies on products. For the study, two input–output models were developed to evaluate the impact of fuel subsidy and taxation reform on output, gross domestic product, inflation and trade. Six scenarios are discussed covering different aspects of the reform.
This work is a study about a comparison of survey tools and it should help developers in selecting a suited tool for application in an AAL environment. The first step was to identify the basic required functionality of the survey tools used for AAL technologies and to compare these tools by their functionality and assignments. The comparative study was derived from the data obtained, previous literature studies and further technical data. A list of requirements was stated and ordered in terms of relevance to the target application domain. With the help of an integrated assessment method, the calculation of a generalized estimate value was performed and the result is explained. Finally, the planned application of this tool in a running project is explained.
Die Projektaufgabe bestand darin, den aktuellen Laborversuch zu modernisieren, indem die Kommunikation zwischen dem Versuchsaufbau und Laborrechner nicht wie bisher über Wandlerkarten stattfindet, sondern über EtherCAT und TwinCAT 3.
Die Installation von TwinCAT 3 mit den zugehörigen Erweiterungen und erforderlichen Programmen stellt sich als sehr umfangreich und schwierig dar, was die Installationsanleitungen zeigen. Außerdem gab es sehr viele Fehlerquellen, die nicht auf Anhieb ersichtlich waren, wie das Aktualisieren der aktuellen MATLAB Version. Ist die Installation abgeschlossen kann die Kommunikation zwischen MATLAB und TwinCAT relativ einfach umgesetzt werden.
In der Projektarbeit wurde anfangs dann die Kommunikation mit mehreren Tests überprüft und Optimierungen vorgenommen. So wurde zum Beispiel die Wegbegrenzung angepasst. Schwierigkeiten zeigten sich bei der Bedienung über MATLAB oder beim Abstürzen von MATLAB, da beim Stoppen oder Abstürzen von MATLAB, der zuletzt gesendete Wert immer noch an TwinCAT 3 anliegt und somit der Aktor weiter verfahren würde. Diese sehr gefährliche Situation wäre ein gravierender Nachteil, gegenüber der alten Kommunikation mit einer Wandlerkarte. Um einen sicheren Stopp zu garantieren, wird über ein neues TcCOM Objekt der Matlab-Status mit einem Togglebit überprüft, ändert sich der Wert des Bits nicht mehr, stoppt die Anlage sicher.
Um einen Vergleich mit dem bisherigen Masterversuch erhalten zu können, wurde die Strecke mit der neuen Kommunikation untersucht und ein passender Regler dafür auszulegt.
Die Auswertung der Impulsantwort sowie der „Spectrum-Analyse“ zeigten beim Vergleich mit den Schnittstellen gleiche Ergebnisse, somit sind die Versuche bei dem Laborversuch ohne Einschränkungen durchführbar. Die Auslegung des Reglers zeigte entgegen den Prognosen der Beckhoff-Experten sehr gute Ergebnisse und die Kommunikation über die Schnittstelle zeigte keine Probleme.
Einschränkungen zeigten sich jedoch bei der einzustellenden Abtastzeit, da eine Abtastzeit unter 2ms nicht möglich ist. Zwar kann man eine geringere Abtastzeit einstellen, jedoch zeigt sich bei der Auswertung, dass die Schnittstelle mit Abtastzeiten unter 2ms Probleme aufweist. Die Rechendauer wird deutlich größer und die größere Anzahl an Messpunkte kann nicht richtig verarbeitet werden. Ein Regler kann damit nicht implementiert werden.
Die Projektarbeit konnte somit erfolgreich angeschlossen werden und bis auf die aufwendige Installation sind die Erweiterungen von Beckhoff sehr zuverlässig und gut zu bedienen. Die ersten Voruntersuchen waren positiv, somit kann auch an weiteren Laborrechnern eine Umstellung der Schnittstelle in Betracht gezogen werden.
Digital technology and architecture have become inseparable, with new approaches and methodologies not just affecting the workflows and practice of architects but shaping the very character of architecture.
This compendious work offers a wide-ranging orientation to the new landscape with its opportunities, its challenges, and its vast potential.
In diesem Beitrag wird eine Methode des maschinellen Lernens entwickelt, die die Schlafstadienerkennung untersucht. Übliche Methoden der Schlafanalyse basieren auf der Polysomnographie (PSG). Der präsentierte Ansatz basiert auf Signalen, die ausschließlich nicht-invasiv in einer häuslichen Umgebung gemessen werden können. Bewegungs-, Herzschlags- und Atmungssignale können vergleichsweise leicht erfasst werden aber die Erkennung der Schlafstadien ist dadurch erschwert. Die Signale werden als Zeitreihenfolge strukturiert und in Epochen überführt. Die Leistungsfähigkeit von maschinellem Lernen wird der Polysomnographie gegenübergestellt und bewertet.
Im vorliegenden Beitrag wird der Einfluss der Modellierung des Kellergeschosses auf die Querkraft und die Verformungen von im Kellergeschoss eingespannten Stahlbeton‐Aussteifungswänden untersucht. Der Querkraftverlauf der Wand und die Verschiebung am Kopf der Wand werden mit den entsprechenden, am vereinfachten Kragwandmodell ermittelten Werten verglichen, bei dem die Wand auf Höhe der Kellerdecke voll eingespannt ist und die Weiterleitung der Schnittkräfte im Kellergeschoss nicht näher betrachtet wird. Für die Berücksichtigung des Kellergeschosses wird zunächst eine gelenkige Festhaltung durch die Kellerdecke und die Bodenplatte betrachtet, wodurch sich eine unrealistisch große Wandquerkraft im Kellergeschoss ergibt. Danach wird ein verfeinertes Modell mit Teileinspannung in der Bodenplatte und nachgiebiger Halterung durch die Kellerdecke untersucht. Es werden Empfehlungswerte für die Federkonstante der Drehfeder auf Höhe der Bodenplatte und der horizontalen Translationsfeder auf Höhe der Kellerdecke angegeben, die in der Praxis Anwendung finden können. Es wird besonders der Frage nachgegangen, welche Einflüsse die Berücksichtigung des Kellergeschosses bei der Erdbebenbemessung der Aussteifungswände hat. Dabei wird einerseits die Systemsteifigkeit, von der die Erdbebenersatzlasten abhängen, und andererseits die mögliche Verschiebungsduktilität, von der der mögliche Verhaltensbeiwert q abhängt, betrachtet.
What drives entrepreneurial action to create a lasting impact? The creation of new ventures that aim at having an impact beyond their financial performance face additional challenges: achieving economic sustainability and at the same time addressing social or environmental issues. Little is known on how these new hybrid organizations, aiming for multiple impact dimensions, manage to be congruent with their blended values. A dataset of 4,125 early-stage ventures is used to gain insights into how blended values are converted into financial, social and environmental impacts, giving shape to different types of hybrid organizations. Our findings suggest new hybrid organizations might opt to sacrifice financial impact to achieve social impact, yet this is not the case when they aim to generate environmental or sustainable impact. Therefore, the tensions and sacrifices related to holding blended values are not homogeneous across all types of new hybrid organizations.
Dieses besondere Lehrbuch führt in die Berechnung von Verbrennungsmotoren ein, geht dabei von aktuellen Fragestellungen z. B. zur Fahrzeugdynamik oder Motorthermodynamik aus und stellt bei der Lösung die notwendige Theorie mit bereit. Damit auch Quereinsteiger erfolgreich sind, ist in einem Verzeichnis aufgeführt, welche theoretischen Kenntnisse man für die Lösung der jeweiligen Aufgabe benötigt und in welchem Abschnitt des Buches diese hergeleitet werden. Alle Berechnungen werden in Excel durchgeführt.
In der vorliegenden Auflage wurden aktuelle Beispiele zur Motoreffizienz, zum Motorkennfeld, zur Lastpunktanhebung, zum Fahrzyklus WLTC und zu realen Fahrzyklen (RDE) ergänzt.
Der Inhalt:
- Fahrwiderstand und Motorleistung
- Kraftstoffe und Stöchiometrie
- Motorleistung und Mitteldruck
- Motorthermodynamik
- Motormechanik
- Fahrzeugdynamik
- Hybrid- und Elektrofahrzeuge
- Aufladung von Verbrennungsmotoren
Die Zielgruppen:
Studierende des Maschinenbaus und der Kfz-Technik an Hochschulen in Bachelor- und Masterstudiengängen; Motoreningenieure, die sich mit verbrennungsmotorischen Fragestellungen beschäftigen; Absolventen von Weiterbildungskursen auf Meisterniveau
Der Autor Dr.-Ing. Klaus Schreiner ist Professor an der HTWG Konstanz und Leiter des Labors für Verbrennungsmotoren in der Fakultät Maschinenbau. Er war viele Jahre lang Didaktikbeauftragter seiner Hochschule. Im Jahr 2008 erhielt er den Lehrpreis des Landes Baden-Württemberg.