Refine
Year of publication
Document Type
- Conference Proceeding (642)
- Article (429)
- Other Publications (143)
- Part of a Book (141)
- Working Paper (128)
- Book (118)
- Report (115)
- Journal (Complete Issue of a Journal) (85)
- Master's Thesis (77)
- Doctoral Thesis (58)
- Bachelor Thesis (44)
- Study Thesis (10)
- Patent (7)
- Preprint (4)
- Course Material (2)
- Journal (2)
- Moving Images (1)
Language
- German (1115)
- English (883)
- Multiple languages (8)
Keywords
Institute
- Fakultät Architektur und Gestaltung (41)
- Fakultät Bauingenieurwesen (105)
- Fakultät Elektrotechnik und Informationstechnik (34)
- Fakultät Informatik (121)
- Fakultät Maschinenbau (60)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (106)
- Institut für Angewandte Forschung - IAF (115)
- Institut für Naturwissenschaften und Mathematik - INM (3)
- Institut für Optische Systeme - IOS (40)
- Institut für Strategische Innovation und Technologiemanagement - IST (60)
Flamenco und Tango gehören zu den ersten Assoziationen, mit denen Sevilla und Buenos Aires in Verbindung gebracht werden. Seit der Entstehung beider Kunstformen im 19. Jahrhundert entwickelte sich kontinuierlich ein Tanztourismus, der bis heute zu ausdifferenzierten Geschäftsmodellen führte. Flamenco und Tango erlangten als immaterielles Weltkulturerbe außerdem erhebliche Bedeutung für das Destinationsimage der beiden Städte. Das Modell von Gereffi et al. (2005) zu «Governance of Global Value Chains» wird in adaptierter Form auf Flamenco- und Tangotanztourismus angewendet, um Bedeutungsdimensionen im Destinationsmanagement herauszuarbeiten.
Die durch den Klimawandel verursachten Auswirkungen und die daraus resultierende Betroffenheit nehmen stetig zu, dennoch ist das Bewusstsein für den Klimaschutz noch immer stärker verankert als das für die Klimaanpassung. Letztere sollte jedoch zum Schutz der Gesundheit der Bevölkerung und bestehender Infrastruktur mehr in das Bewusstsein rücken.
Die vorliegende Arbeit befasst sich mit der Frage, wie Städte widerstandsfähiger gegenüber den Folgen des Klimawandels werden können. Dazu werden die Prozesse der Stadtplanung auf diesen Kontext bezogen untersucht.
Um die Prozesse abzubilden, wird zunächst eine Übersicht über allgemeine Handlungsmöglichkeiten gegeben, bevor die Stadt Konstanz genauer betrachtet wird und die Ergebnisse, der dort geführten Experteninterviews ausgewertet werden. Mitarbeiter der Stadtverwaltung wurden in diesem Rahmen nach ihren Erfahrungen, bestehenden Prozessen und notwendigen Veränderungen befragt. Im letzten Schritt wurde der Untersuchungsraum erweitert, um Erfahrungen aus Städten, die bereits aktiv Klimaanpassung umsetzen, einzubringen. Aus diesen Ergebnissen werden Handlungsempfehlungen für die Klimaanpassung abgeleitet und beschrieben.
Geothermie
(2012)
Auf Basis der Auswertung bestehender internationaler Studien zur Wirtschaftskriminalität und zum Compliance- und Integrity-Management von Umfrageinstituten und Beratungshäusern ist es das Ziel dieser Studie, einen Überblick zu den generischen Compliance-Risiken sowie Risiken, die sich mit Blick auf die Einhaltung von Organisationspflichten auftun, zu geben.
Von besonderem Interesse ist dabei die Analyse der größten Risiken für Unternehmen unterschiedlicher Organisationskomplexität. Für die komparative Analyse wurden bereits durchgeführte und veröffentlichte Studien einschlägiger Herausgeber herangezogen, deren inhaltlicher Fokus der Befragung den Bereichen Wirtschaftskriminalität, Compliance-Management, Ethics- und Integrity-Management zuzuordnen sind.
Im Nachfolgenden werden die einzelnen Studien zunächst kurz vorgestellt und in einem weiteren Schritt die wesentlichen Studien-Ergebnisse zu den Fallzahlen, entstandenen Schäden und Tätern bezüglich Compliance-Verstößen im Unternehmen, den wahrgenommenen Compliance-Risiken und besonders betroffenen Unternehmensbereichen untersucht. Abschließend werden die erhobenen Daten zusammenfassend bewertet. Der Untersuchung der Primärdaten aus den Studien vorangestellt ist eine definitorische Annäherung an den Risiko-Begriff im Allgemeinen und an den Begriff des Compliance-Risikos im Speziellen.
Generative Design Software - How does digitalization change the professional profile of architects
(2019)
Abstract, Poster und Vortrag
Generating synthetic data is a relevant point in the machine learning community. As accessible data is limited, the generation of synthetic data is a significant point in protecting patients' privacy and having more possibilities to train a model for classification or other machine learning tasks. In this work, some generative adversarial networks (GAN) variants are discussed, and an overview is given of how generative adversarial networks can be used for data generation in different fields. In addition, some common problems of the GANs and possibilities to avoid them are shown. Different evaluation methods of the generated data are also described.
This letter proposes two contributions to improve the performance of transmission with generalized multistream spatial modulation (SM). In particular, a modified suboptimal detection algorithm based on the Gaussian approximation method is proposed. The proposed modifications reduce the complexity of the Gaussian approximation method and improve the performance for high signal-to-noise ratios. Furthermore, this letter introduces signal constellations based on Hurwitz integers, i.e., a 4-D lattice. Simulation results demonstrate that these signal constellations are beneficial for generalized SM with two active antennas.
This paper proposes a novel transmission scheme for generalized multistream spatial modulation. This new approach uses one Mannheim error correcting codes over Gaussian or Eisenstein integers as multidimensional signal constellations. These codes enable a suboptimal decoding strategy with near maximum likelihood performance for transmission over the additive white Gaussian noise channel. In this contribution, this decoding algorithm is generalized to the detection for generalized multistream spatial modulation. The proposed method can outperform conventional generalized multistream spatial modulation with respect to decoding performance, detection complexity, and spectral efficiency.
In this letter, we present an approach to building a new generalized multistream spatial modulation system (GMSM), where the information is conveyed by the two active antennas with signal indices and using all possible active antenna combinations. The signal constellations associated with these antennas may have different sizes. In addition, four-dimensional hybrid frequency-phase modulated signals are utilized in GMSM. Examples of GMSM systems are given and computer simulation results are presented for transmission over Rayleigh and deep Nakagami- m flat-fading channels when maximum-likelihood detection is used. The presented results indicate a significant improvement of characteristics compared to the best-known similar systems.
Code-based cryptography is a promising candidate for post-quantum public-key encryption. The classic McEliece system uses binary Goppa codes, which are known for their good error correction capability. However, the key generation and decoding procedures of the classic McEliece system have a high computation complexity. Recently, q-ary concatenated codes over Gaussian integers were proposed for the McEliece cryptosystem together with the one-Mannheim error channel, where the error values are limited to Mannheim weight one. For this channel, concatenated codes over Gaussian integers achieve a higher error correction capability than maximum distance separable (MDS) codes with bounded minimum distance decoding. This improves the work factor regarding decoding attacks based on information-set decoding. This work proposes an improved construction for codes over Gaussian integers. These generalized concatenated codes extent the rate region where the work factor is beneficial compared to MDS codes. They allow for shorter public keys for the same level of security as the classic Goppa codes. Such codes are beneficial for lightweight code-based cryptosystems.
Generalized Concatenated Codes over Gaussian and Eisenstein Integers for Code-Based Cryptography
(2021)
The code-based McEliece and Niederreiter cryptosystems are promising candidates for post-quantum public-key encryption. Recently, q-ary concatenated codes over Gaussian integers were proposed for the McEliece cryptosystem together with the one-Mannheim error channel, where the error values are limited to Mannheim weight one. Due to the limited error values, the codes over Gaussian integers achieve a higher error correction capability than maximum distance separable (MDS) codes with bounded minimum distance decoding. This higher error correction capability improves the work factor regarding decoding attacks based on information-set decoding. The codes also enable a low complexity decoding algorithm for decoding beyond the guaranteed error correction capability. In this work, we extend this coding scheme to codes over Eisenstein integers. These codes have advantages for the Niederreiter system. Additionally, we propose an improved code construction based on generalized concatenated codes. These codes extent the rate region where the work factor is beneficial compared to MDS codes. Moreover, generalized concatenated codes are more robust against structural attacks than ordinary concatenated codes.
In der vorliegenden Arbeit wird eine Vorlage für ein generalisiertes Betonfertigteil-Tracking für die Bauindustrie geschaffen. In dem ersten der vier Kapitel wird zuerst der Prozess des Fertigteil-Trackings dargestellt. Dieser wird anhand von Experteninterviews modifiziert und es wird ein Standardprozess als Vorlage präsentiert. Dieser Standardprozess soll für projektspezifische Wünsche modular erweiterbar sein. Hierfür werden Vorteile, Probleme und Verbesserungswünsche der Anwender eingearbeitet. Um den Prozess auf die gesamte Baubranche erweitern zu können, werden die softwaretechnischen Voraussetzungen für eine Standardschnittstelle der Fertigteil-Werke analysiert. Um Probleme bei der Implementierung und Durchführung des Trackings zu verhindern, werden die Partikularinteressen aller Beteiligten analysiert. Die Ergebnisse werden aus Experteninterviews generiert sowie durch Literaturrecherche und die eigenen Erfahrungen bei der Implementierung des Fertigteil-Trackings auf der Baustelle Telekom Areal der Ed. Züblin AG ergänzt.
Genera
(2003)
Diplomarbeit „Genera“ Ralph J. Schiel Erstbetreuung: Professor Bernd Jahnke Co-Betreuung: Andreas Bechtold Kommunikationsdesign HTWG Konstanz, SS 2003 Thema Die Diplomarbeit „Genera“ beschäftigt sich mit Interaktions- und Interfacedesign für eine Multimedia Home Plattform (MHP). Diese Plattform stellt eine Verbindung von Internet, Radio,TV, LAN-Netzwerken, , Computer, Hi-Fi und Telefonanlage dar. Die Entwicklung geht hierbei weg von verschiedenen Medien mit unterschiedlichsten Formaten, hin zu einer einzigen Gerätschaft, welche alle Komponenten beinhaltet. Am Beispiel des multimedialen Computerspiels „Genera“ wird eine zukünftige Nutzungsform dieses Mediums aufgezeigt. Tragende Elemente sind hierbei Film, Videospiel, Videoclips, Media Art, Internet und Hyperstrukturen. Die Einsatzbereiche liegen u.a. in den Bereichen Bildung, Wissenschaft und Forschung, Projekt Management und Unterhaltung. Der Benutzer eignet sich Kompetenzen bezüglich innovativer Nutzungs- und Kombinationsformen von Medien an. Durch verant-wortungsvolles Informations Knowledge und - Management erhält er die nötigen Voraussetzungen, um im stattfindenden Digital Devide bestehen zu können. Der Benutzer interagiert in den zunehmend verschmelzenden Dimensionen von Realität und Virtualität.
Gefahrstoff Asbest
(2010)
Das vorliegende Heft wendet sich an Bauherren, Architekten, Ingenieure und Beauftragte, die mit Sanierungs- und Rückbauarbeiten und mit der Entsorgung von asbesthaltigen Bau- und Werkstoffen betraut sind. Es informiert über Gesundheitsgefahren, gesetzliche Regelungen und die Technologie zur Entsorgung von asbesthaltigen Bauprodukten in älteren Gebäuden.
Gamification is one of the recognized methods of motivating people in various life processes, and it has spread to many spheres of life, including healthcare. This article proposes a system design for long-term care patients using the method mentioned. The proposed system aims to increase patient engagement in the treatment and rehabilitation process via gamification. Literature research on available and earlier proposed systems was conducted to develop a suited system design. The primary target group includes bedridden patients and a sedentary lifestyle (predominantly lying in bed). One of the main criteria for selecting a suitable option was its contactless realization for the mentioned target groups in long-term care cases. As a result, we developed the system design for hardware and software that could prevent bedsores and other health problems from occurring because of low activity. The proposed design can be tested in hospitals, nursing homes, and rehabilitation centers.
Für mehr Qualität am Bau
(2018)
Compliance wirkt, wenn sie in den Köpfen der Menschen ankommt – und wenn sie adaptiv die Themen der Zeit aufgreift.
Eine Führungskräftebefragung der Kommunikationsagentur A&B One, unterstützt vom Zentrum für Wirtschaftsethik (ZfW), zeichnet hierzu ein aktuelles Bild der wichtigen Zielgruppe “Management”. Der Beitrag skizziert die Sicht von Führungsverantwortlichen aller Ebenen auf die viel diskutierte unternehmerische Verantwortung, auf die Wirksamkeit von Compliance-Maßnahmen und auf Compliance-Risiken im Homeoffice. Er gibt Impulse für die Praxis: von Synergien zwischen Purpose und Integrität bis hin zur Förderung von Regelbewusstsein beim (coronabedingten) Remote Working.
In this article, the collection of classes of matrices presented in [J. Garloff, M. Adm, ad J. Titi, A survey of classes of matrices possessing the interval property and related properties, Reliab. Comput. 22:1-14, 2016] is continued. That is, given an interval of matrices with respect to a certain partial order, it is desired to know whether a special property of the entire matrix interval can be inferred from some of its element matrices lying on the vertices of the matrix interval. The interval property of some matrix classes found in the literature is presented, and the interval property of further matrix classes including the ultrametric, the conditionally positive semidefinite, and the infinitely divisible matrices is given for the first time. For the inverse M-matrices the cardinality of the required set of vertex matrices known so far is significantly reduced.
Further applications of the Cauchon algorithm to rank determination and bidiagonal factorization
(2018)
For a class of matrices connected with Cauchon diagrams, Cauchon matrices, and the Cauchon algorithm, a method for determining the rank, and for checking a set of consecutive row (or column) vectors for linear independence is presented. Cauchon diagrams are also linked to the elementary bidiagonal factorization of a matrix and to certain types of rank conditions associated with submatrices called descending rank conditions.
In this paper we propose a method to determine the active speaker for each time-frequency point in the noisy signals of a microphone array. This detection is based on a statistical model where the speech signals as well as noise signals are assumed to be multivariate Gaussian random variables in the Fourier domain. Based on this model we derive a maximum-likelihood detector for the active speaker. The decision is based on the a posteriori signal to noise ratio (SNR) of a speaker dependent max-SNR beamformer.
Bei der Untersuchung und Beurteilung von realen Bauteilen ist es häufig notwendig, diese in Teilbauteile zu unterteilen. Dieses Zerlegen bzw. Freischneiden ist im Normalfall der Beginn jeder Aufgabe. Es verlangt wenig Theorie, stellt aber in der Praxis häufig eine große Schwierigkeit dar. Daher werden in diesem Lehrbuch nicht nur die einzelnen Teilfragen der Festigkeitslehre betrachtet, sondern aufgezeigt, wie der ganze Prozess von der Aufgabenstellung über das Freischneiden bis zur Bestimmung von Spannungen und Verformungen zu durchlaufen ist. Die angewandten Methoden orientieren sich an den Inhalten, die in einer Vorlesung Technischer Mechanik behandelt werden.
Die Berechnungsformeln und ihre praktischen Anwendungen werden vorgestellt, wobei die Anwendung im Vordergrund steht. Durch zahlreiche Beispiele und ungefähr hundert Übungsaufgaben mit dokumentierten Lösungswegen soll der Leser die Vorgehensweisen nachvollziehen und auf eigene Aufgabenstellungen übertragen können.
In this article, we give the construction of new four-dimensional signal constellations in the Euclidean space, which represent a certain combination of binary frequency-shift keying (BFSK) and M-ary amplitude-phase-shift keying (MAPSK). Description of such signals and the formulas for calculating the minimum squared Euclidean distance are presented. We have developed an analytic building method for even and odd values of M. Hence, no computer search and no heuristic methods are required. The new optimized BFSK-MAPSK (M = 5,6,···,16) signal constructions are built for the values of modulation indexes h =0.1,0.15,···,0.5 and their parameters are given. The results of computer simulations are also provided. Based on the obtained results we can conclude, that BFSK-MAPSK systems outperform similar four-dimensional systems both in terms of minimum squared Euclidean distance and simulated symbol error rate.
Four-Dimensional Hurwitz Signal Constellations, Set Partitioning, Detection, and Multilevel Coding
(2021)
The Hurwitz lattice provides the densest four-dimensional packing. This fact has motivated research on four-dimensional Hurwitz signal constellations for optical and wireless communications. This work presents a new algebraic construction of finite sets of Hurwitz integers that is inherently accompanied by a respective modulo operation. These signal constellations are investigated for transmission over the additive white Gaussian noise (AWGN) channel. It is shown that these signal constellations have a better constellation figure of merit and hence a better asymptotic performance over an AWGN channel when compared with conventional signal constellations with algebraic structure, e.g., two-dimensional Gaussian-integer constellations or four-dimensional Lipschitz-integer constellations. We introduce two concepts for set partitioning of the Hurwitz integers. The first method is useful to reduce the computational complexity of the symbol detection. This suboptimum detection approach achieves near-maximum-likelihood performance. In the second case, the partitioning exploits the algebraic structure of the Hurwitz signal constellations. We partition the Hurwitz integers into additive subgroups in a manner that the minimum Euclidean distance of each subgroup is larger than in the original set. This enables multilevel code constructions for the new signal constellations.
Today’s markets are characterized by fast and radical changes, posing an essential challenge to established companies. Startups, yet, seem to be more capable in developing radical innovations to succeed in those volatile markets. Thus, established companies started to experiment with various approaches to implement startup-like structures in their organization. Internal corporate accelerators (ICAs) are a novel form of corporate venturing, aiming to foster bottom-up innovations through intrapreneurship. However, ICAs still lack empirical investigations. This work contributes to a deeper understanding of the interface between the ICA and the core organization and the respective support activities (resource access and support services) that create an innovation-supportive work environment for the intrapreneurial team. The results of this qualitative study, comprising 12 interviews with ICA teams out of two German high-tech companies, show that the resources provided by ICAs differ from the support activities of external accelerators. Further, the study shows that some resources show both supportive as well as obstructive potential for the intrapreneurial teams within the ICA.
Forum - Ausgabe 2016
(2016)
Forum - Ausgabe 2015
(2015)
Forum - Ausgabe 2014
(2014)
Forum - Ausgabe 2013/2014
(2014)
Forum - Ausgabe 2012/2013
(2013)
Forum - Ausgabe 2011/2012
(2012)
Forum - Ausgabe 2010/2011
(2011)
Forum - Ausgabe 2009/2010
(2010)
Forum - Ausgabe 2008/2009
(2009)
Forum - Ausgabe 2007/2008
(2008)
Forum - Ausgabe 2006/2007
(2007)
Forum - Ausgabe 2005/2006
(2006)
Forum - Ausgabe 2004/2005
(2005)
Forum - Ausgabe 2003/2004
(2004)
Forum - Ausgabe 2002
(2003)
Formgedächtnislegierungen
(2018)
Formgedächtnislegierungen sind »Legierungen, die nach geeigneter Behandlung aufgrund einer martensitischen Umwandlung ihre Gestalt in Abhängigkeit von der Temperatur ändern«. Derartige Materialien werden in den nächsten Jahrzehnten eine wachsende Rolle in der Technik spielen. Um die Eigenschaften dieser Werkstoffe optimal nutzen zu können, ist es wichtig, den Einfluss des Herstellungs- und Verarbeitungsprozesses auf ihre Anwendung zu kennen.
Das Buch behandelt die metallkundlichen Hintergründe und die Verwendungsmöglichkeiten der Formgedächtnislegierungen in verständlicher, auf den Anwender zugeschnittener Weise.
Ziel dieses Projektes war die Entwicklung eines Linearantriebes mittels Formge-dächtnislegierungen (FGL) zur Knochenverlängerung und Defektüberbrückung ent-sprechend der Methode nach Betz und Baumgart. Der zu entwickelnde Linearantrieb sollte im Idealfall folgende Eigenschaften aufweisen: • mechanisch einfach aufgebaut • leicht zu miniaturisieren • großer Arbeitsweg • variable Positionierung • hohe Leistung • kostengünstig Zur Entwicklung eines derartigen FG-Marknagels sollten die folgenden Teilprobleme gelöst werden: • Auswahl einer geeigneten FGL zur Realisierung der benötigten Kräfte innerhalb der möglichen Temperaturdifferenz • Auswahl der Heizspirale und Messung der Aufheiztemperaturen an der Marknagel-oberfläche • Ausarbeiten der konstruktiven Lösung hinsichtlich der ermittelten Werte bezüglich des Verhältnisses Kraft/Weg • Werkstoffauswahl hinsichtlich der Implantierbarkeit, der Schweißbarkeit mit Laser und der Aufheizung • Mechanische Sicherung (Arretiermechanismus) bei Belastung der Extremität durch den Patienten und Entwicklung eines Rückstellmechanismus • Verbindungstechnik der Komponenten • Erprobung der entwickelten Prototypen in Labortests
Die vorliegende Studie untersucht den Einfluss des Klimawandels auf den Transport massengutaffiner Unternehmen in Baden-Württemberg sowie mögliche Anpassungsmaßnahmen. In einem ersten Schritt wurden dabei verschiedene Literatur- und Datenanalysen zu den Auswirkungen des Klimawandels auf Baden-Württemberg, seine (massengutaffinen) Unternehmen sowie die von diesen verwendeten Verkehrsträger durchgeführt. Daten zum Klimawandel werden dabei aus vorangegangenen Studien entnommen, unter anderem den breit angelegten Untersuchungen des KLIWAS Projekts, aus dem auch einige Eingangsdaten für das hier verwendete Vulnerabilitätsmodells stammen. Um die Vulnerabilität und Anpassungsmöglichkeiten der Unternehmen mittels des genannten Modells zu untersuchen werden weitere, unternehmensspezifische Daten benötigt, die durch eine Unternehmensbefragung erhoben wurden. Insgesamt wurden etwa 400 Unternehmen direkt angeschrieben; durch den Versand der Fragebögen durch Wirtschaftsverbände wurde der Kreis der befragten Unternehmen nochmals erweitert. Bei den an der Befragung teilnehmenden Unternehmen hatte das Binnenschiff mit etwa 30% im Schnitt einen deutlich höheren Transportanteil als die Bahn mit im Durchschnitt knapp 8%. Dies kann als Indikator für die wahrgenommene Betroffenheit durch den Klimawandel interpretiert werden, die zur Teilnahme an der Befragung motivierte.
Flooded Edge Gateways
(2019)
Increasing numbers of internet-compatible devices, in particular in the context of IoT, usually cause increasing amounts of data. The processing and analysis of a continuously growing amount of data in real-time by means of cloud platforms cannot be guaranteed anymore. Approaches of Edge Computing decentralize parts of the data analysis logics towards the data sources in order to control the data transfer rate to the cloud through pre-processing with predefined quality-of-service parameters. In this paper, we present a solution for preventing overloaded gateways by optimizing the transfer of IoT data through a combination of Complex Event Processing and Machine Learning. The presented solution is completely based on open-source technologies and can therefore also be used in smaller companies.
Flatness-based feed-forward control of solenoid actuators is considered. For precise motion planning and accurate steering of conventional solenoids, eddy currents cannot be neglected. The system of ordinary differential equations including eddy currents, that describes the nonlinear dynamics of such actuators, is not differentially flat. Thus, a distributed parameter approach based on a diffusion equation is considered, that enables the parametrization of the eddy current by the armature position and its time derivatives. In order to design the feedforward control, the distributed parameter model of the eddy current subsystem is combined with a typical nonlinear lumped parameter model for the electrical and mechanical subsystems of the solenoid. The control design and its application are illustrated by numerical and practical results for an industrial solenoid actuator.
FishNet
(2016)
In diesem Beitrag wird der finnische Tangotanztourismus
unter Berücksichtigung des Konzeptes des verkörperten Raumes (Low 2003) und des Raumverständnisses von Lefebvre (1991) auf den vielschichtig miteinander verbundenen Ebenen von Körper, Kultur und Raum analysiert. Die finnische „Kultur der Schweigsamkeit“ wird in diesem Zusammenhang im Besonderen
betrachtet. Methodisch werden hierbei sowohl Interviews mit Expertinnen und Experten, teilnehmende Beobachtung als auch die Auswertung von Filmmaterial herangezogen. Im Ergebnis zeigen sich vielfältige Wechselwirkungen von Körper, Kultur und Raum, die zusätzlich Potenziale für den finnischen Tangotanztourismus
aufzeigen.
Finite-Element-Methode
(2016)
We analyse the results of a finite element simulation of a macroscopic model, which describes the movement of a crowd, that is considered as a continuum. A new formulation based on the macroscopic model from Hughes [2] is given. We present a stable numerical algorithm by approximating with a viscosity solution. The fundamental setting is given by an arbitrary domain that can contain several obstacles, several entries and must have at least one exit. All pedestrians have the goal to leave the room as quickly as possible. Nobody prefers a particular exit.
With the increased deployment of biometric authentication systems, some security concerns have also arisen. In particular, presentation attacks directed to the capture device pose a severe threat. In order to prevent them, liveness features such as the blood flow can be utilised to develop presentation attack detection (PAD) mechanisms. In this context, laser speckle contrast imaging (LSCI) is a technology widely used in biomedical applications in order to visualise blood flow. We therefore propose a fingerprint PAD method based on textural information extracted from pre-processed LSCI images. Subsequently, a support vector machine is used for classification. In the experiments conducted on a database comprising 32 different artefacts, the results show that the proposed approach classifies correctly all bona fides. However, the LSCI technology experiences difficulties with thin and transparent overlay attacks.
Botswana, a new construction project – the Maun Science Park - is to be built with a focus on sustainability and to create a new living space for the rapidly growing population in Africa. The project will be a blueprint for future projects in Africain terms of progress, technology and sustainability. This thesis will deal with its financial framework and will serve as a basis for the development of ways and means of financing such projects.
fhk-Journal. Heft 2, 2002
(2002)
fhk forum - Ausgabe 2001
(2002)
Ziel der Masterarbeit war es, die Feuchtigkeitseigenschaften von Estrichen bei unterschiedlichen Klimaten mithilfe von Sorptionsisothermen zu charakterisieren. Die wenigen Literaturangaben zu Sorptionsisothermen von mineralischen Estrichen beziehen sich im Wesentlichen auf Calciumsulfatestriche und genormte Zementestriche (ohne dass die Zementart: Portlandzemente, Hochofenzemente bzw. CEM I, CEM II, CEM III etc. unterschieden werden) und i.d.R. nur auf eine Lufttemperatur (= 20 Grad C). Anliegen der Arbeit war es, zusätzlich die seit ca. 20 Jahren marktüblichen ternären Schnellzemente mit zu untersuchen und die baupraktisch interessanten Temperaturen von 15 Grad C und 25 Grad C einzubeziehen. Ebenso wurden die Auswirkungen der Klimabedingung auf der Baustelle (Jahreszeit, Luftfeuchtigkeit, Temperatur) auf den Hydratationsvorgang der Estriche untersucht. Dabei wurden jeweils nicht nur ein Vertreter der verschiedenen Bindemittelsysteme, sondern mindestens zwei verschiedene Estriche unterschiedlicher Hersteller mit einbezogen. In Kombination mit den Ergebnissen der Gefügeuntersuchungen (u. a. Hg-Porosametrie) wird belegt, weshalb sich die zement- und schnellzementgebundenen Estriche vollkommen anders verhalten als die calciumsulfatgebundenen Estriche. Dieses unterschiedliche Verhalten ist auch einer der Gründe, warum Estriche mit der KRL-Methode in Bezug auf ihren Feuchtegehalt nicht bewertet werden können. Aus diesem Grund folgt ein Vergleich der Materialfeuchtemessungen "KRL-Methode" mit der handwerksüblichen und seit Jahrzehnten in der Praxis bewährten "CM-Methode".
Die wenigen Literaturangaben zu Sorptionsisothermen von mineralischen Estrichen beziehen sich im Wesentlichen auf Calciumsulfatestriche und genormte Zementestriche, sowie i.d.R. nur auf eine festgesetzte Lufttemperatur (= 20 Grad C). Daher war es das Anliegen der im Beitrag beschriebenen Untersuchung, die Feuchtigkeitseigenschaften von Estrichen bei unterschiedlichen Klimaten mithilfe von Sorptionsisothermen zu charakterisieren. Ergänzend sollten die seit ca. 20 Jahren marktüblichen ternären Schnellzemente mit untersucht und die baupraktisch interessanten Temperaturen von 15 Grad C und 25 Grad C einbezogen werden. Ebenso wurden die Auswirkungen der Klimabedingungen auf der Baustelle (Jahreszeit, Luftfeuchtigkeit, Temperatur) auf den Hydratationsvorgang der Estriche untersucht. In Kombination mit den Ergebnissen der Gefügeuntersuchungen (u.a. Hg-Porosimetrie) wird belegt, weshalb sich die zement- und schnellzementgebundenen Estriche vollkommen anders verhalten als die calciumsulfatgebundenen Estriche. Dieses unterschiedliche Verhalten ist auch einer der Gründe, warum Estriche mit der KRL-Methode in Bezug auf ihren Feuchtegehalt nicht bewertet werden können. Deshalb folgt ein Vergleich der Materialfeuchtemessungen "KRL-Methode" mit der handwerksüblichen und seit Jahrzehnten in der Praxis bewährten "CM-Methode".
„Nackte Tatsachen genügen nicht, um den Leser bis zum Schluss bei der Stange zu halten. [Auch der] Verfasser von [Fach- und] Sachtexten hat das Recht – wenn nicht gar die Pflicht –, die Wunder der Erzählkunst für sich zu erschließen, um seine Texte zu einer interessanten und vergnüglichen Lektüre zu machen.“ – Der Vortrag geht der Frage nach, ob diese Forderung des vielgelesenen Ratgeberautors Sol Stein berechtigt ist und inwiefern sie eingelöst werden kann. Zu diesem Zweck werden Stil- und Kompositionsmittel aus den Bereichen Lexik, Grammatik, Syntax, Stilistik, Erzählstrategie und Textorganisation anhand von Formulierungsbeispielen vorgestellt und auf ihre Funktion in Erzählliteratur oder Journalismus hin untersucht. In einem zweiten Schritt wird jeweils nach der Übertragbarkeit dieser sprachlichen Mittel auf Fachtexte gefragt. Anhand parallel ausgerichteter Beispiele wird eine mögliche verlagerte Funktion im Wissenschaftskontext skizziert. Der erhoffte Erkenntnisgewinn des Vortrags betrifft sowohl das Verfassen eigener Publikationen als auch die Vermittlung von Schreibfähigkeiten für künftige Fachautor*innen, weshalb die Formulierungsbeispiele verschiedensten, auch technischen und naturwissenschaftlichen Domänen entnommen sind.
(Literaturangabe: Stein, Sol: Über das Schreiben [1995], dt. Waltraud Götting, 10. Aufl., Zweitausendeins, Frankfurt a. M., 2006, zit. S. 49)
Im Beitrag wird erörtert, welche Rolle der schriftlichen Fehlerkorrektur im studienbegleitenden und -vorbereitenden Deutschunterricht zukommt. Dazu wird ein Überblick über den Stand der Forschung gegeben und eine Studie zur Fehlerkorrektur mit fortgeschrittenen Lernenden vorgestellt, in der die Wirkung einer Fehlerkorrektur am Lernertext überprüft wurde. Die Fehlerkorrektur führte bei der Experimentalgruppe zwar zu einer Reduktion der Fehler in der Überarbeitung, im Vergleich zur Kontrollgruppe aber nicht zu einer signifikanten Verbesserung in einem neuen Text. Um zu eruieren, wie die Lernenden mit der Fehlerkorrektur umgingen, wurde in der Studie außerdem eine qualitative Analyse einzelner Arbeiten vorgenommen. Der Beitrag schließt mit der Frage, welche Rolle eine – nicht sonderlich effektive – Fehlerkorrektur in einer auf Wissenschaftssprache bezogenen Vermittlung einnehmen sollte.
Im Beitrag wird erörtert, welche Rolle der schriftlichen Fehlerkorrektur im studienbegleitenden und -vorbereitenden Deutschunterricht zukommt. Dazu wird ein Überblick über den Stand der Forschung gegeben und eine Studie zur Fehlerkorrektur mit fortgeschrittenen Lernenden vorgestellt, in der die Wirkung einer Fehlerkorrektur am Lernertext überprüft wurde. Die Fehlerkorrektur führte bei der Experimentalgruppe zwar zu einer Reduktion der Fehler in der Überarbeitung, im Vergleich zur Kontrollgruppe aber nicht zu einer signifikanten Verbesserung in einem neuen Text. Um zu eruieren, wie die Lernenden mit der Fehlerkorrektur umgingen, wurde in der Studie außerdem eine qualitative Analyse einzelner Arbeiten vorgenommen. Der Beitrag schließt mit der Frage, welche Rolle eine – nicht sonderlich effektive – Fehlerkorrektur in einer auf Wissenschaftssprache bezogenen Vermittlung einnehmen sollte.
Twenty-first century infrastructure needs to respond to changing demographics, becoming climate neutral, resilient, and economically affordable, while remaining a driver for development and shared prosperity. However, the infrastructure sector remains one of the least innovative and digitalized, plagued by delays, cost overruns, and benefit shortfalls. The authors assessed trends and barriers in the planning and delivery of infrastructure based on secondary research, qualitative
interviews with internationally leading experts, and expert workshops. The analysis concludes that the root-cause of the industry’s problems is the prevailing fragmentation of the infrastructure value chain and a lacking long-term vision for infrastructure. To help overcome these challenges, an integration of the value chain is needed. The authors propose that this could be achieved through a use-case-based, as well as vision and governance-driven creation of federated digital platforms applied to infrastructure projects and outline a concept. Digital platforms enable full-lifecycle participation and responsible governance guided by a shared infrastructure vision. This paper has contributed as policy recommendation to the Group of Twenty (G20) in 2021.
Reliability is a crucial aspect of non-volatile NAND flash memories, and it is essential to thoroughly analyze the channel to prevent errors and ensure accurate readout. Es-timating the read reference voltages (RRV s) is a significant challenge due to the multitude of physical effects involved. The question arises which features are useful and necessary for the RRV estimation. Various possible features require specialized hardware or specific readout techniques to be usable. In contrast we consider sparse histograms based on the decision thresholds for hard-input and soft-input decoding. These offer a distinct advantage as they are derived directly from the raw readout data without the need for decoding. This paper focuses on the information-theoretic study of different features, especially on the exploration of the mutual information (MI) between feature vector and RRV. In particular, we investigate the dependency of the MI on the resolution of the histograms. With respect to the RRV estimation, sparse histograms provide sufficient information for near-optimum estimation.
Feature-Based Proposal Density Optimization for Nonlinear Model Predictive Path Integral Control
(2022)
This paper presents a novel feature-based sampling strategy for nonlinear Model Predictive Path Integral (MPPI) control. In MPPI control, the optimal control is calculated by solving a stochastic optimal control problem online using the weighted inference of stochastic trajectories. While the algorithm can be excellently parallelized the closed- loop performance is dependent on the information quality of the drawn samples. Because these samples are drawn using a proposal density, its quality is crucial for the solver and thus the controller performance. In classical MPPI control, the explored state-space is strongly constrained by assumptions that refer to the control value variance, which are necessary for transforming the Hamilton-Jacobi-Bellman (HJB) equation into a linear second-order partial differential equation. To achieve excellent performance even with discontinuous cost-functions, in this novel approach, knowledge-based features are used to determine the proposal density and thus, the region of state- space for exploration. This paper addresses the question of how the performance of the MPPI algorithm can be improved using a feature-based mixture of base densities. Further, the developed algorithm is applied on an autonomous vessel that follows a track and concurrently avoids collisions using an emergency braking feature.
In this paper, a novel feature-based sampling strategy for nonlinear Model Predictive Path Integral (MPPI) control is presented. Using the MPPI approach, the optimal feedback control is calculated by solving a stochastic optimal control (OCP) problem online by evaluating the weighted inference of sampled stochastic trajectories. While the MPPI algorithm can be excellently parallelized, the closed-loop performance strongly depends on the information quality of the sampled trajectories. To draw samples, a proposal density is used. The solver’s and thus, the controller’s performance is of high quality if the sampled trajectories drawn from this proposal density are located in low-cost regions of state-space. In classical MPPI control, the explored state-space is strongly constrained by assumptions that refer to the control value’s covariance matrix, which are necessary for transforming the stochastic Hamilton–Jacobi–Bellman (HJB) equation into a linear second-order partial differential equation. To achieve excellent performance even with discontinuous cost functions, in this novel approach, knowledge-based features are introduced to constitute the proposal density and thus the low-cost region of state-space for exploration. This paper addresses the question of how the performance of the MPPI algorithm can be improved using a feature-based mixture of base densities. Furthermore, the developed algorithm is applied to an autonomous vessel that follows a track and concurrently avoids collisions using an emergency braking feature. Therefore, the presented feature-based MPPI algorithm is applied and analyzed in both simulation and full-scale experiments.
In this paper an approach towards databased fault diagnosis of linear electromagnetic actuators is presented. Time and time-frequency-domain methods were applied to extract fault related features from current and voltage measurements. The resulting features were transformed to enhance class separability using either Principal Component Analysis (PCA) or Optimal Transformation. Feature selection and dimensionality reduction was performed employing a modified Fisher-ratio. Fault detection was carried out using a Support-Vector-Machine classifier trained with randomly selected data subsets. Results showed, that not only the used feature sets (time-domain/time-frequency-domain) are crucial for fault detection and classification, but also feature pre-processing. PCA transformed time-domain features allow fault detection and classification without misclassification, relying on current and voltage measurements making two sensors necessary to generate the data. Optimal transformed time-frequency-domain features allow a misclassification free result as well, but as they are calculated from current measurements only, a dedicated voltage sensor is not necessary. Using those features is a promising alternative even for detecting purely supply voltage related faults.
Tests for speeding up the determination of the Bernstein enclosure of the range of a multivariate polynomial and a rational function over a box and a simplex are presented. In the polynomial case, this enclosure is the interval spanned by the minimum and the maximum of the Bernstein coefficients which are the coefficients of the polynomial with respect to the tensorial or simplicial Bernstein basis. The methods exploit monotonicity properties of the Bernstein coefficients of monomials as well as a recently developed matrix method for the computation of the Bernstein coefficients of a polynomial over a box.
Fast and reliable acquisition of truth data for document analysis using cyclic suggest algorithms
(2019)
In document analysis the availability of ground truth data plays a crucial role for the success of a project. This is even more true at the rise of new deep learning methods which heavily rely on the availability of training data. But even for traditional, hand crafted algorithms that are not trained on data, reliable test data is important for the improvement and evaluation of the methods. Because ground truth acquisition is expensive and time consuming, semi-automatic methods are introduced which make use of suggestions coming from document analysis systems. The interaction between the human operator and the automatic analysis algorithms is the key to speed up the process while improving the quality of the data. The final confirmation of data may always be done by the human operator. This paper demonstrates a use case for acquisition of truth data in a mail processing system. It shows why a new, extended view on truth data is necessary in development and engineering of such systems. An overview over the tool and the data handling is given, the advantages in the workflow are shown, and consequences for the construction of analysis algorithms are discussed. It can be shown that the interplay between suggest algorithms and human operator leads to very fast truth data capturing. The surprising finding is the fact that if multiple suggest algorithms circularly depend on data, they are especially effective in terms of speed and accuracy.