Refine
Year of publication
- 2015 (222) (remove)
Document Type
- Conference Proceeding (92)
- Article (50)
- Other Publications (39)
- Part of a Book (11)
- Book (10)
- Journal (Complete Issue of a Journal) (7)
- Report (4)
- Doctoral Thesis (3)
- Working Paper (3)
- Bachelor Thesis (1)
Keywords
- Algorithm (1)
- Apfel (1)
- Arbeitsrecht (1)
- Atom interferometer (1)
- Autonomy (1)
- Autoritarismus (1)
- BCH codes (1)
- BPM (1)
- Baden-Württemberg (1)
- Baugeschichte (1)
- Bedarfsermittlungen (1)
- Bernstein coefficients (1)
- Bernstein polynomial (1)
- Bernstein polynomials (1)
- Biomechanics Laboratory (1)
- Biosphäre (1)
- Body-movement (1)
- Bose-Einstein condensate (1)
- CONCATENATED codes (1)
- CONVOLUTION codes (1)
- CRCPolynom (1)
- Carbon-Roboter (1)
- Checkerboard ordering (1)
- Collision avoidance (1)
- Convex optimization (1)
- Corporate venture (1)
- Corporate venture management (1)
- Countermovement Jump (1)
- Cyclic Redundancy Check (1)
- Data compression (1)
- Datenschutz (1)
- Denkmalschutz (1)
- Doppler radar (1)
- Durchlaufspeicherung (1)
- Dynamic cluster analysis (1)
- Dynamic time warping (1)
- ECG holter (1)
- EMV (1)
- ERROR-correcting codes (1)
- Earthquake resonse spectra (1)
- Ecore (1)
- Energie (1)
- Energiewende (1)
- Ensemble (1)
- Equivalence principle test (1)
- Error correction codes (1)
- FPGA (1)
- Familienunternehmen (1)
- Fehlerkorrektur (2)
- Flamenco (1)
- Flash memories (1)
- Floor Vibrations (1)
- Force Plate (1)
- Fortgeschrittene Lernende (1)
- Freistellungssemesterbericht (1)
- Gait Analysis Laboratory (1)
- General programming languages (1)
- Geotechnical Earthquake Engineering (1)
- Heartbeat (1)
- Höhenstrahlung (1)
- IP-Assets (1)
- IT-Infrastruktur (1)
- Immaterielles Weltkulturerbe (1)
- Industrie (1)
- Injektionsmörtel (1)
- Injektionsverfahren (1)
- Innovationsmanagement (1)
- Interval matrix (1)
- JSON (1)
- Knickarmroboter (1)
- Kybernetik (1)
- Laufwasserkraftwerke (1)
- Leichtbau-Roboter (1)
- Luftreinhaltung (1)
- Management (1)
- Marktkapitalisierung (1)
- Mauerwerksinjektion (1)
- Mauerwerksinstandsetzung (1)
- Metamodellierung (1)
- MoDiGen-Metamodell (1)
- Nachhaltigkeit (3)
- Natur (1)
- Natursteinmauerwerk (1)
- Neckar (1)
- Non REM stage (1)
- OPTICS clustering (1)
- Path planning (1)
- Probabilistic Obstacles (1)
- Prozessintelligenz (1)
- Prüfsumme (1)
- REED-Solomon codes (1)
- REM stage (1)
- Range enclosure (1)
- Redundancy (1)
- Regelenergie (1)
- Region Konstanz (1)
- Rekonstruktion (1)
- Rissbildung (1)
- SME (1)
- Sanierung (1)
- Schreiben (2)
- Schreiben im Beruf (1)
- Ship navigation (1)
- Sign regular matrix (1)
- Site effect (1)
- Sleep stage (1)
- Soft Soil Layer (1)
- Software (1)
- Software and its engineering (1)
- Software notations and tools (1)
- Software organization and properties (1)
- Software system structures (1)
- Space technology (1)
- Spartan-3A DSP (1)
- Sprachverarbeitung (1)
- Strategic renewal (1)
- Studie (1)
- Studienvorbereitender Deutschunterricht (1)
- Subdivision (1)
- TURBO codes (1)
- Tango (1)
- Tanztourismus (1)
- Technik (1)
- Totally nonnegative matrix (1)
- Trocknung (1)
- Umwelt (1)
- Umweltökonomie (1)
- Unternehmensberatung (1)
- Validierung (1)
- Verbindungstechnik (1)
- Verfahren (1)
- Verfugung (1)
- Verkauf (1)
- Wasserkraft (1)
- Wertschöpfungsketten (1)
- Wettbewerb (1)
- Zerstörung (1)
- aktiver Leistungsfilter (1)
- binary codes (1)
- block codes (1)
- collision avoidance (2)
- concatenated codes (1)
- convergence (1)
- data privacy (2)
- degree elevation (1)
- entry-wise perturbation (1)
- filtering theory (2)
- inclusions (1)
- innovation management (1)
- laser ranging (1)
- linearisation techniques (1)
- marine engineering (1)
- marine navigation (1)
- marine radar (1)
- marine safety (1)
- matrix interval (1)
- observers (1)
- organisational aspects (1)
- parabolic equations (1)
- partial differential equations (1)
- range bounds (1)
- rational function (1)
- security of data (2)
- selektive Signalanalyse (1)
- sequential decoding (1)
- simplex (1)
- software metrics (1)
- solenoids (1)
- surveillance (1)
- target tracking (2)
- technology management (1)
- traffic control (1)
- valves (2)
- vertex matrix (1)
- Überarbeitung von Texten (1)
Institute
- Fakultät Architektur und Gestaltung (3)
- Fakultät Bauingenieurwesen (2)
- Fakultät Informatik (1)
- Fakultät Maschinenbau (1)
- Institut für Angewandte Forschung - IAF (1)
- Institut für Strategische Innovation und Technologiemanagement - IST (2)
- Konstanz Institut für Corporate Governance - KICG (1)
- Konstanzer Institut für Prozesssteuerung - KIPS (3)
Flash-Speicher wurden ursprünglich als Speichermedium für Digitalkameras entwickelt, finden inzwischen aber in vielen Bereichen Anwendung.
Die in Konstanz ansässige Firma Hyperstone GmbH ist ein führender Anbieter von Flashcontrollern für Anwendungen mit erhöhten Anforderungen an Zuverlässigkeit und Datenintegrität. Bereits seit April 2011 kooperiert die Firma Hyperstone mit der HTWG Konstanz bei der Entwicklung von Fehlerkorrekturverfahren für einen zuverlässigen Einsatz von Flash-Speichern. Aufgrund der rasanten Entwicklung bei Flashspeicherbausteinen ist auch eine stetige Weiterentwicklung der Korrekturverfahren notwendig. Im Rahmen dieser Kooperation wurde inzwischen zwei Flashcontroller mit sehr leistungsfähiger Fehlerkorrektur entwickelt. Der folgende Artikel gibt Einblick in den Einsatz von Flash-Speichern und erläutert die Notwendigkeit für eine leistungsfähige Fehlerkorrektur.
Die Bedeutung immaterieller Rechtsgüter nimmt in der Unternehmensrealität ständig zu. Dieser Bedeutungszuwachs hat einen festen betriebswirtschaftlichen Hintergrund: Zunehmend bestimmen nicht mehr Sachanlagevermögen, Geschäftsbeziehungen oder die Mitarbeiter den Unternehmenswert, sondern überwiegend das Intellectual Property (kurz auch: IP).1 Der Begriff Intellectual Property meint im Folgenden das durch Schutzrechte kodifizierte Wissen, also Patente, Gebrauchsmuster, Marken, Geschmacksmuster und sonstige Schutzrechte (gewerbliche Schutzrechte) sowie Urheberrechte. Diese Schutzrechte vermitteln absolute Verwertungsrechte und damit Monopolrechte, die es den Inhabern ermöglicht, das geschützte IP für eine bestimmte Schutzdauer allein und unter Ausschluss unbefugter Dritter zu verwerten.
Auch die Bedeutung von IT nimmt in der Unternehmenspraxis ständig zu.
Atom interferometers have a multitude of proposed applications in space including precise measurements of the Earth's gravitational field, in navigation & ranging, and in fundamental physics such as tests of the weak equivalence principle (WEP) and gravitational wave detection. While atom interferometers are realized routinely in ground-based laboratories, current efforts aim at the development of a space compatible design optimized with respect to dimensions, weight, power consumption, mechanical robustness and radiation hardness. In this paper, we present a design of a high-sensitivity differential dual species 85Rb/87Rb atom interferometer for space, including physics package, laser system, electronics and software. The physics package comprises the atom source consisting of dispensers and a 2D magneto-optical trap (MOT), the science chamber with a 3D-MOT, a magnetic trap based on an atom chip and an optical dipole trap (ODT) used for Bose-Einstein condensate (BEC) creation and interferometry, the detection unit, the vacuum system for 10-11 mbar ultra-high vacuum generation, and the high-suppression factor magnetic shielding as well as the thermal control system.
The laser system is based on a hybrid approach using fiber-based telecom components and high-power laser diode technology and includes all laser sources for 2D-MOT, 3D-MOT, ODT, interferometry and detection. Manipulation and switching of the laser beams is carried out on an optical bench using Zerodur bonding technology. The instrument consists of 9 units with an overall mass of 221 kg, an average power consumption of 608 W (819 W peak), and a volume of 470 liters which would well fit on a satellite to be launched with a Soyuz rocket, as system studies have shown.
Mehr als 40 Prozent der Unternehmen nutzen keine operativen Prozessdaten, um die Durchlaufzeiten oder Kosten ihrer Prozesse effektiv zu überwachen. Dennoch geben mehr als 60 Prozent der Unternehmen an, mit Prozessmanagement ihre Effizienz steigern zu wollen. Dies zeigt die Studie «Business Process Management 2015» der ZHAW School of Management and Law (SML). Die Ergebnisse wurden heute am BPM Symposium in Winterthur vorgestellt und mit einem breiten Fachpublikum aus Praxis und Wissenschaft diskutiert.
Grundlage für die digitale Transformation: Die Studie untersucht, wie und in welchem Ausmass Unternehmen das Standardrepertoire des Geschäftsprozessmanagements in Richtung Prozessintelligenz erweitern. Prozessintelligenz schliesst die Lücke zum operativen Geschäft und liefert eine neue Perspektive auf das Management der Geschäftsprozesse. Dabei konzentriert sie sich auf die Informationen, die in den operativen Prozessen entstehen und gebraucht werden und ist somit eine wesentliche Grundlage für die aktuell viel diskutierte digitale Transformation von Unternehmen. Um Prozesse besser verstehen, steuern und optimieren zu können, werden Methoden und Werkzeuge des Geschäftsprozessmanagements (BPM) und der Business Intelligence (BI) kombiniert.
Wertvolle Erfahrungen aus der Praxis: Für die Studie wurden in einer Online-Befragung über 80 Unternehmen zum Status quo ihrer «Prozessintelligenz» befragt. Ein Praxisworkshop diente als Rahmen, um Erfolgsmuster aus fünf Fallstudien bei Roche, AXA Winterthur, der St. Galler Kantonalbank sowie den Städten Lausanne und Konstanz zu identifizieren. Der Softwarehersteller Axon Ivy und SBB Immobilien haben im Rahmen einer Studienpartnerschaft mit dem Institut für Wirtschaftsinformatik der SML und dem Institut für Prozesssteuerung der HTWG Konstanz wertvolle Praxiserfahrungen beigesteuert. Das Resultat ist eine Momentaufnahme der strategischen, analytischen und praktischen Fähigkeiten, Methoden und Werkzeuge, mit denen Organisationen ihre Geschäftsprozesse gestalten, ausführen, überwachen und fortlaufend weiterentwickeln.
Themenzentrierte Interaktion
(2015)
Vortrag auf dem Doktorandenkolloquium des Kooperativen Promotionskollegs der HTWG, 09.07.2015
Social Entrepreneurship
(2015)
Nichts als Worte
(2015)
Das Abenteuer der Kritik
(2015)
Green-Innovation
(2015)
Vortrag auf dem Doktorandenkolloquium des Kooperativen Promotionskollegs der HTWG, 09.07.2015
RELOAD
(2015)
Vortrag auf dem Doktorandenkolloquium des Kooperativen Promotionskollegs der HTWG, 09.07.2015
Vortrag auf dem Doktorandenkolloquium des Kooperativen Promotionskollegs der HTWG, 09.07.2015
Organizational leadership
(2015)
Unternehmen und Integrität
(2015)
Biokratie
(2015)
Aus systemisch-evolutorischer Perspektive wird die Frage nach Biokratie aus der intersystemischen Konkurrenz zwischen Biosphäre und Anthroposphäre angegangen. Mit zunehmender Eingriffstiefe in die Biosphäre entsteht die Gefahr einer gestörten Koevolution. Dem Verfasser geht es um die große zentrale Frage: Wie ist naturangepasstes Wirtschaften im Kontext evolvierender Bio- und Anthroposphären möglich? Die Grundprämisse geht davon aus, dass Kenntnisse hinsichtlich der Funktionsprinzipien der Biosphäre nicht nur zur Begrenzung der Eingriffsintensität erforderlich sind, sondern auch wertvolle Informationen zur Gestaltung des anthropogenen Metabolismus und der Wertschöpfungssysteme nach Naturvorbildern liefern. Zugleich sind diese potentiellen Innovationsfelder vor dem Hintergrund evolutionsökonomischer Erkenntnisse zu reflektieren.
Quarantänestation
(2015)
Land schafft Landschaft
(2015)
Monitor Energiewende 2015
(2015)
In der Region Konstanz setzen sich zahlreiche Akteure - von Unternehmen über Energieversorger, Bildungsinstitutionen und Stadtverwaltungen bis zu Umweltschutzverbänden - dafür ein, durch konkrete Projekte die Energiewende vor Ort voranzubringen. Das Forschungsprojekt „Kompetenzzentrum
Energiewende Region Konstanz“ an der Hochschule Konstanz unterstützt diese Aktivitäten - u.a. mit einem jährlichen Monitor zum Stand der Energiewende in der Region Konstanz. Im Monitor 2015 wurden erstmals landkreisbezogene Daten zur Energiewende zusammengefasst und in den Kontext der landesweiten Ziele gestellt. Stand: Januar 2015
In biomechanics laboratories the ground reaction force time histories of the foot-fall of persons are usually measured using a force plate. The accelerations of the floor, in which the force plate is embedded, have to be limited, as they may influence the accuracy of the force measurements. For the numerical simulation of vibrations induced by humans in biomechanical laboratories, loading scenarios are defined. They include continuous motions of persons (walking, running) as well as jumps, typical for biomechanical investigations on athletes. The modeling of floors has to take into account the influence of floor screed in case of portable force plates. Criteria for the assessment of the measuring error provoked by floor vibrations are given. As an example a floor designed to accommodate a force platform in a biomechanical laboratory of the University Hospital in Tübingen, Germany, has been investi-gated for footfall induced vibrations. The numerical simulation by a finite element analysis has been validated by field measurements. As a result, the measuring error of the force plate installed in the laboratory is obtained for diverse scenarios.
Governanceethik
(2015)
Konventionelle, von Dieselmotoren angetriebene Radlader beeinträchtigen die Lebensqualität der Menschen in ihrer unmittelbaren Umgebung mit Lärm- und Schadstoffemissionen. Das vom BMBF geförderte Forschungsvorhaben "Emissionsarmer Elektroradlader" verfolgt das Ziel, die lokalen Emissionen von Radladern deutlich herabzusetzen und die Effizienz des Fahrzeugs zu steigern. Im Rahmen des Vorhabens wurde ein konventioneller Radlader auf elektrische Antriebe umgerüstet. Als Energiespeicher dient eine LiFeYPO4-Batterie, die für eine Betriebsdauer von vier Stunden ausgelegt ist. In ersten praktischen Untersuchungen wurde die Energiebilanz des Emissionsarmen Elektro-Radladers mit der des konventionellen Serienfahrzeugs verglichen. Dazu wurde ein modifizierter Y-Arbeitszyklus entworfen, der sich an den üblichen Arbeitsaufgaben des Radladers orientiert und sich durch eine hohe Reproduzierbarkeit auszeichnet. Für die vollständige Bewertung wird die komplette Kette der Energieumwandlung betrachtet, beginnend mit der Energie im Kraftstoff bzw. der dem Stromnetz entnommenen Energie, bis zur mechanischen Arbeit, die das Gerät verrichtet. Daraus lassen sich Rückschlüsse auf die unterschiedlichen CO2-Emissionen beider Fahrzeuge ableiten.
This chapter contains three advanced topics in model order reduction (MOR): nonlinear MOR, MOR for multi-terminals (or multi-ports) and finally an application in deriving a nonlinear macromodel covering phase shift when coupling oscillators. The sections are offered in a preferred order for reading, but can be read independently.
The proposed approach applies current unsupervised clustering approaches in a different dynamic manner. Instead of taking all the data as input and finding clusters among them, the given approach clusters Holter ECG data (long-term electrocardiography data from a holter monitor) on a given interval which enables a dynamic clustering approach (DCA). Therefore advanced clustering techniques based on the well known Dynamic Time Warping algorithm are used. Having clusters e.g. on a daily basis, clusters can be compared by defining cluster shape properties. Doing this gives a measure for variation in unsupervised cluster shapes and may reveal unknown changes in healthiness. Embedding this approach into wearable devices offers advantages over the current techniques. On the one hand users get feedback if their ECG data characteristic changes unforeseeable over time which makes early detection possible. On the other hand cluster properties like biggest or smallest cluster may help a doctor in making diagnoses or observing several patients. Further, on found clusters known processing techniques like stress detection or arrhythmia classification may be applied.
The problem of vessel collisions or near-collision situations on sea, often caused by human error due to incomplete or overwhelming information, is becoming more and more important with rising maritime traffic. Approaches to supply navigators and Vessel Traffic Services with expert knowledge and suggest trajectories for all vessels to avoid collisions, are often aimed at situations where a single planner guides all vessels with perfect information. In contrast, we suggest a two-part procedure which plans trajectories using a specialised A* and negotiates trajectories until a solution is found, which is acceptable for all vessels. The solution obeys collision avoidance rules, includes a dynamic model of all vessels and negotiates trajectories to optimise globally without a global planner and extensive information disclosure. The procedure combines all components necessary to solve a multi-vessel encounter and is tested currently in simulation and on several test beds. The first results show a fast converging optimisation process which after a few negotiation rounds already produce feasible, collision free trajectories.
To evaluate the quality of a person's sleep it is essential to identify the sleep stages and their durations. Currently, the gold standard in terms of sleep analysis is overnight polysomnography (PSG), during which several techniques like EEG (eletroencephalogram), EOG (electrooculogram), EMG (electromyogram), ECG (electrocardiogram), SpO2 (blood oxygen saturation) and for example respiratory airflow and respiratory effort are recorded. These expensive and complex procedures, applied in sleep laboratories, are invasive and unfamiliar for the subjects and it is a reason why it might have an impact on the recorded data. These are the main reasons why low-cost home diagnostic systems are likely to be advantageous. Their aim is to reach a larger population by reducing the number of parameters recorded. Nowadays, many wearable devices promise to measure sleep quality using only the ECG and body-movement signals. This work presents an android application developed in order to proof the accuracy of an algorithm published in the sleep literature. The algorithm uses ECG and body movement recordings to estimate sleep stages. The pre-recorded signals fed into the algorithm have been taken from physionet1 online database. The obtained results have been compared with those of the standard method used in PSG. The mean agreement ratios between the sleep stages REM, Wake, NREM-1, NREM-2 and NREM-3 were 38.1%, 14%, 16%, 75% and 54.3%.
Technology-based ventures provide an important route for successful technology transfer [1], [2]. Their founders are supported in successful technology commercialization by innovation intermediaries [3]. Accordingly, the performance of an innovation system, at least to some extent, depends on the efficiency of these intermediaries in terms of the impact of their scarce resources on the survival and growth of technology-based ventures. To increase their efficiency, intermediaries typically optimize their "intake" by requesting a formal business plan to base their selection on as a hygiene factor [4]-[7]. Thus, some scholars argue that written business plans show significant distortion as being produced only to attract support from innovation intermediaries [6], [8]. Accordingly, they rarely serve for these addressees as a source of information for analyzing the strengths and weaknesses of ventures, in order to derive actionable conclusions and more effectively support ventures [9], [10]. Addressees search for different indicators in business plans for their evaluation [11]. The descriptions of these indicators only evince little empirical proof for the performance of technology-based venture's [8], [12]. This gap is herein addressed, in contrast to the lacking empirical insight, as the most frequently produced artifact of early-stage technology ventures is at the same time a written business plan [10], [13]. This paper addresses this gap by conceptualizing transaction relations described in the written business plan as a means for working around the inevitable inaccuracies and uncertainties that delimit the explanatory abilities [14] of the snapshot model [10] presented by a business plan. Using a qualitative content analysis, we derive from the descriptions of transaction relations in a written business plan valid indicators for the maturity of the venture's value-network in different dimensions [15]. To this extent, this paper presents the findings from a pre-study that was conducted based on a sample of forty business plans from an overall population of 800 business plans in a longitudinal sample from one of Europe's most active innovation systems, the regional State of Baden-Württemberg. Such findings may be used by innovation intermediaries to enhance their efficiency, by enabling these to not only derive individual support strategies for business acceleration but also to analyze the impact of support measures by reliably monitoring maturity progress in venture activities.
Excubation
(2015)
In this paper an approach towards databased fault diagnosis of linear electromagnetic actuators is presented. Time and time-frequency-domain methods were applied to extract fault related features from current and voltage measurements. The resulting features were transformed to enhance class separability using either Principal Component Analysis (PCA) or Optimal Transformation. Feature selection and dimensionality reduction was performed employing a modified Fisher-ratio. Fault detection was carried out using a Support-Vector-Machine classifier trained with randomly selected data subsets. Results showed, that not only the used feature sets (time-domain/time-frequency-domain) are crucial for fault detection and classification, but also feature pre-processing. PCA transformed time-domain features allow fault detection and classification without misclassification, relying on current and voltage measurements making two sensors necessary to generate the data. Optimal transformed time-frequency-domain features allow a misclassification free result as well, but as they are calculated from current measurements only, a dedicated voltage sensor is not necessary. Using those features is a promising alternative even for detecting purely supply voltage related faults.
Schreiben im Beruf
(2015)
Wie kann der Bedarf für berufliches Schreiben ermittelt werden und welche Schwierigkeiten sind dabei zu erwarten? Im Beitrag wird auf Erfahrungen zurückgegriffen, die in einer verwandten Disziplin gemacht wurden: Für berufsbegleitende Sprachkurse in Unternehmen liegen bereits viele Bedarfsermittlungen vor. Diese Erfahrungen können bei Bedarfsermittlungen für berufliches Schreiben berücksichtigt werden. Im Mittelpunkt des Beitrags stehen drei Bedarfsermittlungen zum Englischbedarf von Mitarbeitern internationaler Unternehmen, in denen die typische Methodik von Bedarfsermittlungen deutlich wird und typische Schwierigkeiten auftreten. Die Schwierigkeiten werden unter den Aspekten Erfahrungsdefizite, Kompetenzunterschiede und Machtgefälle zusammengefasst.
Im Beitrag wird erörtert, welche Rolle der schriftlichen Fehlerkorrektur im studienbegleitenden und -vorbereitenden Deutschunterricht zukommt. Dazu wird ein Überblick über den Stand der Forschung gegeben und eine Studie zur Fehlerkorrektur mit fortgeschrittenen Lernenden vorgestellt, in der die Wirkung einer Fehlerkorrektur am Lernertext überprüft wurde. Die Fehlerkorrektur führte bei der Experimentalgruppe zwar zu einer Reduktion der Fehler in der Überarbeitung, im Vergleich zur Kontrollgruppe aber nicht zu einer signifikanten Verbesserung in einem neuen Text. Um zu eruieren, wie die Lernenden mit der Fehlerkorrektur umgingen, wurde in der Studie außerdem eine qualitative Analyse einzelner Arbeiten vorgenommen. Der Beitrag schließt mit der Frage, welche Rolle eine – nicht sonderlich effektive – Fehlerkorrektur in einer auf Wissenschaftssprache bezogenen Vermittlung einnehmen sollte.
Moderne als Geschichte
(2015)
This work investigates soft input decoding for generalized concatenated (GC) codes. The GC codes are constructed from inner nested binary Bose-Chaudhuri-Hocquenghem (BCH)codes and outer Reed-Solomon (RS) codes. In order to enable soft input decoding for the inner BCH block codes, a sequential stack decoding algorithm is used. Ordinary stack decoding of binary block codes requires the complete trellis of the code.
In this work a representation of the block codes based on the trellises of supercodes is proposed in order to reduce the memory requirements for the representation of the BCH codes. Results for the decoding performance of the overall GC code are presented.
Furthermore, an efficient hardware implementation of the GC decoder is proposed.
Digitalisierung im Bauwesen
(2015)
Small vessels or unmanned surface vehicles only have a limited amount of space and energy available. If these vessels require an active sensing collision avoidance system it is often not possible to mount large sensor systems like X-Band radars. Thus, in this paper an energy efficient automotive radar and a laser range sensor are evaluated for tracking surrounding vessels. For these targets, those type of sensors typically generate more than one detection per scan. Therefore, an extended target tracking problem has to be solved to estimate state end extension of the vessels. In this paper, an extended version of the probabilistic data association filter that uses random matrices is applied. The performance of the tracking system using either radar or laser range data is demonstrated in real experiments.
Probabilistic data association for tracking extended targets under clutter using random matrices
(2015)
The use of random matrices for tracking extended objects has received high attention in recent years. It is an efficient approach for tracking objects that give rise to more than one measurement per time step. In this paper, the concept of random matrices is used to track surface vessels using highresolution automotive radar sensors. Since the radar also receives a large number of clutter measurements from the water, for the data association problem, a generalized probabilistic data association filter is applied. Additionally, a modification of the filter update step is proposed to incorporate the Doppler velocity measurements. The presented tracking algorithm is validated using Monte Carlo Simulation, and some performance results with real radar data are shown as well.
Digital cameras are subject to physical, electronic and optic effects that result in errors and noise in the image. These effects include for example a temperature dependent dark current, read noise, optical vignetting or different sensitivities of individual pixels. The task of a radiometric calibration is to reduce these errors in the image and thus improve the quality of the overall application. In this work we present an algorithm for radiometric calibration based on Gaussian processes. Gaussian processes are a regression method widely used in machine learning that is particularly useful in our context. Then Gaussian process regression is used to learn a temperature and exposure time dependent mapping from observed gray-scale values to true light intensities for each pixel. Regression models based on the characteristics of single pixels suffer from excessively high runtime and thus are unsuitable for many practical applications. In contrast, a single regression model for an entire image with high spatial resolution leads to a low quality radiometric calibration, which also limits its practical use. The proposed algorithm is predicated on a partitioning of the pixels such that each pixel partition can be represented by one single regression model without quality loss. Partitioning is done by extracting features from the characteristic of each pixel and using them for lexicographic sorting. Splitting the sorted data into partitions with equal size yields the final partitions, each of which is represented by the partition centers. An individual Gaussian process regression and model selection is done for each partition. Calibration is performed by interpolating the gray-scale value of each pixel with the regression model of the respective partition. The experimental comparison of the proposed approach to classical flat field calibration shows a consistently higher reconstruction quality for the same overall number of calibration frames.
Energietechnische Grundlagen
(2015)
Kapitel 2 stellt kurz die verschiedenen Energieformen mechanisch, thermisch, chemisch etc. vor und das Prinzip von der Erhaltung der (Gesamt-) Energie. Die Möglichkeit zur Umwandlung von thermischer Energie in nutzbare mechanische Energie durch Kreisprozesse, mit dem theoretischen Carnot-Prozess als Obergrenze der Umwandelbarkeit, wird erläutert. Die Angabe der Größenordnung des regenerativen Energieangebots und des anthropogenen Umsatzes und die Unterscheidung zwischen Primär- und Sekundärenergien schließen das Kapitel ab.
Brennstoffzellen
(2015)
Kapitel 9 beginnt mit einer kurzen historischen Einführung und beschreibt dann nach einer ersten Klassifizierung das Funktionsprinzip und die thermodynamischen Grundlagen der direkten Umwandlung chemischer in elektrische Energie. Es folgen die verschiedenen Wirkungsgraddefinitionen und Verlustursachen und das sich daraus ergebende typische Betriebsverhalten einer Brennstoffzelle mit höherem Wirkungsgrad im Teillastbereich. Es werden die Anwendungsgebiete, die notwendigen Grundkomponenten und der Stand der Entwicklung der verschiedenen Typen AFC, PEFC, PAFC, MCFC und SOFC besprochen, Vor- und Nachteile diskutiert und einige ausgeführte Anlagen vorgestellt.
The detection of differences between images of a printed reference and a reprinted wood decor often requires an initial image registration step. Depending on the digitalization method, the reprint will be displaced and rotated with respect to the reference. The aim of registration is to match the images as precisely as possible. In our approach, images are first matched globally by extracting feature points from both images and finding corresponding point pairs using the RANSAC algorithm. From these correspondences, we compute a global projective transformation between both images. In order to get a pixel-wise registration, we train a learning machine on the point correspondences found by RANSAC. The learning algorithm (in our case Gaussian process regression) is used to nonlinearly interpolate between the feature points which results in a high precision image registration method on wood decors.
Vor dem Hintergrund der großen Bedeutung des Europäischen Wirtschaftsrechts, gerade auch für das deutsche Wirtschaftsleben, gibt die vorliegende Veröffentlichung zunächst einen einführenden Überblick über die Entwicklung, die Ziele und Zuständigkeiten sowie die Organisationsstruktur und die Rechtsquellen der Europäischen Union. Es soll deutlich werden, wo und wie Recht, speziell Wirtschaftsrecht, überhaupt entsteht und welche Inhalte dieses jeweils aufweist. Dieser erste Teil der Studie ist bewusst sehr ausführlich gehalten und dient als Wissens- und Verständnisgrundlage für den zweiten Teil, die eigentliche Darstellung des Europäischen Wirtschaftsrechts unter besonderer Berücksichtigung der Grundfreiheiten als Rahmenbedingung eines marktorientierten Managements deutscher Unternehmen. Die Studie soll als Einstieg in dieses Rechtsgebiet dienen und gleichzeitig Vertiefungen zu bestimmten einzelnen Aspekten jeweils zu erleichtern helfen. Adressaten sind Studierende von Universitäten, Fachhochschulen, Berufsakademien und anderen Bildungseinrichtungen, die sich während ihres Studiums mit dem Recht der Europäischen Union zu befassen haben, ebenso wie betroffene Entscheidungsträger der Wirtschaft.
Multistakeholder-Analyse zur Evaluation der KiCG Anforderungen an Compliance-Management-Systeme
(2015)
Energiequelle Seewasser
(2015)
Die richtige Balance zwischen Flexibilität und Stabilität von Geschäftsprozessen ist ein essenzieller Faktor für Unternehmen, um den Anforderungen zunehmend dynamisch werdender Märkte gerecht zu werden.
Die durch die digitale Revolution stetig steigende IT-Durchdringung fordert eine noch besser abgestimmte Zusammenarbeit zwischen den IT- und Fachabteilungen.
Müssen Organisationen schwergewichtige IT- und Prozessarchitekturen pflegen, können diese Anforderungen in vielen Fällen nicht adäquat erfüllt werden. Zu lange Zeitfenster der Aktualisierungszyklen führen zu signifikanten Differenzen zwischen den modellierten und den gelebten Geschäftsprozessen. Die Autoren dieses Beitrags propagieren eine Lösung durch innovative agile Methoden, mit deren Hilfe es möglich wird schlanke, maßgeschneiderte Architekturen unmittelbar zu implementieren und kontinuierlich zu pflegen.
Entwicklung eines grafischen Editors zur Metamodellierung sowie Validierung von Modell-Instanzen
(2015)
Im Rahmen dieser Arbeit wurde ein grafischer Editor für die Modellierung von Metamodellen entwickelt. Der Editor wird in einem beliebigen Web-Browser ausgeführt und ist somit plattformunabhängig nutzbar. Er implementiert das an der HTWG Konstanz im Projekt Progress in Graphical Modeling Frameworks entwickelte MoDiGen-Metamodell, und erlaubt die Modellierung von Metamodellen, die zu diesem Meta-Metamodell konform sind.
Als Ausgabeformat nutzt der Editor eine JSON-Struktur, was die Datenhaltung mit Hilfe von JSON-basierten nicht-relationalen Datenbanken ermöglicht und die Implementierung des Editors in JavaScript erleichterte.
Zusätzlich wurde ein Werkzeug entwickelt, mit welchem die Instanzen des modellierten Metamodells, die Modelle, gegen das Metamodell geprüft werden können. Dieses Programm ist sowohl für die Clientseite im Web-Browser zur Prüfung eines Modells, als auch für die Serverseite zur Prüfung der Modelldaten vor der Persistierung relevant, weshalb die Validierung in JavaScript bzw. CoffeeScript entwickelt wurde. Im Web-Browser kann diese Implementierung direkt ausgeführt werden, serverseitig wurde die von der Mozilla Foundation in Java geschriebene JavaScript-Implementierung Rhino verwendet, um das JavaScript-Programm aufzurufen.
Der Theorieteil der Arbeit beschäftigt sich mit den Meta-Metamodellen, die die Grundlage des MoDiGen-Metamodells bilden, sowie ausführlich mit dem MoDiGen-Metamodell selbst. Im Praxisteil wird die Entwicklung und der Aufbau des Editors und des Validators erläutert.
Forum - Ausgabe 2015
(2015)
Jahresbericht 2014
(2015)
Jahresbericht 2015
(2015)
SInCom 2015
(2015)
Regarding moral concerns in the business sphere, integrity is often mentioned as one of the core values that guides the behavior of companies. Daimler for instance states: “Acting with integrity is the central requirement for sustainable success and a maxim that Daimler follows in its worldwide business practices.”1 Reference to integrity is mostly supposed to signal that the company acts morally responsibly. Although some companies specify what acting with integrity means for them, it generally remains unclear what the concept of integrity entails – both broadly speaking and referring to business. This conceptual gap shall be filled by developing a concept of integrity that can be transferred to the business context. For this purpose, the main criteria that constitute moral integrity will be discussed before reflecting on how these could be integrated into a practical and comprehensive concept of corporate integrity.
Earthquake response spectra as defined by Eurocode 8 (German NAD) are restricted to soils with shear wave velocities greater than 150 m/s. For soft soil layers e.g. of clay underlain by bedrock special investigations are required because resonance effects of the layer significantly influence the shape of the spectrum. Numerical investigations are normally based on a one-dimensional theory of horizontally polarized shear waves propagating in vertical direction. The paper describes a parametric study to define acceleration response spectra for a soft soil over a half-space for a wide range of soil layer heights and material parameters. Based on this study a simplified method to describe response spectra for the model of a soft soil layer underlain by a viscoelastic halfspace is given.
Verbindungstechnik von carbonfaserverstärkten Kunststoff-Halbzeugen in dynamischen Robotersystemen
(2015)
In folgender Veröffentlichung wird eine Möglichkeit aufgezeigt, wie der zukunftsträchtige Werkstoff
„Carbonfaserverstärkter Kunststoff“ (CFK) einfach und kostengünstig in hochdynamischen Robotersystemen
zum Einsatz kommen kann. Hierbei ist es entscheidend, dass die aufwendige und kostenintensive Fertigung von
einzelnen CFK-Bauteilen umgangen wird, ohne die herausragenden Werkstoffeigenschaften einzuschränken. Im
Forschungsprojekt „Stabkinematik-Leichtbau-Roboter“ (SLR) werden dazu verschiedene Möglichkeiten
erarbeitet, stattdessen auf standardmäßig angebotene Halbzeuge aus CFK zurückzugreifen. Ein zentrales Thema
stellt dabei die Verbindungstechnik dar, die beim Fügen von CFK Halbzeugen (hier: Platten) erforderlich wird.
Eine Vielfalt von Tests verschiedener Verbindungen zeigt, dass sich eine Fingerverzinkung für den betrachten
Anwendungsfall am besten eignet. Daher werden zwei Varianten mit Fingerverzinkung genau analysiert, zum
einen, eine mit Verschraubungen und, zum anderen, als Klebung. Die Ergebnisse der beiden Varianten zeigen
ähnliche Festigkeitskennwerte, wobei die Klebung etwas höhere Werte aufweist. Demgegenüber ist die
Schraubverbindung komfortabler zu montieren und bietet die Möglichkeit der Demontage.
Model Order Reduction
(2015)
This chapter offers an introduction to Model Order Reduction (MOR). It gives an overview on the methods that are mostly used. It also describes the main concepts behind the methods and the properties that are aimed to be preserved. The sections are in a prefered order for reading, but can be read independentlty. Section 4.1, written by Michael Striebel, E. Jan W. ter Maten, Kasra Mohaghegh and Roland Pulch, overviews the basic material for MOR and its use in circuit simulation. Issues like Stability, Passivity, Structure preservation, Realizability are discussed. Projection based MOR methods include Krylov-space methods (like PRIMA and SPRIM) and POD-methods. Truncation based MOR includes Balanced Truncation, Poor Man’s TBR and Modal Truncation.Section 4.2, written by Joost Rommes and Nelson Martins, focuses on Modal Truncation. Here eigenvalues are the starting point. The eigenvalue problems related to large-scale dynamical systems are usually too large to be solved completely. The algorithms described in this section are efficient and effective methods for the computation of a few specific dominant eigenvalues of these large-scale systems. It is shown how these algorithms can be used for computing reduced-order models with modal approximation and Krylov-based methods.Section 4.3, written by Maryam Saadvandi and Joost Rommes, concerns passivity preserving model order reduction using the spectral zero method. It detailedly discusses two algorithms, one by Antoulas and one by Sorenson. These two approaches are based on a projection method by selecting spectral zeros of the original transfer function to produce a reduced transfer function that has the specified roots as its spectral zeros. The reduced model preserves passivity.Section 4.4, written by Roxana Ionutiu, Joost Rommes and Athanasios C. Antoulas, refines the spectral zero MOR method to dominant spectral zeros. The new model reduction method for circuit simulation preserves passivity by interpolating dominant spectral zeros. These are computed as poles of an associated Hamiltonian system, using an iterative solver: the subspace accelerated dominant pole algorithm (SADPA). Based on a dominance criterion, SADPA finds relevant spectral zeros and the associated invariant subspaces, which are used to construct the passivity preserving projection. RLC netlist equivalents for the reduced models are provided.Section 4.5, written by Roxana Ionutiu and Joost Rommes, deals with synthesis of a reduced model: reformulate it as a netlist for a circuit. A framework for model reduction and synthesis is presented, which greatly enlarges the options for the re-use of reduced order models in circuit simulation by simulators of choice. Especially when model reduction exploits structure preservation, we show that using the model as a current-driven element is possible, and allows for synthesis without controlled sources. Two synthesis techniques are considered: (1) by means of realizing the reduced transfer function into a netlist and (2) by unstamping the reduced system matrices into a circuit representation. The presented framework serves as a basis for reduction of large parasitic R/RC/RCL networks.
Codes over quotient rings of Lipschitz integers have recently attracted some attention. This work investigates the performance of Lipschitz integer constellations for transmission over the AWGN channel by means of the constellation figure of merit. A construction of sets of Lipschitz integers that leads to a better constellation figure of merit compared to ordinary Lipschitz integer constellations is presented. In particular, it is demonstrated that the concept of set partitioning can be applied to quotient rings of Lipschitz integers where the number of elements is not a prime number. It is shown that it is always possible to partition such quotient rings into additive subgroups in a manner that the minimum Euclidean distance of each subgroup is strictly larger than in the original set. The resulting signal constellations have a better performance for transmission over an additive white Gaussian noise channel compared to Gaussian integer constellations and to ordinary Lipschitz integer constellations. In addition, we present multilevel code constructions for the new signal constellations.
Stress is recognized as a factor of predominant disease and in the future the costs for treatment will increase. The presented approach tries to detect stress in a very basic and easy to implement way, so that the cost for the device and effort to wear it remain low. The user should benefit from the fact that the system offers an easy interface reporting the status of his body in real time. In parallel, the system provides interfaces to pass the obtained data forward for further processing and (professional) analyses, in case the user agrees. The system is designed to be used in every day’s activities and it is not restricted to laboratory use or environments. The implementation of the enhanced prototype shows that the detection of stress and the reporting can be managed using correlation plots and automatic pattern recognition even on a very light-weighted microcontroller platform.
Die zum UNESCO Weltkulturerbe zaehlenden Meisterhaeuser des Dessauer Bauhauses wurden 1925/1926 nach Plaenen des Bauhaus-Gruenders Walter Gropius errichtet. Nach Umbauten waehrend des Nationalsozialismus wurden im Zweiten Weltkrieg zwei Gebaeude des Ensembles voellig zerstoert: das Direktorenhaus und die Doppelhaushaelfte von Laszlo Moholy-Nagy. 1956 erfolgte ein veraenderter Wiederaufbau des Hauses Gropius als Haus Emmer. Fuer einen adaequaten denkmalpflegerischen Umgang mit dem Ensemble nach der Wiedervereinigung wurden nach laengeren Vorueberlegungen 2008 und 2010 Wettbewerbe fuer eine staedtebauliche Reparatur durchgefuehrt. Auf dieser Grundlage wurde das Berliner Architektenbuero Bruno Fioretti Marquez mit dem Neubau des Direktorenhauses und des Hauses Moholy-Nagy beauftragt. Da die Quellenlage fuer eine Rekonstruktion nicht ausreichte, wurde ein anspruchsvolles architektonisches Konzept umgesetzt, das die Kubatur der verlorenen Bauten nachzeichnet. Die Detailausbildung wurde frei in gegenueber den erhaltenen Meisterhaeusern, die bereits zuvor saniert worden waren, stark reduzierten Formen gestaltet.
This paper proposes a pipelined decoder architecture for generalised concatenated (GC) codes. These codes are constructed from inner binary Bose-Chaudhuri-Hocquenghem (BCH) and outer Reed-Solomon codes. The decoding of the component codes is based on hard decision syndrome decoding algorithms. The concatenated code consists of several small BCH codes. This enables a hardware architecture where the decoding of the component codes is pipelined. A hardware implementation of a GC decoder is presented and the cell area, cycle counts as well as the timing constraints are investigated. The results are compared to a decoder for long BCH codes with similar error correction performance. In comparison, the pipelined GC decoder achieves a higher throughput and has lower area consumption.
Üblicherweise wird bei der Erdbebenbemessung von durch Stahlbetonwände ausgesteiften Gebäuden entweder die ungerissene Biegesteifigkeit oder ein von dieser durch einen Abminderungsfaktor abgeleiteter Wert zur Berücksichtigung des Zustands II verwendet. Tatsächlich ist die Biegesteifigkeit von Stahlbetonquerschnitten jedoch vom Bewehrungsgrad und von der Normalkraft abhängig. Die Fließverschiebung, bei der sich am Fuß einer Stahlbetonwand ein plastisches Gelenk bildet, ist hingegen fast ausschließlich von ihrer Länge im Grundriss abhängig. Torsionswirkungen infolge Exzentrizität zwischen Massen- und Steifigkeitsmittelpunkt werden üblicherweise durch Vergrößerung der Bemessungskräfte der einzelnen Wände berücksichtigt. Den durch die Torsionswirkung vergrößerten Verschiebungen einzelner Wände wird dabei keine Beachtung geschenkt. Da die durch die Verhaltensbeiwerte der Normen implizit vorausgesetzte ertragbare Verformung des Tragsystems zusätzliche Verschiebungen infolge Torsion nicht explizit berücksichtigt, kann es so unter Umständen wegen Überschreitung der maximal möglichen Verformung einzelner Wände zu einem vorzeitigen Versagen kommen. Im vorliegenden Aufsatz wird ein quasi-händisches Nachweisverfahren vorgestellt, mit dem die explizite Berücksichtigung von torsionsbedingten Verschiebungen möglich ist und bei dem realistische Biegesteifigkeiten für die Wände verwendet werden.
In [Zahn, F., Köber, D., Verfahren zum Erdbebennachweis von durch Stahlbetonwände ausgesteiften Gebäuden mit explizitem Nachweis der Verformungen. Beton- und Stahlbetonbau 110 (2015) Heft 4, S. 293–302] wird ein Bemessungsverfahren für durch Erdbeben beanspruchte Tragwerke vorgestellt, mit dem die explizite Berücksichtigung von torsionsbedingten Verschiebungen möglich ist und bei dem realistische Biegesteifigkeiten für die Wände verwendet werden. Da mit diesem vereinfachten Verfahren mit vertretbarem Aufwand nur der getrennte Tragsicherheitsnachweis für Erdbebenbeanspruchungen in den Gebäudehauptrichtungen möglich ist, wird in diesem Aufsatz der Frage nachgegangen, ob ein Gebäude, für welches der Nachweis in beiden Hauptrichtungen erbracht wird, auch für Erdbebenbeanspruchung unter 45° zu den Hauptrichtungen ausreichende Standsicherheit besitzt. Zu diesem Zwecke werden zwei Beispielgebäude zunächst mit dem in [1] beschriebenen Verfahren auf ihre Standsicherheit in den Hauptrichtungen untersucht und anschließend mit dem Programm ETABS nachgerechnet, und zwar zunächst jeweils in einer Gebäudehauptrichtung und danach für eine Beanspruchung unter 45° zu dieser.
Ein Holzhaus als Botschaft. Die erste diplomatische Vertretung des Deutschen Reiches in Ankara 1924
(2015)
Auf die Gründung der türkischen Republik und die Verlagerung der Hauptstadt nach Ankara reagierte das Deutsche Reich 1924 zeitnah mit der Errichtung eines Botschaftsgebäudes in Fertigteilbauweise. Dieses präfabrizierte Holzhaus wurde von der für den Holzbau der Moderne bedeutenden Firma Christoph & Unmack AG aus Niesky/Oberlausitz geliefert. Nach Errichtung eines größeren, massiven Botschaftsgebäudes in Ankara wurde das Holzhaus 1934 auf das Gelände des Atatürk Orman Çiftliği transloziert, wo es noch heute existiert. 2010 konnte es einer gründlichen Baudokumentation unterzogen werden. Im Rahmen von drei Einzelbeiträgen werden die Ergebnisse der Untersuchungen an diesem ebenso ungewöhnlichen wie bedeutenden Baudenkmal vorgestellt.
A semilinear distributed parameter approach for solenoid valve control including saturation effects
(2015)
In this paper a semilinear parabolic PDE for the control of solenoid valves is presented. The distributed parameter model of the cylinder becomes nonlinear by the inclusion of saturation effects due to the material's B/H-curve. A flatness based solution of the semilinear PDE is shown as well as a convergence proof of its series solution. By numerical simulation results the adaptability of the approach is demonstrated, and differences between the linear and the nonlinear case are discussed. The major contribution of this paper is the inclusion of saturation effects into the magnetic field governing linear diffusion equation, and the development of a flatness based solution for the resulting semilinear PDE as an extension of previous works [1] and [2].
Classification of point clouds by different types of geometric primitives is an essential part in the reconstruction process of CAD geometry. We use support vector machines (SVM) to label patches in point clouds with the class labels tori, ellipsoids, spheres, cones, cylinders or planes. For the classification features based on different geometric properties like point normals, angles, and principal curvatures are used. These geometric features are estimated in the local neighborhood of a point of the point cloud. Computing these geometric features for a random subset of the point cloud yields a feature distribution. Different features are combined for achieving best classification results. To minimize the time consuming training phase of SVMs, the geometric features are first evaluated using linear discriminant analysis (LDA).
LDA and SVM are machine learning approaches that require an initial training phase to allow for a subsequent automatic classification of a new data set. For the training phase point clouds are generated using a simulation of a laser scanning device. Additional noise based on an laser scanner error model is added to the point clouds. The resulting LDA and SVM classifiers are then used to classify geometric primitives in simulated and real laser scanned point clouds.
Compared to other approaches, where all known features are used for classification, we explicitly compare novel against known geometric features to prove their effectiveness.
This Chapter introduces parameterized, or parametric, Model Order Reduction (pMOR). The Sections are offered in a prefered order for reading, but can be read independently. Section 5.1, written by Jorge Fernández Villena, L. Miguel Silveira, Wil H.A. Schilders, Gabriela Ciuprina, Daniel Ioan and Sebastian Kula, overviews the basic principles for pMOR. Due to higher integration and increasing frequency-based effects, large, full Electromagnetic Models (EM) are needed for accurate prediction of the real behavior of integrated passives and interconnects. Furthermore, these structures are subject to parametric effects due to small variations of the geometric and physical properties of the inherent materials and manufacturing process. Accuracy requirements lead to huge models, which are expensive to simulate and this cost is increased when parameters and their effects are taken into account. This Section introduces the framework of pMOR, which aims at generating reduced models for systems depending on a set of parameters.
We present a 3d-laser-scan simulation in virtual
reality for creating synthetic scans of CAD models. Consisting of
the virtual reality head-mounted display Oculus Rift and the
motion controller Razer Hydra our system can be used like
common hand-held 3d laser scanners. It supports scanning of
triangular meshes as well as b-spline tensor product surfaces
based on high performance ray-casting algorithms. While point
clouds of known scanning simulations are missing the man-made
structure, our approach overcomes this problem by imitating
real scanning scenarios. Calculation speed, interactivity and the
resulting realistic point clouds are the benefits of this system.