Refine
Year of publication
- 2015 (222) (remove)
Document Type
- Conference Proceeding (92)
- Article (50)
- Other Publications (39)
- Part of a Book (11)
- Book (10)
- Journal (Complete Issue of a Journal) (7)
- Report (4)
- Doctoral Thesis (3)
- Working Paper (3)
- Bachelor Thesis (1)
Keywords
- Algorithm (1)
- Apfel (1)
- Arbeitsrecht (1)
- Atom interferometer (1)
- Autonomy (1)
- Autoritarismus (1)
- BCH codes (1)
- BPM (1)
- Baden-Württemberg (1)
- Baugeschichte (1)
Institute
- Fakultät Architektur und Gestaltung (3)
- Fakultät Bauingenieurwesen (2)
- Fakultät Informatik (1)
- Fakultät Maschinenbau (1)
- Institut für Angewandte Forschung - IAF (1)
- Institut für Strategische Innovation und Technologiemanagement - IST (2)
- Konstanz Institut für Corporate Governance - KICG (1)
- Konstanzer Institut für Prozesssteuerung - KIPS (3)
Tourist tracking
(2015)
Themenzentrierte Interaktion
(2015)
Regarding moral concerns in the business sphere, integrity is often mentioned as one of the core values that guides the behavior of companies. Daimler for instance states: “Acting with integrity is the central requirement for sustainable success and a maxim that Daimler follows in its worldwide business practices.”1 Reference to integrity is mostly supposed to signal that the company acts morally responsibly. Although some companies specify what acting with integrity means for them, it generally remains unclear what the concept of integrity entails – both broadly speaking and referring to business. This conceptual gap shall be filled by developing a concept of integrity that can be transferred to the business context. For this purpose, the main criteria that constitute moral integrity will be discussed before reflecting on how these could be integrated into a practical and comprehensive concept of corporate integrity.
Small vessels or unmanned surface vehicles only have a limited amount of space and energy available. If these vessels require an active sensing collision avoidance system it is often not possible to mount large sensor systems like X-Band radars. Thus, in this paper an energy efficient automotive radar and a laser range sensor are evaluated for tracking surrounding vessels. For these targets, those type of sensors typically generate more than one detection per scan. Therefore, an extended target tracking problem has to be solved to estimate state end extension of the vessels. In this paper, an extended version of the probabilistic data association filter that uses random matrices is applied. The performance of the tracking system using either radar or laser range data is demonstrated in real experiments.
Das hier beschriebene und auf einem FPGA vom Typ Spartan-3A DSP realisierte System dient dazu, auf besonders effiziente Weise die Häufigkeitsverteilung nicht erkannter fehlerhafter Nachrichten mit verschiedenen CRCPolynomen
zu berechnen. Damit die Berechnung in möglichst kurzer Zeit stattfindet, wurde das System aus 64 parallel arbeitenden Instanzen von CRC-Findern in mehrstufiger Fließbandorganisation aufgebaut. In der hier beschriebenen Ausbaustufe erreicht das System eine Gesamtleistung von 6,4 ·109 Operationen in der Sekunde.
Classification of point clouds by different types of geometric primitives is an essential part in the reconstruction process of CAD geometry. We use support vector machines (SVM) to label patches in point clouds with the class labels tori, ellipsoids, spheres, cones, cylinders or planes. For the classification features based on different geometric properties like point normals, angles, and principal curvatures are used. These geometric features are estimated in the local neighborhood of a point of the point cloud. Computing these geometric features for a random subset of the point cloud yields a feature distribution. Different features are combined for achieving best classification results. To minimize the time consuming training phase of SVMs, the geometric features are first evaluated using linear discriminant analysis (LDA).
LDA and SVM are machine learning approaches that require an initial training phase to allow for a subsequent automatic classification of a new data set. For the training phase point clouds are generated using a simulation of a laser scanning device. Additional noise based on an laser scanner error model is added to the point clouds. The resulting LDA and SVM classifiers are then used to classify geometric primitives in simulated and real laser scanned point clouds.
Compared to other approaches, where all known features are used for classification, we explicitly compare novel against known geometric features to prove their effectiveness.
Strategie der digitalen Ära
(2015)
Knowing the position of the spool in a solenoid valve, without using costly position sensors, is of considerable interest in a lot of industrial applications. In this paper, the problem of position estimation based on state observers for fast-switching solenoids, with sole use of simple voltage and current measurements, is investigated. Due to the short spool traveling time in fast-switching valves, convergence of the observer errors has to be achieved very fast. Moreover, the observer has to be robust against modeling uncertainties and parameter variations. Therefore, different state observer approaches are investigated, and compared to each other regarding possible uncertainties. The investigation covers a High-Gain-Observer approach, a combined High-Gain Sliding-Mode-Observer approach, both based on extended linearization, and a nonlinear Sliding-Mode-Observer based on equivalent output injection. The results are discussed by means of numerical simulations for all approaches, and finally physical experiments on a valve-mock-up are thoroughly discussed for the nonlinear Sliding-Mode-Observer.
Vortrag auf dem Doktorandenkolloquium des Kooperativen Promotionskollegs der HTWG, 09.07.2015
This work investigates soft input decoding for generalized concatenated (GC) codes. The GC codes are constructed from inner nested binary Bose-Chaudhuri-Hocquenghem (BCH)codes and outer Reed-Solomon (RS) codes. In order to enable soft input decoding for the inner BCH block codes, a sequential stack decoding algorithm is used. Ordinary stack decoding of binary block codes requires the complete trellis of the code.
In this work a representation of the block codes based on the trellises of supercodes is proposed in order to reduce the memory requirements for the representation of the BCH codes. Results for the decoding performance of the overall GC code are presented.
Furthermore, an efficient hardware implementation of the GC decoder is proposed.
Social Entrepreneurship
(2015)
To evaluate the quality of a person's sleep it is essential to identify the sleep stages and their durations. Currently, the gold standard in terms of sleep analysis is overnight polysomnography (PSG), during which several techniques like EEG (eletroencephalogram), EOG (electrooculogram), EMG (electromyogram), ECG (electrocardiogram), SpO2 (blood oxygen saturation) and for example respiratory airflow and respiratory effort are recorded. These expensive and complex procedures, applied in sleep laboratories, are invasive and unfamiliar for the subjects and it is a reason why it might have an impact on the recorded data. These are the main reasons why low-cost home diagnostic systems are likely to be advantageous. Their aim is to reach a larger population by reducing the number of parameters recorded. Nowadays, many wearable devices promise to measure sleep quality using only the ECG and body-movement signals. This work presents an android application developed in order to proof the accuracy of an algorithm published in the sleep literature. The algorithm uses ECG and body movement recordings to estimate sleep stages. The pre-recorded signals fed into the algorithm have been taken from physionet1 online database. The obtained results have been compared with those of the standard method used in PSG. The mean agreement ratios between the sleep stages REM, Wake, NREM-1, NREM-2 and NREM-3 were 38.1%, 14%, 16%, 75% and 54.3%.
SInCom 2015
(2015)
Bei der Auslegung von Trocknungsprozessen empfindlicher biologischer Güter spielt die Produktqualität eine zunehmend wichtige Rolle. Obwohl der Einfluss der Trocknungsparameter auf die Trocknungskinetik von Äpfeln bereits Gegenstand vieler Studien war, sind die Auswirkungen auf die Produktqualität bisher kaum bekannt. Die Untersuchung dieses Sachverhalts und die Entwicklung geeigneter Prozessstrategien zur Verbesserung der Qualität des resultierenden Produkts, waren das Ziel der vorliegenden Arbeit. In einem ersten Schritt wurden zunächst umfangreiche stationäre Grundlagenversuche durchgeführt, die zeigten, dass eine Lufttemperatur im höheren Bereich, eine möglichst hohe Luftgeschwindigkeit und eine niedrige Taupunkttemperatur zur geringsten Trocknungszeit bei gleichzeitig guter optischer Qualität führt. Die Beurteilung dieser Qualitätsveränderungen erfolgte mit Hilfe einer neu eingeführten Bezugsgröße, der kumulierten thermischen Belastung, die durch das zeitliche Integral über der Oberflächentemperatur repräsentiert wird und die Vergleichbarkeit der Versuchsergebnisse entscheidend verbessert. Im zweiten Schritt wurden die Ergebnisse der Einzelschichtversuche zur Aufstellung eines numerischen Simulationsmodells verwendet, welches sowohl die entsprechenden Transportvorgänge, als auch die Formveränderung des Trocknungsgutes berücksichtigt. Das Simulationsmodell sowie die experimentellen Daten waren die Grundlage zur anschließenden Entwicklung von Prozessstrategien für die konvektive Trocknung von Äpfeln, die die resultierende Produktqualität, repräsentiert durch die Produktfarbe und –form, verbessern und gleichzeitig möglichst energieeffizient sein sollten. In einem weiteren Schritt wurde die Übertragbarkeit auf den industriellen Maßstab untersucht, wobei die entsprechenden Prozessstrategien an einer neu entwickelten, kostengünstigen Trocknungsanlage erfolgreich implementiert werden konnten. Das Ziel einer verbesserten Produktqualität konnte mit Hilfe unterschiedlicher instationärer Trocknungsschemata sowohl am Einzelschichttrockner, als auch im größeren Maßstab erreicht werden. Das vorgestellte numerische Simulationsmodell zeigte auch bei der Vorhersage des instationären Trocknungsprozesses eine hohe Genauigkeit und war außerdem in der Lage, den Trocknungsverlauf im industriellen Maßstab zuverlässig voraus zu berechnen.
We consider classes of (Formula presented.)-by-(Formula presented.) sign regular matrices, i.e. of matrices with the property that all their minors of fixed order (Formula presented.) have one specified sign or are allowed also to vanish, (Formula presented.). If the sign is nonpositive for all (Formula presented.), such a matrix is called totally nonpositive. The application of the Cauchon algorithm to nonsingular totally nonpositive matrices is investigated and a new determinantal test for these matrices is derived. Also matrix intervals with respect to the checkerboard ordering are considered. This order is obtained from the usual entry-wise ordering on the set of the (Formula presented.)-by-(Formula presented.) matrices by reversing the inequality sign for each entry in a checkerboard fashion. For some classes of sign regular matrices, it is shown that if the two bound matrices of such a matrix interval are both in the same class then all matrices lying between these two bound matrices are in the same class, too.
Shadow IT risk
(2015)
Die dynamische Belastung durch Sprünge von Menschen ist eine der maßgebenden personeninduzierten Einwirkungen bei dem Nachweis der Gebrauchstauglichkeit von Decken mit schwingungsgefährdenden Geräten. Sie kommt beispielsweise in Ganglaboren und anderen Forschungseinrichtungen bei biomechanischen Untersuchungen in der Sprungkraftdiagnostik vor. Die in diesem Zusammenhang typischen Sprungarten, nämlich der Countermovement Jump (beidbeiniger vertikaler Sprung mit Ausholbewegung) und der Drop Jump (Niederhochsprung), wurden anhand von über 200 Kraftverlaufsmessungen analysiert und daraus die dazugehörigen idealisierten Belastungsmodelle ermittelt. Damit wurde ein vereinfachtes Nachweisverfahren zur Abschätzung der Schwingungsantwort einer Decke entwickelt. Als Ergebnis kann die Beschleunigung der Decke in Abhängigkeit von der modalen Masse und den Werten der Eigenformen am Lastangriffspunkt und am Ausgabepunkt angegeben werden.
Schreiben im Beruf
(2015)
Wie kann der Bedarf für berufliches Schreiben ermittelt werden und welche Schwierigkeiten sind dabei zu erwarten? Im Beitrag wird auf Erfahrungen zurückgegriffen, die in einer verwandten Disziplin gemacht wurden: Für berufsbegleitende Sprachkurse in Unternehmen liegen bereits viele Bedarfsermittlungen vor. Diese Erfahrungen können bei Bedarfsermittlungen für berufliches Schreiben berücksichtigt werden. Im Mittelpunkt des Beitrags stehen drei Bedarfsermittlungen zum Englischbedarf von Mitarbeitern internationaler Unternehmen, in denen die typische Methodik von Bedarfsermittlungen deutlich wird und typische Schwierigkeiten auftreten. Die Schwierigkeiten werden unter den Aspekten Erfahrungsdefizite, Kompetenzunterschiede und Machtgefälle zusammengefasst.
Schreiben im Beruf
(2015)
Wie kann der Bedarf für berufliches Schreiben ermittelt werden und welche Schwierigkeiten sind dabei zu erwarten? Im Beitrag wird auf Erfahrungen zurückgegriffen, die in einer verwandten Disziplin gemacht wurden: Für
berufsbegleitende Sprachkurse in Unternehmen liegen bereits viele Bedarfsermittlungen vor. Diese Erfahrungen können bei Bedarfsermittlungen für berufliches Schreiben berücksichtigt werden. Im Mittelpunkt des Beitrags
stehen drei Bedarfsermittlungen zum Englischbedarf von Mitarbeitern internationaler Unternehmen, in denen die typische Methodik von Bedarfsermittlungen deutlich wird und typische Schwierigkeiten auftreten. Die Schwierigkeiten werden unter den Aspekten Erfahrungsdefizite, Kompetenzunterschiede und Machtgefälle zusammengefasst.
Die richtige Balance zwischen Flexibilität und Stabilität von Geschäftsprozessen ist ein essenzieller Faktor für Unternehmen, um den Anforderungen zunehmend dynamisch werdender Märkte gerecht zu werden.
Die durch die digitale Revolution stetig steigende IT-Durchdringung fordert eine noch besser abgestimmte Zusammenarbeit zwischen den IT- und Fachabteilungen.
Müssen Organisationen schwergewichtige IT- und Prozessarchitekturen pflegen, können diese Anforderungen in vielen Fällen nicht adäquat erfüllt werden. Zu lange Zeitfenster der Aktualisierungszyklen führen zu signifikanten Differenzen zwischen den modellierten und den gelebten Geschäftsprozessen. Die Autoren dieses Beitrags propagieren eine Lösung durch innovative agile Methoden, mit deren Hilfe es möglich wird schlanke, maßgeschneiderte Architekturen unmittelbar zu implementieren und kontinuierlich zu pflegen.
Der Begriff Schatten-IT beschreibt Systeme, die außerhalb des Verantwortungsbereiches der IT durch die Fachabteilung eigenständig entwickelt und betrieben werden. Obwohl dieses Phänomen weit verbreitet ist, blieb diese Schatten-IT in Wissenschaft und in Praxis lange unbeachtet. Seit einiger Zeit ist eine verstärkte Auseinandersetzung mit dem Phänomen erkennbar. Jedoch gibt es bisher nur wenige empirisch gestützte Erkenntnisse über die Schatten-IT. Diese Lücke wird in dem vorliegenden Beitrag angegangen. Auf Basis von vier Fallstudien werden die Verbreitung, Verwendung und die Qualität der Schatten-IT ermittelt. Dabei zeigt sich, dass die Schatten-IT mit durchaus erheblichen Risiken verbunden sein kann. Demgegenüber bleibt die Qualität jedoch merklich zurück. Erkennbar ist dabei auch, dass die Schatten-IT nicht im Blickfeld der Kontrollsysteme der Unternehmen erscheint. Durch Maßnahmen wie die Steigerung der Awareness der Schatten-IT im Unternehmen sowie eine Entwicklung der Schatten-IT hin zu einer gesteuerten Fachbereichs-IT lassen sich die Risiken wirksam reduzieren. Zudem sind die Kontrollsysteme der Unternehmen so anzupassen, dass auch die Schatten-IT in diesen sichtbar wird.
Schatten-IT
(2015)
Schatten-IT
(2015)
Schatten-IT
(2015)
Schatten-BI - Was tun?
(2015)
Sabbatical semester report
(2015)
Rhetorik-Wörterbuch
(2015)
RELOAD
(2015)
Vortrag auf dem Doktorandenkolloquium des Kooperativen Promotionskollegs der HTWG, 09.07.2015
Digital cameras are subject to physical, electronic and optic effects that result in errors and noise in the image. These effects include for example a temperature dependent dark current, read noise, optical vignetting or different sensitivities of individual pixels. The task of a radiometric calibration is to reduce these errors in the image and thus improve the quality of the overall application. In this work we present an algorithm for radiometric calibration based on Gaussian processes. Gaussian processes are a regression method widely used in machine learning that is particularly useful in our context. Then Gaussian process regression is used to learn a temperature and exposure time dependent mapping from observed gray-scale values to true light intensities for each pixel. Regression models based on the characteristics of single pixels suffer from excessively high runtime and thus are unsuitable for many practical applications. In contrast, a single regression model for an entire image with high spatial resolution leads to a low quality radiometric calibration, which also limits its practical use. The proposed algorithm is predicated on a partitioning of the pixels such that each pixel partition can be represented by one single regression model without quality loss. Partitioning is done by extracting features from the characteristic of each pixel and using them for lexicographic sorting. Splitting the sorted data into partitions with equal size yields the final partitions, each of which is represented by the partition centers. An individual Gaussian process regression and model selection is done for each partition. Calibration is performed by interpolating the gray-scale value of each pixel with the regression model of the respective partition. The experimental comparison of the proposed approach to classical flat field calibration shows a consistently higher reconstruction quality for the same overall number of calibration frames.
Quarantänestation
(2015)
Probabilistic data association for tracking extended targets under clutter using random matrices
(2015)
The use of random matrices for tracking extended objects has received high attention in recent years. It is an efficient approach for tracking objects that give rise to more than one measurement per time step. In this paper, the concept of random matrices is used to track surface vessels using highresolution automotive radar sensors. Since the radar also receives a large number of clutter measurements from the water, for the data association problem, a generalized probabilistic data association filter is applied. Additionally, a modification of the filter update step is proposed to incorporate the Doppler velocity measurements. The presented tracking algorithm is validated using Monte Carlo Simulation, and some performance results with real radar data are shown as well.
The improvement of collision avoidance for vessels in close range encounter situations is an important topic for maritime traffic safety. Typical approaches generate evasive trajectories or optimise the trajectories of all involved vessels. Such a collision avoidance system has to produce evasive manoeuvres that do not confuse other navigators. To achieve this behaviour, a probabilistic obstacle handling based on information from a radar sensor with target tracking, that considers measurement and tracking uncertainties is proposed. A grid based path search algorithm, that takes the information from the probabilistic obstacle handling into account, is then used to generate evasive trajectories. The proposed algorithms have been tested and verified in a simulated environment for inland waters.