Refine
Year of publication
- 2015 (201) (remove)
Document Type
- Conference Proceeding (89)
- Article (48)
- Other Publications (39)
- Part of a Book (11)
- Book (9)
- Doctoral Thesis (3)
- Journal (Complete Issue of a Journal) (1)
- Study Thesis (1)
Has Fulltext
- no (201) (remove)
Keywords
- Algorithm (1)
- Apfel (1)
- Arbeitsrecht (1)
- Autonomy (1)
- Autoritarismus (1)
- BCH codes (1)
- BPM (1)
- Baugeschichte (1)
- Bedarfsermittlungen (1)
- Bernstein coefficients (1)
Flash-Speicher wurden ursprünglich als Speichermedium für Digitalkameras entwickelt, finden inzwischen aber in vielen Bereichen Anwendung.
Die in Konstanz ansässige Firma Hyperstone GmbH ist ein führender Anbieter von Flashcontrollern für Anwendungen mit erhöhten Anforderungen an Zuverlässigkeit und Datenintegrität. Bereits seit April 2011 kooperiert die Firma Hyperstone mit der HTWG Konstanz bei der Entwicklung von Fehlerkorrekturverfahren für einen zuverlässigen Einsatz von Flash-Speichern. Aufgrund der rasanten Entwicklung bei Flashspeicherbausteinen ist auch eine stetige Weiterentwicklung der Korrekturverfahren notwendig. Im Rahmen dieser Kooperation wurde inzwischen zwei Flashcontroller mit sehr leistungsfähiger Fehlerkorrektur entwickelt. Der folgende Artikel gibt Einblick in den Einsatz von Flash-Speichern und erläutert die Notwendigkeit für eine leistungsfähige Fehlerkorrektur.
Die Bedeutung immaterieller Rechtsgüter nimmt in der Unternehmensrealität ständig zu. Dieser Bedeutungszuwachs hat einen festen betriebswirtschaftlichen Hintergrund: Zunehmend bestimmen nicht mehr Sachanlagevermögen, Geschäftsbeziehungen oder die Mitarbeiter den Unternehmenswert, sondern überwiegend das Intellectual Property (kurz auch: IP).1 Der Begriff Intellectual Property meint im Folgenden das durch Schutzrechte kodifizierte Wissen, also Patente, Gebrauchsmuster, Marken, Geschmacksmuster und sonstige Schutzrechte (gewerbliche Schutzrechte) sowie Urheberrechte. Diese Schutzrechte vermitteln absolute Verwertungsrechte und damit Monopolrechte, die es den Inhabern ermöglicht, das geschützte IP für eine bestimmte Schutzdauer allein und unter Ausschluss unbefugter Dritter zu verwerten.
Auch die Bedeutung von IT nimmt in der Unternehmenspraxis ständig zu.
Mehr als 40 Prozent der Unternehmen nutzen keine operativen Prozessdaten, um die Durchlaufzeiten oder Kosten ihrer Prozesse effektiv zu überwachen. Dennoch geben mehr als 60 Prozent der Unternehmen an, mit Prozessmanagement ihre Effizienz steigern zu wollen. Dies zeigt die Studie «Business Process Management 2015» der ZHAW School of Management and Law (SML). Die Ergebnisse wurden heute am BPM Symposium in Winterthur vorgestellt und mit einem breiten Fachpublikum aus Praxis und Wissenschaft diskutiert.
Grundlage für die digitale Transformation: Die Studie untersucht, wie und in welchem Ausmass Unternehmen das Standardrepertoire des Geschäftsprozessmanagements in Richtung Prozessintelligenz erweitern. Prozessintelligenz schliesst die Lücke zum operativen Geschäft und liefert eine neue Perspektive auf das Management der Geschäftsprozesse. Dabei konzentriert sie sich auf die Informationen, die in den operativen Prozessen entstehen und gebraucht werden und ist somit eine wesentliche Grundlage für die aktuell viel diskutierte digitale Transformation von Unternehmen. Um Prozesse besser verstehen, steuern und optimieren zu können, werden Methoden und Werkzeuge des Geschäftsprozessmanagements (BPM) und der Business Intelligence (BI) kombiniert.
Wertvolle Erfahrungen aus der Praxis: Für die Studie wurden in einer Online-Befragung über 80 Unternehmen zum Status quo ihrer «Prozessintelligenz» befragt. Ein Praxisworkshop diente als Rahmen, um Erfolgsmuster aus fünf Fallstudien bei Roche, AXA Winterthur, der St. Galler Kantonalbank sowie den Städten Lausanne und Konstanz zu identifizieren. Der Softwarehersteller Axon Ivy und SBB Immobilien haben im Rahmen einer Studienpartnerschaft mit dem Institut für Wirtschaftsinformatik der SML und dem Institut für Prozesssteuerung der HTWG Konstanz wertvolle Praxiserfahrungen beigesteuert. Das Resultat ist eine Momentaufnahme der strategischen, analytischen und praktischen Fähigkeiten, Methoden und Werkzeuge, mit denen Organisationen ihre Geschäftsprozesse gestalten, ausführen, überwachen und fortlaufend weiterentwickeln.
Themenzentrierte Interaktion
(2015)
Vortrag auf dem Doktorandenkolloquium des Kooperativen Promotionskollegs der HTWG, 09.07.2015
Social Entrepreneurship
(2015)
Nichts als Worte
(2015)
Das Abenteuer der Kritik
(2015)
Green-Innovation
(2015)
Vortrag auf dem Doktorandenkolloquium des Kooperativen Promotionskollegs der HTWG, 09.07.2015
RELOAD
(2015)
Vortrag auf dem Doktorandenkolloquium des Kooperativen Promotionskollegs der HTWG, 09.07.2015
Vortrag auf dem Doktorandenkolloquium des Kooperativen Promotionskollegs der HTWG, 09.07.2015
Organizational leadership
(2015)
Unternehmen und Integrität
(2015)
Biokratie
(2015)
Aus systemisch-evolutorischer Perspektive wird die Frage nach Biokratie aus der intersystemischen Konkurrenz zwischen Biosphäre und Anthroposphäre angegangen. Mit zunehmender Eingriffstiefe in die Biosphäre entsteht die Gefahr einer gestörten Koevolution. Dem Verfasser geht es um die große zentrale Frage: Wie ist naturangepasstes Wirtschaften im Kontext evolvierender Bio- und Anthroposphären möglich? Die Grundprämisse geht davon aus, dass Kenntnisse hinsichtlich der Funktionsprinzipien der Biosphäre nicht nur zur Begrenzung der Eingriffsintensität erforderlich sind, sondern auch wertvolle Informationen zur Gestaltung des anthropogenen Metabolismus und der Wertschöpfungssysteme nach Naturvorbildern liefern. Zugleich sind diese potentiellen Innovationsfelder vor dem Hintergrund evolutionsökonomischer Erkenntnisse zu reflektieren.
Quarantänestation
(2015)
Land schafft Landschaft
(2015)
In biomechanics laboratories the ground reaction force time histories of the foot-fall of persons are usually measured using a force plate. The accelerations of the floor, in which the force plate is embedded, have to be limited, as they may influence the accuracy of the force measurements. For the numerical simulation of vibrations induced by humans in biomechanical laboratories, loading scenarios are defined. They include continuous motions of persons (walking, running) as well as jumps, typical for biomechanical investigations on athletes. The modeling of floors has to take into account the influence of floor screed in case of portable force plates. Criteria for the assessment of the measuring error provoked by floor vibrations are given. As an example a floor designed to accommodate a force platform in a biomechanical laboratory of the University Hospital in Tübingen, Germany, has been investi-gated for footfall induced vibrations. The numerical simulation by a finite element analysis has been validated by field measurements. As a result, the measuring error of the force plate installed in the laboratory is obtained for diverse scenarios.
Governanceethik
(2015)
Konventionelle, von Dieselmotoren angetriebene Radlader beeinträchtigen die Lebensqualität der Menschen in ihrer unmittelbaren Umgebung mit Lärm- und Schadstoffemissionen. Das vom BMBF geförderte Forschungsvorhaben "Emissionsarmer Elektroradlader" verfolgt das Ziel, die lokalen Emissionen von Radladern deutlich herabzusetzen und die Effizienz des Fahrzeugs zu steigern. Im Rahmen des Vorhabens wurde ein konventioneller Radlader auf elektrische Antriebe umgerüstet. Als Energiespeicher dient eine LiFeYPO4-Batterie, die für eine Betriebsdauer von vier Stunden ausgelegt ist. In ersten praktischen Untersuchungen wurde die Energiebilanz des Emissionsarmen Elektro-Radladers mit der des konventionellen Serienfahrzeugs verglichen. Dazu wurde ein modifizierter Y-Arbeitszyklus entworfen, der sich an den üblichen Arbeitsaufgaben des Radladers orientiert und sich durch eine hohe Reproduzierbarkeit auszeichnet. Für die vollständige Bewertung wird die komplette Kette der Energieumwandlung betrachtet, beginnend mit der Energie im Kraftstoff bzw. der dem Stromnetz entnommenen Energie, bis zur mechanischen Arbeit, die das Gerät verrichtet. Daraus lassen sich Rückschlüsse auf die unterschiedlichen CO2-Emissionen beider Fahrzeuge ableiten.
This chapter contains three advanced topics in model order reduction (MOR): nonlinear MOR, MOR for multi-terminals (or multi-ports) and finally an application in deriving a nonlinear macromodel covering phase shift when coupling oscillators. The sections are offered in a preferred order for reading, but can be read independently.
The proposed approach applies current unsupervised clustering approaches in a different dynamic manner. Instead of taking all the data as input and finding clusters among them, the given approach clusters Holter ECG data (long-term electrocardiography data from a holter monitor) on a given interval which enables a dynamic clustering approach (DCA). Therefore advanced clustering techniques based on the well known Dynamic Time Warping algorithm are used. Having clusters e.g. on a daily basis, clusters can be compared by defining cluster shape properties. Doing this gives a measure for variation in unsupervised cluster shapes and may reveal unknown changes in healthiness. Embedding this approach into wearable devices offers advantages over the current techniques. On the one hand users get feedback if their ECG data characteristic changes unforeseeable over time which makes early detection possible. On the other hand cluster properties like biggest or smallest cluster may help a doctor in making diagnoses or observing several patients. Further, on found clusters known processing techniques like stress detection or arrhythmia classification may be applied.
The problem of vessel collisions or near-collision situations on sea, often caused by human error due to incomplete or overwhelming information, is becoming more and more important with rising maritime traffic. Approaches to supply navigators and Vessel Traffic Services with expert knowledge and suggest trajectories for all vessels to avoid collisions, are often aimed at situations where a single planner guides all vessels with perfect information. In contrast, we suggest a two-part procedure which plans trajectories using a specialised A* and negotiates trajectories until a solution is found, which is acceptable for all vessels. The solution obeys collision avoidance rules, includes a dynamic model of all vessels and negotiates trajectories to optimise globally without a global planner and extensive information disclosure. The procedure combines all components necessary to solve a multi-vessel encounter and is tested currently in simulation and on several test beds. The first results show a fast converging optimisation process which after a few negotiation rounds already produce feasible, collision free trajectories.
To evaluate the quality of a person's sleep it is essential to identify the sleep stages and their durations. Currently, the gold standard in terms of sleep analysis is overnight polysomnography (PSG), during which several techniques like EEG (eletroencephalogram), EOG (electrooculogram), EMG (electromyogram), ECG (electrocardiogram), SpO2 (blood oxygen saturation) and for example respiratory airflow and respiratory effort are recorded. These expensive and complex procedures, applied in sleep laboratories, are invasive and unfamiliar for the subjects and it is a reason why it might have an impact on the recorded data. These are the main reasons why low-cost home diagnostic systems are likely to be advantageous. Their aim is to reach a larger population by reducing the number of parameters recorded. Nowadays, many wearable devices promise to measure sleep quality using only the ECG and body-movement signals. This work presents an android application developed in order to proof the accuracy of an algorithm published in the sleep literature. The algorithm uses ECG and body movement recordings to estimate sleep stages. The pre-recorded signals fed into the algorithm have been taken from physionet1 online database. The obtained results have been compared with those of the standard method used in PSG. The mean agreement ratios between the sleep stages REM, Wake, NREM-1, NREM-2 and NREM-3 were 38.1%, 14%, 16%, 75% and 54.3%.
Technology-based ventures provide an important route for successful technology transfer [1], [2]. Their founders are supported in successful technology commercialization by innovation intermediaries [3]. Accordingly, the performance of an innovation system, at least to some extent, depends on the efficiency of these intermediaries in terms of the impact of their scarce resources on the survival and growth of technology-based ventures. To increase their efficiency, intermediaries typically optimize their "intake" by requesting a formal business plan to base their selection on as a hygiene factor [4]-[7]. Thus, some scholars argue that written business plans show significant distortion as being produced only to attract support from innovation intermediaries [6], [8]. Accordingly, they rarely serve for these addressees as a source of information for analyzing the strengths and weaknesses of ventures, in order to derive actionable conclusions and more effectively support ventures [9], [10]. Addressees search for different indicators in business plans for their evaluation [11]. The descriptions of these indicators only evince little empirical proof for the performance of technology-based venture's [8], [12]. This gap is herein addressed, in contrast to the lacking empirical insight, as the most frequently produced artifact of early-stage technology ventures is at the same time a written business plan [10], [13]. This paper addresses this gap by conceptualizing transaction relations described in the written business plan as a means for working around the inevitable inaccuracies and uncertainties that delimit the explanatory abilities [14] of the snapshot model [10] presented by a business plan. Using a qualitative content analysis, we derive from the descriptions of transaction relations in a written business plan valid indicators for the maturity of the venture's value-network in different dimensions [15]. To this extent, this paper presents the findings from a pre-study that was conducted based on a sample of forty business plans from an overall population of 800 business plans in a longitudinal sample from one of Europe's most active innovation systems, the regional State of Baden-Württemberg. Such findings may be used by innovation intermediaries to enhance their efficiency, by enabling these to not only derive individual support strategies for business acceleration but also to analyze the impact of support measures by reliably monitoring maturity progress in venture activities.
Excubation
(2015)
In this paper an approach towards databased fault diagnosis of linear electromagnetic actuators is presented. Time and time-frequency-domain methods were applied to extract fault related features from current and voltage measurements. The resulting features were transformed to enhance class separability using either Principal Component Analysis (PCA) or Optimal Transformation. Feature selection and dimensionality reduction was performed employing a modified Fisher-ratio. Fault detection was carried out using a Support-Vector-Machine classifier trained with randomly selected data subsets. Results showed, that not only the used feature sets (time-domain/time-frequency-domain) are crucial for fault detection and classification, but also feature pre-processing. PCA transformed time-domain features allow fault detection and classification without misclassification, relying on current and voltage measurements making two sensors necessary to generate the data. Optimal transformed time-frequency-domain features allow a misclassification free result as well, but as they are calculated from current measurements only, a dedicated voltage sensor is not necessary. Using those features is a promising alternative even for detecting purely supply voltage related faults.
Schreiben im Beruf
(2015)
Wie kann der Bedarf für berufliches Schreiben ermittelt werden und welche Schwierigkeiten sind dabei zu erwarten? Im Beitrag wird auf Erfahrungen zurückgegriffen, die in einer verwandten Disziplin gemacht wurden: Für berufsbegleitende Sprachkurse in Unternehmen liegen bereits viele Bedarfsermittlungen vor. Diese Erfahrungen können bei Bedarfsermittlungen für berufliches Schreiben berücksichtigt werden. Im Mittelpunkt des Beitrags stehen drei Bedarfsermittlungen zum Englischbedarf von Mitarbeitern internationaler Unternehmen, in denen die typische Methodik von Bedarfsermittlungen deutlich wird und typische Schwierigkeiten auftreten. Die Schwierigkeiten werden unter den Aspekten Erfahrungsdefizite, Kompetenzunterschiede und Machtgefälle zusammengefasst.
Im Beitrag wird erörtert, welche Rolle der schriftlichen Fehlerkorrektur im studienbegleitenden und -vorbereitenden Deutschunterricht zukommt. Dazu wird ein Überblick über den Stand der Forschung gegeben und eine Studie zur Fehlerkorrektur mit fortgeschrittenen Lernenden vorgestellt, in der die Wirkung einer Fehlerkorrektur am Lernertext überprüft wurde. Die Fehlerkorrektur führte bei der Experimentalgruppe zwar zu einer Reduktion der Fehler in der Überarbeitung, im Vergleich zur Kontrollgruppe aber nicht zu einer signifikanten Verbesserung in einem neuen Text. Um zu eruieren, wie die Lernenden mit der Fehlerkorrektur umgingen, wurde in der Studie außerdem eine qualitative Analyse einzelner Arbeiten vorgenommen. Der Beitrag schließt mit der Frage, welche Rolle eine – nicht sonderlich effektive – Fehlerkorrektur in einer auf Wissenschaftssprache bezogenen Vermittlung einnehmen sollte.
Moderne als Geschichte
(2015)
This work investigates soft input decoding for generalized concatenated (GC) codes. The GC codes are constructed from inner nested binary Bose-Chaudhuri-Hocquenghem (BCH)codes and outer Reed-Solomon (RS) codes. In order to enable soft input decoding for the inner BCH block codes, a sequential stack decoding algorithm is used. Ordinary stack decoding of binary block codes requires the complete trellis of the code.
In this work a representation of the block codes based on the trellises of supercodes is proposed in order to reduce the memory requirements for the representation of the BCH codes. Results for the decoding performance of the overall GC code are presented.
Furthermore, an efficient hardware implementation of the GC decoder is proposed.
Digitalisierung im Bauwesen
(2015)
Small vessels or unmanned surface vehicles only have a limited amount of space and energy available. If these vessels require an active sensing collision avoidance system it is often not possible to mount large sensor systems like X-Band radars. Thus, in this paper an energy efficient automotive radar and a laser range sensor are evaluated for tracking surrounding vessels. For these targets, those type of sensors typically generate more than one detection per scan. Therefore, an extended target tracking problem has to be solved to estimate state end extension of the vessels. In this paper, an extended version of the probabilistic data association filter that uses random matrices is applied. The performance of the tracking system using either radar or laser range data is demonstrated in real experiments.
Probabilistic data association for tracking extended targets under clutter using random matrices
(2015)
The use of random matrices for tracking extended objects has received high attention in recent years. It is an efficient approach for tracking objects that give rise to more than one measurement per time step. In this paper, the concept of random matrices is used to track surface vessels using highresolution automotive radar sensors. Since the radar also receives a large number of clutter measurements from the water, for the data association problem, a generalized probabilistic data association filter is applied. Additionally, a modification of the filter update step is proposed to incorporate the Doppler velocity measurements. The presented tracking algorithm is validated using Monte Carlo Simulation, and some performance results with real radar data are shown as well.
Digital cameras are subject to physical, electronic and optic effects that result in errors and noise in the image. These effects include for example a temperature dependent dark current, read noise, optical vignetting or different sensitivities of individual pixels. The task of a radiometric calibration is to reduce these errors in the image and thus improve the quality of the overall application. In this work we present an algorithm for radiometric calibration based on Gaussian processes. Gaussian processes are a regression method widely used in machine learning that is particularly useful in our context. Then Gaussian process regression is used to learn a temperature and exposure time dependent mapping from observed gray-scale values to true light intensities for each pixel. Regression models based on the characteristics of single pixels suffer from excessively high runtime and thus are unsuitable for many practical applications. In contrast, a single regression model for an entire image with high spatial resolution leads to a low quality radiometric calibration, which also limits its practical use. The proposed algorithm is predicated on a partitioning of the pixels such that each pixel partition can be represented by one single regression model without quality loss. Partitioning is done by extracting features from the characteristic of each pixel and using them for lexicographic sorting. Splitting the sorted data into partitions with equal size yields the final partitions, each of which is represented by the partition centers. An individual Gaussian process regression and model selection is done for each partition. Calibration is performed by interpolating the gray-scale value of each pixel with the regression model of the respective partition. The experimental comparison of the proposed approach to classical flat field calibration shows a consistently higher reconstruction quality for the same overall number of calibration frames.
Energietechnische Grundlagen
(2015)
Kapitel 2 stellt kurz die verschiedenen Energieformen mechanisch, thermisch, chemisch etc. vor und das Prinzip von der Erhaltung der (Gesamt-) Energie. Die Möglichkeit zur Umwandlung von thermischer Energie in nutzbare mechanische Energie durch Kreisprozesse, mit dem theoretischen Carnot-Prozess als Obergrenze der Umwandelbarkeit, wird erläutert. Die Angabe der Größenordnung des regenerativen Energieangebots und des anthropogenen Umsatzes und die Unterscheidung zwischen Primär- und Sekundärenergien schließen das Kapitel ab.
Brennstoffzellen
(2015)
Kapitel 9 beginnt mit einer kurzen historischen Einführung und beschreibt dann nach einer ersten Klassifizierung das Funktionsprinzip und die thermodynamischen Grundlagen der direkten Umwandlung chemischer in elektrische Energie. Es folgen die verschiedenen Wirkungsgraddefinitionen und Verlustursachen und das sich daraus ergebende typische Betriebsverhalten einer Brennstoffzelle mit höherem Wirkungsgrad im Teillastbereich. Es werden die Anwendungsgebiete, die notwendigen Grundkomponenten und der Stand der Entwicklung der verschiedenen Typen AFC, PEFC, PAFC, MCFC und SOFC besprochen, Vor- und Nachteile diskutiert und einige ausgeführte Anlagen vorgestellt.
The detection of differences between images of a printed reference and a reprinted wood decor often requires an initial image registration step. Depending on the digitalization method, the reprint will be displaced and rotated with respect to the reference. The aim of registration is to match the images as precisely as possible. In our approach, images are first matched globally by extracting feature points from both images and finding corresponding point pairs using the RANSAC algorithm. From these correspondences, we compute a global projective transformation between both images. In order to get a pixel-wise registration, we train a learning machine on the point correspondences found by RANSAC. The learning algorithm (in our case Gaussian process regression) is used to nonlinearly interpolate between the feature points which results in a high precision image registration method on wood decors.
Vor dem Hintergrund der großen Bedeutung des Europäischen Wirtschaftsrechts, gerade auch für das deutsche Wirtschaftsleben, gibt die vorliegende Veröffentlichung zunächst einen einführenden Überblick über die Entwicklung, die Ziele und Zuständigkeiten sowie die Organisationsstruktur und die Rechtsquellen der Europäischen Union. Es soll deutlich werden, wo und wie Recht, speziell Wirtschaftsrecht, überhaupt entsteht und welche Inhalte dieses jeweils aufweist. Dieser erste Teil der Studie ist bewusst sehr ausführlich gehalten und dient als Wissens- und Verständnisgrundlage für den zweiten Teil, die eigentliche Darstellung des Europäischen Wirtschaftsrechts unter besonderer Berücksichtigung der Grundfreiheiten als Rahmenbedingung eines marktorientierten Managements deutscher Unternehmen. Die Studie soll als Einstieg in dieses Rechtsgebiet dienen und gleichzeitig Vertiefungen zu bestimmten einzelnen Aspekten jeweils zu erleichtern helfen. Adressaten sind Studierende von Universitäten, Fachhochschulen, Berufsakademien und anderen Bildungseinrichtungen, die sich während ihres Studiums mit dem Recht der Europäischen Union zu befassen haben, ebenso wie betroffene Entscheidungsträger der Wirtschaft.
Multistakeholder-Analyse zur Evaluation der KiCG Anforderungen an Compliance-Management-Systeme
(2015)
Energiequelle Seewasser
(2015)
Die richtige Balance zwischen Flexibilität und Stabilität von Geschäftsprozessen ist ein essenzieller Faktor für Unternehmen, um den Anforderungen zunehmend dynamisch werdender Märkte gerecht zu werden.
Die durch die digitale Revolution stetig steigende IT-Durchdringung fordert eine noch besser abgestimmte Zusammenarbeit zwischen den IT- und Fachabteilungen.
Müssen Organisationen schwergewichtige IT- und Prozessarchitekturen pflegen, können diese Anforderungen in vielen Fällen nicht adäquat erfüllt werden. Zu lange Zeitfenster der Aktualisierungszyklen führen zu signifikanten Differenzen zwischen den modellierten und den gelebten Geschäftsprozessen. Die Autoren dieses Beitrags propagieren eine Lösung durch innovative agile Methoden, mit deren Hilfe es möglich wird schlanke, maßgeschneiderte Architekturen unmittelbar zu implementieren und kontinuierlich zu pflegen.
Model Order Reduction
(2015)
This chapter offers an introduction to Model Order Reduction (MOR). It gives an overview on the methods that are mostly used. It also describes the main concepts behind the methods and the properties that are aimed to be preserved. The sections are in a prefered order for reading, but can be read independentlty. Section 4.1, written by Michael Striebel, E. Jan W. ter Maten, Kasra Mohaghegh and Roland Pulch, overviews the basic material for MOR and its use in circuit simulation. Issues like Stability, Passivity, Structure preservation, Realizability are discussed. Projection based MOR methods include Krylov-space methods (like PRIMA and SPRIM) and POD-methods. Truncation based MOR includes Balanced Truncation, Poor Man’s TBR and Modal Truncation.Section 4.2, written by Joost Rommes and Nelson Martins, focuses on Modal Truncation. Here eigenvalues are the starting point. The eigenvalue problems related to large-scale dynamical systems are usually too large to be solved completely. The algorithms described in this section are efficient and effective methods for the computation of a few specific dominant eigenvalues of these large-scale systems. It is shown how these algorithms can be used for computing reduced-order models with modal approximation and Krylov-based methods.Section 4.3, written by Maryam Saadvandi and Joost Rommes, concerns passivity preserving model order reduction using the spectral zero method. It detailedly discusses two algorithms, one by Antoulas and one by Sorenson. These two approaches are based on a projection method by selecting spectral zeros of the original transfer function to produce a reduced transfer function that has the specified roots as its spectral zeros. The reduced model preserves passivity.Section 4.4, written by Roxana Ionutiu, Joost Rommes and Athanasios C. Antoulas, refines the spectral zero MOR method to dominant spectral zeros. The new model reduction method for circuit simulation preserves passivity by interpolating dominant spectral zeros. These are computed as poles of an associated Hamiltonian system, using an iterative solver: the subspace accelerated dominant pole algorithm (SADPA). Based on a dominance criterion, SADPA finds relevant spectral zeros and the associated invariant subspaces, which are used to construct the passivity preserving projection. RLC netlist equivalents for the reduced models are provided.Section 4.5, written by Roxana Ionutiu and Joost Rommes, deals with synthesis of a reduced model: reformulate it as a netlist for a circuit. A framework for model reduction and synthesis is presented, which greatly enlarges the options for the re-use of reduced order models in circuit simulation by simulators of choice. Especially when model reduction exploits structure preservation, we show that using the model as a current-driven element is possible, and allows for synthesis without controlled sources. Two synthesis techniques are considered: (1) by means of realizing the reduced transfer function into a netlist and (2) by unstamping the reduced system matrices into a circuit representation. The presented framework serves as a basis for reduction of large parasitic R/RC/RCL networks.
Codes over quotient rings of Lipschitz integers have recently attracted some attention. This work investigates the performance of Lipschitz integer constellations for transmission over the AWGN channel by means of the constellation figure of merit. A construction of sets of Lipschitz integers that leads to a better constellation figure of merit compared to ordinary Lipschitz integer constellations is presented. In particular, it is demonstrated that the concept of set partitioning can be applied to quotient rings of Lipschitz integers where the number of elements is not a prime number. It is shown that it is always possible to partition such quotient rings into additive subgroups in a manner that the minimum Euclidean distance of each subgroup is strictly larger than in the original set. The resulting signal constellations have a better performance for transmission over an additive white Gaussian noise channel compared to Gaussian integer constellations and to ordinary Lipschitz integer constellations. In addition, we present multilevel code constructions for the new signal constellations.
Stress is recognized as a factor of predominant disease and in the future the costs for treatment will increase. The presented approach tries to detect stress in a very basic and easy to implement way, so that the cost for the device and effort to wear it remain low. The user should benefit from the fact that the system offers an easy interface reporting the status of his body in real time. In parallel, the system provides interfaces to pass the obtained data forward for further processing and (professional) analyses, in case the user agrees. The system is designed to be used in every day’s activities and it is not restricted to laboratory use or environments. The implementation of the enhanced prototype shows that the detection of stress and the reporting can be managed using correlation plots and automatic pattern recognition even on a very light-weighted microcontroller platform.
Die zum UNESCO Weltkulturerbe zaehlenden Meisterhaeuser des Dessauer Bauhauses wurden 1925/1926 nach Plaenen des Bauhaus-Gruenders Walter Gropius errichtet. Nach Umbauten waehrend des Nationalsozialismus wurden im Zweiten Weltkrieg zwei Gebaeude des Ensembles voellig zerstoert: das Direktorenhaus und die Doppelhaushaelfte von Laszlo Moholy-Nagy. 1956 erfolgte ein veraenderter Wiederaufbau des Hauses Gropius als Haus Emmer. Fuer einen adaequaten denkmalpflegerischen Umgang mit dem Ensemble nach der Wiedervereinigung wurden nach laengeren Vorueberlegungen 2008 und 2010 Wettbewerbe fuer eine staedtebauliche Reparatur durchgefuehrt. Auf dieser Grundlage wurde das Berliner Architektenbuero Bruno Fioretti Marquez mit dem Neubau des Direktorenhauses und des Hauses Moholy-Nagy beauftragt. Da die Quellenlage fuer eine Rekonstruktion nicht ausreichte, wurde ein anspruchsvolles architektonisches Konzept umgesetzt, das die Kubatur der verlorenen Bauten nachzeichnet. Die Detailausbildung wurde frei in gegenueber den erhaltenen Meisterhaeusern, die bereits zuvor saniert worden waren, stark reduzierten Formen gestaltet.
This paper proposes a pipelined decoder architecture for generalised concatenated (GC) codes. These codes are constructed from inner binary Bose-Chaudhuri-Hocquenghem (BCH) and outer Reed-Solomon codes. The decoding of the component codes is based on hard decision syndrome decoding algorithms. The concatenated code consists of several small BCH codes. This enables a hardware architecture where the decoding of the component codes is pipelined. A hardware implementation of a GC decoder is presented and the cell area, cycle counts as well as the timing constraints are investigated. The results are compared to a decoder for long BCH codes with similar error correction performance. In comparison, the pipelined GC decoder achieves a higher throughput and has lower area consumption.
Üblicherweise wird bei der Erdbebenbemessung von durch Stahlbetonwände ausgesteiften Gebäuden entweder die ungerissene Biegesteifigkeit oder ein von dieser durch einen Abminderungsfaktor abgeleiteter Wert zur Berücksichtigung des Zustands II verwendet. Tatsächlich ist die Biegesteifigkeit von Stahlbetonquerschnitten jedoch vom Bewehrungsgrad und von der Normalkraft abhängig. Die Fließverschiebung, bei der sich am Fuß einer Stahlbetonwand ein plastisches Gelenk bildet, ist hingegen fast ausschließlich von ihrer Länge im Grundriss abhängig. Torsionswirkungen infolge Exzentrizität zwischen Massen- und Steifigkeitsmittelpunkt werden üblicherweise durch Vergrößerung der Bemessungskräfte der einzelnen Wände berücksichtigt. Den durch die Torsionswirkung vergrößerten Verschiebungen einzelner Wände wird dabei keine Beachtung geschenkt. Da die durch die Verhaltensbeiwerte der Normen implizit vorausgesetzte ertragbare Verformung des Tragsystems zusätzliche Verschiebungen infolge Torsion nicht explizit berücksichtigt, kann es so unter Umständen wegen Überschreitung der maximal möglichen Verformung einzelner Wände zu einem vorzeitigen Versagen kommen. Im vorliegenden Aufsatz wird ein quasi-händisches Nachweisverfahren vorgestellt, mit dem die explizite Berücksichtigung von torsionsbedingten Verschiebungen möglich ist und bei dem realistische Biegesteifigkeiten für die Wände verwendet werden.
In [Zahn, F., Köber, D., Verfahren zum Erdbebennachweis von durch Stahlbetonwände ausgesteiften Gebäuden mit explizitem Nachweis der Verformungen. Beton- und Stahlbetonbau 110 (2015) Heft 4, S. 293–302] wird ein Bemessungsverfahren für durch Erdbeben beanspruchte Tragwerke vorgestellt, mit dem die explizite Berücksichtigung von torsionsbedingten Verschiebungen möglich ist und bei dem realistische Biegesteifigkeiten für die Wände verwendet werden. Da mit diesem vereinfachten Verfahren mit vertretbarem Aufwand nur der getrennte Tragsicherheitsnachweis für Erdbebenbeanspruchungen in den Gebäudehauptrichtungen möglich ist, wird in diesem Aufsatz der Frage nachgegangen, ob ein Gebäude, für welches der Nachweis in beiden Hauptrichtungen erbracht wird, auch für Erdbebenbeanspruchung unter 45° zu den Hauptrichtungen ausreichende Standsicherheit besitzt. Zu diesem Zwecke werden zwei Beispielgebäude zunächst mit dem in [1] beschriebenen Verfahren auf ihre Standsicherheit in den Hauptrichtungen untersucht und anschließend mit dem Programm ETABS nachgerechnet, und zwar zunächst jeweils in einer Gebäudehauptrichtung und danach für eine Beanspruchung unter 45° zu dieser.
Ein Holzhaus als Botschaft. Die erste diplomatische Vertretung des Deutschen Reiches in Ankara 1924
(2015)
Auf die Gründung der türkischen Republik und die Verlagerung der Hauptstadt nach Ankara reagierte das Deutsche Reich 1924 zeitnah mit der Errichtung eines Botschaftsgebäudes in Fertigteilbauweise. Dieses präfabrizierte Holzhaus wurde von der für den Holzbau der Moderne bedeutenden Firma Christoph & Unmack AG aus Niesky/Oberlausitz geliefert. Nach Errichtung eines größeren, massiven Botschaftsgebäudes in Ankara wurde das Holzhaus 1934 auf das Gelände des Atatürk Orman Çiftliği transloziert, wo es noch heute existiert. 2010 konnte es einer gründlichen Baudokumentation unterzogen werden. Im Rahmen von drei Einzelbeiträgen werden die Ergebnisse der Untersuchungen an diesem ebenso ungewöhnlichen wie bedeutenden Baudenkmal vorgestellt.
A semilinear distributed parameter approach for solenoid valve control including saturation effects
(2015)
In this paper a semilinear parabolic PDE for the control of solenoid valves is presented. The distributed parameter model of the cylinder becomes nonlinear by the inclusion of saturation effects due to the material's B/H-curve. A flatness based solution of the semilinear PDE is shown as well as a convergence proof of its series solution. By numerical simulation results the adaptability of the approach is demonstrated, and differences between the linear and the nonlinear case are discussed. The major contribution of this paper is the inclusion of saturation effects into the magnetic field governing linear diffusion equation, and the development of a flatness based solution for the resulting semilinear PDE as an extension of previous works [1] and [2].
Classification of point clouds by different types of geometric primitives is an essential part in the reconstruction process of CAD geometry. We use support vector machines (SVM) to label patches in point clouds with the class labels tori, ellipsoids, spheres, cones, cylinders or planes. For the classification features based on different geometric properties like point normals, angles, and principal curvatures are used. These geometric features are estimated in the local neighborhood of a point of the point cloud. Computing these geometric features for a random subset of the point cloud yields a feature distribution. Different features are combined for achieving best classification results. To minimize the time consuming training phase of SVMs, the geometric features are first evaluated using linear discriminant analysis (LDA).
LDA and SVM are machine learning approaches that require an initial training phase to allow for a subsequent automatic classification of a new data set. For the training phase point clouds are generated using a simulation of a laser scanning device. Additional noise based on an laser scanner error model is added to the point clouds. The resulting LDA and SVM classifiers are then used to classify geometric primitives in simulated and real laser scanned point clouds.
Compared to other approaches, where all known features are used for classification, we explicitly compare novel against known geometric features to prove their effectiveness.
This Chapter introduces parameterized, or parametric, Model Order Reduction (pMOR). The Sections are offered in a prefered order for reading, but can be read independently. Section 5.1, written by Jorge Fernández Villena, L. Miguel Silveira, Wil H.A. Schilders, Gabriela Ciuprina, Daniel Ioan and Sebastian Kula, overviews the basic principles for pMOR. Due to higher integration and increasing frequency-based effects, large, full Electromagnetic Models (EM) are needed for accurate prediction of the real behavior of integrated passives and interconnects. Furthermore, these structures are subject to parametric effects due to small variations of the geometric and physical properties of the inherent materials and manufacturing process. Accuracy requirements lead to huge models, which are expensive to simulate and this cost is increased when parameters and their effects are taken into account. This Section introduces the framework of pMOR, which aims at generating reduced models for systems depending on a set of parameters.
We present a 3d-laser-scan simulation in virtual
reality for creating synthetic scans of CAD models. Consisting of
the virtual reality head-mounted display Oculus Rift and the
motion controller Razer Hydra our system can be used like
common hand-held 3d laser scanners. It supports scanning of
triangular meshes as well as b-spline tensor product surfaces
based on high performance ray-casting algorithms. While point
clouds of known scanning simulations are missing the man-made
structure, our approach overcomes this problem by imitating
real scanning scenarios. Calculation speed, interactivity and the
resulting realistic point clouds are the benefits of this system.
Reconstruction of hand-held laser scanner data is used in industry primarily for reverse engineering. Traditionally, scanning and reconstruction are separate steps. The operator of the laser scanner has no feedback from the reconstruction results. On-line reconstruction of the CAD geometry allows for such an immediate feedback.
We propose a method for on-line segmentation and reconstruction of CAD geometry from a stream of point data based on means that are updated on-line. These means are combined to define complex local geometric properties, e.g., to radii and center points of spherical regions. Using means of local scores, planar, cylindrical, and spherical segments are detected and extended robustly with region growing. For the on-line computation of the means we use so-called accumulated means. They allow for on-line insertion and removal of values and merging of means. Our results show that this approach can be performed on-line and is robust to noise. We demonstrate that our method reconstructs spherical, cylindrical, and planar segments on real scan data containing typical errors caused by hand-held laser scanners.
Bedingt durch den fortwährenden Ausbau erneuerbarer Energien steigt die Bedeutung von regelenergiebereitstellenden Technologien kontinuierlich an. Prinzipiell können bereits heute Laufwasserkraftwerke mittels einer Durchlaufspeicherung Regelenergie bereitstellen. Bislang gibt es jedoch keinen einheitlichen Kriterienkatalog, der die technische Durchführbarkeit einer Durchlaufspeicherung bewertet. Im vorliegenden Beitrag wird ein solcher Katalog vorgestellt und am Beispiel des Unteren Neckars angewandt. Unter rein technischen Gesichtspunkten ist eine Durchlaufspeicherung zwar prinzipiell denkbar, allerdings unterbinden schifffahrtsbedingte Restriktionen eine solche Bereitstellung von Regelenergie. Es wird daher empfohlen, eine Durchlaufspeicherung generell an Gewässern ohne strikte Auflagen durch die Schifffahrt zu betreiben. Außerdem ist der Zusammenschluss von mehreren Staustufen zu einem virtuellen Kraftwerk sinnvoll, um zusätzlich generierbare Strommengen gebündelt anbieten zu können.
Schatten-IT
(2015)
Schwankende Fahrrinnentiefen stellen eine Herausforderung für die verladende Wirtschaft dar, die auf kostengünstigen Transport von Massengütern per Binnenschiff angewiesen ist. Basierend auf Unternehmensbefragungen wurde ein Modell entwickelt, das nicht nur die Verwundbarkeit von Unternehmen gegenüber schwankenden Fahrrinnentiefen für Vergangenheit, Gegenwart und Zukunft berechnen kann, sondern auch die positive Wirkung von Anpassungsmaßnahmen. Nachdem in einem früheren Artikel die Auswirkungen des Klimawandels quantifiziert wurden, wird nun hier die Wirksamkeit verschiedener Anpassungsmaßnahmen vergleichend für Unternehmen an Rhein und Elbe vorgestellt.
Nowadays, there is a continuous need for many corporations to renew their business portfolio strategically in anticipation of changes in the business environment (e.g., technological change). The ongoing booming of founding international start-ups suggests that small entrepreneurial teams are an effective means to develop new businesses. Corporations should be able to benefit from this form of self-organized innovation when entering novel business domains for strategic renewal. However, corporations that establish small entrepreneurial teams (corporate ventures) are facing two obstacles. First, corporate ventures often fail for reasons that are not well explored. Second, it remains unclear how the partial successes may be improved to large successes. Although the key success factors remain ambiguous, there is little hope that corporate ventures will be successful without effective management. Since an empirical model for corporate venture management does not exists so far, the thesis formulates and answers the following problem statement: How can corporate management effectively manage corporate ventures? Building on qualitative and quantitative research methodologies, a model for effective corporate venture management is developed and tested statistically in the German IT consulting industry. The research results reveal some of the essential management principles through which corporate management can increase corporate venture success systematically.
Durch den Einsatz von mobilen Endgeräten (z.B. Tablets, Smartphones) erschließen sich immer mehr Möglichkeiten, die Ausführung von Geschäftsprozessen zu unterstützen. Beispielsweise können Geschäftsprozessaktivitäten (z.B. Genehmigung eines Angebots) ortsunabhängig bearbeitet werden, wodurch die Durchlaufzeit signifikant reduziert wird. Die Nutzung von mobilen Apps beschränkt sich hierbei meist nur auf die Unterstützung von effizienter und flexibler Interaktion zwischen den verschiedenen ausführenden Rollen. Dieser Artikel beschreibt, wie mobile Apps nicht nur die Ausführung, sondern auch die Optimierung von Geschäftsprozessen unterstützen können. Hierzu werden vordefinierte Qualitätskriterien kontextabhängig während der Ausführung von Aktivitäten erfasst. Die durch traditionelle Methoden erfassten Daten (z.B. Messung von Kennzahlen) werden somit durch in Echtzeit gesammeltes User Feedback ergänzt. Der Ansatz wird am Beispiel einer eigens entwickelten mobilen App demonstriert und evaluiert.
Domain-specific modelling is increasingly adopted in the software development industry. While open source metamodels like Ecore have a wide impact, they still have some problems. The independent storage of nodes (classes) and edges (references) is currently only possible with complex, specific solutions. Furthermore the developed models are stored in the extensible markup language (XML) data format, which leads to problems with large models in terms of scaling. In this paper we describe an approach that solves the problem of independent classes and references in metamodels and we store the models in the JavaScript Object Notation (JSON) data format to support high scalability. First results of our tests show that the developed approach works and classes and references can be defined independently. In addition, our approach reduces the amount of characters per model by a factor of approximately two compared to Ecore. The entire project is made available as open source under the name MoDiGen. This paper focuses on the description of the metamodel definition in terms of scaling.
Das hier beschriebene und auf einem FPGA vom Typ Spartan-3A DSP realisierte System dient dazu, auf besonders effiziente Weise die Häufigkeitsverteilung nicht erkannter fehlerhafter Nachrichten mit verschiedenen CRCPolynomen
zu berechnen. Damit die Berechnung in möglichst kurzer Zeit stattfindet, wurde das System aus 64 parallel arbeitenden Instanzen von CRC-Findern in mehrstufiger Fließbandorganisation aufgebaut. In der hier beschriebenen Ausbaustufe erreicht das System eine Gesamtleistung von 6,4 ·109 Operationen in der Sekunde.
Technology commercialization is described as the most dreadful challenge for technology-based entrepreneurs. The scarcity of resources and limited managerial experience make it a daunting task, putting in danger the whole firm emergence. Prior research has often build upon the resource-based view to propose that the new firms' performance is dependent on their initial resource endowments and configurations. Nevertheless, little is known on how the early-stage decisions of the entrepreneur might influence on the growth of the firm. Scholars have suggested that both technology and market orientation actions could influence the performance and growth of firms in this context; nevertheless, there is limited empirical evidence of the influence of these different orientations in the context of new technology-based firms (NTBFs). In this study we propose to explore the influence of technology and demand creation actions adopting a demand-side view. We use a longitudinal study on a panel dataset (2004-2007) with 249 U.S. new high-technology firms to test our hypothesis. The results point towards a rather limited influence of initial resource configurations, as well as an unexpected influence of market and technology orientation in the growth dimensions of an NTBF. The research holds implications for the management of new technology-based firms and for those interested in supporting the development of technology entrepreneurship.