Refine
Year of publication
Document Type
- Conference Proceeding (349)
- Article (193)
- Book (135)
- Other Publications (116)
- Working Paper (102)
- Journal (72)
- Part of a Book (69)
- Report (57)
- Master's Thesis (48)
- Doctoral Thesis (28)
Language
- German (787)
- English (398)
- Multiple languages (2)
- Russian (1)
Keywords
- .NET Remoting (1)
- .NET-Plattform (1)
- 2 D environment Laser data (1)
- 3D Skelett Wickeltechnik (1)
- AAL (3)
- ADO.NET (1)
- ASP.NET (1)
- Abflussmenge (1)
- Abflussregime (1)
- Abflussrohr (1)
Institute
- Center for Business Compliance & Integrity - CBCI (1)
- Fakultät Architektur und Gestaltung (20)
- Fakultät Bauingenieurwesen (22)
- Fakultät Elektrotechnik und Informationstechnik (9)
- Fakultät Informatik (66)
- Fakultät Maschinenbau (24)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (29)
- Institut für Angewandte Forschung - IAF (29)
- Institut für Optische Systeme - IOS (10)
- Institut für Strategische Innovation und Technologiemanagement - IST (15)
"Wem gehört der Kocher?"
(2016)
"Wem gehört die Murg?"
(2016)
Aktuelle Fachvorträge aus dem internationalen Spektrum des Bauingenieurwesens an der HTWG Konstanz, anlässlich des 100-jährigen Bestehens der Fakultät BI. Themenbereiche: Bauerhaltung und Bausanierung, Geotechnik, Konstruktiver Ingenieurbau, Höhepunkte des Hochbaus im 21. Jahrhundert, Verkehrswesen, Wasserwirtschaft, Wirtschaftsingenieurwesen. Gefördert wurde die Veranstaltung von: ADK Modulraum GmbH ; Architektenkammer BW ; Bauen mit Stahl ; Beton Marketing Süd ; Bund Deutscher Architekten BDA ; Institut Feuerverzinken ; Form TL - Ingenieure für Tragwerk und Leichtbau GmbH ; OTT Ziegel Pfullendorf ; Stahlbauzentrum Schweiz ; Euro Poles Pfleiderer ; Ingenieurk@mmer Baden-Württemberg
3-Stufen-Pulswechselrichter
(2016)
33 Baukultur Rezepte
(2017)
Das vorliegende Buch ist entstanden im Rahmen des Forschungsprojekts „Baukultur konkret“ im Forschungsprogramm Experimenteller Wohnungs- und Städtebau (ExWoSt) des Bundesinstituts für Bau-, Stadt- und Raumforschung BBSR im Auftrag des Bundesministeriums für Umwelt, Naturschutz, Bau und Reaktorsicherheit BMUB.
The magneto-mechanical behavior of magnetic shape memory (MSM) materials has been investigated by means of different simulation and modeling approaches by several research groups. The target of this paper is to simulate actuators driven by MSM alloys and to understand the MSM element behavior during actuation, which shall lead to an increased performance of the actuator. It is shown that internal and external stresses should be taken into consideration using numerical computation tools for magnetic fields in an efficient way.
The binary asymmetric channel (BAC) is a model for the error characterization of multi-level cell (MLC) flash memories. This contribution presents a joint channel and source coding approach improving the reliability of MLC flash memories. The objective of the data compression algorithm is to reduce the amount of user data such that the redundancy of the error correction coding can be increased in order to improve the reliability of the data storage system. Moreover, data compression can be utilized to exploit the asymmetry of the channel to reduce the error probability. With MLC flash memories data compression has to be performed on block level considering short data blocks. We present a coding scheme suitable for blocks of 1 kilobyte of data.
This work proposes a lossless data compression algorithm for short data blocks. The proposed compression scheme combines a modified move-to-front algorithm with Huffman coding. This algorithm is applicable in storage systems where the data compression is performed on block level with short block sizes, in particular, in non-volatile memories. For block sizes in the range of 1(Formula presented.)kB, it provides a compression gain comparable to the Lempel–Ziv–Welch algorithm. Moreover, encoder and decoder architectures are proposed that have low memory requirements and provide fast data encoding and decoding.
One major realm of Condition Based Maintenance is finding features that reflect the current health state of the asset or component under observation. Most of the existing approaches are accompanied with high computational costs during the different feature processing phases making them infeasible in a real-world scenario. In this paper a feature generation method is evaluated compensating for two problems: (1) storing and handling large amounts of data and (2) computational complexity. Both aforementioned problems are existent e.g. when electromagnetic solenoids are artificially aged and health indicators have to be extracted or when multiple identical solenoids have to be monitored. To overcome those problems, Compressed Sensing (CS), a new research field that keeps constantly emerging into new applications, is employed. CS is a data compression technique allowing original signal reconstruction with far fewer samples than Shannon-Nyquist dictates, when some criteria are met. By applying this method to measured solenoid coil current, raw data vectors can be reduced to a way smaller set of samples that yet contain enough information for proper reconstruction. The obtained CS vector is also assumed to contain enough relevant information about solenoid degradation and faults, allowing CS samples to be used as input to fault detection or remaining useful life estimation routines. The paper gives some results demonstrating compression and reconstruction of coil current measurements and outlines the application of CS samples as condition monitoring data by determining deterioration and fault related features. Nevertheless, some unresolved issues regarding information loss during the compression stage, the design of the compression method itself and its influence on diagnostic/prognostic methods exist.
This paper describes an early lumping approach for generating a mathematical model of the heating process of a moving dual-layer substrate. The heat is supplied by convection and nonlinearly distributed over the whole considered spatial extend of the substrate. Using CFD simulations as a reference, two different modelling approaches have been investigated in order to achieve the most suitable model type. It is shown that due to the possibility of using the transition matrix for time discretization, an equivalent circuit model achieves superior results when compared to the Crank-Nicolson method. In order to maintain a constant sampling time for the in-visioned-control strategies, the effect of variable speed is transformed into a system description, where the state vector has constant length but a variable number of non-zero entries. The handling of the variable transport speed during the heating process is considered as the main contribution of this work. The result is a model, suitable for being used in future control strategies.
This contribution presents a data compression scheme for applications in non-volatile flash memories. The objective of the data compression algorithm is to reduce the amount of user data such that the redundancy of the error correction coding can be increased in order to improve the reliability of the data storage system. The data compression is performed on block level considering data blocks of 1 kilobyte. We present an encoder architecture that has low memory requirements and provides a fast data encoding.
This thesis deals with the object tracking problem of multiple extended objects. For instance, this tracking problem occurs when a car with sensors drives on the road and detects multiple other cars in front of it. When the setup between the senor and the other cars is in a such way that multiple measurements are created by each single car, the cars are called extended objects. This can occur in real world scenarios, mainly with the use of high resolution sensors in near field applications. Such a near field scenario leads a single object to occupy several resolution cells of the sensor so that multiple measurements are generated per scan. The measurements are additionally superimposed by the sensor’s noise. Beside the object generated measurements, there occur false alarms, which are not caused by any object and sometimes in a sensor scan, single objects could be missed so that they not generate any measurements.
To handle these scenarios, object tracking filters are needed to process the sensor measurements in order to obtain a stable and accurate estimate of the objects in each sensor scan. In this thesis, the scope is to implement such a tracking filter that handles the extended objects, i.e. the filter estimates their positions and extents. In context of this, the topic of measurement partitioning occurs, which is a pre-processing of the measurement data. With the use of partitioning, the measurements that are likely generated by one object are put into one cluster, also called cell. Then, the obtained cells are processed by the tracking filter for the estimation process. The partitioning of measurement data is a crucial part for the performance of tracking filter because insufficient partitioning leads to bad tracking performance, i.e. inaccurate object estimates.
In this thesis, a Gaussian inverse Wishart Probability Hypothesis Density (GIW-PHD) filter was implemented to handle the multiple extended object tracking problem. Within this filter framework, the number of objects are modelled as Random Finite Sets (RFSs) and the objects’ extent as random matrices (RM). The partitioning methods that are used to cluster the measurement data are existing ones as well as a new approach that is based on likelihood sampling methods. The applied classical heuristic methods are Distance Partitioning (DP) and Sub-Partitioning (SP), whereas the proposed likelihood-based approach is called Stochastic Partitioning (StP). The latter was developed in this thesis based on the Stochastic Optimisation approach by Granström et al. An implementation, including the StP method and its integration into the filter framework, is provided within this thesis.
The implementations, using the different partitioning methods, were tested on simulated random multi-object scenarios and in a fixed parallel tracking scenario using Monte Carlo methods. Further, a runtime analysis was done to provide an insight into the computational effort using the different partitioning methods. It emphasized, that the StP method outperforms the classical partitioning methods in scenarios, where the objects move spatially close. The filter using StP performs more stable and with more accurate estimates. However, this advantage is associated with a higher computational effort compared to the classical heuristic partitioning methods.
In several organizations, business workgroups autonomously implement information technology (IT) outside the purview of the IT department. Shadow IT, evolving as a type of workaround from nontransparent and unapproved end-user computing (EUC), is a term used to refer to this phenomenon, which challenges norms relative to IT controllability. This report describes shadow IT based on case studies of three companies and investigates its management. In 62% of cases, companies decided to reengineer detected instances or reallocate related subtasks to their IT department. Considerations of risks and transaction cost economics with regard to specificity, uncertainty, and scope explain these actions and the resulting coordination of IT responsibilities between the business workgroups and IT departments. This turns shadow IT into controlled business-managed IT activities and enhances EUC management. The results contribute to the governance of IT task responsibilities and provide a way to formalize the role of workarounds in business workgroups.
In this thesis, a new framework has been proposed, designed and developed for creating efficient and cost effective logistics chains for long items within the building industry. The building industry handles many long items such as pipes, profiles and so on. The handling of these long items is quite complicated and difficult because they are bulky, unstable and heavy. So it is not cost effective and efficient to handle them manually. Existing planning frameworks ignore these special requirements of such goods and are not planned for handling these goods. That leads to that many additional manual handling steps are currently required to handle long items. Therefore, it is very important to develop a new framework for creating the efficient and cost-effective logistics chain for long items. To propose such a new framework, the expert interviews were conducted to gain the fully understanding about the customer requirements. The experts from all stages of the building industry supply chain were interviewed. The data collected from the expert interviews has been analysed and the meaningful findings about the customer requirements have been applied as the valuable inputs for the proposition of the new framework. To have fully knowledge about current practices, all existing planning frameworks have been analysed and evaluated using SWOT analysis. The strengths, weaknesses, opportunities and threats of the current planning frameworks have been comparatively analysed and evaluated. The findings from SWOT analysis have been used for proposing, designing and developing the new framework. The great efforts have been made during the implementation stage. The six different key parameters for a successful implementation have been identified. They are: • Improvement Process with Employees • Control of the Improvements • Gifts/Money for the Improvements and Additional Work • KAIZEN Workshops • Motivation of the Employees for Improvements • Presentation of the Results Among these six parameters, it has been found that KAIZEN workshops is a very effective way for creating an efficient and cost-effective logistics chain for long items. It is believed that the new framework can be theoretically used for the planning of logistics that handle long items and commercial goods. This framework can also be used to plan all kinds of in-house logistics processes from the incoming goods, storage, picking, delivery combination areas and through to the outgoing goods area. The achievements of this project are as follows (1) the new framework for creating efficient and cost-effective logistics chains for long items, (2) the data collection and the data evaluation at the preliminary planning, (3) the decision for one planning variant already at the end of the structure planning, (4) the analysis and evaluation of customer requirements, (5) the consideration and implementation of the customer requirements in the new framework, (6) the creation of figures and tables as planning guideline, (7) the research and further development of Minomi with regards to long items, (8) the research on the information flow, (9) the classification of the improvements and the improvement handling at the implementation, (10) the identification of key parameters for a successful implementation of the planning framework. This framework has been evaluated both theoretically and through a case study of a logistics system planning for handling long items and commercial goods. It has been found that the new framework is theoretically sound and practically valuable. It can be applied to creating the logistics system for long items, especially for building industry.
Observer-based self sensing for digital (on–off) single-coil solenoid valves is investigated. Self sensing refers to the case where merely the driving signals used to energize the actuator (voltage and coil current) are available to obtain estimates of both the position and velocity. A novel observer approach for estimating the position and velocity from the driving signals is presented, where the dynamics of the mechanical subsystem can be neglected in the model. Both the effect of eddy currents and saturation effects are taken into account in the observer model. Practical experimental results are shown and the new method is compared with a full-order sliding mode observer.
A semilinear distributed parameter approach for solenoid valve control including saturation effects
(2015)
In this paper a semilinear parabolic PDE for the control of solenoid valves is presented. The distributed parameter model of the cylinder becomes nonlinear by the inclusion of saturation effects due to the material's B/H-curve. A flatness based solution of the semilinear PDE is shown as well as a convergence proof of its series solution. By numerical simulation results the adaptability of the approach is demonstrated, and differences between the linear and the nonlinear case are discussed. The major contribution of this paper is the inclusion of saturation effects into the magnetic field governing linear diffusion equation, and the development of a flatness based solution for the resulting semilinear PDE as an extension of previous works [1] and [2].
Sleep quality and in general, behavior in bed can be detected using a sleep state analysis. These results can help a subject to regulate sleep and recognize different sleeping disorders. In this work, a sensor grid for pressure and movement detection supporting sleep phase analysis is proposed. In comparison to the leading standard measuring system, which is Polysomnography (PSG), the system proposed in this project is a non-invasive sleep monitoring device. For continuous analysis or home use, the PSG or wearable Actigraphy devices tends to be uncomfortable. Besides this fact, they are also very expensive. The system represented in this work classifies respiration and body movement with only one type of sensor and also in a non-invasive way. The sensor used is a pressure sensor. This sensor is low cost and can be used for commercial proposes. The system was tested by carrying out an experiment that recorded the sleep process of a subject. These recordings showed the potential for classification of breathing rate and body movements. Although previous researches show the use of pressure sensors in recognizing posture and breathing, they have been mostly used by positioning the sensors between the mattress and bedsheet. This project however, shows an innovative way to position the sensors under the mattress.
Creating cages that enclose a 3D-model of some sort is part of many preprocessing pipelines in computational geometry. Creating a cage of preferably lower resolution than the original model is of special interest when performing an operation on the original model might be to costly. The desired operation can be applied to the cage first and then transferred to the enclosed model. With this paper the authors present a short survey of recent and well known methods for cage computation.
The authors would like to give the reader an insight in common methods and their differences.
A constructive method for the design of nonlinear observers is discussed. To formulate conditions for the construction of the observer gains, stability results for nonlinear singularly perturbed systems are utilised. The nonlinear observer is designed directly in the given coordinates, where the error dynamics between the plant and the observer becomes singularly perturbed by a high-gain part of the observer injection, and the information of the slow manifold is exploited to construct the observer gains of the reduced-order dynamics. This is in contrast to typical high-gain observer approaches, where the observer gains are chosen such that the nonlinearities are dominated by a linear system. It will be demonstrated that the considered approach is particularly suited for self-sensing electromechanical systems. Two variants of the proposed observer design are illustrated for a nonlinear electromagnetic actuator, where the mechanical quantities, i.e. the position and the velocity, are not measured
This paper proposes a soft input decoding algorithm and a decoder architecture for generalized concatenated (GC) codes. The GC codes are constructed from inner nested binary Bose-Chaudhuri-Hocquenghem (BCH) codes and outer Reed-Solomon codes. In order to enable soft input decoding for the inner BCH block codes, a sequential stack decoding algorithm is used. Ordinary stack decoding of binary block codes requires the complete trellis of the code. In this paper, a representation of the block codes based on the trellises of supercodes is proposed in order to reduce the memory requirements for the representation of the BCH codes. This enables an efficient hardware implementation. The results for the decoding performance of the overall GC code are presented. Furthermore, a hardware architecture of the GC decoder is proposed. The proposed decoder is well suited for applications that require very low residual error rates.
Generalized concatenated (GC) codes with soft-input decoding were recently proposed for error correction in flash memories. This work proposes a soft-input decoder for GC codes that is based on a low-complexity bit-flipping procedure. This bit-flipping decoder uses a fixed number of test patterns and an algebraic decoder for soft-input decoding. An acceptance criterion for the final candidate codeword is proposed. Combined with error and erasure decoding of the outer Reed-Solomon codes, this bit-flipping decoder can improve the decoding performance and reduce the decoding complexity compared to the previously proposed sequential decoding. The bit-flipping decoder achieves a decoding performance similar to a maximum likelihood decoder for the inner codes.
The introduction of multiple-level cell (MLC) and triple-level cell (TLC) technologies reduced the reliability of flash memories significantly compared with single-level cell flash. With MLC and TLC flash cells, the error probability varies for the different states. Hence, asymmetric models are required to characterize the flash channel, e.g., the binary asymmetric channel (BAC). This contribution presents a combined channel and source coding approach improving the reliability of MLC and TLC flash memories. With flash memories data compression has to be performed on block level considering short-data blocks. We present a coding scheme suitable for blocks of 1 kB of data. The objective of the data compression algorithm is to reduce the amount of user data such that the redundancy of the error correction coding can be increased in order to improve the reliability of the data storage system. Moreover, data compression can be utilized to exploit the asymmetry of the channel to reduce the error probability. With redundant data, the proposed combined coding scheme results in a significant improvement of the program/erase cycling endurance and the data retention time of flash memories.
This paper considers intervals of real matrices with respect to partial orders and the problem to infer from some exposed matrices lying on the boundary of such an interval that all real matrices taken from the interval possess a certain property. In many cases such a property requires that the chosen matrices have an identically signed inverse. We also briefly survey related problems, e.g., the invariance of matrix properties under entry-wise perturbations.
This paper considers intervals of real matrices with respect to partial orders and the problem to infer from some exposed matrices lying on the boundary of such an interval that all real matrices taken from the interval possess a certain property. In many cases such a property requires that the chosen matrices have an identically signed inverse. We also briefly survey related problems, e.g., the invariance of matrix properties under entry-wise perturbations.
If the process contains a delay (dead time), the Nyquist criterion is well suited to derive a PI or PID tuning rule because the delay is taken into account without approximation. The tuning of the speed of the closed loop enters naturally by the crossover frequency. The goal of robustness and performance is translated into the phase margin.
We present a 3d-laser-scan simulation in virtual
reality for creating synthetic scans of CAD models. Consisting of
the virtual reality head-mounted display Oculus Rift and the
motion controller Razer Hydra our system can be used like
common hand-held 3d laser scanners. It supports scanning of
triangular meshes as well as b-spline tensor product surfaces
based on high performance ray-casting algorithms. While point
clouds of known scanning simulations are missing the man-made
structure, our approach overcomes this problem by imitating
real scanning scenarios. Calculation speed, interactivity and the
resulting realistic point clouds are the benefits of this system.
Die ABB AG ist ein weltweit tätiges Unternehmen und stark geprägt durch dezen-trale Strukturen. Experten unterschiedlicher Abteilungen arbeiten bereichs- und standortübergreifend in Teams zusammen. Um die Vernetzung der Mitarbeiter effizienter zu gestalten, implementierte ABB 2008 ein Wiki und einen Blog, zu-nächst als Pilotprojekt in den Kommunikationsabteilungen der Region Zentraleu-ropa. Die Erfahrungen, die ABB mit diesem Pilotprojekt sammeln konnte, sollen vor einem Roll-Out über den Gesamtkonzern in die weiteren Planungen einfließen.
Even though immutability is a desirable property, especially in a multi-threaded environment, implementing immutable Java classes is surprisingly hard because of a lack of language support. We present a static analysis tool using abstract bytecode interpretation that checks Java classes for compliance with a set of rules that together constitute state-based immutability. Being realized as a Find Bugs plug in, the tool can easily be integrated into most IDEs and hence the software development process. Our evaluation on a large, real world codebase shows that the average run-time effort for a single class is in the range of a few milliseconds, with only a very few statistical spikes.
The investigation of stress requires to distinguish between stress caused by physical activity and stress that is caused by psychosocial factors. The behaviour of the heart in response to stress and physical activity is very similar in case the set of monitored parameters is reduced to one. Currently, the differentiation remains difficult and methods which only use the heart rate are not able to differentiate between stress and physical activity, without using additional sensor data input. The approach focusses on methods which generate signals providing characteristics that are useful for detecting stress, physical activity, no activity and relaxation.
An approach for an adaptive position-dependent friction estimation for linear electromagnetic actuators with altered characteristics is proposed in this paper. The objective is to obtain a friction model that can be used to describe different stages of aging of magnetic actuators. It is compared to a classical Stribeck friction model by means of model fit, sensitivity, and parameter correlation. The identifiability of the parameters in the friction model is of special interest since the model is supposed to be used for diagnostic and prognostic purposes. A method based on the Fisher information matrix is employed to analyze the quality of the model structure and the parameter estimates.
adidas and Reebok
(2016)
This chapter contains three advanced topics in model order reduction (MOR): nonlinear MOR, MOR for multi-terminals (or multi-ports) and finally an application in deriving a nonlinear macromodel covering phase shift when coupling oscillators. The sections are offered in a preferred order for reading, but can be read independently.
Successful project management (PM), as one of the most important key competences in the western-oriented working world, is mainly influenced by experience and social skills. As a direct impact on PM training, the degree of practice and reality is crucial for the application of lessons learned in a challenging everyday work life. This work presents a recursive approach that adapts well-known principles of PM itself for PM training. Over three years, we have developed a concept and an integrated software system that support our PM university courses. Stepwise, it transfers theoretical PM knowledge into realistic project phases by automatically adjusting to the individual learning progress. Our study reveals predictors such as degrees of collaboration or weekend work as vital aspects in the PM training progress. The chosen granularity of project phases with variances in different dimensions makes our model a canonical incarnation of seamless learning.
Die stetig steigende Digitalisierung von Kommunikation und Interaktion ermöglicht eine immer flexiblere und schnellere Erfassung und Ausführung von Aktivitäten in Geschäftsprozessen. Dabei ermöglichen technologische und organisatorische Treiber, wie beispielsweise Cloud Computing und Industrie 4.0, immer komplexere organisationsübergreifende Geschäftsprozesse. Die effektive und effiziente Einbindung aller beteiligten Menschen (z.B. IT-Experten, Endanwender) ist hierbei ein entscheidender Erfolgsfaktor. Nur wenn alle Prozessbeteiligten Kenntnis über die aktuellen Geschäftsprozesse besitzen, kann eine adäquate Ausführung dieser sichergestellt werden. Die notwendige Balance zwischen Flexibilität und Stabilität wird durch die traditionellen Methoden des Geschäftsprozessmanagements (GPM) nur unzureichend gewährleistet. Sowohl aktuelle Forschungen als auch anwendungsbezogene Studien stellen die unzureichende Integration aller Beteiligten, deren fehlendes Verständnis und die geringe Akzeptanz gegenüber GPM dar. Die Dissertation, welche im Rahmen des anwenderorientierten Forschungsprojekts „BPM@Cloud“ erstellt wird, befasst sich mit der Erarbeitung einer neuen Methode zum agilen Geschäftsprozessmanagement auf Basis gebrauchssprachlicher (alltagssprachlicher, fachsprachlicher) Modellierung von Geschäftsprozessen. Die Methode umfasst drei Bestandteile (Vorgehensweise, Modellierungssprache, Softwarewerkzeug), wodurch eine ganzheitliche Unterstützung bei der Umsetzung von GPM Projekten sichergestellt wird. Durch die Adaption und Erweiterung von agilen Konzepten der Softwareentwicklung wird die Vorgehensweise zum iterativen, inkrementellen und empirischen Management von Geschäftsprozessen beschrieben. Des Weiteren wird eine Modellierungssprache für Geschäftsprozesse entwickelt, welche zur intuitiven, gebrauchssprachlichen Erfassung von Geschäftsprozessen angewendet werden kann. Die Implementierung eines Software-Prototyps ermöglicht des Weiteren die direkte Aufnahme von Feedback während der Ausführung von Geschäftsprozessen. Die drei sich ergänzenden Bestandteile – Vorgehensweise, Sprache und Software-Prototyp – bilden eine neuartige Grundlage für eine verbesserte Erfassung, Anreicherung, Ausführung und Optimierung von Geschäftsprozessen.
The business plan is one of the most frequently available artifacts to innovation intermediaries of technology-based ventures' presentations in their early stages [1]–[4]. Agreement on the evaluations of venturing projects based on the business plans highly depends on the individual perspective of the readers [5], [6]. One reason is that little empirical proof exists for descriptions in business plans that suggest survival of early-stage technology ventures [7]–[9]. We identified descriptions of transaction relations [10]–[13] as an anchor of the snapshot model business plan to business reality [13]. In the early-stage, surviving ventures are building transaction relations to human resources, financial resources, and suppliers on the input side, and customers on the output side of the business towards a stronger ego-centric value network [10]–[13]. We conceptualized a multidimensional measurement instrument that evaluates the maturity of this ego-centric value networks based on the transaction relations of different strength levels that are described in business plans of early-stage technology ventures [13]. In this paper, the research design and the instrument are purified to achieve high agreement in the evaluation of business plans [14]–[16]. As a result, we present an overall research design that can reach acceptable quality for quantitative research. The paper so contributes to the literature on business analysis in the early-stage of technology-based ventures and the research technique of content analysis.
Aktive Solarenergienutzung
(2015)
BMBF-Programm "Anwendungsorientierte Forschung und Entwicklung an Fachhochschulen Schlussbericht FKZ 17086 00 Ausgangssituation Bei der Entwässerung von Siedlungsgebieten sind teure Maßnahmen zum Schutz der Siedlungen und der Gewässer vor Hochwasser und Schmutzstoffen erforderlich. Mit den Zielsetzungen „Kosteneinsparung“ und “Verbesserung des Gewässerschutzes“ hat der Beratende Ingenieur Dipl.-Ing.(FH) Harald Güthler (1996) aus Waldshut-Tiengen das Verfahren des „HydrOstyx“ gebremsten Abflusses entwickelt und im Dezember 1995 zum Patent angemeldet. Die im Rahmen des Verfahrens benutzte neue technische Einrichtung ist die HydrOstyx-Abflussbremse. Bei der HydrOstyx-Abflussbremse handelt es sich um eine technische Einrichtung, die wegen ihrer Einfachheit ein preiswertes Drosselorgan im Abwasserkanal darstellt, das ohne Fremdenergie weitgehend wartungsfrei und betriebssicher funktioniert. Die HydrOstyx-Abflussbremse kann sowohl in bestehende als auch in neue Abwasserkanäle eingebaut werden. Ziele Mit der Hydrostyx-Abflußbremse können u. a. folgende Ziele erreicht werden: Reduzierung von Neubaumaßnahmen durch Aktivierung bisher ungenutzter Speicher. Da im Sinne der Richtlinien für die Bemessung und Gestaltung von Regenentlastungsanlagen in Mischwasserkanälen nach ATV-Arbeitsblatt A 128 die Anrechenbarkeit solcher Speicherräume zulässig ist, kann bei geschickter Nutzung der aktivierten Retentionsvolumen eine Redimensionierung der bisher geplanten Regenbecken erfolgen. Beseitigung von Konfliktpunkten im Kanalnetz. Durch Aktivierung von Retentionsvolumen lassen sich Abflussspitzen reduzieren. Überlastete Kanäle können nun die abflussverzögerte Wassermenge transportieren, der Austausch bzw. Neubau von Kanälen kann entfallen. Minderung von Überflutungshäufig und Belastungen von Flüssen und Bächen aus Regenwasserentlastungen. Der Einstau des Wassers im Kanal führt zu einer Retentionswirkung, dadurch werden die Abflussspitzen bei Regenwasserentlastungen in die Vorfluter häufig wesentlich reduziert. Die führt zu Verbesserungen beim Hochwasserschutz und bei der Gewässerökologie. Optimierung des Wirkungsgrades von Kläranlagen durch verbesserte Ausschöpfung der zulässigen Beaufschlagung. Kläranlagen sind durch den diskontinuierlichen Zufluss von Schmutz- bzw. Mischwasser Schwankungen im Betriebsablauf unterzogen, die durch entsprechende Reserven in den Becken ausgeglichen werden können. Durch die Aktivierung von Retentionsraum lassen sich Stoßbelastungen reduzieren und bei Regenwetter kann ein größerer Teil des verschmutzten Wasser als bisher auf der Kläranlage gereinigt werden. Im Rahmen des BMBF-Forschungsprojekts wurden folgende Teilaufgaben bearbeitet: Hydraulische Untersuchung der Hydrostyx-Abflussbremse im Wasserbaulabor der HTWG Konstanz. Ziel war die Ermittlung der Schachtverluste, der Überfall- und Durchflussbeiwerte für die HydrOstyx-Abflussbremse. Auswertung und Beurteilung der Abfluss- und Schmutzfrachtmessungen an den Regenüberläufen Hoppetenzell und Zizenhausen/Stampfwiese vor und nach dem Einbau von 4 HydrOstyx-Abflussbremsen. Durchführung von Schmutzfrachtberechnungen mittels Langzeitsimulation mit dem Simulationsmodell KOSIM XL vom Institut für technisch-wissenschaftliche Hydrologie in Hannover. Die Simulationsberechnungen erfolgen mit und ohne Hydrostyx-Abflussbremsen für die Einzugsgebiete der beiden Regenüberläufe. Mit Hilfe der hydraulischen Untersuchungen im Wasserbaulabor und durch die Auswertung der Naturmessungen sollten die hydraulischen und hydrologischen Bemessungsgrundlagen für die Neuentwicklung erarbeitet werden. Die Untersuchungsergebnisse liefern auch wichtige Grundlagen für die wasserwirtschaftliche Beurteilung des neuen Verfahrens. Verwertung der Ergebnisse Das Projekt hat insgesamt gezeigt, dass mit Hilfe von HydrOstyx-Abflussbremsen erhebliche Einsparpotentiale sowohl bei der hydraulischen Sanierung als auch bei der Regenwasserbehandlung in Mischwasserkanalisationen möglich sind. Die Ergebnisse dieses Projekts tragen sicher dazu bei, dass beim weiteren Ausbau der Regenwasserbehandlung und bei der Sanierung von Mischwasserkanalisationen verstärkt nach kostengünstigen Alternativen gesucht wird. Hierzu kann das Verfahren des HydrOstyx gebremsten Abflusses einen wesentlichen Beitrag leisten.
Alles digital – was nun?
(2018)
Alles fließt
(2016)
Allgemeine Geschäftsbedingungen als Instrument der Vereinfachung betrieblicher Vertragsgestaltung
(2018)
This work proposes an efficient hardware Implementation of sequential stack decoding of binary block codes. The decoder can be applied for soft input decoding for generalized concatenated (GC) codes. The GC codes are constructed from inner nested binary Bose-Chaudhuri-Hocquenghem (BCH) codes and outer Reed-Solomon (RS) codes. In order to enable soft input decoding for the inner BCH block codes, a sequential stack decoding algorithm is used.
Business models (BM) are the logic of a firm on how to create, deliver and capture value. Business model innovation (BMI) is essential to organisations for keeping competitive advantage. However, the existence of barriers to BMI can impact the success of a corporate strategic alignment. Previous research has examined the internal barriers to business model innovation, however there is a lack of research on the potential external barriers that could potentially inhibit business model innovation. Drawn from an in-depth case study in a German medium size engineering company in the equestrian sports industry, we explore both internal and external barriers to business model innovation. BMI is defined as any change in one or more of the nine building blocks of the Business Model Canvas; customer segment, value propositions, channels, customer relation, revenue streams, key resources, key activities, key partners, cost structure [1]. Our results show that barriers to business model innovation can be overcome by the deployment of organisational learning mechanisms and the development of an open network capability.
The paper investigates an innovative actuator combination based on the magnetic shape memory technology. The actuator is composed of an electromagnet, which is activated to produce motion, and a magnetic shape memory element, which is used passively to yield multistability, i.e. the possibility of holding a position without input power. Based on the experimental open-loop frequency characterization of the actuator, a position controller is developed and tested in several experiments.
Die Firma FCT bietet industriellen Unternehmen eine Lösung im Bereich Enterprise-Content-Management und Redaktionssysteme an. Der Fokus liegt auf der medienneutralen Verwaltung der Daten im XML-Format und auf dem Publizieren dieser Daten in verschiedene Ausgabeformate wie PDF, HTML oder Online Help. Die Publikation nach PDF erfolgt meistens mit Desktop Publishing Tools wie Adobe FrameMaker, Adobe InDesign oder Microsoft Word. Immer mehr wird die Publikation nach PDF mit dem W3C Standard XSL Formatting Objects (XSL-FO)eingesetzt. Die Publikation nach PDF erfolgt dabei vollautomatisch anhand von Stylesheets. Durch die vollautomatische Publikation hatte der Redakteur bisher keine Möglichkeit manuell Seitenlayout und Seitenformatierungen anzupassen, da das Anpassen der Stylesheets spezielles programmiertechnisches Know-How voraussetzt. Im Rahmen dieser Diplomarbeit wurde eine Entwicklungsumgebung konzipiert und implementiert, die es Redakteuren ermöglicht, Seitenlayout und Seitenformatierung komfortabel über eine grafische Oberfläche festzulegen. Da hierbei unterschiedliche Dokumententypen und unterschiedliche Kunden berücksichtigt werden müssen, verwendet die Anwendung ein Projektansatz um die unterschiedlichen Stylesheets, Konfigurationen und Kunden zu organisieren. Da bei unterschiedlichen Kunden verschiedene FO-Prozessoren wie Antenna House XSL Formatter, RenderX XEP oder Apache FOP zum Einsatz kommen, war es ein Schwerpunkt dieser Arbeit, die Unterschiede dieser Prozessoren zu analysieren und die Entwicklungsumgebung prozessorunabhängig aufzusetzen. Eine Vorschau zeigt dem Redakteur, wie sich die verschiedenen Konfigurationen auf das PDF-Dokument auswirken, um gegebenenfalls weitere Änderungen am Seitenlayout bzw. Seitenformatierungen vorzunehmen.
This paper analyses international cooperation in alternative energy production research and development. Therefore, patents of the technological domain, registered at the European Patent Office from 1997 until 2016, are analysed. International cooperation is considered when patents involve co-assignment or co-inventorship comprising two or more different countries. Generally, international R&D cooperation tends to be increasing over time in alternative energy production. In total, 2234 co-patents from 87 countries are identified. Through social network analysis the cooperative relationships between countries are examined. The most significant states of the network are the United States of America and Germany. Innovative clusters and strong partnerships are identified. Alternative energy technologies that involve international cooperation most extensively are harnessing energy from manmade waste, solar energy and bio-fuels. The paper clarifies which countries are cooperating with each other for what purpose. The findings can be used for establishing R&D strategies in the domain of alternative energy production.
The Universal Serial Bus (USB) is a worldwide standard for communication between peripherals. Nowadays USB interfaces are integrated in almost every device. It will be used to connect peripherals and computers. USB devices communicate between pieces of hardware, i.e., cable, plug and socket. Thus, there exists different standardized communication protocols depending on the application. In case of different communication protocols, it is necessary to verify them, that devices, no matter of country, can communicate to each other.
The verifying process is very important in order that companies can sell products with such interfaces and their designated logo, to guaranty a certain standard, which is provided all over the world. Devices have to complete various test procedures to get certified. Otherwise a company is not allowed to use logos ore designations, i.e., USB or information about data rates, i.e., SuperSpeed. Furthermore, successfully completed test procedures prove that a device works properly based on a professional method.
The Human-Machine-Interface (HMI) device family from the company Marquardt Verwaltungs GmbH, is using the USB interface for service and data exchange purposes. The service application is realized through a Virtual COM Port (VCP), based on the Communication Device Class (CDC) of USB. On the other side they want to use the Media Transfer Protocol (MTP) based on the Still Image Capture Device class for data exchange between the HMI device and a computer. Of course, the integrated circuit, which implements the USB interface on the circuit board of the HMI device has to be verified, too. The verification will be performed through an external company. In contrast, the communication protocols do not need a verification but must be examined. The identification of an USB class in an operating system does neither guaranty a proper functionality nor comply with a professional scientific method.
To accelerate the development of a project as well as to reduce the production costs, it is a significant advantage to own a test environment. Microsoft provides the possibility to verify devices on Windows operating systems. Therefor they invented the Windows Certification Program, which contains software that can be used for verification purposes. One of them is the Windows Hardware Certification Kit (HCK) we want to set up and set the HMI device under test, to examine the implementation of MTP.
Thus, it is possible to use the HCK test setup during a development process to examine a current implementation without a big effort, i.e., cooperation with an external company or similarly approaches, which delays the whole development process by far.
Present demographic change and a growing population of elderly people leads to new medical needs. Meeting these with state of the art technology is as a consequence a rapidly growing market. So this work is aimed at taking modern concepts of mobile and sensor technology and putting them in a medical context. By measuring a user’s vital signs on sensors which are processed on a Android smartphone, the target system is able to determine the current health state of the user and to visualize gathered information. The system also includes a weather forecasting functionality, which alerts the user on possibly dangerous future meteorological events. All information are collected centrally and distributed to users based on their location. Further, the system can correlate the client-side measurement of vital signs with a server-side weather history. This enables personalized forecasting for each user individually. Finally, a portable and affordable application was developed that continuously monitors the health status by many vital sensors, all united on a common smartphone.
Anbindung eines PPC405 embedded CPU Core an ein MPC860-System unter dem Echtzeitbetriebssystem OSE
(2006)
Die Diplomarbeit verfolgt das Ziel, die softwareseitige Anbindung eines PPC405-Systems an das Gesamtsystem einer digitalen Funkgeräteplattform herzustellen. Über eine konzipierte Implementierung, die nach dem Einschalten des Funkgeräts gestartet wird, erfolgt die Übertragung des Betriebssystems in den zugehörigen Arbeitsspeicher des PPC405-Systems. Nach Abschluss der Initialisierungsphase kommunizieren die Anwendungsprozesse auf den beteiligten Systemen über eine transparente Erweiterung des Betriebssystems mit der jeweiligen Gegenseite. Als Übertragungsmedium für die genannte Betriebssystemerweiterung wird ein zwischen den Systemen angesiedelter Speicher genutzt, für dessen koordinierte Zugriffe eine im Rahmen der Diplomarbeit entwickelte Treiberkomponente sorgt. Durch die Anbindung des PPC405-Systems wird eine Leistungssteigerung des Gesamtsystems erwartet. Auf der Basis von Messungen wurde die Performance des somit erhaltenen Multiprozessorsystems bestimmt. Aus den Ergebnissen wurden geeignete Möglichkeiten zur Optimierung erarbeitet und umgesetzt.
Durch die Verkürzung der Produktlebenszyklen und die damit verbundene steigende Anzahl hochkomplexer Produktneuanläufe wird dem Anlaufmanagement künftig eine wachsende Bedeutung zuteil. Diese Aussage wird durch die steigende Anzahl an Aufsätzen und diversen Monographien zu diesem Themenkomplex bestätigt. Die zeit- und kostensensible Anlaufphase hat bedeutenden Einfluss auf die Produktivität, Produktrendite und somit auf den Markterfolg eines Unternehmens. Die Beherrschung reibungsloser Serienanläufe wird zum Tagesgeschäft und avanciert um entscheidenden Wettbewerbsvorteil. Gleichzeitig ist sie Prämisse um sich auch künftig an den hochdynamischen und globalen Märkten behaupten zu können. Entgegen den ausgereiften Konzepten, Methoden und Theorien zur Produktionsplanung und -steuerung in der Serie birgt das zielgerichtete Management von Serienanläufen noch enorme Verbesserungspotentiale. Verschiedene Handlungsfelder greifen ineinander, werden von Normen und Kundenforderungen beeinflusst und müssen integriert betrachtet werden. Dieses Buch soll einen Überblick über die Handlungsfelder des Anlaufmanagements sowie den Einfluss von Normen und Kundenanforderungen geben. Darüber hinaus soll die zentrale Bedeutung des Anlaufmanagements durch eine Umfrage bei OEM, 1st- und 2nd-Tier-Lieferanten bestätigt werden. Des weiteren werden Methoden und Werkzeuge vorgestellt, die bei der Einführung des Anlaufmanagements in einem Unternehmen der Automobilzulieferindustrie entwickelt wurden.
Anwendung des UN-Kaufrechts
(2017)
Domain-specific modelling is increasingly adopted in the software development industry. While open source metamodels like Ecore have a wide impact, they still have some problems. The independent storage of nodes (classes) and edges (references) is currently only possible with complex, specific solutions. Furthermore the developed models are stored in the extensible markup language (XML) data format, which leads to problems with large models in terms of scaling. In this paper we describe an approach that solves the problem of independent classes and references in metamodels and we store the models in the JavaScript Object Notation (JSON) data format to support high scalability. First results of our tests show that the developed approach works and classes and references can be defined independently. In addition, our approach reduces the amount of characters per model by a factor of approximately two compared to Ecore. The entire project is made available as open source under the name MoDiGen. This paper focuses on the description of the metamodel definition in terms of scaling.
Arbeit an der Zukunft
(2016)
Die Digitalisierung beeinflusst nahezu alle Lebensbereiche. Welche der durch sie möglichen »Zukünfte« eintreten wird, ist heute schwer zu erkennen. Klar ist aber: Die HTWG muss ihre Studierenden darauf vorbereiten. Und sie will die Zukunft selbst mitgestalten. Ein Weg dahin ist die Modellfabrik 4.0, die fakultätsübergreifend Lehr- und Forschungsansätze bietet.
Arbeitsplätze im Freien
(2007)
Die Hefte der Schriftenreihe licht.wissen geben Informationen zur Lichtanwendung. Diese Themenhefte erläutern anhand vieler Beleuchtungsbeispiele lichttechnische Grundlagen und zeigen beispielhafte Lösungen. Sie erleichtern damit auch die Zusammenarbeit mit Fachleuten der Licht- und Elektrotechnik. Alle lichttechnischen Aussagen sind grundsätzlicher Art.
Arbeitsrecht
(2016)
Arbeitsrecht für Dummies
(2015)
Arbeitsrecht für Dummies
(2017)
Fast jeder, der sich ernsthaft mit der Wirtschaft beschäftigt, muss sich auch mit dem Arbeitsrecht auseinandersetzen. Aber gerade die Beschäftigung mit einem fremden Bereich wie dem Rechtswesen ist oft schwer. Oliver Haag erklärt Ihnen deshalb von der Pike auf, was Sie über Arbeitsrecht wissen sollten. Er führt Sie in die juristische Denk- und Arbeitsweise ein und erklärt Ihnen die allgemeinen Grundlagen des Arbeitsrechts. Sie erfahren außerdem, was es mit den Details des Individualarbeitsrechts und des Kollektivarbeitsrechts auf sich hat. Zum Abschluss lernen Sie anhand von Beispielfällen, wie Sie sich mit dem Arbeitsrecht in Klausuren auseinandersetzen sollten. So ist dieses Buch ein freundlicher Begleiter bei Ihren ersten Schritten in diesem wichtigen, aber manchmal auch recht komplizierten Thema.
Arbeitsrecht für Dummies
(2019)
Arbeitsrecht kompakt!
(2016)
Architectura
(2015)
Das Ziel dieser Bachelorarbeit ist die Entwicklung eines Architekturkonzepts für ein Order Management System mit einer integrierten Prozess-Engine. Dabei soll es möglichst einfach sein neue Order-Typen in das Order Management System zu integrieren und mit Hilfe der Prozess-Engine auszuführen. Seitens der Credit Suisse AG, Zürich wurden dazu die Systemanforderungen, sowie ein generischer Order-Life-Cycle vorgegeben.
Zu Beginn wurde ein BPMN 2.0 Beispielprozess definiert. Daraus wurde dann zusammen mit dem vorgegebenen Order-Life-Cycle ein generisches und modulares Prozess-Template entwickelt. Dieses dient der Modularisierung und der einheitlichen Verarbeitung von (Order-Typ)-Prozessen.
Basierend darauf wurde ein Anwendungskonzept entwickelt, welches die Grundlage für den standardisierten Entwurf (Blueprint) hinsichtlich der Anwendungsklasse (Order Management) liefert.
Abschliessend wurde die Anwendungsarchitektur mit Hilfe eines kleinen Prototypen verifiziert.
„Am Einzelnen das Allgemeine lernen“ ist ein vor über 50 Jahren vorgeschlagenes, dem modernen Verständnis von Lernen angepasstes Vorgehen in der Physikausbildung. Allerdings hat sich dieses Konzept bis heute noch nicht durchgesetzt. Im vorliegenden Text beschreiben die beiden Autoren, wie die Umstellung der „Physikausbildung von Ingenieuren“ einer gesamten Hochschule von der Lehre von Inhalten auf eine Vermittlung von Physik-Methoden angegangen wurde und schließlich gelungen ist. Für Ihre Arbeiten erhielten sie den Ars legendi-Fakultätenpreis Physik 2014.
Assessment Literacy
(2015)
Input–Output modellers are often faced with the task of estimating missing Use tables at basic prices and also valuation matrices of the individual countries. This paper examines a selection of estimation methods applied to the European context where the analysts are not in possession of superior data. The estimation methods are restricted to the use of automated methods that would require more than just the row and column sums of the tables (as in projections) but less than a combination of various conflicting information (as in compilation). The results are assessed against the official Supply, Use and Input–Output tables of Belgium, Germany, Italy, Netherlands, Finland, Austria and Slovakia by using matrix difference metrics. The main conclusion is that using the structures of previous years usually performs better than any other approach.
Aufbau eines neuen Knowledge Networks für den Bereich "Human Resources" der Winterthur Versicherung
(2003)
Die seit Mitte des letzten Jahrhunderts geprägte Industriegesellschaft erfährt eine neue Wende. Das Zeitalter der Informations- und Wissensgesellschaft drängt sich aufgrund der Informationstechnologie (IT) in den Vordergrund. "Die Wissensgesellschaft ist keine ferne Vision. Sie ist längst Realität. Wir müssen sie nicht erfinden, sondern erfinderisch mit ihren Chancen umgehen". Im Gegensatz zur bisherigen Gesellschaft, in der die Produktion von Objekten zu möglichst geringen Kosten im Mittelpunkt stand, orientiert sich diese neue Gesellschaft mehr an der Entwicklung von neuen Ideen und neuem Wissen zur Produktion und Weiterentwicklung von Objekten. Auch die Organisationsform in Unternehmen erfuhr einen Wandel: von funktionalen zu prozessorientierten Organisationsformen. Diese prozessorientierte Organisation ist lernfähiger, da Barrieren, Abeilungsgrenzen und Hierarchieebenen leichter überwindbar geworden sind. In diesem Zusammenhang liegt die Wertschöpfung von Unternehmen darin, dass die Mitarbeiter der Unternehmung mit Geschick, Originalität und Schnelligkeit neue Probleme identifizieren, kreativ lösen und überzeugend kommunizieren. Zum wettbewerbsentscheidenden Faktor wird das Wissen, welches sich in verschiedensten Formen innerhalb des Unternehmens befindet. Dieses zu offenbaren und zu gebrauchen ist u.a. das Ziel des Knowledge Managements. Wie bei jeder Organisation empfiehlt es sich auch beim Knowledge Management, in zusammenhängenden Prozessen zu denken. Dazu müssen Unternehmen Knowledge Management als einen gestaltbaren Prozess verstehen, der sich auf alle internen Prozesse auswirkt.
Aufbereitungstechnik
(2017)
Lokale Ausbesserungen stellen bei Schadstellen an verputzten Fassaden in vielen Fällen eine technisch sichere und weniger zeit- und kostenaufwendige Alternative zum Putzabschlagen und Neuverputz oder zum vollflächigen Überputzen dar.
Die zum Teil damit verbundenen leichten Einschränkungen beim ästhetischen Gesamteindruck sind in den meisten Fällen tolerierbar. An die Auswahl eines geeigneten Putzes und die handwerkliche Ausführung der Ausbesserung werden hohe Anforderungen gestellt, um ein technisch und ästhetisch zufriedenstellendes Ergebnis zu erzielen.