Refine
Year of publication
- 2015 (222) (remove)
Document Type
- Conference Proceeding (92)
- Article (50)
- Other Publications (39)
- Part of a Book (11)
- Book (10)
- Journal (Complete Issue of a Journal) (7)
- Report (4)
- Doctoral Thesis (3)
- Working Paper (3)
- Bachelor Thesis (1)
Keywords
- Algorithm (1)
- Apfel (1)
- Arbeitsrecht (1)
- Atom interferometer (1)
- Autonomy (1)
- Autoritarismus (1)
- BCH codes (1)
- BPM (1)
- Baden-Württemberg (1)
- Baugeschichte (1)
Institute
- Fakultät Architektur und Gestaltung (3)
- Fakultät Bauingenieurwesen (2)
- Fakultät Informatik (1)
- Fakultät Maschinenbau (1)
- Institut für Angewandte Forschung - IAF (1)
- Institut für Strategische Innovation und Technologiemanagement - IST (2)
- Konstanz Institut für Corporate Governance - KICG (1)
- Konstanzer Institut für Prozesssteuerung - KIPS (3)
This contribution presents a data compression scheme for applications in non-volatile flash memories. The objective of the data compression algorithm is to reduce the amount of user data such that the redundancy of the error correction coding can be increased in order to improve the reliability of the data storage system. The data compression is performed on block level considering data blocks of 1 kilobyte. We present an encoder architecture that has low memory requirements and provides a fast data encoding.
A semilinear distributed parameter approach for solenoid valve control including saturation effects
(2015)
In this paper a semilinear parabolic PDE for the control of solenoid valves is presented. The distributed parameter model of the cylinder becomes nonlinear by the inclusion of saturation effects due to the material's B/H-curve. A flatness based solution of the semilinear PDE is shown as well as a convergence proof of its series solution. By numerical simulation results the adaptability of the approach is demonstrated, and differences between the linear and the nonlinear case are discussed. The major contribution of this paper is the inclusion of saturation effects into the magnetic field governing linear diffusion equation, and the development of a flatness based solution for the resulting semilinear PDE as an extension of previous works [1] and [2].
This paper considers intervals of real matrices with respect to partial orders and the problem to infer from some exposed matrices lying on the boundary of such an interval that all real matrices taken from the interval possess a certain property. In many cases such a property requires that the chosen matrices have an identically signed inverse. We also briefly survey related problems, e.g., the invariance of matrix properties under entry-wise perturbations.
We present a 3d-laser-scan simulation in virtual
reality for creating synthetic scans of CAD models. Consisting of
the virtual reality head-mounted display Oculus Rift and the
motion controller Razer Hydra our system can be used like
common hand-held 3d laser scanners. It supports scanning of
triangular meshes as well as b-spline tensor product surfaces
based on high performance ray-casting algorithms. While point
clouds of known scanning simulations are missing the man-made
structure, our approach overcomes this problem by imitating
real scanning scenarios. Calculation speed, interactivity and the
resulting realistic point clouds are the benefits of this system.
This chapter contains three advanced topics in model order reduction (MOR): nonlinear MOR, MOR for multi-terminals (or multi-ports) and finally an application in deriving a nonlinear macromodel covering phase shift when coupling oscillators. The sections are offered in a preferred order for reading, but can be read independently.
Aktive Solarenergienutzung
(2015)
This work proposes an efficient hardware Implementation of sequential stack decoding of binary block codes. The decoder can be applied for soft input decoding for generalized concatenated (GC) codes. The GC codes are constructed from inner nested binary Bose-Chaudhuri-Hocquenghem (BCH) codes and outer Reed-Solomon (RS) codes. In order to enable soft input decoding for the inner BCH block codes, a sequential stack decoding algorithm is used.
Domain-specific modelling is increasingly adopted in the software development industry. While open source metamodels like Ecore have a wide impact, they still have some problems. The independent storage of nodes (classes) and edges (references) is currently only possible with complex, specific solutions. Furthermore the developed models are stored in the extensible markup language (XML) data format, which leads to problems with large models in terms of scaling. In this paper we describe an approach that solves the problem of independent classes and references in metamodels and we store the models in the JavaScript Object Notation (JSON) data format to support high scalability. First results of our tests show that the developed approach works and classes and references can be defined independently. In addition, our approach reduces the amount of characters per model by a factor of approximately two compared to Ecore. The entire project is made available as open source under the name MoDiGen. This paper focuses on the description of the metamodel definition in terms of scaling.
Arbeitsrecht für Dummies
(2015)
Architectura
(2015)
Assessment Literacy
(2015)
Beyond the SDG compass
(2015)
Biokratie
(2015)
Aus systemisch-evolutorischer Perspektive wird die Frage nach Biokratie aus der intersystemischen Konkurrenz zwischen Biosphäre und Anthroposphäre angegangen. Mit zunehmender Eingriffstiefe in die Biosphäre entsteht die Gefahr einer gestörten Koevolution. Dem Verfasser geht es um die große zentrale Frage: Wie ist naturangepasstes Wirtschaften im Kontext evolvierender Bio- und Anthroposphären möglich? Die Grundprämisse geht davon aus, dass Kenntnisse hinsichtlich der Funktionsprinzipien der Biosphäre nicht nur zur Begrenzung der Eingriffsintensität erforderlich sind, sondern auch wertvolle Informationen zur Gestaltung des anthropogenen Metabolismus und der Wertschöpfungssysteme nach Naturvorbildern liefern. Zugleich sind diese potentiellen Innovationsfelder vor dem Hintergrund evolutionsökonomischer Erkenntnisse zu reflektieren.
Brennstoffzellen
(2015)
Kapitel 9 beginnt mit einer kurzen historischen Einführung und beschreibt dann nach einer ersten Klassifizierung das Funktionsprinzip und die thermodynamischen Grundlagen der direkten Umwandlung chemischer in elektrische Energie. Es folgen die verschiedenen Wirkungsgraddefinitionen und Verlustursachen und das sich daraus ergebende typische Betriebsverhalten einer Brennstoffzelle mit höherem Wirkungsgrad im Teillastbereich. Es werden die Anwendungsgebiete, die notwendigen Grundkomponenten und der Stand der Entwicklung der verschiedenen Typen AFC, PEFC, PAFC, MCFC und SOFC besprochen, Vor- und Nachteile diskutiert und einige ausgeführte Anlagen vorgestellt.
Mehr als 40 Prozent der Unternehmen nutzen keine operativen Prozessdaten, um die Durchlaufzeiten oder Kosten ihrer Prozesse effektiv zu überwachen. Dennoch geben mehr als 60 Prozent der Unternehmen an, mit Prozessmanagement ihre Effizienz steigern zu wollen. Dies zeigt die Studie «Business Process Management 2015» der ZHAW School of Management and Law (SML). Die Ergebnisse wurden heute am BPM Symposium in Winterthur vorgestellt und mit einem breiten Fachpublikum aus Praxis und Wissenschaft diskutiert.
Grundlage für die digitale Transformation: Die Studie untersucht, wie und in welchem Ausmass Unternehmen das Standardrepertoire des Geschäftsprozessmanagements in Richtung Prozessintelligenz erweitern. Prozessintelligenz schliesst die Lücke zum operativen Geschäft und liefert eine neue Perspektive auf das Management der Geschäftsprozesse. Dabei konzentriert sie sich auf die Informationen, die in den operativen Prozessen entstehen und gebraucht werden und ist somit eine wesentliche Grundlage für die aktuell viel diskutierte digitale Transformation von Unternehmen. Um Prozesse besser verstehen, steuern und optimieren zu können, werden Methoden und Werkzeuge des Geschäftsprozessmanagements (BPM) und der Business Intelligence (BI) kombiniert.
Wertvolle Erfahrungen aus der Praxis: Für die Studie wurden in einer Online-Befragung über 80 Unternehmen zum Status quo ihrer «Prozessintelligenz» befragt. Ein Praxisworkshop diente als Rahmen, um Erfolgsmuster aus fünf Fallstudien bei Roche, AXA Winterthur, der St. Galler Kantonalbank sowie den Städten Lausanne und Konstanz zu identifizieren. Der Softwarehersteller Axon Ivy und SBB Immobilien haben im Rahmen einer Studienpartnerschaft mit dem Institut für Wirtschaftsinformatik der SML und dem Institut für Prozesssteuerung der HTWG Konstanz wertvolle Praxiserfahrungen beigesteuert. Das Resultat ist eine Momentaufnahme der strategischen, analytischen und praktischen Fähigkeiten, Methoden und Werkzeuge, mit denen Organisationen ihre Geschäftsprozesse gestalten, ausführen, überwachen und fortlaufend weiterentwickeln.
Bernstein polynomials on a simplex V are considered. The expansion of a given polynomial p into these polynomials provides bounds for range of p over V. Bounds for the range of a rational function over V can easily be obtained from the Bernstein expansions of the numerator and denominator polynomials of this function. In this paper it is shown that these bounds converge monotonically and linearly to the range of the rational function if the degree of the Bernstein expansion is elevated. If V is subdivided then the convergence is quadratic with respect to the maximum of the diameters of the subsimplices.
Nowadays, there is a continuous need for many corporations to renew their business portfolio strategically in anticipation of changes in the business environment (e.g., technological change). The ongoing booming of founding international start-ups suggests that small entrepreneurial teams are an effective means to develop new businesses. Corporations should be able to benefit from this form of self-organized innovation when entering novel business domains for strategic renewal. However, corporations that establish small entrepreneurial teams (corporate ventures) are facing two obstacles. First, corporate ventures often fail for reasons that are not well explored. Second, it remains unclear how the partial successes may be improved to large successes. Although the key success factors remain ambiguous, there is little hope that corporate ventures will be successful without effective management. Since an empirical model for corporate venture management does not exists so far, the thesis formulates and answers the following problem statement: How can corporate management effectively manage corporate ventures? Building on qualitative and quantitative research methodologies, a model for effective corporate venture management is developed and tested statistically in the German IT consulting industry. The research results reveal some of the essential management principles through which corporate management can increase corporate venture success systematically.
Creatio ex nihilo
(2015)
Von Kommunikationsdesignern wird erwartet, dass sie kreativ sind. Es wird von ihnen gefordert, dass sie Ideen haben, die innovativ, neu und originell wirken. Diese Anforderung bekommen Gestalter schon früh in ihrer Ausbildung zu spüren. Die Frage, die sich diese Arbeit stellt, ist: Kann dieses Ziel überhaupt erreicht werden? Oder ist das Verfolgen von Originalität nur eine Illusion? Oder gar ein Mythos? Wie schon Picasso anmerkte: »Kunst ist Diebstahl.« Wenn nichts Neues geschaffen werden kann, müssen wir einen Weg finden, Bestehendes so zu verändern, dass das Ergebnis mehr ist als die Summe der Einzelteile. Der Diebstahl bestehender kreativer Leistung wäre somit Teil unseres Berufsfelds und sollte auch in der Designerausbildung eine wichtige Rolle spielen. Ich stelle mich mit dieser Arbeit dem Mythos der Originalität, dem Glauben an eine »creatio ex nihilo«, und beschäftige mich mit dessen Einfluss auf den Designprozess und den möglichen Auswirkungen auf die Ausbildung junger Gestalter.
Der Begriff der Originalität wird heute sehr unkontrolliert verwendet. Mittels einer quantitativen Inhaltsanalyse, Experteninterviews sowie Telefongesprächen wurde der Begriff deshalb hinterfragt und anders definiert. Die Auswirkungen auf den Designprozess wurden mittels eines Experiments mit Studierenden der Studiengänge
Kommunikationsdesign ermittelt. Dabei mussten die Probanden unter dem Druck einer originellen Idee gestalten. Die Lösungen wurden anschließend in einer Online-Umfrage von mehreren Personen subjektiv bewertet. Alle gesammelten Inhalte finden sich wieder in sechs Kapiteln zum Mythos der Originalität im Kommunikationsdesign (Teil A) und einer Forschungsdokumentation (Teil B).
CSR und Compliance
(2015)
Das Abenteuer der Kritik
(2015)
Flash-Speicher wurden ursprünglich als Speichermedium für Digitalkameras entwickelt, finden inzwischen aber in vielen Bereichen Anwendung.
Die in Konstanz ansässige Firma Hyperstone GmbH ist ein führender Anbieter von Flashcontrollern für Anwendungen mit erhöhten Anforderungen an Zuverlässigkeit und Datenintegrität. Bereits seit April 2011 kooperiert die Firma Hyperstone mit der HTWG Konstanz bei der Entwicklung von Fehlerkorrekturverfahren für einen zuverlässigen Einsatz von Flash-Speichern. Aufgrund der rasanten Entwicklung bei Flashspeicherbausteinen ist auch eine stetige Weiterentwicklung der Korrekturverfahren notwendig. Im Rahmen dieser Kooperation wurde inzwischen zwei Flashcontroller mit sehr leistungsfähiger Fehlerkorrektur entwickelt. Der folgende Artikel gibt Einblick in den Einsatz von Flash-Speichern und erläutert die Notwendigkeit für eine leistungsfähige Fehlerkorrektur.
This paper proposes a pipelined decoder architecture for generalised concatenated (GC) codes. These codes are constructed from inner binary Bose-Chaudhuri-Hocquenghem (BCH) and outer Reed-Solomon codes. The decoding of the component codes is based on hard decision syndrome decoding algorithms. The concatenated code consists of several small BCH codes. This enables a hardware architecture where the decoding of the component codes is pipelined. A hardware implementation of a GC decoder is presented and the cell area, cycle counts as well as the timing constraints are investigated. The results are compared to a decoder for long BCH codes with similar error correction performance. In comparison, the pipelined GC decoder achieves a higher throughput and has lower area consumption.
Atom interferometers have a multitude of proposed applications in space including precise measurements of the Earth's gravitational field, in navigation & ranging, and in fundamental physics such as tests of the weak equivalence principle (WEP) and gravitational wave detection. While atom interferometers are realized routinely in ground-based laboratories, current efforts aim at the development of a space compatible design optimized with respect to dimensions, weight, power consumption, mechanical robustness and radiation hardness. In this paper, we present a design of a high-sensitivity differential dual species 85Rb/87Rb atom interferometer for space, including physics package, laser system, electronics and software. The physics package comprises the atom source consisting of dispensers and a 2D magneto-optical trap (MOT), the science chamber with a 3D-MOT, a magnetic trap based on an atom chip and an optical dipole trap (ODT) used for Bose-Einstein condensate (BEC) creation and interferometry, the detection unit, the vacuum system for 10-11 mbar ultra-high vacuum generation, and the high-suppression factor magnetic shielding as well as the thermal control system.
The laser system is based on a hybrid approach using fiber-based telecom components and high-power laser diode technology and includes all laser sources for 2D-MOT, 3D-MOT, ODT, interferometry and detection. Manipulation and switching of the laser beams is carried out on an optical bench using Zerodur bonding technology. The instrument consists of 9 units with an overall mass of 221 kg, an average power consumption of 608 W (819 W peak), and a volume of 470 liters which would well fit on a satellite to be launched with a Soyuz rocket, as system studies have shown.
Nowadays, the number of flexible and fast human to application system interactions is dramatically increasing. For instance, citizens interact with the help of the internet to organize surveys or meetings (in real-time) spontaneously. These interactions are supported by technologies and application systems such as free wireless networks, web -or mobile apps. Smart Cities aim at enabling their citizens to use these digital services, e.g., by providing enhanced networks and application infrastructures maintained by the public administration. However, looking beyond technology, there is still a significant lack of interaction and support between "normal" citizens and the public administration. For instance, democratic decision processes (e.g. how to allocate public disposable budgets) are often discussed by the public administration without citizen involvement. This paper introduces an approach, which describes the design of enhanced interactional web applications for Smart Cities based on dialogical logic process patterns. We demonstrate the approach with the help of a budgeting scenario as well as a summary and outlook on further research.
The proposed approach applies current unsupervised clustering approaches in a different dynamic manner. Instead of taking all the data as input and finding clusters among them, the given approach clusters Holter ECG data (long-term electrocardiography data from a holter monitor) on a given interval which enables a dynamic clustering approach (DCA). Therefore advanced clustering techniques based on the well known Dynamic Time Warping algorithm are used. Having clusters e.g. on a daily basis, clusters can be compared by defining cluster shape properties. Doing this gives a measure for variation in unsupervised cluster shapes and may reveal unknown changes in healthiness. Embedding this approach into wearable devices offers advantages over the current techniques. On the one hand users get feedback if their ECG data characteristic changes unforeseeable over time which makes early detection possible. On the other hand cluster properties like biggest or smallest cluster may help a doctor in making diagnoses or observing several patients. Further, on found clusters known processing techniques like stress detection or arrhythmia classification may be applied.
Conducting surveillance impact assessment is the first step to solve the "Who monitors the monitor?" problem. Since the surveillance impacts on different dimensions of privacy and society are always changing, measuring compliance and impact through metrics can ensure the negative consequences are minimized to acceptable levels. To develop metrics systematically for surveillance impact assessment, we follow the top-down process of the Goal/Question/Metric paradigm: 1) establish goals through the social impact model, 2) generate questions through the dimensions of surveillance activities, and 3) develop metrics through the scales of measure. With respect to the three factors of impact magnitude: the strength of sources, the immediacy of sources, and the number of sources, we generate questions concerning surveillance activities: by whom, for whom, why, when, where, of what, and how, and develop metrics with the scales of measure: the nominal scale, the ordinal scale, the interval scale, and the ratio scale. In addition to compliance assessment and impact assessment, the developed metrics have the potential to address the power imbalance problem through sousveillance, which employs surveillance to control and redirect the impact exposures.
In einem Expertengespräch tauschen sich Herr Michael Kayser, Geschäftsführer der digital spirit GmbH und Herr Prof. Dr. Stephan Grüninger, Direktor des Center for Business Compliance & Integrity (CBCI) an der Hochschule Konstanz, zur neuen ISO 19600 “Compliance Management Systems” aus. Das Gespräch wurde von Frau Sabrina Quintus, Akademische Mitarbeiterin am CBCI, geleitet.
Die Quadratur der Risse
(2015)
Differences in the pitting resistance between cold worked CrNi and CrNiMnN metastable austenites
(2015)
Fachvortrag auf dem Kongress CORROSION 2015, 15-19 March, Dallas, Texas, USA. NACE International
Digitale Transformation
(2015)
Digitalisierung im Bauwesen
(2015)
Technology commercialization is described as the most dreadful challenge for technology-based entrepreneurs. The scarcity of resources and limited managerial experience make it a daunting task, putting in danger the whole firm emergence. Prior research has often build upon the resource-based view to propose that the new firms' performance is dependent on their initial resource endowments and configurations. Nevertheless, little is known on how the early-stage decisions of the entrepreneur might influence on the growth of the firm. Scholars have suggested that both technology and market orientation actions could influence the performance and growth of firms in this context; nevertheless, there is limited empirical evidence of the influence of these different orientations in the context of new technology-based firms (NTBFs). In this study we propose to explore the influence of technology and demand creation actions adopting a demand-side view. We use a longitudinal study on a panel dataset (2004-2007) with 249 U.S. new high-technology firms to test our hypothesis. The results point towards a rather limited influence of initial resource configurations, as well as an unexpected influence of market and technology orientation in the growth dimensions of an NTBF. The research holds implications for the management of new technology-based firms and for those interested in supporting the development of technology entrepreneurship.
Earthquake response spectra as defined by Eurocode 8 (German NAD) are restricted to soils with shear wave velocities greater than 150 m/s. For soft soil layers e.g. of clay underlain by bedrock special investigations are required because resonance effects of the layer significantly influence the shape of the spectrum. Numerical investigations are normally based on a one-dimensional theory of horizontally polarized shear waves propagating in vertical direction. The paper describes a parametric study to define acceleration response spectra for a soft soil over a half-space for a wide range of soil layer heights and material parameters. Based on this study a simplified method to describe response spectra for the model of a soft soil layer underlain by a viscoelastic halfspace is given.
Effect of cold working on the localized corrosion behavior of CrNi and CrNiMnN metastable austenites
(2015)
Vortrag auf dem Doktorandenkolloquium des Kooperativen Promotionskollegs der HTWG, 09.07.2015
Ein Holzhaus als Botschaft. Die erste diplomatische Vertretung des Deutschen Reiches in Ankara 1924
(2015)
Auf die Gründung der türkischen Republik und die Verlagerung der Hauptstadt nach Ankara reagierte das Deutsche Reich 1924 zeitnah mit der Errichtung eines Botschaftsgebäudes in Fertigteilbauweise. Dieses präfabrizierte Holzhaus wurde von der für den Holzbau der Moderne bedeutenden Firma Christoph & Unmack AG aus Niesky/Oberlausitz geliefert. Nach Errichtung eines größeren, massiven Botschaftsgebäudes in Ankara wurde das Holzhaus 1934 auf das Gelände des Atatürk Orman Çiftliği transloziert, wo es noch heute existiert. 2010 konnte es einer gründlichen Baudokumentation unterzogen werden. Im Rahmen von drei Einzelbeiträgen werden die Ergebnisse der Untersuchungen an diesem ebenso ungewöhnlichen wie bedeutenden Baudenkmal vorgestellt.
Die zum UNESCO Weltkulturerbe zaehlenden Meisterhaeuser des Dessauer Bauhauses wurden 1925/1926 nach Plaenen des Bauhaus-Gruenders Walter Gropius errichtet. Nach Umbauten waehrend des Nationalsozialismus wurden im Zweiten Weltkrieg zwei Gebaeude des Ensembles voellig zerstoert: das Direktorenhaus und die Doppelhaushaelfte von Laszlo Moholy-Nagy. 1956 erfolgte ein veraenderter Wiederaufbau des Hauses Gropius als Haus Emmer. Fuer einen adaequaten denkmalpflegerischen Umgang mit dem Ensemble nach der Wiedervereinigung wurden nach laengeren Vorueberlegungen 2008 und 2010 Wettbewerbe fuer eine staedtebauliche Reparatur durchgefuehrt. Auf dieser Grundlage wurde das Berliner Architektenbuero Bruno Fioretti Marquez mit dem Neubau des Direktorenhauses und des Hauses Moholy-Nagy beauftragt. Da die Quellenlage fuer eine Rekonstruktion nicht ausreichte, wurde ein anspruchsvolles architektonisches Konzept umgesetzt, das die Kubatur der verlorenen Bauten nachzeichnet. Die Detailausbildung wurde frei in gegenueber den erhaltenen Meisterhaeusern, die bereits zuvor saniert worden waren, stark reduzierten Formen gestaltet.
Energiequelle Seewasser
(2015)
Energietechnische Grundlagen
(2015)
Kapitel 2 stellt kurz die verschiedenen Energieformen mechanisch, thermisch, chemisch etc. vor und das Prinzip von der Erhaltung der (Gesamt-) Energie. Die Möglichkeit zur Umwandlung von thermischer Energie in nutzbare mechanische Energie durch Kreisprozesse, mit dem theoretischen Carnot-Prozess als Obergrenze der Umwandelbarkeit, wird erläutert. Die Angabe der Größenordnung des regenerativen Energieangebots und des anthropogenen Umsatzes und die Unterscheidung zwischen Primär- und Sekundärenergien schließen das Kapitel ab.
Entwicklung eines grafischen Editors zur Metamodellierung sowie Validierung von Modell-Instanzen
(2015)
Im Rahmen dieser Arbeit wurde ein grafischer Editor für die Modellierung von Metamodellen entwickelt. Der Editor wird in einem beliebigen Web-Browser ausgeführt und ist somit plattformunabhängig nutzbar. Er implementiert das an der HTWG Konstanz im Projekt Progress in Graphical Modeling Frameworks entwickelte MoDiGen-Metamodell, und erlaubt die Modellierung von Metamodellen, die zu diesem Meta-Metamodell konform sind.
Als Ausgabeformat nutzt der Editor eine JSON-Struktur, was die Datenhaltung mit Hilfe von JSON-basierten nicht-relationalen Datenbanken ermöglicht und die Implementierung des Editors in JavaScript erleichterte.
Zusätzlich wurde ein Werkzeug entwickelt, mit welchem die Instanzen des modellierten Metamodells, die Modelle, gegen das Metamodell geprüft werden können. Dieses Programm ist sowohl für die Clientseite im Web-Browser zur Prüfung eines Modells, als auch für die Serverseite zur Prüfung der Modelldaten vor der Persistierung relevant, weshalb die Validierung in JavaScript bzw. CoffeeScript entwickelt wurde. Im Web-Browser kann diese Implementierung direkt ausgeführt werden, serverseitig wurde die von der Mozilla Foundation in Java geschriebene JavaScript-Implementierung Rhino verwendet, um das JavaScript-Programm aufzurufen.
Der Theorieteil der Arbeit beschäftigt sich mit den Meta-Metamodellen, die die Grundlage des MoDiGen-Metamodells bilden, sowie ausführlich mit dem MoDiGen-Metamodell selbst. Im Praxisteil wird die Entwicklung und der Aufbau des Editors und des Validators erläutert.
Vor dem Hintergrund der großen Bedeutung des Europäischen Wirtschaftsrechts, gerade auch für das deutsche Wirtschaftsleben, gibt die vorliegende Veröffentlichung zunächst einen einführenden Überblick über die Entwicklung, die Ziele und Zuständigkeiten sowie die Organisationsstruktur und die Rechtsquellen der Europäischen Union. Es soll deutlich werden, wo und wie Recht, speziell Wirtschaftsrecht, überhaupt entsteht und welche Inhalte dieses jeweils aufweist. Dieser erste Teil der Studie ist bewusst sehr ausführlich gehalten und dient als Wissens- und Verständnisgrundlage für den zweiten Teil, die eigentliche Darstellung des Europäischen Wirtschaftsrechts unter besonderer Berücksichtigung der Grundfreiheiten als Rahmenbedingung eines marktorientierten Managements deutscher Unternehmen. Die Studie soll als Einstieg in dieses Rechtsgebiet dienen und gleichzeitig Vertiefungen zu bestimmten einzelnen Aspekten jeweils zu erleichtern helfen. Adressaten sind Studierende von Universitäten, Fachhochschulen, Berufsakademien und anderen Bildungseinrichtungen, die sich während ihres Studiums mit dem Recht der Europäischen Union zu befassen haben, ebenso wie betroffene Entscheidungsträger der Wirtschaft.
Excubation
(2015)
In this paper an approach towards databased fault diagnosis of linear electromagnetic actuators is presented. Time and time-frequency-domain methods were applied to extract fault related features from current and voltage measurements. The resulting features were transformed to enhance class separability using either Principal Component Analysis (PCA) or Optimal Transformation. Feature selection and dimensionality reduction was performed employing a modified Fisher-ratio. Fault detection was carried out using a Support-Vector-Machine classifier trained with randomly selected data subsets. Results showed, that not only the used feature sets (time-domain/time-frequency-domain) are crucial for fault detection and classification, but also feature pre-processing. PCA transformed time-domain features allow fault detection and classification without misclassification, relying on current and voltage measurements making two sensors necessary to generate the data. Optimal transformed time-frequency-domain features allow a misclassification free result as well, but as they are calculated from current measurements only, a dedicated voltage sensor is not necessary. Using those features is a promising alternative even for detecting purely supply voltage related faults.
Im Beitrag wird erörtert, welche Rolle der schriftlichen Fehlerkorrektur im studienbegleitenden und -vorbereitenden Deutschunterricht zukommt. Dazu wird ein Überblick über den Stand der Forschung gegeben und eine Studie zur Fehlerkorrektur mit fortgeschrittenen Lernenden vorgestellt, in der die Wirkung einer Fehlerkorrektur am Lernertext überprüft wurde. Die Fehlerkorrektur führte bei der Experimentalgruppe zwar zu einer Reduktion der Fehler in der Überarbeitung, im Vergleich zur Kontrollgruppe aber nicht zu einer signifikanten Verbesserung in einem neuen Text. Um zu eruieren, wie die Lernenden mit der Fehlerkorrektur umgingen, wurde in der Studie außerdem eine qualitative Analyse einzelner Arbeiten vorgenommen. Der Beitrag schließt mit der Frage, welche Rolle eine – nicht sonderlich effektive – Fehlerkorrektur in einer auf Wissenschaftssprache bezogenen Vermittlung einnehmen sollte.
Im Beitrag wird erörtert, welche Rolle der schriftlichen Fehlerkorrektur im studienbegleitenden und -vorbereitenden Deutschunterricht zukommt. Dazu wird ein Überblick über den Stand der Forschung gegeben und eine Studie zur Fehlerkorrektur mit fortgeschrittenen Lernenden vorgestellt, in der die Wirkung einer Fehlerkorrektur am Lernertext überprüft wurde. Die Fehlerkorrektur führte bei der Experimentalgruppe zwar zu einer Reduktion der Fehler in der Überarbeitung, im Vergleich zur Kontrollgruppe aber nicht zu einer signifikanten Verbesserung in einem neuen Text. Um zu eruieren, wie die Lernenden mit der Fehlerkorrektur umgingen, wurde in der Studie außerdem eine qualitative Analyse einzelner Arbeiten vorgenommen. Der Beitrag schließt mit der Frage, welche Rolle eine – nicht sonderlich effektive – Fehlerkorrektur in einer auf Wissenschaftssprache bezogenen Vermittlung einnehmen sollte.
Forum - Ausgabe 2015
(2015)
Flamenco und Tango gehören zu den ersten Assoziationen, mit denen Sevilla und Buenos Aires in Verbindung gebracht werden. Seit der Entstehung beider Kunstformen im 19. Jahrhundert entwickelte sich kontinuierlich ein Tanztourismus, der bis heute zu ausdifferenzierten Geschäftsmodellen führte. Flamenco und Tango erlangten als immaterielles Weltkulturerbe außerdem erhebliche Bedeutung für das Destinationsimage der beiden Städte. Das Modell von Gereffi et al. (2005) zu «Governance of Global Value Chains» wird in adaptierter Form auf Flamenco- und Tangotanztourismus angewendet, um Bedeutungsdimensionen im Destinationsmanagement herauszuarbeiten.
Governanceethik
(2015)
Green-Innovation
(2015)
Stress is recognized as a factor of predominant disease and in the future the costs for treatment will increase. The presented approach tries to detect stress in a very basic and easy to implement way, so that the cost for the device and effort to wear it remain low. The user should benefit from the fact that the system offers an easy interface reporting the status of his body in real time. In parallel, the system provides interfaces to pass the obtained data forward for further processing and (professional) analyses, in case the user agrees. The system is designed to be used in every day’s activities and it is not restricted to laboratory use or environments. The implementation of the enhanced prototype shows that the detection of stress and the reporting can be managed using correlation plots and automatic pattern recognition even on a very light-weighted microcontroller platform.
Hot isostatic pressing (HIP) allows the production of complex components geometry. Generally, a high quality of the components is achieved due to the well managed composition of the metal powder and the non-isotropic properties. If a duplex stainless steel is produced, a heat treatment after the HIP-process is necessary to remove precipitations like carbides, nitrides and intermetallic phases. In a new process, the sintering step should be combined with the heat treatment. In this case a high cooling rate is necessary to avoid precipitations in duplex stainless steels. In this work, the influence of the HIP-temperature and the wall thickness on corrosion resistance, microstructure and impact strength were investigated. The results should help to optimize the process parameters like temperature and cooling rate. For the investigation, two HIP-temperatures were tested in a classical HIP-process step with a defined cooling rate. An additional heat treatment was not conducted. The specimens were cut from different sectors of the HIP-block. For investigation of the corrosion resistance, the critical pitting temperature was determined with electrochemical method according to EN ISO 17864. An impact test was used to determine the impact transition temperature. Metallographic investigations show the microstructure in the different sectors of the HIP-block.
IGA using subdivision-solids
(2015)
Vortrag auf dem Doktorandenkolloquium des Kooperativen Promotionskollegs der HTWG, 09.07.2015