Refine
Year of publication
- 2015 (201) (remove)
Document Type
- Conference Proceeding (89)
- Article (48)
- Other Publications (39)
- Part of a Book (11)
- Book (9)
- Doctoral Thesis (3)
- Journal (Complete Issue of a Journal) (1)
- Study Thesis (1)
Has Fulltext
- no (201) (remove)
Keywords
- Algorithm (1)
- Apfel (1)
- Arbeitsrecht (1)
- Autonomy (1)
- Autoritarismus (1)
- BCH codes (1)
- BPM (1)
- Baugeschichte (1)
- Bedarfsermittlungen (1)
- Bernstein coefficients (1)
This contribution presents a data compression scheme for applications in non-volatile flash memories. The objective of the data compression algorithm is to reduce the amount of user data such that the redundancy of the error correction coding can be increased in order to improve the reliability of the data storage system. The data compression is performed on block level considering data blocks of 1 kilobyte. We present an encoder architecture that has low memory requirements and provides a fast data encoding.
A semilinear distributed parameter approach for solenoid valve control including saturation effects
(2015)
In this paper a semilinear parabolic PDE for the control of solenoid valves is presented. The distributed parameter model of the cylinder becomes nonlinear by the inclusion of saturation effects due to the material's B/H-curve. A flatness based solution of the semilinear PDE is shown as well as a convergence proof of its series solution. By numerical simulation results the adaptability of the approach is demonstrated, and differences between the linear and the nonlinear case are discussed. The major contribution of this paper is the inclusion of saturation effects into the magnetic field governing linear diffusion equation, and the development of a flatness based solution for the resulting semilinear PDE as an extension of previous works [1] and [2].
This paper considers intervals of real matrices with respect to partial orders and the problem to infer from some exposed matrices lying on the boundary of such an interval that all real matrices taken from the interval possess a certain property. In many cases such a property requires that the chosen matrices have an identically signed inverse. We also briefly survey related problems, e.g., the invariance of matrix properties under entry-wise perturbations.
We present a 3d-laser-scan simulation in virtual
reality for creating synthetic scans of CAD models. Consisting of
the virtual reality head-mounted display Oculus Rift and the
motion controller Razer Hydra our system can be used like
common hand-held 3d laser scanners. It supports scanning of
triangular meshes as well as b-spline tensor product surfaces
based on high performance ray-casting algorithms. While point
clouds of known scanning simulations are missing the man-made
structure, our approach overcomes this problem by imitating
real scanning scenarios. Calculation speed, interactivity and the
resulting realistic point clouds are the benefits of this system.
This chapter contains three advanced topics in model order reduction (MOR): nonlinear MOR, MOR for multi-terminals (or multi-ports) and finally an application in deriving a nonlinear macromodel covering phase shift when coupling oscillators. The sections are offered in a preferred order for reading, but can be read independently.
Aktive Solarenergienutzung
(2015)
This work proposes an efficient hardware Implementation of sequential stack decoding of binary block codes. The decoder can be applied for soft input decoding for generalized concatenated (GC) codes. The GC codes are constructed from inner nested binary Bose-Chaudhuri-Hocquenghem (BCH) codes and outer Reed-Solomon (RS) codes. In order to enable soft input decoding for the inner BCH block codes, a sequential stack decoding algorithm is used.
Domain-specific modelling is increasingly adopted in the software development industry. While open source metamodels like Ecore have a wide impact, they still have some problems. The independent storage of nodes (classes) and edges (references) is currently only possible with complex, specific solutions. Furthermore the developed models are stored in the extensible markup language (XML) data format, which leads to problems with large models in terms of scaling. In this paper we describe an approach that solves the problem of independent classes and references in metamodels and we store the models in the JavaScript Object Notation (JSON) data format to support high scalability. First results of our tests show that the developed approach works and classes and references can be defined independently. In addition, our approach reduces the amount of characters per model by a factor of approximately two compared to Ecore. The entire project is made available as open source under the name MoDiGen. This paper focuses on the description of the metamodel definition in terms of scaling.
Arbeitsrecht für Dummies
(2015)
Architectura
(2015)
Assessment Literacy
(2015)
Beyond the SDG compass
(2015)
Biokratie
(2015)
Aus systemisch-evolutorischer Perspektive wird die Frage nach Biokratie aus der intersystemischen Konkurrenz zwischen Biosphäre und Anthroposphäre angegangen. Mit zunehmender Eingriffstiefe in die Biosphäre entsteht die Gefahr einer gestörten Koevolution. Dem Verfasser geht es um die große zentrale Frage: Wie ist naturangepasstes Wirtschaften im Kontext evolvierender Bio- und Anthroposphären möglich? Die Grundprämisse geht davon aus, dass Kenntnisse hinsichtlich der Funktionsprinzipien der Biosphäre nicht nur zur Begrenzung der Eingriffsintensität erforderlich sind, sondern auch wertvolle Informationen zur Gestaltung des anthropogenen Metabolismus und der Wertschöpfungssysteme nach Naturvorbildern liefern. Zugleich sind diese potentiellen Innovationsfelder vor dem Hintergrund evolutionsökonomischer Erkenntnisse zu reflektieren.
Brennstoffzellen
(2015)
Kapitel 9 beginnt mit einer kurzen historischen Einführung und beschreibt dann nach einer ersten Klassifizierung das Funktionsprinzip und die thermodynamischen Grundlagen der direkten Umwandlung chemischer in elektrische Energie. Es folgen die verschiedenen Wirkungsgraddefinitionen und Verlustursachen und das sich daraus ergebende typische Betriebsverhalten einer Brennstoffzelle mit höherem Wirkungsgrad im Teillastbereich. Es werden die Anwendungsgebiete, die notwendigen Grundkomponenten und der Stand der Entwicklung der verschiedenen Typen AFC, PEFC, PAFC, MCFC und SOFC besprochen, Vor- und Nachteile diskutiert und einige ausgeführte Anlagen vorgestellt.
Mehr als 40 Prozent der Unternehmen nutzen keine operativen Prozessdaten, um die Durchlaufzeiten oder Kosten ihrer Prozesse effektiv zu überwachen. Dennoch geben mehr als 60 Prozent der Unternehmen an, mit Prozessmanagement ihre Effizienz steigern zu wollen. Dies zeigt die Studie «Business Process Management 2015» der ZHAW School of Management and Law (SML). Die Ergebnisse wurden heute am BPM Symposium in Winterthur vorgestellt und mit einem breiten Fachpublikum aus Praxis und Wissenschaft diskutiert.
Grundlage für die digitale Transformation: Die Studie untersucht, wie und in welchem Ausmass Unternehmen das Standardrepertoire des Geschäftsprozessmanagements in Richtung Prozessintelligenz erweitern. Prozessintelligenz schliesst die Lücke zum operativen Geschäft und liefert eine neue Perspektive auf das Management der Geschäftsprozesse. Dabei konzentriert sie sich auf die Informationen, die in den operativen Prozessen entstehen und gebraucht werden und ist somit eine wesentliche Grundlage für die aktuell viel diskutierte digitale Transformation von Unternehmen. Um Prozesse besser verstehen, steuern und optimieren zu können, werden Methoden und Werkzeuge des Geschäftsprozessmanagements (BPM) und der Business Intelligence (BI) kombiniert.
Wertvolle Erfahrungen aus der Praxis: Für die Studie wurden in einer Online-Befragung über 80 Unternehmen zum Status quo ihrer «Prozessintelligenz» befragt. Ein Praxisworkshop diente als Rahmen, um Erfolgsmuster aus fünf Fallstudien bei Roche, AXA Winterthur, der St. Galler Kantonalbank sowie den Städten Lausanne und Konstanz zu identifizieren. Der Softwarehersteller Axon Ivy und SBB Immobilien haben im Rahmen einer Studienpartnerschaft mit dem Institut für Wirtschaftsinformatik der SML und dem Institut für Prozesssteuerung der HTWG Konstanz wertvolle Praxiserfahrungen beigesteuert. Das Resultat ist eine Momentaufnahme der strategischen, analytischen und praktischen Fähigkeiten, Methoden und Werkzeuge, mit denen Organisationen ihre Geschäftsprozesse gestalten, ausführen, überwachen und fortlaufend weiterentwickeln.
Bernstein polynomials on a simplex V are considered. The expansion of a given polynomial p into these polynomials provides bounds for range of p over V. Bounds for the range of a rational function over V can easily be obtained from the Bernstein expansions of the numerator and denominator polynomials of this function. In this paper it is shown that these bounds converge monotonically and linearly to the range of the rational function if the degree of the Bernstein expansion is elevated. If V is subdivided then the convergence is quadratic with respect to the maximum of the diameters of the subsimplices.
Nowadays, there is a continuous need for many corporations to renew their business portfolio strategically in anticipation of changes in the business environment (e.g., technological change). The ongoing booming of founding international start-ups suggests that small entrepreneurial teams are an effective means to develop new businesses. Corporations should be able to benefit from this form of self-organized innovation when entering novel business domains for strategic renewal. However, corporations that establish small entrepreneurial teams (corporate ventures) are facing two obstacles. First, corporate ventures often fail for reasons that are not well explored. Second, it remains unclear how the partial successes may be improved to large successes. Although the key success factors remain ambiguous, there is little hope that corporate ventures will be successful without effective management. Since an empirical model for corporate venture management does not exists so far, the thesis formulates and answers the following problem statement: How can corporate management effectively manage corporate ventures? Building on qualitative and quantitative research methodologies, a model for effective corporate venture management is developed and tested statistically in the German IT consulting industry. The research results reveal some of the essential management principles through which corporate management can increase corporate venture success systematically.
CSR und Compliance
(2015)
Das Abenteuer der Kritik
(2015)
Flash-Speicher wurden ursprünglich als Speichermedium für Digitalkameras entwickelt, finden inzwischen aber in vielen Bereichen Anwendung.
Die in Konstanz ansässige Firma Hyperstone GmbH ist ein führender Anbieter von Flashcontrollern für Anwendungen mit erhöhten Anforderungen an Zuverlässigkeit und Datenintegrität. Bereits seit April 2011 kooperiert die Firma Hyperstone mit der HTWG Konstanz bei der Entwicklung von Fehlerkorrekturverfahren für einen zuverlässigen Einsatz von Flash-Speichern. Aufgrund der rasanten Entwicklung bei Flashspeicherbausteinen ist auch eine stetige Weiterentwicklung der Korrekturverfahren notwendig. Im Rahmen dieser Kooperation wurde inzwischen zwei Flashcontroller mit sehr leistungsfähiger Fehlerkorrektur entwickelt. Der folgende Artikel gibt Einblick in den Einsatz von Flash-Speichern und erläutert die Notwendigkeit für eine leistungsfähige Fehlerkorrektur.
This paper proposes a pipelined decoder architecture for generalised concatenated (GC) codes. These codes are constructed from inner binary Bose-Chaudhuri-Hocquenghem (BCH) and outer Reed-Solomon codes. The decoding of the component codes is based on hard decision syndrome decoding algorithms. The concatenated code consists of several small BCH codes. This enables a hardware architecture where the decoding of the component codes is pipelined. A hardware implementation of a GC decoder is presented and the cell area, cycle counts as well as the timing constraints are investigated. The results are compared to a decoder for long BCH codes with similar error correction performance. In comparison, the pipelined GC decoder achieves a higher throughput and has lower area consumption.
Nowadays, the number of flexible and fast human to application system interactions is dramatically increasing. For instance, citizens interact with the help of the internet to organize surveys or meetings (in real-time) spontaneously. These interactions are supported by technologies and application systems such as free wireless networks, web -or mobile apps. Smart Cities aim at enabling their citizens to use these digital services, e.g., by providing enhanced networks and application infrastructures maintained by the public administration. However, looking beyond technology, there is still a significant lack of interaction and support between "normal" citizens and the public administration. For instance, democratic decision processes (e.g. how to allocate public disposable budgets) are often discussed by the public administration without citizen involvement. This paper introduces an approach, which describes the design of enhanced interactional web applications for Smart Cities based on dialogical logic process patterns. We demonstrate the approach with the help of a budgeting scenario as well as a summary and outlook on further research.
The proposed approach applies current unsupervised clustering approaches in a different dynamic manner. Instead of taking all the data as input and finding clusters among them, the given approach clusters Holter ECG data (long-term electrocardiography data from a holter monitor) on a given interval which enables a dynamic clustering approach (DCA). Therefore advanced clustering techniques based on the well known Dynamic Time Warping algorithm are used. Having clusters e.g. on a daily basis, clusters can be compared by defining cluster shape properties. Doing this gives a measure for variation in unsupervised cluster shapes and may reveal unknown changes in healthiness. Embedding this approach into wearable devices offers advantages over the current techniques. On the one hand users get feedback if their ECG data characteristic changes unforeseeable over time which makes early detection possible. On the other hand cluster properties like biggest or smallest cluster may help a doctor in making diagnoses or observing several patients. Further, on found clusters known processing techniques like stress detection or arrhythmia classification may be applied.
Conducting surveillance impact assessment is the first step to solve the "Who monitors the monitor?" problem. Since the surveillance impacts on different dimensions of privacy and society are always changing, measuring compliance and impact through metrics can ensure the negative consequences are minimized to acceptable levels. To develop metrics systematically for surveillance impact assessment, we follow the top-down process of the Goal/Question/Metric paradigm: 1) establish goals through the social impact model, 2) generate questions through the dimensions of surveillance activities, and 3) develop metrics through the scales of measure. With respect to the three factors of impact magnitude: the strength of sources, the immediacy of sources, and the number of sources, we generate questions concerning surveillance activities: by whom, for whom, why, when, where, of what, and how, and develop metrics with the scales of measure: the nominal scale, the ordinal scale, the interval scale, and the ratio scale. In addition to compliance assessment and impact assessment, the developed metrics have the potential to address the power imbalance problem through sousveillance, which employs surveillance to control and redirect the impact exposures.
In einem Expertengespräch tauschen sich Herr Michael Kayser, Geschäftsführer der digital spirit GmbH und Herr Prof. Dr. Stephan Grüninger, Direktor des Center for Business Compliance & Integrity (CBCI) an der Hochschule Konstanz, zur neuen ISO 19600 “Compliance Management Systems” aus. Das Gespräch wurde von Frau Sabrina Quintus, Akademische Mitarbeiterin am CBCI, geleitet.
Die Quadratur der Risse
(2015)
Differences in the pitting resistance between cold worked CrNi and CrNiMnN metastable austenites
(2015)
Fachvortrag auf dem Kongress CORROSION 2015, 15-19 March, Dallas, Texas, USA. NACE International
Digitale Transformation
(2015)
Digitalisierung im Bauwesen
(2015)
Technology commercialization is described as the most dreadful challenge for technology-based entrepreneurs. The scarcity of resources and limited managerial experience make it a daunting task, putting in danger the whole firm emergence. Prior research has often build upon the resource-based view to propose that the new firms' performance is dependent on their initial resource endowments and configurations. Nevertheless, little is known on how the early-stage decisions of the entrepreneur might influence on the growth of the firm. Scholars have suggested that both technology and market orientation actions could influence the performance and growth of firms in this context; nevertheless, there is limited empirical evidence of the influence of these different orientations in the context of new technology-based firms (NTBFs). In this study we propose to explore the influence of technology and demand creation actions adopting a demand-side view. We use a longitudinal study on a panel dataset (2004-2007) with 249 U.S. new high-technology firms to test our hypothesis. The results point towards a rather limited influence of initial resource configurations, as well as an unexpected influence of market and technology orientation in the growth dimensions of an NTBF. The research holds implications for the management of new technology-based firms and for those interested in supporting the development of technology entrepreneurship.
Effect of cold working on the localized corrosion behavior of CrNi and CrNiMnN metastable austenites
(2015)
Vortrag auf dem Doktorandenkolloquium des Kooperativen Promotionskollegs der HTWG, 09.07.2015
Ein Holzhaus als Botschaft. Die erste diplomatische Vertretung des Deutschen Reiches in Ankara 1924
(2015)
Auf die Gründung der türkischen Republik und die Verlagerung der Hauptstadt nach Ankara reagierte das Deutsche Reich 1924 zeitnah mit der Errichtung eines Botschaftsgebäudes in Fertigteilbauweise. Dieses präfabrizierte Holzhaus wurde von der für den Holzbau der Moderne bedeutenden Firma Christoph & Unmack AG aus Niesky/Oberlausitz geliefert. Nach Errichtung eines größeren, massiven Botschaftsgebäudes in Ankara wurde das Holzhaus 1934 auf das Gelände des Atatürk Orman Çiftliği transloziert, wo es noch heute existiert. 2010 konnte es einer gründlichen Baudokumentation unterzogen werden. Im Rahmen von drei Einzelbeiträgen werden die Ergebnisse der Untersuchungen an diesem ebenso ungewöhnlichen wie bedeutenden Baudenkmal vorgestellt.
Die zum UNESCO Weltkulturerbe zaehlenden Meisterhaeuser des Dessauer Bauhauses wurden 1925/1926 nach Plaenen des Bauhaus-Gruenders Walter Gropius errichtet. Nach Umbauten waehrend des Nationalsozialismus wurden im Zweiten Weltkrieg zwei Gebaeude des Ensembles voellig zerstoert: das Direktorenhaus und die Doppelhaushaelfte von Laszlo Moholy-Nagy. 1956 erfolgte ein veraenderter Wiederaufbau des Hauses Gropius als Haus Emmer. Fuer einen adaequaten denkmalpflegerischen Umgang mit dem Ensemble nach der Wiedervereinigung wurden nach laengeren Vorueberlegungen 2008 und 2010 Wettbewerbe fuer eine staedtebauliche Reparatur durchgefuehrt. Auf dieser Grundlage wurde das Berliner Architektenbuero Bruno Fioretti Marquez mit dem Neubau des Direktorenhauses und des Hauses Moholy-Nagy beauftragt. Da die Quellenlage fuer eine Rekonstruktion nicht ausreichte, wurde ein anspruchsvolles architektonisches Konzept umgesetzt, das die Kubatur der verlorenen Bauten nachzeichnet. Die Detailausbildung wurde frei in gegenueber den erhaltenen Meisterhaeusern, die bereits zuvor saniert worden waren, stark reduzierten Formen gestaltet.
Energiequelle Seewasser
(2015)
Energietechnische Grundlagen
(2015)
Kapitel 2 stellt kurz die verschiedenen Energieformen mechanisch, thermisch, chemisch etc. vor und das Prinzip von der Erhaltung der (Gesamt-) Energie. Die Möglichkeit zur Umwandlung von thermischer Energie in nutzbare mechanische Energie durch Kreisprozesse, mit dem theoretischen Carnot-Prozess als Obergrenze der Umwandelbarkeit, wird erläutert. Die Angabe der Größenordnung des regenerativen Energieangebots und des anthropogenen Umsatzes und die Unterscheidung zwischen Primär- und Sekundärenergien schließen das Kapitel ab.
Vor dem Hintergrund der großen Bedeutung des Europäischen Wirtschaftsrechts, gerade auch für das deutsche Wirtschaftsleben, gibt die vorliegende Veröffentlichung zunächst einen einführenden Überblick über die Entwicklung, die Ziele und Zuständigkeiten sowie die Organisationsstruktur und die Rechtsquellen der Europäischen Union. Es soll deutlich werden, wo und wie Recht, speziell Wirtschaftsrecht, überhaupt entsteht und welche Inhalte dieses jeweils aufweist. Dieser erste Teil der Studie ist bewusst sehr ausführlich gehalten und dient als Wissens- und Verständnisgrundlage für den zweiten Teil, die eigentliche Darstellung des Europäischen Wirtschaftsrechts unter besonderer Berücksichtigung der Grundfreiheiten als Rahmenbedingung eines marktorientierten Managements deutscher Unternehmen. Die Studie soll als Einstieg in dieses Rechtsgebiet dienen und gleichzeitig Vertiefungen zu bestimmten einzelnen Aspekten jeweils zu erleichtern helfen. Adressaten sind Studierende von Universitäten, Fachhochschulen, Berufsakademien und anderen Bildungseinrichtungen, die sich während ihres Studiums mit dem Recht der Europäischen Union zu befassen haben, ebenso wie betroffene Entscheidungsträger der Wirtschaft.
Excubation
(2015)
In this paper an approach towards databased fault diagnosis of linear electromagnetic actuators is presented. Time and time-frequency-domain methods were applied to extract fault related features from current and voltage measurements. The resulting features were transformed to enhance class separability using either Principal Component Analysis (PCA) or Optimal Transformation. Feature selection and dimensionality reduction was performed employing a modified Fisher-ratio. Fault detection was carried out using a Support-Vector-Machine classifier trained with randomly selected data subsets. Results showed, that not only the used feature sets (time-domain/time-frequency-domain) are crucial for fault detection and classification, but also feature pre-processing. PCA transformed time-domain features allow fault detection and classification without misclassification, relying on current and voltage measurements making two sensors necessary to generate the data. Optimal transformed time-frequency-domain features allow a misclassification free result as well, but as they are calculated from current measurements only, a dedicated voltage sensor is not necessary. Using those features is a promising alternative even for detecting purely supply voltage related faults.
Im Beitrag wird erörtert, welche Rolle der schriftlichen Fehlerkorrektur im studienbegleitenden und -vorbereitenden Deutschunterricht zukommt. Dazu wird ein Überblick über den Stand der Forschung gegeben und eine Studie zur Fehlerkorrektur mit fortgeschrittenen Lernenden vorgestellt, in der die Wirkung einer Fehlerkorrektur am Lernertext überprüft wurde. Die Fehlerkorrektur führte bei der Experimentalgruppe zwar zu einer Reduktion der Fehler in der Überarbeitung, im Vergleich zur Kontrollgruppe aber nicht zu einer signifikanten Verbesserung in einem neuen Text. Um zu eruieren, wie die Lernenden mit der Fehlerkorrektur umgingen, wurde in der Studie außerdem eine qualitative Analyse einzelner Arbeiten vorgenommen. Der Beitrag schließt mit der Frage, welche Rolle eine – nicht sonderlich effektive – Fehlerkorrektur in einer auf Wissenschaftssprache bezogenen Vermittlung einnehmen sollte.
Im Beitrag wird erörtert, welche Rolle der schriftlichen Fehlerkorrektur im studienbegleitenden und -vorbereitenden Deutschunterricht zukommt. Dazu wird ein Überblick über den Stand der Forschung gegeben und eine Studie zur Fehlerkorrektur mit fortgeschrittenen Lernenden vorgestellt, in der die Wirkung einer Fehlerkorrektur am Lernertext überprüft wurde. Die Fehlerkorrektur führte bei der Experimentalgruppe zwar zu einer Reduktion der Fehler in der Überarbeitung, im Vergleich zur Kontrollgruppe aber nicht zu einer signifikanten Verbesserung in einem neuen Text. Um zu eruieren, wie die Lernenden mit der Fehlerkorrektur umgingen, wurde in der Studie außerdem eine qualitative Analyse einzelner Arbeiten vorgenommen. Der Beitrag schließt mit der Frage, welche Rolle eine – nicht sonderlich effektive – Fehlerkorrektur in einer auf Wissenschaftssprache bezogenen Vermittlung einnehmen sollte.
Governanceethik
(2015)
Green-Innovation
(2015)
Stress is recognized as a factor of predominant disease and in the future the costs for treatment will increase. The presented approach tries to detect stress in a very basic and easy to implement way, so that the cost for the device and effort to wear it remain low. The user should benefit from the fact that the system offers an easy interface reporting the status of his body in real time. In parallel, the system provides interfaces to pass the obtained data forward for further processing and (professional) analyses, in case the user agrees. The system is designed to be used in every day’s activities and it is not restricted to laboratory use or environments. The implementation of the enhanced prototype shows that the detection of stress and the reporting can be managed using correlation plots and automatic pattern recognition even on a very light-weighted microcontroller platform.
Hot isostatic pressing (HIP) allows the production of complex components geometry. Generally, a high quality of the components is achieved due to the well managed composition of the metal powder and the non-isotropic properties. If a duplex stainless steel is produced, a heat treatment after the HIP-process is necessary to remove precipitations like carbides, nitrides and intermetallic phases. In a new process, the sintering step should be combined with the heat treatment. In this case a high cooling rate is necessary to avoid precipitations in duplex stainless steels. In this work, the influence of the HIP-temperature and the wall thickness on corrosion resistance, microstructure and impact strength were investigated. The results should help to optimize the process parameters like temperature and cooling rate. For the investigation, two HIP-temperatures were tested in a classical HIP-process step with a defined cooling rate. An additional heat treatment was not conducted. The specimens were cut from different sectors of the HIP-block. For investigation of the corrosion resistance, the critical pitting temperature was determined with electrochemical method according to EN ISO 17864. An impact test was used to determine the impact transition temperature. Metallographic investigations show the microstructure in the different sectors of the HIP-block.
IGA using subdivision-solids
(2015)
Vortrag auf dem Doktorandenkolloquium des Kooperativen Promotionskollegs der HTWG, 09.07.2015
This paper compares the surface morphology of differently finished austenitic stainless steel AISI 316L, also in combination with low temperature carburization. Milled and tumbled surfaces were analyzed by means of corrosion resistance and surface morphology. The results of potentiodynamic measurements show that professional grinding operations with SiC and Al2O3 always lead to a better corrosion resistance of low temperature carburized surfaces compared to the untreated reference in the used acidified chloride solution. Big influence on the corrosion resistance of vibratory ground or tumbled surfaces has the amount of plastic deformation while machining, that has to be kept low for austenitic stainless steels. Due to the high ductility, plastic deformation can lead to the formation of meta stable pits that can be initiation points of corrosion. The formation of meta stable pits can be aggravated by low temperature diffusion processes.
In biomechanics laboratories the ground reaction force time histories of the foot-fall of persons are usually measured using a force plate. The accelerations of the floor, in which the force plate is embedded, have to be limited, as they may influence the accuracy of the force measurements. For the numerical simulation of vibrations induced by humans in biomechanical laboratories, loading scenarios are defined. They include continuous motions of persons (walking, running) as well as jumps, typical for biomechanical investigations on athletes. The modeling of floors has to take into account the influence of floor screed in case of portable force plates. Criteria for the assessment of the measuring error provoked by floor vibrations are given. As an example a floor designed to accommodate a force platform in a biomechanical laboratory of the University Hospital in Tübingen, Germany, has been investi-gated for footfall induced vibrations. The numerical simulation by a finite element analysis has been validated by field measurements. As a result, the measuring error of the force plate installed in the laboratory is obtained for diverse scenarios.