Refine
Year of publication
Document Type
- Conference Proceeding (642)
- Article (429)
- Other Publications (143)
- Part of a Book (141)
- Working Paper (128)
- Book (118)
- Report (115)
- Journal (Complete Issue of a Journal) (85)
- Master's Thesis (77)
- Doctoral Thesis (58)
Language
- German (1115)
- English (883)
- Multiple languages (8)
Keywords
Institute
- Fakultät Architektur und Gestaltung (41)
- Fakultät Bauingenieurwesen (105)
- Fakultät Elektrotechnik und Informationstechnik (34)
- Fakultät Informatik (121)
- Fakultät Maschinenbau (60)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (106)
- Institut für Angewandte Forschung - IAF (115)
- Institut für Naturwissenschaften und Mathematik - INM (3)
- Institut für Optische Systeme - IOS (40)
- Institut für Strategische Innovation und Technologiemanagement - IST (60)
Integritätsmanagement
(2016)
Compliance hat in der Vergangenheit oftmals versagt, der aktuelle „VW-Abgasskandal“ ist nur ein Beispiel. Es muss nicht alles neu erfunden werden, und nicht alles, was Unternehmen in der Vergangenheit im Bereich Compliance taten, ist schlecht. Aber es ist an der Zeit, Compliance neu zu denken. Worauf kommt es wirklich an im Compliance Management 2.0? Meine Antwort lautet, dass Ernsthaftigkeit und Glaubwürdigkeit gefördert werden müssen und gefördert werden können. Wie, das versuche ich im Rahmen von sechs Thesen zu skizzieren.
Digital bedruckte Oberflächen müssen strengen funktionalen und ästhetischen Anforderungen genügen. Diese Eigenschaften werden im Rahmen der Qualitätsprüfung kontrolliert. Hierbei wirken sich Oberflächendefekte oftmals erst dann aus, wenn diese auch vom Menschen wahrgenommen werden. Aufgrund der hohen Produktionsgeschwindigkeit kann eine solche Bewertung der Sichtbarkeit von Defekten bisher nur außerhalb des Produktionsflusses durch manuelle - subjektiv geprägte - Inspektion erfolgen. Ziel des Projektes ist (1) die Modellierung von Texturen in einer Form, die an das menschliche visuelle System angepasst ist und (2) die automatisierte Beurteilung der Wahrnehmung von Texturfehlern. Im Rahmen des Projekts wurde ein prototypisches System zur Inline-Erfassung von texturierten Oberflächen entwickelt. Auf Basis von realen Aufnahmen industriell produzierter Holzdekore wurde eine repräsentative Texturdatenbank erstellt. Gezeigt werden erste Resultate im Bereich der Defektdetektion auf Basis von statistischen Merkmalen. Diese Ergebnisse dienen als Grundlage für die spätere wahrnehmungsorientierte Bewertung. Letztlich sollen die im Rahmen des Projekts erlangten Ergebnisse in einen prototypischen Aufbau zur Inspektion von digital bedruckten Dekoren einfließen.
FishNet
(2016)
The corrosion resistance of stainless steels is massively influenced by the condition of their surface. The surface quality includes the topography of the surface, the structure and composition of the passive layer, and the surface near structure of the base material. These factors are influenced by final physical/chemical surface treatments. The presented work shows significantly lower corrosion resistance for mechanical machined specimens than for etched specimens. It also turns out that the rougher the surface, the lower the corrosion resistance gets. However, there is no general finding which shows if blasted or grinded surfaces are more appropriate, but a dependency on process parameters and the characteristics on corrosive exposure in terms of corrosion behavior. The results show that not only the surface roughness Ra has an influence on corrosion behavior but also the shape of peaks and valleys which are evolved by surface treatments. Imperfections in the base material, like sulfidic inclusions lead to a weaker passive layer, respectively, to a decrease of the corrosion resistance. By using special passivating techniques the corrosion resistance of stainless steels can be increased to a higher level in comparison to common passivation.
Even though immutability is a desirable property, especially in a multi-threaded environment, implementing immutable Java classes is surprisingly hard because of a lack of language support. We present a static analysis tool using abstract bytecode interpretation that checks Java classes for compliance with a set of rules that together constitute state-based immutability. Being realized as a Find Bugs plug in, the tool can easily be integrated into most IDEs and hence the software development process. Our evaluation on a large, real world codebase shows that the average run-time effort for a single class is in the range of a few milliseconds, with only a very few statistical spikes.
Smart factory and education
(2016)
The introduction of cyber physical systems into production companies is highly changing working conditions and processes as well as business models. In practice a growing discrepancy between big and small respectively medium-sized companies can be observed. Bridging that gap a university smart factory is introduced to give that companies a platform to trial, educate employees and access consultancy. Realizing the smart factory a highly integrated, open and standardized automation concept is shown comprising single devices, production lines up to a higher automation system maintaining a community or business models.
To learn from the past, we analyse 1,088 "computer as a target" judgements for evidential reasoning by extracting four case elements: decision, intent, fact, and evidence. Analysing the decision element is essential for studying the scale of sentence severity for cross-jurisdictional comparisons. Examining the intent element can facilitate future risk assessment. Analysing the fact element can enhance an organization's capability of analysing criminal activities for future offender profiling. Examining the evidence used against a defendant from previous judgements can facilitate the preparation of evidence for upcoming legal disclosure. Follow the concepts of argumentation diagrams, we develop an automatic judgement summarizing system to enhance the accessibility of judgements and avoid repeating past mistakes. Inspired by the feasibility of extracting legal knowledge for argument construction and employing grounds of inadmissibility for probability assessment, we conduct evidential reasoning of kernel traces for forensic readiness. We integrate the narrative methods from attack graphs/languages for preventing confirmation bias, the argumentative methods from argumentation diagrams for constructing legal arguments, and the probabilistic methods from Bayesian networks for comparing hypotheses.
In this paper we provide a performance analysis framework for wireless industrial networks by deriving a service curve and a bound on the delay violation probability. For this purpose we use the (min,×)stochastic network calculus as well as a recently presented recursive formula for an end-to-end delay bound of wireless heterogeneous networks. The derived results are mapped to WirelessHART networks used in process automation and were validated via simulations. In addition to WirelessHART, our results can be applied to any wireless network whose physical layer conforms the IEEE 802.15.4 standard, while its MAC protocol incorporates TDMA and channel hopping, like e.g. ISA100.11a or TSCH-based networks. The provided delay analysis is especially useful during the network design phase, offering further research potential towards optimal routing and power management in QoS-constrained wireless industrial networks.
These days computer analysis of ECG (Electrocardiograms) signals is common. There are many real-time QRS recognition algorithms; one of these algorithms is Pan-Tompkins Algorithm. Which the Pan-Tompkins Algorithm can detect QRS complexes of ECG signals. The proposed algorithm is analysed the data stream of the heartbeat based on the digital analysis of the amplitude, the bandwidth, and the slope. In addition to that, the stress algorithm compares whether the current heartbeat is similar or different to the last heartbeat after detecting the ECG signals. This algorithm determines the stress detection for the patient on the real-time. In order to implement the new algorithm with higher performance, the parallel programming language CUDA is used. The algorithm determines stress at the same time by determining the RR interval. The algorithm uses a different function as beat detector and a beat classifier of stress.
Die Seewassernutzung weist ein beachtliches Potential zu Kühl- und Heizzwecken auf. Bereits seit längerem eingesetzte seewasserbetriebene Wärmepumpen in der Schweiz beweisen fortwährend ihre Praxistauglichkeit. In Deutschland wird diese Technik jedoch bislang kaum genutzt. Mit Hilfe eines interdisziplinären geowissenschaftlichen Ansatzes wird derzeit das bestehende Potential in Deutschland quantifiziert und dessen Nutzungshemmnisse identifiziert, um in einem weiteren Schritt Handlungsoptionen für einen verstärkten Einsatz dieser Technologie zu erarbeiten.
Realistic traffic modeling plays a key role in efficient Dynamic Spectrum Access (DSA) which is considered as enabler for the employment of wireless technologies in critical industrial automation applications (IAA). The majority of models of spectrum usage are not suitable for this specific use case as they are based on measurement campaigns conducted in urban or controlled laboratory environments. In this work we present a time-domain traffic model for industrial communication in the 2.4 GHz industrial, scientific, medical (ISM) band based on measurements in an industrial automotive production site. As DSA is usually implemented on Software Defined Radios (SDR), our measurement campaign is based on SDR platforms rather than sophisticated spectrum analyzers. We show through the estimation of the Hurst parameter that industrial wireless traffic possesses inherent self-similarity that could be exploited for efficient DSA. We also show that wireless traffic could be modeled as a semi-Markov model with channel on and off durations Log-normally and Pareto distributed, respectively. We finally estimate the parameters of the derived models using Maximum Likelihood estimation.
ERP systems integrate a major part of all business processes and organizations include them in their IT service management. Besides these formal systems, there are additional systems that are rather stand-alone and not included in the IT management tasks. These so-called ‘shadow systems’ also support business processes but hinder a high enterprise integration. Shadow systems appear during their explicit detection or during software maintenance projects such as enhancements or release changes of enterprise systems. Organizations then have to decide if and to what extent they integrate the identified shadow systems into their ERP systems. For this decision, organizations have to compare the capabilities of each identified shadow system with their ERP systems. Based on multiple-case studies, we provide a dependency approach to enable their comparison. We derive categories for different stages of the dependency and base insights into integration possibilities on these stages. Our results show that 64% of the shadow systems in our case studies are related to ERP systems. This means that they share parts or all of their data and/or functionality with the ERP system. Our research contributes to the field of integration as well as to the discussion about shadow systems.
adidas and Reebok
(2016)
Die ISO 26000 schafft einen international anerkannten Referenzrahmen für die Wahrnehmung gesellschaftlicher Verantwortung durch Organisationen aller Art (Unternehmen, staatliche Institutionen, Vereinigungen). Das EFQM-Modell ist ein geeigneter Referenzrahmen, um eine Organisation so zu gestalten, dass die Unternehmensziele nachhaltig erreicht werden unter Einhaltung der gesetzlichen Vorgaben und der Erfüllung legitimer Anforderungen relevanter Stakeholder.
Social Compliance
(2016)
Sprachliche Anforderungen in verschiedenen Fächern, Vermittlungskonzepte und Kursorganisation
(2016)
Der von Ehlich eingeführte Begriff „alltägliche Wissenschaftssprache“ hat die Diskussion um die Sprachvermittlung für den Sprachgebrauch im Studium maßgeblich geprägt. Auch die Abkürzung „AWS“ ist mittlerweile recht verbreitet. Gemeint sind sprachliche Elemente, die neben der Fachterminologie in unterschiedlichen Disziplinen weitgehend ähnlich sind. Man geht davon aus, dass diese Elemente in mehreren Disziplinen verwendet werden. Mit dieser Argumentation lässt sich eine disziplinübergreifende Sprachvermittlung begründen. In diesem Beitrag wird das AWS-Konzept einer neuerlichen Betrachtung unterzogen.
Dazu werden folgende Fragen formuliert:
1. Ist ein disziplinübergreifender Ansatz für die Kursorganisation hilfreich? Das AWS-Konzept bezieht seine Attraktivität auch aus dem praktischen Nutzen für die Planung von Sprachkursen, denn es ist häufig schwierig, gesonderte Sprachkurse für verschiedene Disziplinen anzubieten.
2. Ist das Konzept der AWS aus linguistischer Sicht zutreffend? Zur Frage, wie unterschiedlich die sprachlichen Anforderungen der einzelnen wissenschaftlichen Disziplinen sind, gibt es in der Literatur divergierende Auffassungen. Einige Forschungsansätze und Ergebnisse werden in diesem Beitrag skizziert.
3. Überzeugt das Konzept der AWS als Grundlage für Vermittlungsprozesse? Ein Blick auf Lehrmaterialien verdeutlicht, wie Wissenschaftssprache disziplinübergreifend vermittelt werden kann und welche Probleme sich ergeben.
Die hier vorgestellten Überlegungen münden letztlich in den Appell, die unterschiedlichen sprachlichen Anforderungen in den verschiedenen Fächern nach Möglichkeit zu berücksichtigen.