Refine
Year of publication
Document Type
- Conference Proceeding (642)
- Article (426)
- Other Publications (143)
- Part of a Book (141)
- Working Paper (128)
- Book (118)
- Report (115)
- Journal (Complete Issue of a Journal) (85)
- Master's Thesis (77)
- Doctoral Thesis (58)
Language
- German (1113)
- English (882)
- Multiple languages (8)
Keywords
Institute
- Fakultät Architektur und Gestaltung (41)
- Fakultät Bauingenieurwesen (104)
- Fakultät Elektrotechnik und Informationstechnik (34)
- Fakultät Informatik (121)
- Fakultät Maschinenbau (60)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (106)
- Institut für Angewandte Forschung - IAF (115)
- Institut für Naturwissenschaften und Mathematik - INM (3)
- Institut für Optische Systeme - IOS (39)
- Institut für Strategische Innovation und Technologiemanagement - IST (60)
Szenografie ist eine Universaldisziplin, die mit Raum, Licht, Grafik, Ton und digitalen Medien Erlebnisräume schafft, in denen Wissen vermittelt und Besuchern verborgene Zusammenhänge intuitiv zugänglich gemacht werden können. Hierbei spielen mediale Vermittlungsstrategien eine zentrale Rolle. Eine dieser Strategien ist Information on demand: kontextualisierende Informationen werden hier nicht permanent angeboten, sondern nur dann, wenn der Besucher sie abruft. Dies ermöglicht sowohl eine auratische Objektpräsentation als auch gleichermaßen Kontextualisierung und Informationsvermittlung. Eine weitere Strategie sind
personalisierte Devices, die zudem eine zielgruppenorientierte Ansprache von Besuchern ermöglichen. Darüber hinaus bieten VR- und AR-Technologien die Möglichkeit zur publikumswirksamen Darstellung komplexer wissenschaftlicher Zusammenhänge.
„Das Gedächtnis des Sees“
(2016)
Wie können archäologische Forschungsergebnisse einer breiten Öffentlichkeit möglichst eindrücklich und nachvollziehbar vermittelt werden? Am Beispiel der UNESCO-Welterbestätte Pfahlbausiedlung Hornstaad demonstrieren Studierende der Hochschule für Technik, Wirtschaft und Gestaltung Konstanz (HTWG) die Visualisierung komplexer wissenschaftlicher Inhalte mithilfe moderner Virtual-
Reality-Brillen-Technologie (VR-Brillen). Eine dreidimensionale digitale Rekonstruktion der Pfahlbausiedlung und Simulation von Tages- und Jahresverlauf in Verbindung mit der realen Bewegung im Ausstellungsraum ermöglichen dem Betrachter das hautnahe Erleben des Alltags in einer neolithischen Siedlung.
Das Ausstellungsprojekt „Das Gedächtnis des Sees“ wird im Rahmen der Großen Landesaustellung „4000 Jahre Pfahlbauten“ zu sehen sein.
Nachhaltigkeit stellt seit 2018 einen der bedeutsamsten Trends in der Modeindustrie da. Die Missstände innerhalb der Textil- und Bekleidungsindustrie wurden seit dem Einsturz einer Textilfabrik in Bangladesch im Jahre 2013 zu einer öffentlichen Diskussion. Die global ausgerichtete Industrie produziert vermehrt Textilien in kürzester Zeit, um beständig das Angebot an aktuellen Modetrends anbieten zu können. Die sogenannte Fast-Fashion wird von großen Markenkonzernen wie ZARA und Hennes & Mauritz (H&M) zu niedrigen Preisen der breiten Masse zugänglich gemacht. Sie wird als einer der größten Gründe für Überkonsum von Bekleidung und sinkender Wertschätzung dieser Waren bezeichnet. Die Gegenbewegung Slow-Fashion möchte hingegen die Konsumenten davon überzeugen, ihre Bekleidung wieder wertzuschätzen. Slow-Fashion steht für Bekleidung, die unter umweltverträglichen und menschenwürdigen Bedingungen produziert wird. Durch die Gewährleistung von Transparenz hinsichtlich der Produktionsbedingungen und Lieferketten ermöglicht Slow-Fashion einen bewussteren Konsum von Mode.
Durch Slow-Fashion kann die Integration von Nachhaltigkeit in die Bekleidungsindustrie als einen Modetrend des vergangenen Jahres angesehen werden. Allerdings verstehen nachhaltige Bekleidungsmarken Slow-Fashion nicht als zeitgemäßen Trend, sondern vielmehr als Grundbedingung ihrer angebotenen Waren. Dieses Prinzip lässt sich auf Marken sämtlicher Branchen übertragen, sodass sie als ‚nachhaltige Marken‘ tituliert werden könnten. Bislang mangelt es allerdings an einer einheitlichen Definition für nachhaltige Marken. Das Ziel dieser Arbeit ist daher die Erarbeitung eines Definitionsvorschlags. Dabei muss die Bedeutung von Marken und das Prinzip der Nachhaltigkeit voneinander isoliert erörtert werden. Anschließend soll die Schuhmarke ZWEIGUT, die als ein Beispiel aus der Bekleidungsindustrie dient, daraufhin überprüft werden, ob sie dem Anspruch der ausgearbeiteten Definition einer nachhaltigen Marke gerecht wird. Im Laufe dieser Markenanalyse sollen zugleich die Erfolgsbausteine der Marke ZWEIGUT bestimmt werden.
Die Forschungs- und Weiterbildungsaktivtäten konzentrierten sich auf die Anwendung von Virtual Reality in der Lehre. Hier interessierte vor allem, wo im Maschinenbau diese Technologie sinnvoll eingesetzt werden kann. Hierzu wurden die verschiedenen Bereiche im Maschinenbau untersucht.
Des Weiteren sollte die Frage beantwortet werden, wie man die Technologie sinnvoll einsetzen kann. Hierzu wurden die Arbeitsplätze der Modellfabrik herangezogen. Die Modellfabrik bot die Möglichkeit sowohl in der industrienahen Umgebung das reale Training durchzuführen als auch das VR-Training durchzuführen.
Neben den Hauptaktivitäten im Bereich Virtual Reality erlaubte mir das Forschungssemester auch, in andere Felder der Digitalisierung und Industrie 4.0 tiefer einzusteigen. Hier sei explizit die konkrete Anbindung der Montagelinien in der Modellfabrik an das Digitalisieurngs-Tool von Forcam zu erwähnen. Die digitale Anbindung der Montagelinie ist mit interessanten Problemstellungen verbunden, auf die hier nicht weiter eingegangen werden soll, die aber zu einem deutlich tieferen Verständnis von konkreten Umsetzungsproblemen der Industrie geführt haben.
Web services are, due to the excellent tool support, simple to provide and use in trivial cases. But their use in non-trivial Web service-based systems like I3M poses new difficulties and problems. I3M is an instant messaging and chat system with distributed and local components collaborating via Web services. One difficulty is to make a series of related Web service invocations in a stateful session. A problem is the performance of collaborating collocated, service-oriented components of a system due to the high Web service invocation overheaed as is shown by measurements. Solutions to both the difficulty and the problem are proposed.
Think BIQ: Gender Differences, Entrepreneurship Support and the Quality of Business Idea Description
(2023)
Entrepreneurship support, its influencing factors and female entrepreneurship are recently discussed topics with great relevance for society and politics. However, research on the subject has been divergent in its results and lacks a focus on the impact of support programs’ characteristics concerning different types of entrepreneurs. Thus, we conduct a fuzzy-set Qualitative Comparative Analysis on entrepreneurship support characteristics aiming to shed light on possible gender differences occurring in respective programs. We investigate the quality of business idea descriptions, as a predecessor for a high-potential business model, operationalized using inter alia causation and effectuation theory and social role theory as possible explanations. In our fuzzy-set Qualitative Comparative Analysis on a sample of 911 Norwegian ventures, we find a variety of differences related to the entrepreneurs’ gender. For instance, that financial support combined with a well described key contribution or careful planning seem to be more important antecedents for female entrepreneurs’ business idea quality than for males. Moreover, it seems a well-described key contribution has a positive effect on the outcome variable in most cases. Another interesting finding concerns the entrepreneurs’ network partners, where we found evident gender differences in our combinations. Female entrepreneurs seemingly benefitted from rather small networks, and males from big networks, although the former possess larger networks in the sample. In conclusion, we find that gender differences in combinations of entrepreneurship support for high business idea quality still occur even in a country like Norway, calling for an adaption of the provided support and environment.
Das Potential der Offshore-Windenergie, welches hauptsächlich auf hohe mittlere Windgeschwindigkeiten zurückzuführen ist, kann nicht ignoriert werden. Trotzdem zeigt die Betrachtung der aktuell installierten Leistung und der Stromgestehungskosten, dass zusätzliche Risiko- und Kostenfaktoren existieren. Diese sind vor allem auf die Installation, die Energiewandlersysteme und die Netzanbindung zurückzuführen. Getriebeschäden sind einer dieser großen Kostenfaktoren. Aus diesem Grund gewinnen getriebelosen Windkraftanlagen mit permanentmagneterregten Synchrongeneratoren immer mehr an Relevanz. In der Netzanbindung von ganzen Offshore-Windparks überwiegt die Hochspannungs-Gleichstrom-Übertragung (HGÜ) ab einer Übertragungsdistanz von 80 km. Diese Tendenz ist sinkend. Steigende windparkinterne Spannungen auf 66 kV fördern zusätzlich den Verzicht auf Umspannplattformen, welche für die HGÜ-Technik aktuell sinnvoll sind. Diese und weitere bereits in Aussicht stehenden Entwicklungen führen zu einer Einschränkung der Risiko- und Kostenfaktoren. Es wird demnach davon ausgegangen, dass die Offshore-Windenergie, als Ergänzung zur Onshore-Windenergie, eine wichtige Rolle im Rahmen der Energiewende einnimmt.
This working paper is part of a PhD research project dealing with the topics Social Responsibility, Stakeholder Theory and Network Governance, run by Maud Schmiedeknecht and supervised by Prof. Dr. habil. Josef Wieland, both from the Konstanz Institute for Intercultural Management, Values and Communication at the Konstanz University of Applied Sciences.
The focus of this part of the research project lies on the process of developing a Social Responsibility Standard within a network made up of various stakeholders. The International Organization for Standardization (ISO) is known as the world´s leading institution for the development of standards. Besides setting standards in the fields of e.g. construction, agriculture and information technology, recently the Technical Management Board (TMB) of ISO proposed to further extend its activities by developing an international standard addressing the social responsibility of organizations. In 2004, a new Working Group was established as a multi-stakeholder group comprised of experts, who are nominated by ISO´s members as well as interested international and regional organizations in order to provide for guidance in setting international standards on social responsibility. In May 2006, the survey was conducted during the third conference of the ISO Working Group in Lisbon, Portugal. This particular empirical study has been designed on the one hand to investigate the motivation of organizations and their delegates to engage in social responsibility. On the other hand, the survey had the objective to evaluate the individual participants' current perception and assessment of the network´s efficiency, effectiveness and legitimacy, a so-called 'snap-shot' of this ISO process1. Overall, the empirical study shows that the organizations and their delegates, who have dealt with the topic SR for several years for diverse reasons, expect a tremendous effect by implementing ISO 26000 in their own organizations. Furthermore, the majority of respondents assess the decision-making process positively within the ISO process with respect to the criteria inclusive, fair, capacity building, legitimate and transparent. Difficulties concerning the distribution of stakeholder influences are being addressed. The results of the survey support the efforts to establish policies and procedures in order to encourage a balanced representation of stakeholders in terms of gender, geographic and stakeholder groups.
With the increasing challenges of the 21st century, such as a rapidly growing population, increasing hunger and the destruction of the environment, the demand for sustainable and future-oriented ways of living is growing. To meet this demand, a residential district named Maun Science Park is being built in Botswana to develop a resilient society. In addition to the application of modern technology to optimise the use of resources, the environmentally friendly construction of the buildings is another goal of the project. This thesis investigates the prefabrication of rammed earth in terms of implementation and profitability for the Maun Science Park.
For this purpose, the specific properties, handling, as well as the application of the building material in prefabrication are first discussed.
This is followed by an investigation of how the work processes of prefabrication can be implemented in the Maun Science Park. Based on this, a profitability test is carried out using a break-even and sensitivity analysis.
The analyses showed that the investment in prefabrication is not profitable within the assumed production volume, which is due to the high fixed costs. These are primarily generated by the two main cost drivers, consisting of the new construction of the production hall and the rental of heavy construction equipment.
Lastly, recommendations for action were formulated that provide for a cost reduction in both the two main cost drivers as well as for other decisive factors.
Koordination des Wissenstransfers in Service-Netzwerken transnationaler Investitionsgüterhersteller
(2017)
Vorliegende Arbeit bilanziert die Treibhausgasemissionen (CO2e) der Fakultät Bauingenieurwesen an der Hochschule Konstanz im akademischen Jahr 2014/2015. Als grundlegende Methodik wird das Greenhouse Gas Protocol: A Corporate Accounting and Reporting Standard verwendet. Bilanziert werden Emissionen, die bei der Erzeugung von Wärme und Strom gebildet werden und Emissionen des Fuhrparks. Mit Hilfe einer Umfrage werden die Emissionen, welche durch Pendelverkehr und Papierverbrauch sowie Mensa-Mahlzeiten von Fakultätsangehörigen entstehen, berechnet. Es werden die größten Emittenten identifiziert und mögliche Einsparmaßnahmen aus der Bilanz und aus dem Vergleich mit anderen Hochschulen abgeleitet.
Im akademischen Jahr 2014/2015 sind an der Fakultät Bauingenieurwesen der Hochschule Konstanz insgesamt 264,8 t CO2e Emissionen entstanden. 120,6 t CO2e wurden durch Pendelverkehr von Studenten, Mitarbeitern und Professoren verursacht. Die Erzeugung von 238,1 MWh Wärme verursachte 51,4 t CO2e. Für die Bereitstellung von 80,5 MWh Strom wurden 11,8 t CO2e emittiert. Mit 76,1 t CO2e entstand der zweitgrößte Teil der jährlichen CO2e-Emissionen durch die Herstellung der Mensa-Mahlzeiten für Fakultätsangehörige. Der Fuhrpark der Fakultät, bestehend aus einem VW Bus, emittierte 3,5 t CO2e. Der mit 1,4 t CO2e geringste Teil der Emissionen wurde durch den Papierverbrauch erzeugt.
Es wird empfohlen, in den einzelnen Bereichen Einsparmaßnahmen vorzunehmen, um die jährlichen Treibhausgasemissionen zu verringern. Die Motivation hierfür kann durch eine Umweltstrategie an der Hochschule, eine mögliche Kosteneinsparung und durch die Förderung einer positiven Außendarstellung der Hochschule erhöht werden.
Mit der Erstellung der CO2-Bilanz wurden die Klimaauswirkungen der Fakultät Bauingenieurwesen quantifiziert. Die vorliegenden Ergebnisse können als Basis zur Untersuchung von weiteren Reduktionspotentialen verwendet werden.
Vortrag
Navigation on the Danube
(2016)
This report contains two parts: The first part presents an overview on studies concerning the Danube, inland navigation or the impact of climate change on either of those. The second part gives a more detailed analysis of inland navigation on the Danube, partly based on studies presented in part one. Part two covers the current situation along the Danube by covering the topic of bottlenecks and other limitations for shipping along the Danube. Based on these informations, an estimation of the economic impacts of low water periods on inland navigation is made. As a last step, measures to reduce the impact of low water on inland navigations are presented. The report shows, that inland navigation still is an important transport mode, along the Danube as well as in other european regions. Especially in Romania, inland navigation still has a large share of more than 20% and rising in total transport. However, inland navigation depends strongly on good conditions of its infrastructure. These good conditions are limited mainly by two factors: one are the so called bottlenecks. Those are areas with sub-optimal shipping conditions e.g. due to solid rock formations in the river that lead to a reduced water depths. The other factor is the weather (and, on a longer time scale, the climate) which, mostly depending on precipitation and evaporation, can lead to low water levels seasonally. In addition to these two natural factors, laws which e.g. regulate the maximum number of barges allowed. Human build structures like locks limit the size of vessels as well as the speed they can travel with. These limiting factors are identified and located in the first chapter of part two of this report, before the water depth needed by several ship sizes as well as the cargo fleet available along the Danube are presented. One of the targets of this report is to estimate the economic impact of low water periods. All the factors named above as well as the freight prices charged for connections along the Danube are used to each this target in chapter II.4. To estimate the impact of low water periods on the freight prices, a method developed by Jonkeren et al. (2007) for the Rhine is transfered to the Danube. By transfering Jonkeren et al. (2007) method, regression equations for several transport connections along the Danube are identified that give a first estimate for the connection of freight prices and water levels. With the help of these regression equations, an estimation of the total expenses for transport via inland navigation for several years is possible. The yearly and seasonal variability is identified as well as the additional expenses due to water levels below 280cm. But additional expenses are not the only impact of changing water levels on inland navigation. Another is, that while the demand for transport stays at the same level, sometimes the water levels are not sufficient enough to use the full capacity of the fleet. Therefore, the (theoretical) amount of cargo that could not be transported due to low water levels is calculated as well and presented in chapter II.5. Finally, some measures to overcome some of the here named problems of inland navigation due to low water levels are presented. These are separated into two general approches: change the ship or change the river. Both methods have their advantages and disadvantages due to technical as well as regulatory and other factors. The list presented here however is incomplete and only gives a few ideas of how some problems can be overcome. In the end, an individual mix for the different regions along the river and sometimes for the individual companies must be found.
In einigen europäischen Nachbarländern herrschen weitaus schlechtere Voraussetzungen für die Binnen-schifffahrt als in Deutschland. Die wenigsten Länder verfügen über eine so effiziente Wasserstraße wie beispielsweise den Rhein. Dennoch forcieren nicht wenige die Verlagerung von Transporten von der Straße auf das Binnenschiff.
Der Bodensee und das in ihm gespeicherte Wasser dient vielen Zwecken: Neben seiner ökologischen Bedeutung für die Region ist er Trinkwasserquelle und Schifffahrtsweg, wird für Freizeit und Naherholung genutzt. Die Schifffahrt stellt eine der zentralen Attraktionen am Bodensee dar – sie zieht Tagesausflügler und Naherholungssuchende ebenso an wie Urlauber. Der Tourismus ist dabei eine der zentralen Einkommensquellen am Bodensee. Während der Niedrigwasserereignisse der letzten Jahre wurden jedoch die verschiedenen Schifffahrtstypen beeinträchtigt. Dies traf den Tourismus wie auch Berufspendler, Häfen, anliegende Gemeinden und den Gütertransport. Der Beitrag verdeutlicht die Bedeutung der Bodenseeschifffahrt und nennt einige Folgen der Niedrigwasserereignisse der letzten Jahre.
Schon die Römer nutzten die Binnenschifffahrt für den Transport ihrer Güter (SCHRöTER 2005). Noch heute stellt die Binnenschifffahrt auf dem Rhein einen wichtigen Standortfaktor dar, weshalb sich viele Unternehmen, die auf den Transport von Massengütern angewiesen sind, an seinen Ufern niedergelassen haben, um die Binnenschifffahrt als günstiges Transportmittel nutzen zu können (ROTHSTEIN et al. 2009, SCHOLTEN et al. 2009).
Im folgenden Artikel wird sowohl kurz die wirtschaftliche Bedeutung der Binnenschifffahrt auf dem Rhein angesprochen als auch deren rezente und zukünftige Entwicklung. Dabei werden auch die Auswirkungen niedriger Fahrrinnentiefen auf die Transportkapazität der Binnenschifffahrt betrachtet.
Die vorliegende Studie untersucht den Einfluss des Klimawandels auf den Transport massengutaffiner Unternehmen in Baden-Württemberg sowie mögliche Anpassungsmaßnahmen. In einem ersten Schritt wurden dabei verschiedene Literatur- und Datenanalysen zu den Auswirkungen des Klimawandels auf Baden-Württemberg, seine (massengutaffinen) Unternehmen sowie die von diesen verwendeten Verkehrsträger durchgeführt. Daten zum Klimawandel werden dabei aus vorangegangenen Studien entnommen, unter anderem den breit angelegten Untersuchungen des KLIWAS Projekts, aus dem auch einige Eingangsdaten für das hier verwendete Vulnerabilitätsmodells stammen. Um die Vulnerabilität und Anpassungsmöglichkeiten der Unternehmen mittels des genannten Modells zu untersuchen werden weitere, unternehmensspezifische Daten benötigt, die durch eine Unternehmensbefragung erhoben wurden. Insgesamt wurden etwa 400 Unternehmen direkt angeschrieben; durch den Versand der Fragebögen durch Wirtschaftsverbände wurde der Kreis der befragten Unternehmen nochmals erweitert. Bei den an der Befragung teilnehmenden Unternehmen hatte das Binnenschiff mit etwa 30% im Schnitt einen deutlich höheren Transportanteil als die Bahn mit im Durchschnitt knapp 8%. Dies kann als Indikator für die wahrgenommene Betroffenheit durch den Klimawandel interpretiert werden, die zur Teilnahme an der Befragung motivierte.
Für viele Zeitgenossen wirkt der Ausdruck 'Tugend' gegenwärtig reichlich altbacken. Bereits 1935 schrieb Paul Valéry, das Wort habe einen leicht lächerlichen Klang und sei nur noch im Katechismus, in der Posse [...] und in der Operette anzutreffen.1 Dieser (vermeintliche) Funktionsverlust der Tugend (des Individuums), den manche als Werteverfall, andere aber als logische Konsequenz der funktionalen Differenzierung moderner Gesellschaften ansehen, löst auch in Ethikdebatten unterschiedliche Reaktionen aus: Während die einen Krokodilstränen angesichts dieses Verlustes der Tugend' vergießen2, wird der Relevanzverlust der klassischen Tugendethik von anderen angesichts der Bedingungen der Moderne ausdrücklich proklamiert, so etwa von Karl Homann: Das Paradigma der Ethik wird von der [...] Tugendethik auf eine [...] Ordnungsethik umgestellt. [...] Moral erscheint [...] nicht mehr [...] als Tugend, sondern als (rechtliche) Restriktion.3 Die Tugend scheint also in Schwierigkeiten geraten zu sein. Dennoch neige ich zu der Auffassung, dass zwar das Wort etwas verstaubt klingen mag, dass dem Thema Tugend der Sache nach aber eine nicht zu unterschätzende Relevanz für die Unternehmensethik zukommt. Allerdings bedarf es wie sollte es anders sein eines differenzierten Tugendkonzepts, um die moralökonomischen Aspekte der Unternehmenspraxis angemessen rekonstruieren zu können.
Transaktions-Rhizome
(2007)
Verbrennungsmotor
(2017)
Dieses Lehrbuch bringt kurz und bündig die wesentlichen Komponenten. Ohne große Theorie taucht der Leser in die weite Welt der Verbrennungsmotoren ein. Aussagekräftige Abbildungen und kurze verständliche Sätze helfen dabei nachhaltig. Wie bei einer Zeitung steht das Wichtigste ganz am Anfang. Je weiter man liest, umso tiefer dringt man in den Stoff. Damit ist das Buch für Einsteiger, Praktiker und auch Studierende gleichermaßen sehr gut geeignet.
Verbrennungsmotoren
(2017)
Das Kapitel „Verbrennungsmotoren“ gibt eine Einführung in das wichte und große Gebiet der Verbrennungsmotoren. Leserinnen und Lesern, die noch nie etwas über Verbrennungsmotoren gehört haben, wird empfohlen, zunächst den Abschnitt 1 zu lesen. Dieser ist bewusst einfach und anschaulich geschrieben, um den Zugang zum Thema zu erleichtern. Danach können gezielt weitergehende Informationen in den Abschnitten 2 bis 9 studiert werden. Diese Abschnitte wurden so verfasst, dass man sie nicht nacheinander lesen muss. Grundlage ist jeweils nur der Abschnitt 1. Dieser selbst ist so verfasst, dass das Wichtigste ganz am Anfang steht. Je weiter hinten man in diesem Abschnitt ankommt, umso spezieller werden die Themen. Bei nur begrenztem Interesse an dem Thema Verbrennungsmotoren kann man das Lesen des Abschnitts 1 jederzeit abbrechen und hat trotzdem das bis dahin Wichtigste erfahren.
Dieses besondere Lehrbuch führt in die Berechnung von Verbrennungsmotoren ein, geht dabei von aktuellen Fragestellungen z. B. zur Fahrzeugdynamik oder Motorthermodynamik aus und stellt bei der Lösung die notwendige Theorie mit bereit. Damit auch Quereinsteiger erfolgreich sind, ist in einem Verzeichnis aufgeführt, welche theoretischen Kenntnisse man für die Lösung der jeweiligen Aufgabe benötigt und in welchem Abschnitt des Buches diese hergeleitet werden. Alle Berechnungen werden in Excel durchgeführt.
In der vorliegenden Auflage wurden aktuelle Beispiele zur Motoreffizienz, zum Motorkennfeld, zur Lastpunktanhebung, zum Fahrzyklus WLTC und zu realen Fahrzyklen (RDE) ergänzt.
Der Inhalt:
- Fahrwiderstand und Motorleistung
- Kraftstoffe und Stöchiometrie
- Motorleistung und Mitteldruck
- Motorthermodynamik
- Motormechanik
- Fahrzeugdynamik
- Hybrid- und Elektrofahrzeuge
- Aufladung von Verbrennungsmotoren
Die Zielgruppen:
Studierende des Maschinenbaus und der Kfz-Technik an Hochschulen in Bachelor- und Masterstudiengängen; Motoreningenieure, die sich mit verbrennungsmotorischen Fragestellungen beschäftigen; Absolventen von Weiterbildungskursen auf Meisterniveau
Der Autor Dr.-Ing. Klaus Schreiner ist Professor an der HTWG Konstanz und Leiter des Labors für Verbrennungsmotoren in der Fakultät Maschinenbau. Er war viele Jahre lang Didaktikbeauftragter seiner Hochschule. Im Jahr 2008 erhielt er den Lehrpreis des Landes Baden-Württemberg.
Das Projekt eFlow, an dem unter anderem die HTWG Konstanz seit 2012 forscht, simuliert mit Hilfe einer mathematischen Simulation wie sich Menschenmassen verhalten, wenn sie ein vorgegebenes Gelände verlassen sollen. Die Simulation baut auf einen Ansatz der Finite Elemente Methode auf, in der mehrere gekoppelte Differenzialgleichungen berechnet werden müssen. Diese Berechnungen erweisen sich gerade bei komplexen Szenarien mit großem Gelände und vielen Personen als sehr rechenintensiv. Ziel dieser Bachelorarbeit ist es ein Surrogate Modell zu erstellen, welches basierend auf machine-learning Ansätzen im spezifischen auf Regressionsmethoden Ergebnisse der Simulation vorhersagen soll. Somit müssen Datensätze generiert werden. Diese entstehen durch wiederholte Durchläufe der Simulation, in der jeweils die Eingabeparameter, die in das Regressionsmodell einfließen sollen variiert werden und mit dem entsprechenden Ergebnis der Simulation verknüpft werden. Die Regressionsansätze werden dabei pro Durchlauf komplexer, in dem jeweils zusätzliche Eingabeparameter mit in die Datengenerierung aufgenommen werden. Es soll überprüft werden, ob diese Simulation mittels machine-learning Ansätzen reproduzierbar ist. Basierend auf diesen Surrogate Modellen soll es möglich gemacht werden, Situationen in Echtzeit zu überprüfen, ohne dabei den Weg der rechenaufwendigen Simulation zu gehen. Die Ergebnisse bestätigen, dass die mathematische Simulation mittels Regression reproduzierbar ist. Es erweist sich jedoch als sehr rechenaufwendig, Daten zu sammeln, um genügend Eingabeparameter mit in die Regressionsmethode einfließen zu lassen. Diese Arbeit gestaltet somit eine Vorstudie zur Umsetzung eines ausgereiften Surrogate Modells, welches jegliche Eingabeparameter der Simulation berücksichtigen kann.
The paper investigates an innovative actuator combination based on the magnetic shape memory technology. The actuator is composed of an electromagnet, which is activated to produce motion, and a magnetic shape memory element, which is used passively to yield multistability, i.e. the possibility of holding a position without input power. Based on the experimental open-loop frequency characterization of the actuator, a position controller is developed and tested in several experiments.
Corrosion
(2016)
This paper summarizes the trends in metallization and interconnection technology in the eyes of the participants of the 8th Metallization and Interconnection Workshop. Participants were asked in a questionnaire to share their view on the future development of metallization technology, the kind of metal used for front side metallization and the future development of interconnection technology. The continuous improvement of the screen-printing technology is reflected in the high expected percentage share decreasing from 88% in three years to still 70% in ten years. The dominating front side metal in the view of the participants will be silver with an expected percentage share of nearly 70% in 2029. Regarding interconnection technologies, the experts of the workshop expect new technologies to gain significant technology shares faster. Whereas in three years soldering on busbars is expected to dominate with a percentage share of 71% it will drop in ten years to 35% in the eyes of the participants. Multiwire and shingling technologies are seen to have the highest potential with expected percentage shares of 33% (multiwire) and 16% (shingling) in ten years.
The effect on the mean-variance space of restrictions on a variable is investigated in this
paper. A restriction may be the placing of upper and lower bounds on a variable.
Another limitation is the loss of the continuity of a variable.
Average marks for Examinations are considered in an application of this limited meanvariance
space. In this case, the bounds are given by the highest and the lowest possible mark (e.g. 1.0 and 5.0). The limitation of the mean-variance space depends on the number of students who participate in the examination. The restriction of the loss of continuity is shown by the use of discrete marks (e.g. 1.0, 1.3, 1.7, 2.0, …). Furthermore,
the Target-Shortfall-Probability lines are integrated into the mean-variance space. These
lines are used to indicate the proportion of students who have good or very good marks in the examination. In financial markets, Target-Shortfall-Probability is used as a risk criterion.
Die Globalisierung hat insbesondere auf Kapital- und Informationsmärkten starke Veränderungen bewirkt. Der Anteil der Bevölkerung mit Aktienbesitz stieg in den letzten Jahren stetig an. Immer häufiger lösen sich Investoren von den institutionellen Anlageempfehlungen und bilden sich ihre eigene Meinung zur Entwicklung auf den Kapitalmärkten. Für die Kaufentscheidung einzelner Assets stehen Investoren neben den Fundamentaldaten aus Presse, Rundfunk und Internet auch Chartanalyse-Programme zur Entscheidungsunterstützung zur Verfügung. Die Gewichtung einzelner Aktien im Portfolio ist dabei eher willkürlich oder naiv. Die quantitative Optimierung des Portfolios ist heute noch institutionellen Einrichtungen bzw. Fonds-Managern vorbehalten, obgleich die informationstechnischen Voraussetzungen bereits für viele Investoren gegeben sind. Im Vergleich mit der klassischen Portfoliooptimierung, die der quadratischen Optimierung zuzurechnen ist, können lineare Modelle der Portfoliooptimierung diverse Vorteile bieten. Mit dem Risikomaß der sog. Tar-get-Shortfall-Probability können z.B. auch bei schiefen Renditeverteilungen effiziente Portfolios bestimmt werden. Darüberhinaus ist dieses Risikomaß, z.B. in der Form der Verlustwahrscheinlichkeit, für jeden Investor intuitiv verständlich. Im Folgenden werden einleitend knapp die klassische Portfoliooptimierung und Wege zur Auswahl effizienter Entscheidungen dargestellt. Nach einem Überblick zu den Risikokriterien der Portfoliooptimierung und zu den entsprechenden linearen Portfoliooptimierungsmodellen, werden Vorteile und Nachteile linearer Modelle diskutiert. Das letzte Kapitel ist dem Mean-Target-Shortfall-Probability-Vektor-Modell gewidmet. Abschließend werden die Ergebnisse eines empirischen Tests vorgestellt.
Noteninflation
(2014)
Das Management von Aktienfonds strebt effiziente Mischungen von Aktien an. Nachdem diese durch Optimierungsverfahren ermittelt wurden, müssen sie aus ökonomischen oder rechtlichen Gründen oft angepasst werden mit der Konsequenz, dass die Lösungen nicht mehr effizient sind. Ein rechtlicher Grund kann bei einem öffentlich angebotenen Aktienfond der Artikel 52(2) der EU-Richtlinie 2009/65/EC bzw. das KAGB § 206 sein. Ein Teil der Richtlinie besagt z.B., dass in eine Aktie nie mehr als 10% des Budgets investiert werden kann. Diese Regeln insgesamt sich auch als 5-10-40-Bedingung bekannt. Um derartige Risikobeschränkungen in der Portfoliooptimierung zu integrieren wurden zwei Optimierungsmodelle entwickelt – ein quadratisches und ein lineares. Die Modelle wurden anhand von historischen Renditedaten des HDAX getestet. Das lineare Modell zeigt, dass die Vorgaben der EU-Richtlinie die angestrebte Volatilitätsreduktion erreicht. Diese Risikobeschränkung hat aber einen Preis, der in den Währungen „Renditeverlust“ bzw. „Volatilitätszuwachs“ ausgedrückt werden kann. Bei gleicher Volatilität erzielte das nicht durch die 5-10-40-Bedingung eingeschränkte Portfolio eine ca. 10% höhere Jahresrendite. Der „Volatilitätszuwachs“ ist im Umfeld des minimalen Volatilitätspunktes (MVP) gering, kann aber bis zu 25% betragen, wenn Portfolios die unter der 5-10-40-Bedingung ermittelt wurden verglichen werden mit uneingeschränkt optimierten Portfolios bei jeweils gleicher Rendite. Das quadratische Modell baut auf dem Ansatz von H. Markowitz auf und zeigt einen flexibleren Weg der Risikobegrenzung der zu vergleichbaren Resultaten führt.
The estimation of the holding periods of financial products has to be done in a dynamic process in which the size of the observation time interval influences the result. Small intervals will produce smaller average holding periods than bigger ones. The approach developed in this paper offers the possibility of estimating this average independently of the size of this time interval. This method is demonstrated on the example of two distributions, based on the exponential and the geometric probability functions. The estimation will be found by maximizing the likelihood function.
To get a better understanding of Cross Site Scripting vulnerabilities, we investigated 50 randomly selected CVE reports which are related to open source projects. The vulnerable and patched source code was manually reviewed to find out what kind of source code patterns were used. Source code pattern categories were found for sources, concatenations, sinks, html context and fixes. Our resulting categories are compared to categories from CWE. A source code sample which might have led developers to believe that the data was already sanitized is described in detail. For the different html context categories, the necessary Cross Site Scripting prevention mechanisms are described.
We investigated 50 randomly selected buffer overflow vulnerabilities in Firefox. The source code of these vulnerabilities and the corresponding patches were manually reviewed and patterns were identified. Our main contribution are taxonomies of errors, sinks and fixes seen from a developer's point of view. The results are compared to the CWE taxonomy with an emphasis on vulnerability details. Additionally, some ideas are presented on how the taxonomy could be used to improve the software security education.
Many secure software development methods and tools are well-known and understood. Still, the same software security vulnerabilities keep occurring. To find out if new source code patterns evolved or the same patterns are reoccurring, we investigate SQL injections in PHP open source projects. SQL injections are well-known and a core part of software security education. For each common part of SQL injections, the source code patterns are analysed. Examples are pointed out showing that developers had software security in mind, but nevertheless created vulnerabilities. A comparison to earlier work shows that some categories are not found as often as expected. Our main contribution is the categorization of source code patterns.
We present source code patterns that are difficult for modern static code analysis tools. Our study comprises 50 different open source projects in both a vulnerable and a fixed version for XSS vulnerabilities reported with CVE IDs over a period of seven years. We used three commercial and two open source static code analysis tools. Based on the reported vulnerabilities we discovered code patterns that appear to be difficult to classify by static analysis. The results show that code analysis tools are helpful, but still have problems with specific source code patterns. These patterns should be a focus in training for developers.
We compared vulnerable and fixed versions of the source code of 50 different PHP open source projects based on CVE reports for SQL injection vulnerabilities. We scanned the source code with commercial and open source tools for static code analysis. Our results show that five current state-of-the-art tools have issues correctly marking vulnerable and safe code. We identify 25 code patterns that are not detected as a vulnerability by at least one of the tools and 6 code patterns that are mistakenly reported as a vulnerability that cannot be confirmed by manual code inspection. Knowledge of the patterns could help vendors of static code analysis tools, and software developers could be instructed to avoid patterns that confuse automated tools.
Insecurity Refactoring is a change to the internal structure of software to inject a vulnerability without changing the observable behavior in a normal use case scenario. An implementation of Insecurity Refactoring is formally explained to inject vulnerabilities in source code projects by using static code analysis. It creates learning examples with source code patterns from known vulnerabilities.
Insecurity Refactoring is achieved by creating an Adversary Controlled Input Dataflow tree based on a Code Property Graph. The tree is used to find possible injection paths. Transformation of the possible injection paths allows to inject vulnerabilities. Insertion of data flow patterns introduces different code patterns from related Common Vulnerabilities and Exposures (CVE) reports. The approach is evaluated on 307 open source projects. Additionally, insecurity-refactored projects are deployed in virtual machines to be used as learning examples. Different static code analysis tools, dynamic tools and manual inspections are used with modified projects to confirm the presence of vulnerabilities.
The results show that in 8.1% of the open source projects it is possible to inject vulnerabilities. Different inspected code patterns from CVE reports can be inserted using corresponding data flow patterns. Furthermore the results reveal that the injected vulnerabilities are useful for a small sample size of attendees (n=16). Insecurity Refactoring is useful to automatically generate learning examples to improve software security training. It uses real projects as base whereas the injected vulnerabilities stem from real CVE reports. This makes the injected vulnerabilities unique and realistic.
Systematic Generation of XSS and SQLi Vulnerabilities in PHP as Test Cases for Static Code Analysis
(2022)
Synthetic static code analysis test suites are important to test the basic functionality of tools. We present a framework that uses different source code patterns to generate Cross Site Scripting and SQL injection test cases. A decision tree is used to determine if the test cases are vulnerable. The test cases are split into two test suites. The first test suite contains 258,432 test cases that have influence on the decision trees. The second test suite contains 20 vulnerable test cases with different data flow patterns. The test cases are scanned with two commercial static code analysis tools to show that they can be used to benchmark and identify problems of static code analysis tools. Expert interviews confirm that the decision tree is a solid way to determine the vulnerable test cases and that the test suites are relevant.
Atom interferometers have a multitude of proposed applications in space including precise measurements of the Earth's gravitational field, in navigation & ranging, and in fundamental physics such as tests of the weak equivalence principle (WEP) and gravitational wave detection. While atom interferometers are realized routinely in ground-based laboratories, current efforts aim at the development of a space compatible design optimized with respect to dimensions, weight, power consumption, mechanical robustness and radiation hardness. In this paper, we present a design of a high-sensitivity differential dual species 85Rb/87Rb atom interferometer for space, including physics package, laser system, electronics and software. The physics package comprises the atom source consisting of dispensers and a 2D magneto-optical trap (MOT), the science chamber with a 3D-MOT, a magnetic trap based on an atom chip and an optical dipole trap (ODT) used for Bose-Einstein condensate (BEC) creation and interferometry, the detection unit, the vacuum system for 10-11 mbar ultra-high vacuum generation, and the high-suppression factor magnetic shielding as well as the thermal control system.
The laser system is based on a hybrid approach using fiber-based telecom components and high-power laser diode technology and includes all laser sources for 2D-MOT, 3D-MOT, ODT, interferometry and detection. Manipulation and switching of the laser beams is carried out on an optical bench using Zerodur bonding technology. The instrument consists of 9 units with an overall mass of 221 kg, an average power consumption of 608 W (819 W peak), and a volume of 470 liters which would well fit on a satellite to be launched with a Soyuz rocket, as system studies have shown.
Investigation of magnetic effects on austenitic stainless steels after low temperature carburization
(2018)
Fachvortrag auf der 10th International European Stainless Steel Conference and 6th European Duplex Stainless Steel Conference (ESSC & DUPLEX 2019), 30.09. – 02.10.2019, Vienna, Austria
Investigation of magnetic effects on austenitic stainless steels after low temperature carburization
(2018)
This work aims at investigating the magnetic effects of austenitc stainless steels which can occur after a low temperature carburisation depending on the alloy. Samples were prepared of different alloys and subjected to a multiple low temperature carburisation to obtain different treatment conditions for each alloy. The layer characterisation was carried out by light microscope and also by hardening profiles and shows that the layer develops with each additional treatment cycle. A lattice expansion could be detected in all treated samples by X-ray diffraction. Magnetisability was measured using Feritscope and SQUID measurements. Not all alloys showed magnetisability after treatment. In addition to MFM measurements, experiments with Ferrofluid were also used to visualize the magnetic areas. These studies show that only about half of the formed layer becomes magnetisable and has a domain-like structure.
Magnetic effects on austenitic stainless steels, formed during a low temperature carburizing depending on the alloy composition are discussed in this paper. Samples of different austenitic stainless steel alloys have been subjected to a multiple low-temperature carburization. Layer characteriszation with light microscope and hardness profiles show a growth of the layer thickness. The formation of an expanded austenite layer (lattice expansion) could be detected by X-ray diffraction (XRD). Feritscope was used to determine the magnetizability, whereby not all austenitic alloys form a magnetizability after treatment. Furthermore, test procedures were developed to visualize the magnetizability. For this purpose, magnetic force microscope measurements and investigations with ferrofluid were carried out and a fir tree ferromagnetic layer strucure could be proven.
Ferromagnetism is of increasing importance in the growing field of electromobility and data storage. In stable austenitic steels, the occurrence of ferromagnetism is not expected and would also interfere with many applications. However, ferromagnetism in austenitic stainless steels after low-temperature nitriding has already been shown in the past. Herein, the presence of ferromagnetism in austenitic steels is discovered after low-temperature carburization (Kolsterizing), which represents a novel and unique finding. A zone of expanded austenite is established on various austenitic stainless steels by low-temperature carburization and the respective ferromagnetism is investigated in relation to the alloy composition. The ferromagnetism occurring is determined by means of a commercial magnetoinductive sensor (Feritscope). Ferromagnetic domains are visualized by magnetic force microscopy and a ferrofluid. X-ray diffraction measurements indicate a clear difference in the lattice expansion of the different alloys. Furthermore, a different appearance of the magnetizable microstructure regions (magnetic domain structure) is detected depending on the grain orientation determined by electron backscatter diffraction (EBSD). Strongly pronounced magnetic domains show no linear lattice defects, whereas in small magnetizable areas linear lattice defects are detected by electron channeling contrast imaging and EBSD.
This thesis investigates methods for the recognition of facial expressions using support vector machines. Rather than trying to recognize facial actions in the face such as raised eyebrow, mouth open and frowns. These facial actions are described in the Facial Action Coding System (FACS) and are essential facial components, which can be combined to form facial expressions. We perform independent recognition of 6 upper and 10 lower action units in the face, which may occur either individually or in combination. Based on a feature extraction from grey-level values, the system is expected to recognize under real-time conditions. Results are presented with different image resolutions, SVM kernels and variations of low-level features.
Das historisch gewachsene System für die Erstellung, Koordinierung und Auskunft der Lehrveranstaltungspläne (LVP) soll durch ein neues System ersetzt werden. Diese Diplomarbeit befasst sich mit der Konzeption und der Implementierung einer neuen grafischen Benutzeroberfläche und der Migration auf eine SQL basierte Datenbank für das komplette Management der Lehrveranstaltungspläne der FH Konstanz. Wie die Stundenpläne an den Schulen müssen auch die Lehrveranstaltungspläne an der Fachhochschule in jedem Semester entworfen, zu Papier gebracht, vervielfältigt und verteilt werden. An der FH Konstanz wird die heikle Aufgabe des Entwerfens von den LVP- Beauftragten der Studiengänge erledigt, denn sie können die vielen Randbedingungen besser überschauen und das Ergebnis auch rechtfertigen. Für die Routinearbeiten Auskunft und Drucken gab es bisher das LVP- Programm als ein spezielles Informationssystem. Auch wenn sich das bisherige System bewährt hat, blieben doch einige Wünsche der Planer offen. Da das LVP- System über mehrere Jahre gewachsen war, ist man an einige Eigenheiten gebunden, die es zu eliminieren gilt. Auch neue Technologien eröffnen einige interessante Möglichkeiten, die früher noch nicht so einfach, oder gar nicht zu implementieren waren. Ziel dieser Diplomarbeit ist eine komplette Neuentwicklung des gesamten Systems unter Verwendung aktueller Technologien: das LVP³- System.
Die Berücksichtigung ökologischer und sozialer Gesichtspunkte in der Konzeption, Planung und Errichtung von Gebäuden hat in den vergangenen Jahren großen Einfluss auf Marktfähigkeit der Immobilien gewonnen. Regulatorische Rahmenwerke wie die Taxonomie-Verordnung der Europäischen Union formulieren die klare Anforderung an die Bauwirtschaft dem Schutz von Mensch und Natur mehr Bedeutung einzuräumen. Nur mit einem wesentlichen Beitrag zu den Klimazielen der Europäischen Union wird es der Branche langfristig möglich sein sich einen uneingeschränkten Zugang zum Investorenmarkt zu sichern.
Die vorliegende wissenschaftliche Arbeit widmet sich dem Kriterienkatalog der Deutschen Gesellschaft für Nachhaltiges Bauen e.V. und legt Übereinstimmungen mit den technischen Bewertungskriterien der EU-Taxonomie Verordnung offen. Der im Frühjahr 2023 erschienen Kriterienkatalog umfasst eine Vielzahl von Kriterien, anhand derer Gebäude auf Nachhaltigkeit geprüft werden. Im Vergleich zu der Vorgängerversion aus dem Jahr 2018 wurden erhebliche Änderungen eingearbeitet. Besonders hervorzuheben sind neue technische Prüfkriterien im Bereich Klimaschutz, Ressourcengewinnung, Biodiversität und Kreislaufwirtschaft. Die Angleichung der Berechnungsmethode für die Ökobilanzen an das bundeseigene „Qualitätssiegel Nachhaltiges Gebäude“, die Mindestanforderung nach dem erhöhten Einsatz von nachhaltig gewachsenem Holz, die Prüfung spezifischer Zielquoten bei dem Einsatz von Recyclingbeton sowie Anforderungen an die Zirkularität sind nur ein Teil der Neuerungen. Für die zusätzlichen Anforderung müssen Projektentwickler mit Mehrkosten im hohen sechsstelligen Bereich im Vergleich zu der Vorgängerversion rechnen. Vorteile der Neuauflage des Kriterienkataloges sind eine erhöhte Übereinstimmung mit den Nachhaltigkeitsanforderungen der Europäischen Union. Es werden jedoch nicht alle Anforderungen erfüllt. Nachweise für den Primärenergiebedarf, die Schadstoffbelastung von Bauteilen bzw. -materialien und eine Umweltverträglichkeitsprüfung müssen zusätzlich zu dem Kriterienkatalog der Deutschen Gesellschaft für Nachhaltiges Bauen geleistet werden. Insgesamt ebnen die Kriterien der Deutschen Gesellschaft für Nachhaltiges Bauen aber den Weg hin zu einer EU-Konformität und helfen Projektentwicklern Immobilien erfolgreich auf dem Markt zu positionieren.
Autonomous moving systems require very detailed information about their environment and potential colliding objects. Thus, the systems are equipped with high resolution sensors. These sensors have the property to generate more than one detection per object per time step. This results in an additional complexity for the target tracking algorithm, since standard tracking filters assume that an object generates at most one detection per object. This requires new methods for data association and system state filtering.
As new data association methods, in this thesis two different extensions of the Joint Integrated Probabilistic Data Association (JIPDA) filter to assign more than one detection to tracks are proposed.
The first method that is introduced, is a generalization of the JIPDA to assign a variable number of measurements to each track based on some predefined statistical models, which will be called Multi Detection - Joint Integrated Probabilistic Data Association (MD-JIPDA).
Since this scheme suffers from exponential increase of association hypotheses, also a new approximation scheme is presented. The second method is an extension for the special case, when the number and locations of measurements are a priori known. In preparation of this method, a new notation and computation scheme for the standard Joint Integrated Data Association is outlined, which also enables the derivation of a new fast approximation scheme called balanced permanent-JIPDA.
For state filtering, also two different concepts are applied: the Random Matrix Framework and the Measurement Generating Points. For the Random Matrix framework, first an alternative prediction method is proposed to account for kinematic state changes in the extension state prediction as well. Secondly, various update methods are investigated to account for the polar to Cartesian noise transformation problem. The filtering concepts are connected with the new MD-JIPDA and their characteristics analyzed with various Monte Carlo simulations.
In case an object can be modeled by a finite number of fixed Measurement Generating Points (MGP), also a proposition to track these object via a JIPDA filter is made. In this context, a fast Track-to-Track fusion algorithm is proposed as well and compared against the MGP-JIPDA.
The proposed algorithms are evaluated in two applications where scanning is done using radar sensors only. The first application is a typical automotive scenario, where a passenger car is equipped with six radar sensors to cover its complete environment.
In this application, the location of the measurements on an object can be considered stationary and that is has a rectangular shape. Thus, the MGP based algorithms are applied here. The filters are evaluated by tracking especially vehicles on nearside lanes.
The second application covers the tracking of vessels on inland waters. Here, two different kind of Radar systems are applied, but for both sensors a uniform distribution of the measurements over the target's extent can be assumed. Further, the assumption that the targets have elliptical shape holds, and so the Random Matrix Framework in combination with the MD-JIPDA is evaluated.
Exemplary test scenarios also illustrate the performance of this tracking algorithm.
Small vessels or unmanned surface vehicles only have a limited amount of space and energy available. If these vessels require an active sensing collision avoidance system it is often not possible to mount large sensor systems like X-Band radars. Thus, in this paper an energy efficient automotive radar and a laser range sensor are evaluated for tracking surrounding vessels. For these targets, those type of sensors typically generate more than one detection per scan. Therefore, an extended target tracking problem has to be solved to estimate state end extension of the vessels. In this paper, an extended version of the probabilistic data association filter that uses random matrices is applied. The performance of the tracking system using either radar or laser range data is demonstrated in real experiments.
In extended object tracking, a target is capable to generate more than one measurement per scan. Assuming the target being of elliptical shape and given a point cloud of measurements, the Random Matrix Framework can be applied to concurrently estimate the target’s dynamic state and extension. If the point cloud contains also clutter measurements or origins from more than one target, the data association problem has to be solved as well. However, the well-known joint probabilistic data association method assumes that a target can generate at most one detection. In this article, this constraint is relaxed, and a multi-detection version of the joint integrated probabilistic data association is proposed. The data association method is then combined with the Random Matrix framework to track targets with elliptical shape. The final filter is evaluated in the context of tracking smaller vessels using a high resolution radar sensor. The performance of the filter is shown in simulation and in several experiments.
Probabilistic data association for tracking extended targets under clutter using random matrices
(2015)
The use of random matrices for tracking extended objects has received high attention in recent years. It is an efficient approach for tracking objects that give rise to more than one measurement per time step. In this paper, the concept of random matrices is used to track surface vessels using highresolution automotive radar sensors. Since the radar also receives a large number of clutter measurements from the water, for the data association problem, a generalized probabilistic data association filter is applied. Additionally, a modification of the filter update step is proposed to incorporate the Doppler velocity measurements. The presented tracking algorithm is validated using Monte Carlo Simulation, and some performance results with real radar data are shown as well.
Das Haus als Palimpsest
(2017)
Ein »neuzeitlicher Pfahlbau«
(2017)
Welterbe Bauhaus
(2017)
Moderne als Geschichte
(2015)
Ein neuzeitlicher Pfahlbau
(2016)
Bauhäusler am Bodensee
(2016)
Bauen nach dem Bauhaus
(2018)
Das Freistellungssemester 2020 wurde für Recherchen zu unterschiedlichen Aufmaßsystemen in der historischen Bauforschung genutzt. Durch die Covid-19-Pandemie entwickelte sich das Arbeitsprogramm jedoch anders als geplant und verlagerte sich weitgehend in den virtuellen Raum. In der Disziplin der historischen Bauforschung entstand gerade durch die zeitweise Unmöglichkeit des Reisens und der Präsenzlehre ein intensiver Austausch zur Methodik in zahlreichen Onlinekonferenzen.
Die zum UNESCO Weltkulturerbe zaehlenden Meisterhaeuser des Dessauer Bauhauses wurden 1925/1926 nach Plaenen des Bauhaus-Gruenders Walter Gropius errichtet. Nach Umbauten waehrend des Nationalsozialismus wurden im Zweiten Weltkrieg zwei Gebaeude des Ensembles voellig zerstoert: das Direktorenhaus und die Doppelhaushaelfte von Laszlo Moholy-Nagy. 1956 erfolgte ein veraenderter Wiederaufbau des Hauses Gropius als Haus Emmer. Fuer einen adaequaten denkmalpflegerischen Umgang mit dem Ensemble nach der Wiedervereinigung wurden nach laengeren Vorueberlegungen 2008 und 2010 Wettbewerbe fuer eine staedtebauliche Reparatur durchgefuehrt. Auf dieser Grundlage wurde das Berliner Architektenbuero Bruno Fioretti Marquez mit dem Neubau des Direktorenhauses und des Hauses Moholy-Nagy beauftragt. Da die Quellenlage fuer eine Rekonstruktion nicht ausreichte, wurde ein anspruchsvolles architektonisches Konzept umgesetzt, das die Kubatur der verlorenen Bauten nachzeichnet. Die Detailausbildung wurde frei in gegenueber den erhaltenen Meisterhaeusern, die bereits zuvor saniert worden waren, stark reduzierten Formen gestaltet.
Im Investitionsgüterservice ist Wissen längst zu einem zentralen Erfolgshebel geworden, sowohl zur Steigerung der Prozesseffektivität und -effizienz als auch als Fundament für werthaltige Geschäftsmodelle. Das Management Service-relevanten Wissens ist für kleine und mittelständische Unternehmen der Investitionsgüterindustrie jedoch oftmals eine nicht zu unterschätzende Herausforderung, welche weit über IT-technische Aspekte hinausreicht. In dem vom BMBF sowie vom ESF (ko)finanzierten Projekt „SerWiss“ wurde vor diesem Hintergrund ein umfassender Lösungsansatz entwickelt und bei zwei Projektpartnern aus der Investitionsgüterindustrie prototypisch umgesetzt.
Die durch KMU geprägte Investitionsgüterindustrie steht aufgrund der zunehmenden Internationalisierung im Servicegeschäft, Mitarbeiterengpässen, hohen Prozesskosten sowie fehlendem Wissensmanagment vor großen Herausforderungen. Durch die Digitalisierung entstehen große Nutzenpotenziale im Servicegeschäft. Vor diesem Hintergrund wurde ein auf den Methoden Intelligent Swarming und Knowledge Centered Service basierender, integrierter Ansatz entwickelt, der KMU aus der Investitionsgüterindustrie befähigt, Servicewissen effizient zu generieren, zu strukturieren und international zu vermarkten.
This paper aims to apply the basics of the Service-Dominant Logic, especially the concept of creating benefits through serving, to the stationary retail industry. In the industrial context, the shift from a product-driven point of view to a service-driven perspective has been discussed widely. However, there are only few connections to how this can be applied to the retail sector on a B2C-level and how retailers can use smart services in order to enable customer engagement, loyalty and retention. The expectations of customers towards future stationary retail develop significantly as consumers got used to the comfort of online shopping. Especially the younger generation—the Generation Z—seems to have changed their priorities from the bare purchase of products to an experience- and service-driven approach when shopping over-the-counter. To stay successful long-term, companies from this sector need to adapt to the expectations of their future main customer group. Therefore, this paper will analyse the specific needs of Generation Z, explain how smart services contribute to creating benefit for this customer group and how this affects the economic sustainability of these firms.
Der Kundenservice von morgen
(2023)
Die digitale Selbstbedienung im Einzelhandel und anderen Dienstleistungsbereichen verändert die Konsumwelt. Self-Services werden zunehmend von Konsumenten aller Altersklassen genutzt. Der Handel muss seine Servicekanäle hinterfragen und vermehrt auf Self-Service als Kundenkontaktpunkt setzen. Andere Branchen haben diesbezüglich bereits Lösungen umgesetzt. Vor diesem Hintergrund analysiert der Beitrag die Nutzung von Self-Service-Lösungen in Abhängigkeit von der Generationen-Zugehörigkeit und gibt Handlungsempfehlungen für KMU aus dem Einzelhandel.
Die durch kleine und mittelständische Unternehmen geprägte Investitionsgüterindustrie steht aufgrund der zunehmenden Internationalisierung im Servicegeschäft vor großen Herausforderungen. Mitarbeiterengpässe, hohe Prozesskosten und unzureichendes Wissensmanagement machen den Service zur potenziellen betriebs- und volkswirtschaftlichen Wachstumsbremse. Durch die Digitalisierung entstehen aber auch große Nutzenpotenziale im Servicegeschäft. Ziel des im Projekt SerWiss entwickelten integrierten Ansatzes ist es, kleine und mittelständische Anbieter von Investitionsgütern zu befähigen, Servicewissen auf der Basis eines digitalen Lösungsansatzes unter Gewährleistung einer humanen Arbeitsgestaltung effizient zu generieren, zu strukturieren und international bereitzustellen bzw. zu vermarkten.
Das erfolgreiche Gestalten von Organisationen setzt die systematische Analyse ihrer Prozesse voraus. Das gilt auch und insbesondere für kleine und mittelgroße Unternehmen (KMU). Die praktische Durchführung solcher in KMU ist jedoch mit besonderen Herausforderungen verbunden, die in der vorhandenen Literatur bislang kaum reflektiert werden. In diesem Beitrag werden Erfahrungen aus 20 in KMU durchgeführten Prozessanalysen geteilt. Entlang der Prozessphasen werden unterschiedliche Gestaltungsmöglichkeiten vorgestellt und ihre spezifischen Vor- und Nachteile bei der praktischen Anwendung in KMU identifiziert. Der Beitrag unterstreicht die Relevanz von Prozessanalysen in KMU und befähigt zugleich zu ihrer Durchführung.
Auf Basis der Auswertung bestehender internationaler Studien zur Wirtschaftskriminalität und zum Compliance- und Integrity-Management von Umfrageinstituten und Beratungshäusern ist es das Ziel dieser Studie, einen Überblick zu den generischen Compliance-Risiken sowie Risiken, die sich mit Blick auf die Einhaltung von Organisationspflichten auftun, zu geben.
Von besonderem Interesse ist dabei die Analyse der größten Risiken für Unternehmen unterschiedlicher Organisationskomplexität. Für die komparative Analyse wurden bereits durchgeführte und veröffentlichte Studien einschlägiger Herausgeber herangezogen, deren inhaltlicher Fokus der Befragung den Bereichen Wirtschaftskriminalität, Compliance-Management, Ethics- und Integrity-Management zuzuordnen sind.
Im Nachfolgenden werden die einzelnen Studien zunächst kurz vorgestellt und in einem weiteren Schritt die wesentlichen Studien-Ergebnisse zu den Fallzahlen, entstandenen Schäden und Tätern bezüglich Compliance-Verstößen im Unternehmen, den wahrgenommenen Compliance-Risiken und besonders betroffenen Unternehmensbereichen untersucht. Abschließend werden die erhobenen Daten zusammenfassend bewertet. Der Untersuchung der Primärdaten aus den Studien vorangestellt ist eine definitorische Annäherung an den Risiko-Begriff im Allgemeinen und an den Begriff des Compliance-Risikos im Speziellen.
Die vorliegende Studie bildet die erste von fünf Studien, die im Rahmen des Forschungsprojektes „Leitlinien für das Management von Organisations- und Aufsichtspflichten“ erarbeitet werden.
Ziel dieser Studie ist es, die rechtlichen und betriebswirtschaftlichen Grundlagen zu analysieren und darzulegen, um wesentliche Kriterien zur sinnvollen Unterscheidung von Unternehmenstypen mit Blick auf die (Anforderungen an die) Corporate Governance zu identifizieren sowie rechtliche Grenzen und Problemfelder der Umsetzung und Durchsetzung von Organisationspflichten in unterschiedlichen Rechtsformen und gesellschaftsrechtlichen Konstruktionen aufzuzeigen.
die schön/er/finder
(2005)
Niemand soll oder darf einem anderem sagen, was schön ist. Jeder muss das für sich selbst herausfinden, denn: Jeder ist ein <schönerfinder>. das Ziel Ästhetischer Geschmack soll nicht als eine gegebene Größe im gesellschaftlichen Leben, sondern als eine persönliche Eigenart wahrgenommen werden, die individuell verschieden, aber weder gut noch schlecht ist. Besonders diejenigen, die ihren individuellen Geschmack erst noch entwickeln, also vor allem Kinder und Jugendliche, sollen die Möglichkeit bekommen, sich zu informieren und ohne äußeren Druck Entscheidungen auszuprobieren. Durch die Beschäftigung mit dem Thema und spielerisches Ausprobieren sollen sie ihren Geschmack und das Schöne als etwas eigenes entdecken. Jugendliche sollen sich als stark und selbstbewusst wahrnehmen, als jemand, der Entscheidungen trifft. Er soll die Rolle eines Entdeckers einnehmen, welcher in fremde Welten vorstößt und andere Lebensentwürfe und Geschmäcker kennenlernt und akzeptiert. Diese spielerische Erfahrung soll mit ins tägliche Leben übernommen werden und das Selbstbewusstsein genauso wie die Toleranz fördern. der Weg dorthin Phase 1: Bewusstsein schaffen für das Thema Schönheit, das Thema ästhetisches Urteil – mit Schönem, Kultigem, Geschmacklosem und Hässlichem Phase 2: Informieren – Aufklärung über Theorien und mögliche Positionen zum Thema – mit klugen Worten, Dichtern und Denkern und den zwölf schön/er/finder-Typen Phase 3: Nutzen vermitteln – herausfinden, was für einen selbst schön ist; seine eigene Position suchen und damit Selbstbewusstsein gewinnen – mit einem Spiel und einem kleinen Freund, <Poti> Phase 4: Anstecken – sich mit anderen austauschen, Unterschiede, aber auch Gemeinsamkeiten finden – im Forum und in der Galerie der schön/er/finder
Die Statik im Flugzeugbau
(1917)
Ein Wandel weg von der linearen und hin zu einer Kreislaufwirtschaft, wie man ihn bereits in verschiedenen Bereichen erkennen kann, hat positive Auswirkungen auf das Klima und die Umwelt. Die Baubranche könnte durch ihre hohe Ressourcen- und Energieintensität ein wichtiger Beitrag zur Klima- und Umweltschonung durch Kreislaufpraktiken leisten. Im Fokus sollte nicht mehr nur eine effiziente Gebäudehülle stehen, sondern eine ganzheitliche Nachhaltigkeitsbetrachtung.
Aufgrund mangelnden Bewusstseins, fehlender rechtlicher Rahmenbedingungen, Organisationen, Softwaretools und fehlender Anreize durch Förderungen oder Geschäftsmodelle kann und wird eine ganzheitliche Kreislaufwirtschaft derzeit noch nicht in der Baubranche umgesetzt. Ein weiterer bedeutsamer Grund sind fehlende Materialpässe und deren Umsetzungsmöglichkeiten in der Praxis.
Ziel dieser Arbeit ist es, die Lücke zwischen den Anforderungen an Materialpässe und deren Umsetzung in der Praxis, speziell für WeberHaus und somit den Holz-Fertighausbau, frühzeitig zu schließen. Durch Experteninterviews werden der Ist-Zustand des Material- und Informationsflusses beschrieben und gleichzeitig die Themen Kreislaufwirtschaft, Rückverfolgung und Materialpässe mit den Mitarbeitern diskutiert und nähergebracht. Aus dem Ist- Zustand des Material- und Informationsflusses werden Möglichkeiten einer Umsetzung in Form von zwei Varianten für Materialpässe geliefert, welche die zuvor festgelegten Anforderungen erfüllen.
Zur Beschreibung des Materialflusses hat es sich als sinnvoll erwiesen, eine Einteilung des gesamten Unternehmens auf Gebäude- und Elementebene vorzunehmen. Der Informationsfluss wird für den Materialpass hauptsächlich durch die vorhandenen Softwaresysteme Bentley, Dietrich´s, SAP und WeKo bestimmt. Um die Anforderungen, die an die Materialpässe gestellt werden, bestmöglich und mit geringem Aufwand erfüllen zu können, stellt sich BIM in Kombination mit der Plattform Madaster als sinnvolles Instrument heraus. Hierzu sind jedoch aufwendige Fachmodelle oder ein Koordinationsmodell nötig, welche von WeberHaus noch nicht vollständig realisiert werden. Als Übergangslösung bietet sich ein Materialpass auf Elementebene an, der durch diese Betrachtung standardisiert und ergänzt werden kann. Eine Ergänzung dieser Variante durch QR-Codes bietet zusätzlich eine direkte Verknüpfung von Informationen mit Bauteilen.
Diese Bachelorarbeit behandelt die Prozessoptimierung des Bemusterungsprozesses mithilfe Lean und agilen Methoden. Die Arbeit orientiert sich dabei an dem Unternehmen Ed. Züblin AG und deren vorhandenen Möglichkeiten. Das Konzept lässt sich jedoch mindestens zu teilen mit den nötigen Anpassungen auf andere Unternehmen und Projekte übertragen. Mithilfe einer Wertstromanalyse und Interviews wurde der Ist-Prozess aufgezeigt. Dabei kamen verschiedene Durchführungen der Bemusterungen im Unternehmen mit unterschiedlichen Problemen zum Vorschein. Unter anderem gab es durch fehlende oder falsche Planung ständige Anforderungsänderungen, Lücken in der Durchführung und Einschränkungen in der Kommunikation. Eine Umstrukturierung des Prozessablaufes, Anpassungen in der Planung mithilfe von Sprints und Überlegungen zur Organisation und den Mitarbeitern sollen die Probleme in den Griff bekommen. Dieser Beitrag soll somit eine Aufklärung zur Bemusterung sein und Anreize und Ideen zur Verbesserung liefern.
Das Gesamtprojekt umfasst die Entwicklung eines modularen Sende-Empfängers (Transceiver) bestehend aus Hard- und Software. Der Transceiver stellt eine Experimentalplattform dar, mit der nicht nur die üblichen Funktionen eines Sende-Empfängers genutzt werden können. Es bestehen vielfältige Experimentier- und Entwicklungsmöglichkeiten in den Bereichen der digitalen Signalverarbeitung, der Softwareentwicklung für Mikrokontroller und Personal Computer sowie der Übertragungstechnik. Im Rahmen dieser Diplomarbeit wurde das zentrale Steuermodul des Sende-Empfängers, die sog. Command Unit entwickelt. Sie beinhaltet die logischen Gruppen des MMI (Mensch-Maschine-Schnittstelle) und einer Host-PC-Schnittstelle mit DMA-Kontroller. Die Arbeit beinhaltet die Entwicklung der Hardware ebenso wie die Entwicklung von Firmware zum Testen der Schaltung.
Integrität in Unternehmen
(2018)
Unternehmen stehen in der Verantwortung, eine Vielzahl an Werten in ihrem Geschäft zu beachten, allen voran den der Integrität. Das Buch beantwortet die Frage, was Integrität für Unternehmen bedeutet und wie integres Unternehmenshandeln erreicht werden kann. Die Autorin entwickelt einen theoretisch fundierten und praktisch anwendbaren Ansatz der Unternehmensintegrität und gibt Orientierung, wie dieser durch vielfältige Maßnahmen im Rahmen von Integrity Management umgesetzt werden kann. Dabei werden klassische Compliance-Ansätze um eine werteorientierte Perspektive ergänzt, damit Unternehmen ihre je eigene Verantwortung wahrnehmen können.
Unternehmen und Integrität
(2015)
Regarding moral concerns in the business sphere, integrity is often mentioned as one of the core values that guides the behavior of companies. Daimler for instance states: “Acting with integrity is the central requirement for sustainable success and a maxim that Daimler follows in its worldwide business practices.”1 Reference to integrity is mostly supposed to signal that the company acts morally responsibly. Although some companies specify what acting with integrity means for them, it generally remains unclear what the concept of integrity entails – both broadly speaking and referring to business. This conceptual gap shall be filled by developing a concept of integrity that can be transferred to the business context. For this purpose, the main criteria that constitute moral integrity will be discussed before reflecting on how these could be integrated into a practical and comprehensive concept of corporate integrity.
Qualifizierte und motivierte Mitarbeiter sind wertvolle Ressourcen für jedes Unternehmen. Ihre Leistungsfähigkeit, Kreativität, Energie und Motivation sind notwendige Voraussetzungen für die Erreichung ambitionierter Ziele und die Gestaltung der unternehmerischen Zukunft. Vor diesem Hintergrund zählt die Gewinnung, Motivation und Bindung talentierter Mitarbeiter zu den wichtigsten Herausforderungen des Managements.
Towers Perrin hat weltweit mehr als 86.000 Arbeitnehmer, darunter rund 3.200 aus Deutschland, zu den Aspekten der Attraktivität von Unternehmen, dem Mitarbeiterengagement sowie der Mitarbeiterbindung befragt. Die Antworten der Teilnehmer stellen die Grundlage der Global Workforce Study 2005 dar. Ziel der Studie ist es, Unternehmen aufzuzeigen, welche Faktoren Mitarbeiterverhalten beeinflussen und wo sie ansetzen können, um Mitarbeiter noch besser gewinnen, motivieren und binden zu können.