Refine
Year of publication
Document Type
- Conference Proceeding (641)
- Article (425)
- Other Publications (143)
- Part of a Book (141)
- Working Paper (128)
- Book (118)
- Report (115)
- Journal (Complete Issue of a Journal) (85)
- Master's Thesis (76)
- Doctoral Thesis (57)
Language
- German (1112)
- English (879)
- Multiple languages (8)
Keywords
Institute
- Fakultät Architektur und Gestaltung (41)
- Fakultät Bauingenieurwesen (104)
- Fakultät Elektrotechnik und Informationstechnik (33)
- Fakultät Informatik (121)
- Fakultät Maschinenbau (60)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (106)
- Institut für Angewandte Forschung - IAF (114)
- Institut für Naturwissenschaften und Mathematik - INM (3)
- Institut für Optische Systeme - IOS (37)
- Institut für Strategische Innovation und Technologiemanagement - IST (60)
Die Forschungs- und Weiterbildungsaktivtäten konzentrierten sich auf die Anwendung von Virtual Reality in der Lehre. Hier interessierte vor allem, wo im Maschinenbau diese Technologie sinnvoll eingesetzt werden kann. Hierzu wurden die verschiedenen Bereiche im Maschinenbau untersucht.
Des Weiteren sollte die Frage beantwortet werden, wie man die Technologie sinnvoll einsetzen kann. Hierzu wurden die Arbeitsplätze der Modellfabrik herangezogen. Die Modellfabrik bot die Möglichkeit sowohl in der industrienahen Umgebung das reale Training durchzuführen als auch das VR-Training durchzuführen.
Neben den Hauptaktivitäten im Bereich Virtual Reality erlaubte mir das Forschungssemester auch, in andere Felder der Digitalisierung und Industrie 4.0 tiefer einzusteigen. Hier sei explizit die konkrete Anbindung der Montagelinien in der Modellfabrik an das Digitalisieurngs-Tool von Forcam zu erwähnen. Die digitale Anbindung der Montagelinie ist mit interessanten Problemstellungen verbunden, auf die hier nicht weiter eingegangen werden soll, die aber zu einem deutlich tieferen Verständnis von konkreten Umsetzungsproblemen der Industrie geführt haben.
Web services are, due to the excellent tool support, simple to provide and use in trivial cases. But their use in non-trivial Web service-based systems like I3M poses new difficulties and problems. I3M is an instant messaging and chat system with distributed and local components collaborating via Web services. One difficulty is to make a series of related Web service invocations in a stateful session. A problem is the performance of collaborating collocated, service-oriented components of a system due to the high Web service invocation overheaed as is shown by measurements. Solutions to both the difficulty and the problem are proposed.
Think BIQ: Gender Differences, Entrepreneurship Support and the Quality of Business Idea Description
(2023)
Entrepreneurship support, its influencing factors and female entrepreneurship are recently discussed topics with great relevance for society and politics. However, research on the subject has been divergent in its results and lacks a focus on the impact of support programs’ characteristics concerning different types of entrepreneurs. Thus, we conduct a fuzzy-set Qualitative Comparative Analysis on entrepreneurship support characteristics aiming to shed light on possible gender differences occurring in respective programs. We investigate the quality of business idea descriptions, as a predecessor for a high-potential business model, operationalized using inter alia causation and effectuation theory and social role theory as possible explanations. In our fuzzy-set Qualitative Comparative Analysis on a sample of 911 Norwegian ventures, we find a variety of differences related to the entrepreneurs’ gender. For instance, that financial support combined with a well described key contribution or careful planning seem to be more important antecedents for female entrepreneurs’ business idea quality than for males. Moreover, it seems a well-described key contribution has a positive effect on the outcome variable in most cases. Another interesting finding concerns the entrepreneurs’ network partners, where we found evident gender differences in our combinations. Female entrepreneurs seemingly benefitted from rather small networks, and males from big networks, although the former possess larger networks in the sample. In conclusion, we find that gender differences in combinations of entrepreneurship support for high business idea quality still occur even in a country like Norway, calling for an adaption of the provided support and environment.
Das Potential der Offshore-Windenergie, welches hauptsächlich auf hohe mittlere Windgeschwindigkeiten zurückzuführen ist, kann nicht ignoriert werden. Trotzdem zeigt die Betrachtung der aktuell installierten Leistung und der Stromgestehungskosten, dass zusätzliche Risiko- und Kostenfaktoren existieren. Diese sind vor allem auf die Installation, die Energiewandlersysteme und die Netzanbindung zurückzuführen. Getriebeschäden sind einer dieser großen Kostenfaktoren. Aus diesem Grund gewinnen getriebelosen Windkraftanlagen mit permanentmagneterregten Synchrongeneratoren immer mehr an Relevanz. In der Netzanbindung von ganzen Offshore-Windparks überwiegt die Hochspannungs-Gleichstrom-Übertragung (HGÜ) ab einer Übertragungsdistanz von 80 km. Diese Tendenz ist sinkend. Steigende windparkinterne Spannungen auf 66 kV fördern zusätzlich den Verzicht auf Umspannplattformen, welche für die HGÜ-Technik aktuell sinnvoll sind. Diese und weitere bereits in Aussicht stehenden Entwicklungen führen zu einer Einschränkung der Risiko- und Kostenfaktoren. Es wird demnach davon ausgegangen, dass die Offshore-Windenergie, als Ergänzung zur Onshore-Windenergie, eine wichtige Rolle im Rahmen der Energiewende einnimmt.
This working paper is part of a PhD research project dealing with the topics Social Responsibility, Stakeholder Theory and Network Governance, run by Maud Schmiedeknecht and supervised by Prof. Dr. habil. Josef Wieland, both from the Konstanz Institute for Intercultural Management, Values and Communication at the Konstanz University of Applied Sciences.
The focus of this part of the research project lies on the process of developing a Social Responsibility Standard within a network made up of various stakeholders. The International Organization for Standardization (ISO) is known as the world´s leading institution for the development of standards. Besides setting standards in the fields of e.g. construction, agriculture and information technology, recently the Technical Management Board (TMB) of ISO proposed to further extend its activities by developing an international standard addressing the social responsibility of organizations. In 2004, a new Working Group was established as a multi-stakeholder group comprised of experts, who are nominated by ISO´s members as well as interested international and regional organizations in order to provide for guidance in setting international standards on social responsibility. In May 2006, the survey was conducted during the third conference of the ISO Working Group in Lisbon, Portugal. This particular empirical study has been designed on the one hand to investigate the motivation of organizations and their delegates to engage in social responsibility. On the other hand, the survey had the objective to evaluate the individual participants' current perception and assessment of the network´s efficiency, effectiveness and legitimacy, a so-called 'snap-shot' of this ISO process1. Overall, the empirical study shows that the organizations and their delegates, who have dealt with the topic SR for several years for diverse reasons, expect a tremendous effect by implementing ISO 26000 in their own organizations. Furthermore, the majority of respondents assess the decision-making process positively within the ISO process with respect to the criteria inclusive, fair, capacity building, legitimate and transparent. Difficulties concerning the distribution of stakeholder influences are being addressed. The results of the survey support the efforts to establish policies and procedures in order to encourage a balanced representation of stakeholders in terms of gender, geographic and stakeholder groups.
With the increasing challenges of the 21st century, such as a rapidly growing population, increasing hunger and the destruction of the environment, the demand for sustainable and future-oriented ways of living is growing. To meet this demand, a residential district named Maun Science Park is being built in Botswana to develop a resilient society. In addition to the application of modern technology to optimise the use of resources, the environmentally friendly construction of the buildings is another goal of the project. This thesis investigates the prefabrication of rammed earth in terms of implementation and profitability for the Maun Science Park.
For this purpose, the specific properties, handling, as well as the application of the building material in prefabrication are first discussed.
This is followed by an investigation of how the work processes of prefabrication can be implemented in the Maun Science Park. Based on this, a profitability test is carried out using a break-even and sensitivity analysis.
The analyses showed that the investment in prefabrication is not profitable within the assumed production volume, which is due to the high fixed costs. These are primarily generated by the two main cost drivers, consisting of the new construction of the production hall and the rental of heavy construction equipment.
Lastly, recommendations for action were formulated that provide for a cost reduction in both the two main cost drivers as well as for other decisive factors.
Koordination des Wissenstransfers in Service-Netzwerken transnationaler Investitionsgüterhersteller
(2017)
Vorliegende Arbeit bilanziert die Treibhausgasemissionen (CO2e) der Fakultät Bauingenieurwesen an der Hochschule Konstanz im akademischen Jahr 2014/2015. Als grundlegende Methodik wird das Greenhouse Gas Protocol: A Corporate Accounting and Reporting Standard verwendet. Bilanziert werden Emissionen, die bei der Erzeugung von Wärme und Strom gebildet werden und Emissionen des Fuhrparks. Mit Hilfe einer Umfrage werden die Emissionen, welche durch Pendelverkehr und Papierverbrauch sowie Mensa-Mahlzeiten von Fakultätsangehörigen entstehen, berechnet. Es werden die größten Emittenten identifiziert und mögliche Einsparmaßnahmen aus der Bilanz und aus dem Vergleich mit anderen Hochschulen abgeleitet.
Im akademischen Jahr 2014/2015 sind an der Fakultät Bauingenieurwesen der Hochschule Konstanz insgesamt 264,8 t CO2e Emissionen entstanden. 120,6 t CO2e wurden durch Pendelverkehr von Studenten, Mitarbeitern und Professoren verursacht. Die Erzeugung von 238,1 MWh Wärme verursachte 51,4 t CO2e. Für die Bereitstellung von 80,5 MWh Strom wurden 11,8 t CO2e emittiert. Mit 76,1 t CO2e entstand der zweitgrößte Teil der jährlichen CO2e-Emissionen durch die Herstellung der Mensa-Mahlzeiten für Fakultätsangehörige. Der Fuhrpark der Fakultät, bestehend aus einem VW Bus, emittierte 3,5 t CO2e. Der mit 1,4 t CO2e geringste Teil der Emissionen wurde durch den Papierverbrauch erzeugt.
Es wird empfohlen, in den einzelnen Bereichen Einsparmaßnahmen vorzunehmen, um die jährlichen Treibhausgasemissionen zu verringern. Die Motivation hierfür kann durch eine Umweltstrategie an der Hochschule, eine mögliche Kosteneinsparung und durch die Förderung einer positiven Außendarstellung der Hochschule erhöht werden.
Mit der Erstellung der CO2-Bilanz wurden die Klimaauswirkungen der Fakultät Bauingenieurwesen quantifiziert. Die vorliegenden Ergebnisse können als Basis zur Untersuchung von weiteren Reduktionspotentialen verwendet werden.
Vortrag
Navigation on the Danube
(2016)
This report contains two parts: The first part presents an overview on studies concerning the Danube, inland navigation or the impact of climate change on either of those. The second part gives a more detailed analysis of inland navigation on the Danube, partly based on studies presented in part one. Part two covers the current situation along the Danube by covering the topic of bottlenecks and other limitations for shipping along the Danube. Based on these informations, an estimation of the economic impacts of low water periods on inland navigation is made. As a last step, measures to reduce the impact of low water on inland navigations are presented. The report shows, that inland navigation still is an important transport mode, along the Danube as well as in other european regions. Especially in Romania, inland navigation still has a large share of more than 20% and rising in total transport. However, inland navigation depends strongly on good conditions of its infrastructure. These good conditions are limited mainly by two factors: one are the so called bottlenecks. Those are areas with sub-optimal shipping conditions e.g. due to solid rock formations in the river that lead to a reduced water depths. The other factor is the weather (and, on a longer time scale, the climate) which, mostly depending on precipitation and evaporation, can lead to low water levels seasonally. In addition to these two natural factors, laws which e.g. regulate the maximum number of barges allowed. Human build structures like locks limit the size of vessels as well as the speed they can travel with. These limiting factors are identified and located in the first chapter of part two of this report, before the water depth needed by several ship sizes as well as the cargo fleet available along the Danube are presented. One of the targets of this report is to estimate the economic impact of low water periods. All the factors named above as well as the freight prices charged for connections along the Danube are used to each this target in chapter II.4. To estimate the impact of low water periods on the freight prices, a method developed by Jonkeren et al. (2007) for the Rhine is transfered to the Danube. By transfering Jonkeren et al. (2007) method, regression equations for several transport connections along the Danube are identified that give a first estimate for the connection of freight prices and water levels. With the help of these regression equations, an estimation of the total expenses for transport via inland navigation for several years is possible. The yearly and seasonal variability is identified as well as the additional expenses due to water levels below 280cm. But additional expenses are not the only impact of changing water levels on inland navigation. Another is, that while the demand for transport stays at the same level, sometimes the water levels are not sufficient enough to use the full capacity of the fleet. Therefore, the (theoretical) amount of cargo that could not be transported due to low water levels is calculated as well and presented in chapter II.5. Finally, some measures to overcome some of the here named problems of inland navigation due to low water levels are presented. These are separated into two general approches: change the ship or change the river. Both methods have their advantages and disadvantages due to technical as well as regulatory and other factors. The list presented here however is incomplete and only gives a few ideas of how some problems can be overcome. In the end, an individual mix for the different regions along the river and sometimes for the individual companies must be found.
In einigen europäischen Nachbarländern herrschen weitaus schlechtere Voraussetzungen für die Binnen-schifffahrt als in Deutschland. Die wenigsten Länder verfügen über eine so effiziente Wasserstraße wie beispielsweise den Rhein. Dennoch forcieren nicht wenige die Verlagerung von Transporten von der Straße auf das Binnenschiff.
Der Bodensee und das in ihm gespeicherte Wasser dient vielen Zwecken: Neben seiner ökologischen Bedeutung für die Region ist er Trinkwasserquelle und Schifffahrtsweg, wird für Freizeit und Naherholung genutzt. Die Schifffahrt stellt eine der zentralen Attraktionen am Bodensee dar – sie zieht Tagesausflügler und Naherholungssuchende ebenso an wie Urlauber. Der Tourismus ist dabei eine der zentralen Einkommensquellen am Bodensee. Während der Niedrigwasserereignisse der letzten Jahre wurden jedoch die verschiedenen Schifffahrtstypen beeinträchtigt. Dies traf den Tourismus wie auch Berufspendler, Häfen, anliegende Gemeinden und den Gütertransport. Der Beitrag verdeutlicht die Bedeutung der Bodenseeschifffahrt und nennt einige Folgen der Niedrigwasserereignisse der letzten Jahre.
Schon die Römer nutzten die Binnenschifffahrt für den Transport ihrer Güter (SCHRöTER 2005). Noch heute stellt die Binnenschifffahrt auf dem Rhein einen wichtigen Standortfaktor dar, weshalb sich viele Unternehmen, die auf den Transport von Massengütern angewiesen sind, an seinen Ufern niedergelassen haben, um die Binnenschifffahrt als günstiges Transportmittel nutzen zu können (ROTHSTEIN et al. 2009, SCHOLTEN et al. 2009).
Im folgenden Artikel wird sowohl kurz die wirtschaftliche Bedeutung der Binnenschifffahrt auf dem Rhein angesprochen als auch deren rezente und zukünftige Entwicklung. Dabei werden auch die Auswirkungen niedriger Fahrrinnentiefen auf die Transportkapazität der Binnenschifffahrt betrachtet.
Die vorliegende Studie untersucht den Einfluss des Klimawandels auf den Transport massengutaffiner Unternehmen in Baden-Württemberg sowie mögliche Anpassungsmaßnahmen. In einem ersten Schritt wurden dabei verschiedene Literatur- und Datenanalysen zu den Auswirkungen des Klimawandels auf Baden-Württemberg, seine (massengutaffinen) Unternehmen sowie die von diesen verwendeten Verkehrsträger durchgeführt. Daten zum Klimawandel werden dabei aus vorangegangenen Studien entnommen, unter anderem den breit angelegten Untersuchungen des KLIWAS Projekts, aus dem auch einige Eingangsdaten für das hier verwendete Vulnerabilitätsmodells stammen. Um die Vulnerabilität und Anpassungsmöglichkeiten der Unternehmen mittels des genannten Modells zu untersuchen werden weitere, unternehmensspezifische Daten benötigt, die durch eine Unternehmensbefragung erhoben wurden. Insgesamt wurden etwa 400 Unternehmen direkt angeschrieben; durch den Versand der Fragebögen durch Wirtschaftsverbände wurde der Kreis der befragten Unternehmen nochmals erweitert. Bei den an der Befragung teilnehmenden Unternehmen hatte das Binnenschiff mit etwa 30% im Schnitt einen deutlich höheren Transportanteil als die Bahn mit im Durchschnitt knapp 8%. Dies kann als Indikator für die wahrgenommene Betroffenheit durch den Klimawandel interpretiert werden, die zur Teilnahme an der Befragung motivierte.
Für viele Zeitgenossen wirkt der Ausdruck 'Tugend' gegenwärtig reichlich altbacken. Bereits 1935 schrieb Paul Valéry, das Wort habe einen leicht lächerlichen Klang und sei nur noch im Katechismus, in der Posse [...] und in der Operette anzutreffen.1 Dieser (vermeintliche) Funktionsverlust der Tugend (des Individuums), den manche als Werteverfall, andere aber als logische Konsequenz der funktionalen Differenzierung moderner Gesellschaften ansehen, löst auch in Ethikdebatten unterschiedliche Reaktionen aus: Während die einen Krokodilstränen angesichts dieses Verlustes der Tugend' vergießen2, wird der Relevanzverlust der klassischen Tugendethik von anderen angesichts der Bedingungen der Moderne ausdrücklich proklamiert, so etwa von Karl Homann: Das Paradigma der Ethik wird von der [...] Tugendethik auf eine [...] Ordnungsethik umgestellt. [...] Moral erscheint [...] nicht mehr [...] als Tugend, sondern als (rechtliche) Restriktion.3 Die Tugend scheint also in Schwierigkeiten geraten zu sein. Dennoch neige ich zu der Auffassung, dass zwar das Wort etwas verstaubt klingen mag, dass dem Thema Tugend der Sache nach aber eine nicht zu unterschätzende Relevanz für die Unternehmensethik zukommt. Allerdings bedarf es wie sollte es anders sein eines differenzierten Tugendkonzepts, um die moralökonomischen Aspekte der Unternehmenspraxis angemessen rekonstruieren zu können.
Transaktions-Rhizome
(2007)
Verbrennungsmotor
(2017)
Dieses Lehrbuch bringt kurz und bündig die wesentlichen Komponenten. Ohne große Theorie taucht der Leser in die weite Welt der Verbrennungsmotoren ein. Aussagekräftige Abbildungen und kurze verständliche Sätze helfen dabei nachhaltig. Wie bei einer Zeitung steht das Wichtigste ganz am Anfang. Je weiter man liest, umso tiefer dringt man in den Stoff. Damit ist das Buch für Einsteiger, Praktiker und auch Studierende gleichermaßen sehr gut geeignet.
Verbrennungsmotoren
(2017)
Das Kapitel „Verbrennungsmotoren“ gibt eine Einführung in das wichte und große Gebiet der Verbrennungsmotoren. Leserinnen und Lesern, die noch nie etwas über Verbrennungsmotoren gehört haben, wird empfohlen, zunächst den Abschnitt 1 zu lesen. Dieser ist bewusst einfach und anschaulich geschrieben, um den Zugang zum Thema zu erleichtern. Danach können gezielt weitergehende Informationen in den Abschnitten 2 bis 9 studiert werden. Diese Abschnitte wurden so verfasst, dass man sie nicht nacheinander lesen muss. Grundlage ist jeweils nur der Abschnitt 1. Dieser selbst ist so verfasst, dass das Wichtigste ganz am Anfang steht. Je weiter hinten man in diesem Abschnitt ankommt, umso spezieller werden die Themen. Bei nur begrenztem Interesse an dem Thema Verbrennungsmotoren kann man das Lesen des Abschnitts 1 jederzeit abbrechen und hat trotzdem das bis dahin Wichtigste erfahren.
Dieses besondere Lehrbuch führt in die Berechnung von Verbrennungsmotoren ein, geht dabei von aktuellen Fragestellungen z. B. zur Fahrzeugdynamik oder Motorthermodynamik aus und stellt bei der Lösung die notwendige Theorie mit bereit. Damit auch Quereinsteiger erfolgreich sind, ist in einem Verzeichnis aufgeführt, welche theoretischen Kenntnisse man für die Lösung der jeweiligen Aufgabe benötigt und in welchem Abschnitt des Buches diese hergeleitet werden. Alle Berechnungen werden in Excel durchgeführt.
In der vorliegenden Auflage wurden aktuelle Beispiele zur Motoreffizienz, zum Motorkennfeld, zur Lastpunktanhebung, zum Fahrzyklus WLTC und zu realen Fahrzyklen (RDE) ergänzt.
Der Inhalt:
- Fahrwiderstand und Motorleistung
- Kraftstoffe und Stöchiometrie
- Motorleistung und Mitteldruck
- Motorthermodynamik
- Motormechanik
- Fahrzeugdynamik
- Hybrid- und Elektrofahrzeuge
- Aufladung von Verbrennungsmotoren
Die Zielgruppen:
Studierende des Maschinenbaus und der Kfz-Technik an Hochschulen in Bachelor- und Masterstudiengängen; Motoreningenieure, die sich mit verbrennungsmotorischen Fragestellungen beschäftigen; Absolventen von Weiterbildungskursen auf Meisterniveau
Der Autor Dr.-Ing. Klaus Schreiner ist Professor an der HTWG Konstanz und Leiter des Labors für Verbrennungsmotoren in der Fakultät Maschinenbau. Er war viele Jahre lang Didaktikbeauftragter seiner Hochschule. Im Jahr 2008 erhielt er den Lehrpreis des Landes Baden-Württemberg.
Das Projekt eFlow, an dem unter anderem die HTWG Konstanz seit 2012 forscht, simuliert mit Hilfe einer mathematischen Simulation wie sich Menschenmassen verhalten, wenn sie ein vorgegebenes Gelände verlassen sollen. Die Simulation baut auf einen Ansatz der Finite Elemente Methode auf, in der mehrere gekoppelte Differenzialgleichungen berechnet werden müssen. Diese Berechnungen erweisen sich gerade bei komplexen Szenarien mit großem Gelände und vielen Personen als sehr rechenintensiv. Ziel dieser Bachelorarbeit ist es ein Surrogate Modell zu erstellen, welches basierend auf machine-learning Ansätzen im spezifischen auf Regressionsmethoden Ergebnisse der Simulation vorhersagen soll. Somit müssen Datensätze generiert werden. Diese entstehen durch wiederholte Durchläufe der Simulation, in der jeweils die Eingabeparameter, die in das Regressionsmodell einfließen sollen variiert werden und mit dem entsprechenden Ergebnis der Simulation verknüpft werden. Die Regressionsansätze werden dabei pro Durchlauf komplexer, in dem jeweils zusätzliche Eingabeparameter mit in die Datengenerierung aufgenommen werden. Es soll überprüft werden, ob diese Simulation mittels machine-learning Ansätzen reproduzierbar ist. Basierend auf diesen Surrogate Modellen soll es möglich gemacht werden, Situationen in Echtzeit zu überprüfen, ohne dabei den Weg der rechenaufwendigen Simulation zu gehen. Die Ergebnisse bestätigen, dass die mathematische Simulation mittels Regression reproduzierbar ist. Es erweist sich jedoch als sehr rechenaufwendig, Daten zu sammeln, um genügend Eingabeparameter mit in die Regressionsmethode einfließen zu lassen. Diese Arbeit gestaltet somit eine Vorstudie zur Umsetzung eines ausgereiften Surrogate Modells, welches jegliche Eingabeparameter der Simulation berücksichtigen kann.
The paper investigates an innovative actuator combination based on the magnetic shape memory technology. The actuator is composed of an electromagnet, which is activated to produce motion, and a magnetic shape memory element, which is used passively to yield multistability, i.e. the possibility of holding a position without input power. Based on the experimental open-loop frequency characterization of the actuator, a position controller is developed and tested in several experiments.
Corrosion
(2016)
This paper summarizes the trends in metallization and interconnection technology in the eyes of the participants of the 8th Metallization and Interconnection Workshop. Participants were asked in a questionnaire to share their view on the future development of metallization technology, the kind of metal used for front side metallization and the future development of interconnection technology. The continuous improvement of the screen-printing technology is reflected in the high expected percentage share decreasing from 88% in three years to still 70% in ten years. The dominating front side metal in the view of the participants will be silver with an expected percentage share of nearly 70% in 2029. Regarding interconnection technologies, the experts of the workshop expect new technologies to gain significant technology shares faster. Whereas in three years soldering on busbars is expected to dominate with a percentage share of 71% it will drop in ten years to 35% in the eyes of the participants. Multiwire and shingling technologies are seen to have the highest potential with expected percentage shares of 33% (multiwire) and 16% (shingling) in ten years.
The effect on the mean-variance space of restrictions on a variable is investigated in this
paper. A restriction may be the placing of upper and lower bounds on a variable.
Another limitation is the loss of the continuity of a variable.
Average marks for Examinations are considered in an application of this limited meanvariance
space. In this case, the bounds are given by the highest and the lowest possible mark (e.g. 1.0 and 5.0). The limitation of the mean-variance space depends on the number of students who participate in the examination. The restriction of the loss of continuity is shown by the use of discrete marks (e.g. 1.0, 1.3, 1.7, 2.0, …). Furthermore,
the Target-Shortfall-Probability lines are integrated into the mean-variance space. These
lines are used to indicate the proportion of students who have good or very good marks in the examination. In financial markets, Target-Shortfall-Probability is used as a risk criterion.
Die Globalisierung hat insbesondere auf Kapital- und Informationsmärkten starke Veränderungen bewirkt. Der Anteil der Bevölkerung mit Aktienbesitz stieg in den letzten Jahren stetig an. Immer häufiger lösen sich Investoren von den institutionellen Anlageempfehlungen und bilden sich ihre eigene Meinung zur Entwicklung auf den Kapitalmärkten. Für die Kaufentscheidung einzelner Assets stehen Investoren neben den Fundamentaldaten aus Presse, Rundfunk und Internet auch Chartanalyse-Programme zur Entscheidungsunterstützung zur Verfügung. Die Gewichtung einzelner Aktien im Portfolio ist dabei eher willkürlich oder naiv. Die quantitative Optimierung des Portfolios ist heute noch institutionellen Einrichtungen bzw. Fonds-Managern vorbehalten, obgleich die informationstechnischen Voraussetzungen bereits für viele Investoren gegeben sind. Im Vergleich mit der klassischen Portfoliooptimierung, die der quadratischen Optimierung zuzurechnen ist, können lineare Modelle der Portfoliooptimierung diverse Vorteile bieten. Mit dem Risikomaß der sog. Tar-get-Shortfall-Probability können z.B. auch bei schiefen Renditeverteilungen effiziente Portfolios bestimmt werden. Darüberhinaus ist dieses Risikomaß, z.B. in der Form der Verlustwahrscheinlichkeit, für jeden Investor intuitiv verständlich. Im Folgenden werden einleitend knapp die klassische Portfoliooptimierung und Wege zur Auswahl effizienter Entscheidungen dargestellt. Nach einem Überblick zu den Risikokriterien der Portfoliooptimierung und zu den entsprechenden linearen Portfoliooptimierungsmodellen, werden Vorteile und Nachteile linearer Modelle diskutiert. Das letzte Kapitel ist dem Mean-Target-Shortfall-Probability-Vektor-Modell gewidmet. Abschließend werden die Ergebnisse eines empirischen Tests vorgestellt.
Noteninflation
(2014)
Das Management von Aktienfonds strebt effiziente Mischungen von Aktien an. Nachdem diese durch Optimierungsverfahren ermittelt wurden, müssen sie aus ökonomischen oder rechtlichen Gründen oft angepasst werden mit der Konsequenz, dass die Lösungen nicht mehr effizient sind. Ein rechtlicher Grund kann bei einem öffentlich angebotenen Aktienfond der Artikel 52(2) der EU-Richtlinie 2009/65/EC bzw. das KAGB § 206 sein. Ein Teil der Richtlinie besagt z.B., dass in eine Aktie nie mehr als 10% des Budgets investiert werden kann. Diese Regeln insgesamt sich auch als 5-10-40-Bedingung bekannt. Um derartige Risikobeschränkungen in der Portfoliooptimierung zu integrieren wurden zwei Optimierungsmodelle entwickelt – ein quadratisches und ein lineares. Die Modelle wurden anhand von historischen Renditedaten des HDAX getestet. Das lineare Modell zeigt, dass die Vorgaben der EU-Richtlinie die angestrebte Volatilitätsreduktion erreicht. Diese Risikobeschränkung hat aber einen Preis, der in den Währungen „Renditeverlust“ bzw. „Volatilitätszuwachs“ ausgedrückt werden kann. Bei gleicher Volatilität erzielte das nicht durch die 5-10-40-Bedingung eingeschränkte Portfolio eine ca. 10% höhere Jahresrendite. Der „Volatilitätszuwachs“ ist im Umfeld des minimalen Volatilitätspunktes (MVP) gering, kann aber bis zu 25% betragen, wenn Portfolios die unter der 5-10-40-Bedingung ermittelt wurden verglichen werden mit uneingeschränkt optimierten Portfolios bei jeweils gleicher Rendite. Das quadratische Modell baut auf dem Ansatz von H. Markowitz auf und zeigt einen flexibleren Weg der Risikobegrenzung der zu vergleichbaren Resultaten führt.
The estimation of the holding periods of financial products has to be done in a dynamic process in which the size of the observation time interval influences the result. Small intervals will produce smaller average holding periods than bigger ones. The approach developed in this paper offers the possibility of estimating this average independently of the size of this time interval. This method is demonstrated on the example of two distributions, based on the exponential and the geometric probability functions. The estimation will be found by maximizing the likelihood function.
To get a better understanding of Cross Site Scripting vulnerabilities, we investigated 50 randomly selected CVE reports which are related to open source projects. The vulnerable and patched source code was manually reviewed to find out what kind of source code patterns were used. Source code pattern categories were found for sources, concatenations, sinks, html context and fixes. Our resulting categories are compared to categories from CWE. A source code sample which might have led developers to believe that the data was already sanitized is described in detail. For the different html context categories, the necessary Cross Site Scripting prevention mechanisms are described.
We investigated 50 randomly selected buffer overflow vulnerabilities in Firefox. The source code of these vulnerabilities and the corresponding patches were manually reviewed and patterns were identified. Our main contribution are taxonomies of errors, sinks and fixes seen from a developer's point of view. The results are compared to the CWE taxonomy with an emphasis on vulnerability details. Additionally, some ideas are presented on how the taxonomy could be used to improve the software security education.
Many secure software development methods and tools are well-known and understood. Still, the same software security vulnerabilities keep occurring. To find out if new source code patterns evolved or the same patterns are reoccurring, we investigate SQL injections in PHP open source projects. SQL injections are well-known and a core part of software security education. For each common part of SQL injections, the source code patterns are analysed. Examples are pointed out showing that developers had software security in mind, but nevertheless created vulnerabilities. A comparison to earlier work shows that some categories are not found as often as expected. Our main contribution is the categorization of source code patterns.
We present source code patterns that are difficult for modern static code analysis tools. Our study comprises 50 different open source projects in both a vulnerable and a fixed version for XSS vulnerabilities reported with CVE IDs over a period of seven years. We used three commercial and two open source static code analysis tools. Based on the reported vulnerabilities we discovered code patterns that appear to be difficult to classify by static analysis. The results show that code analysis tools are helpful, but still have problems with specific source code patterns. These patterns should be a focus in training for developers.
We compared vulnerable and fixed versions of the source code of 50 different PHP open source projects based on CVE reports for SQL injection vulnerabilities. We scanned the source code with commercial and open source tools for static code analysis. Our results show that five current state-of-the-art tools have issues correctly marking vulnerable and safe code. We identify 25 code patterns that are not detected as a vulnerability by at least one of the tools and 6 code patterns that are mistakenly reported as a vulnerability that cannot be confirmed by manual code inspection. Knowledge of the patterns could help vendors of static code analysis tools, and software developers could be instructed to avoid patterns that confuse automated tools.
Insecurity Refactoring is a change to the internal structure of software to inject a vulnerability without changing the observable behavior in a normal use case scenario. An implementation of Insecurity Refactoring is formally explained to inject vulnerabilities in source code projects by using static code analysis. It creates learning examples with source code patterns from known vulnerabilities.
Insecurity Refactoring is achieved by creating an Adversary Controlled Input Dataflow tree based on a Code Property Graph. The tree is used to find possible injection paths. Transformation of the possible injection paths allows to inject vulnerabilities. Insertion of data flow patterns introduces different code patterns from related Common Vulnerabilities and Exposures (CVE) reports. The approach is evaluated on 307 open source projects. Additionally, insecurity-refactored projects are deployed in virtual machines to be used as learning examples. Different static code analysis tools, dynamic tools and manual inspections are used with modified projects to confirm the presence of vulnerabilities.
The results show that in 8.1% of the open source projects it is possible to inject vulnerabilities. Different inspected code patterns from CVE reports can be inserted using corresponding data flow patterns. Furthermore the results reveal that the injected vulnerabilities are useful for a small sample size of attendees (n=16). Insecurity Refactoring is useful to automatically generate learning examples to improve software security training. It uses real projects as base whereas the injected vulnerabilities stem from real CVE reports. This makes the injected vulnerabilities unique and realistic.
Systematic Generation of XSS and SQLi Vulnerabilities in PHP as Test Cases for Static Code Analysis
(2022)
Synthetic static code analysis test suites are important to test the basic functionality of tools. We present a framework that uses different source code patterns to generate Cross Site Scripting and SQL injection test cases. A decision tree is used to determine if the test cases are vulnerable. The test cases are split into two test suites. The first test suite contains 258,432 test cases that have influence on the decision trees. The second test suite contains 20 vulnerable test cases with different data flow patterns. The test cases are scanned with two commercial static code analysis tools to show that they can be used to benchmark and identify problems of static code analysis tools. Expert interviews confirm that the decision tree is a solid way to determine the vulnerable test cases and that the test suites are relevant.
Atom interferometers have a multitude of proposed applications in space including precise measurements of the Earth's gravitational field, in navigation & ranging, and in fundamental physics such as tests of the weak equivalence principle (WEP) and gravitational wave detection. While atom interferometers are realized routinely in ground-based laboratories, current efforts aim at the development of a space compatible design optimized with respect to dimensions, weight, power consumption, mechanical robustness and radiation hardness. In this paper, we present a design of a high-sensitivity differential dual species 85Rb/87Rb atom interferometer for space, including physics package, laser system, electronics and software. The physics package comprises the atom source consisting of dispensers and a 2D magneto-optical trap (MOT), the science chamber with a 3D-MOT, a magnetic trap based on an atom chip and an optical dipole trap (ODT) used for Bose-Einstein condensate (BEC) creation and interferometry, the detection unit, the vacuum system for 10-11 mbar ultra-high vacuum generation, and the high-suppression factor magnetic shielding as well as the thermal control system.
The laser system is based on a hybrid approach using fiber-based telecom components and high-power laser diode technology and includes all laser sources for 2D-MOT, 3D-MOT, ODT, interferometry and detection. Manipulation and switching of the laser beams is carried out on an optical bench using Zerodur bonding technology. The instrument consists of 9 units with an overall mass of 221 kg, an average power consumption of 608 W (819 W peak), and a volume of 470 liters which would well fit on a satellite to be launched with a Soyuz rocket, as system studies have shown.
Investigation of magnetic effects on austenitic stainless steels after low temperature carburization
(2018)
Fachvortrag auf der 10th International European Stainless Steel Conference and 6th European Duplex Stainless Steel Conference (ESSC & DUPLEX 2019), 30.09. – 02.10.2019, Vienna, Austria
Investigation of magnetic effects on austenitic stainless steels after low temperature carburization
(2018)
This work aims at investigating the magnetic effects of austenitc stainless steels which can occur after a low temperature carburisation depending on the alloy. Samples were prepared of different alloys and subjected to a multiple low temperature carburisation to obtain different treatment conditions for each alloy. The layer characterisation was carried out by light microscope and also by hardening profiles and shows that the layer develops with each additional treatment cycle. A lattice expansion could be detected in all treated samples by X-ray diffraction. Magnetisability was measured using Feritscope and SQUID measurements. Not all alloys showed magnetisability after treatment. In addition to MFM measurements, experiments with Ferrofluid were also used to visualize the magnetic areas. These studies show that only about half of the formed layer becomes magnetisable and has a domain-like structure.