Refine
Year of publication
Document Type
- Master's Thesis (34)
- Report (17)
- Bachelor Thesis (3)
- Conference Proceeding (2)
- Working Paper (2)
- Article (1)
Has Fulltext
- yes (59) (remove)
Keywords
Institute
- Fakultät Informatik (59) (remove)
This thesis emphasizes problems that reports generated by vulnerability scanners impose on the process of vulnerability management, which are a. an overwhelming amount of data and b. an insufficient prioritization of the scan results.
To assist the process of developing means to counteract those problems and to allow for quantitative evaluation of their solutions, two metrics are proposed for their effectiveness and efficiency. These metrics imply a focus on higher severity vulnerabilities and can be applied to any simplification process of vulnerability scan results, given it relies on a severity score and time of remediation estimation for each vulnerability.
A priority score is introduced which aims to improve the widely used Common Vulnerability Scoring System (CVSS) base score of each vulnerability dependent on a vulnerability’s ease of exploit, estimated probability of exploitation and probability of its existence.
Patterns within the reports generated by the Open Vulnerability Assessment System (OpenVAS) vulnerability scanner between vulnerabilities are discovered which identify criteria by which they can be categorized from a remediation actor standpoint. These categories lay the groundwork of a final simplified report and consist of updates that need to be installed on a host, severe vulnerabilities, vulnerabilities that occur on multiple hosts and vulnerabilities that will take a lot of time for remediation. The highest potential time savings are found to exist within frequently occurring vulnerabilities, minor- and major suggested updates.
Processing of the results provided by the vulnerability scanner and creation of the report is realized in the form of a python script. The resulting reports are short, straight to the point and provide a top down remediation process which should theoretically allow to minimize the institutions attack surface as fast as possible. Evaluation of the practicality must follow as the reports are yet to be introduced into the Information Security Management Lifecycle.
Die digitale Transformation von Geschäftsprozessen und die stärkere Einbindung von IT-Systemen erzeugen bei kleinen und mittelständischen Unternehmen (KMU) Chancen und Risiken zugleich. Risiken, die insbesondere in einer fehlenden IT-Compliance resultieren können. Wie Studien zeigen, sind KMU in Bezug auf IT-Compliance-Maßnahmen im Vergleich zu kapitalmarktorientierten Unternehmen jedoch im Rückstand [1]. Im Beitrag wird mithilfe von Experteninterviews und einer qualitativen Datenanalyse der Frage nachgegangen, welcher Status quo an Maßnahmen aktuell implementiert und wie der empfundene Compliance-Reifegrad ist. Weiterhin werden die Gründe und Motive erörtert, die zu diesem Zustand geführt haben. Letztlich sind Treiber identifiziert worden, die zu einem höheren Bewusstsein in der Zukunft führen können. Die Arbeit zeigt interessante Erkenntnisse aus der Praxis, da die Experteninterviews Einblicke in den aktuellen Status quo in Bezug auf IT-Compliance liefern.
Der Gegenstand dieser Bachelorarbeit ist die automatisierte Extraktion von Polygonzügen anhand eines Grundrissbildes. Diese Polygonzüge sollen die Räumlichkeiten wiedergeben. In dieser Bachelorarbeit wurde daher ein Algorithmus für die Grundrissbildverarbeitung mittels Python entwickelt und implementiert. Zuerst wird ein Grundrissbild bereinigt, d. h. es werden unerwünschte Bildstrukturen verwaschen. Mithilfe des Canny-Kantendetektors werden anschließend die Kanten detektiert. Danach werden die Ecken im Grundrissbild via Harris-Eckendetektor lokalisiert. Um die Ecken sinnvoll zu verbinden, wird eine abgewandelte Form des Dijkstra Algorithmus herangezogen. Die daraus gewonnen Daten dienen zur Erstellung der Polygonzüge, welche für die Simulation von pFlow benötigt werden. Der entwickelte Algorithmus eignet sich insbesondere für klare und simple Grundrissbilder.
Interpretability and uncertainty modeling are important key factors for medical applications. Moreover, data in medicine are often available as a combination of unstructured data like images and structured predictors like patient’s metadata. While deep learning models are state-of-the-art for image classification, the models are often referred to as ’black-box’, caused by the lack of interpretability. Moreover, DL models are often yielding point predictions and are too confident about the parameter estimation and outcome predictions.
On the other side with statistical regression models, it is possible to obtain interpretable predictor effects and capture parameter and model uncertainty based on the Bayesian approach. In this thesis, a publicly available melanoma dataset, consisting of skin lesions and patient’s age, is used to predict the melanoma types by using a semi-structured model, while interpretable components and model uncertainty is quantified. For Bayesian models, transformation model-based variational inference (TM-VI) method is used to determine the posterior distribution of the parameter. Several model constellations consisting of patient’s age and/or skin lesion were implemented and evaluated. Predictive performance was shown to be best by using a combined model of image and patient’s age, while providing the interpretable posterior distribution of the regression coefficient is possible. In addition, integrating uncertainty in image and tabular parts results in larger variability of the outputs corresponding to high uncertainty of the single model components.
In my research sabbatical I was working on three different topics, namely orthogonal polynomials in geometric modeling, re-parametrized univariate subdivision curves, and reconstruction of 3d-fish-models and other zoological artifacts. In the subsequent Sections, I will describe my particular activity in these different fields. The sections are meant to present an overview of my research activities, leaving out the technical details.
Section 1 is on orthogonal polynomials and other related generating systems for functions systems of smooth function.
In Section 2, I will discuss the application of various re-parametrization schemes for interpolatory subdivision algorithms for the generation of space curves.
The next Section 3 is concerned with my research at the University of Queensland, Brisbane, in collaboration with Dr. Ulrike Siebeck from the School of Biomedical Sciences on fish behavior and reconstruction of 3d-fish models in particular.
In the last Section 4, I will describe what effects this research will have on in my subsequent teaching at the University of Applied Science Konstanz (HTWG).
Fatigue and drowsiness are responsible for a significant percentage of road traffic accidents. There are several approaches to monitor the driver’s drowsiness, ranging from the driver’s steering behavior to analysis of the driver, e.g. eye tracking, blinking, yawning or electrocardiogram (ECG). This paper describes the development of a low-cost ECG sensor to derive heart rate variability (HRV) data for the drowsiness detection. The work includes the hardware and the software design. The hardware has been implemented on a printed circuit board (PCB) designed so that the board can be used as an extension shield for an Arduino. The PCB contains a double, inverted ECG channel including low-pass filtering and provides two analog outputs to the Arduino, that combined them and performs the analog-to-digital conversion. The digital ECG signal is transferred to an NVidia embedded PC where the processing takes place, including QRS-complex, heart rate and HRV detection as well as visualization features. The compact resulting sensor provides good results in the extraction of the main ECG parameters. The sensor is being used in a larger frame, where facial-recognition-based drowsiness detection is combined with ECG-based detection to improve the recognition rate under unfavorable light or occlusion conditions.
Smart-Future-Living-Bodensee
(2018)
Die vorliegende Arbeit untersucht, wie Tools für die Überprüfung von Quell-Code auf Konformität mit Programmierstilen, die komplexere Entwurfsmuster beinhalten, als Erweiterung des statischen CodeAnalyse-Tools Checkstyle realisiert werden können. Als Beispiel wird der Joi Programmierstil verwendet, der für diese Arbeit aus der Java Spracherweiterung Joi (Java Objects by Interfaces), die die Einhaltung einiger Entwurfsmuster, die auf die Reduzierung von Code-Abhängigkeiten zielen, unterstützt, abgeleitet wurde.
Die Arbeit stellt das Wesen und die Grundzüge der Lohnsteuer, einschließlich einem kurzen Abriß der Entwicklung des Lohnsteuerverfahrens, dar. Sie ist weder als Anleitung zur Ausfüllung eines Antrags auf Lohnsteuerjahresausgleich, noch als Nachschlagwerk gedacht. Der Leser dieser Ausarbeitung kennt die wesentlichen Grundzüge der Einkommensteuer, sowie deren besonderen Merkmale, wie z.B. der "Steuerprogression". Deshalb wurde hier auf die Darstellung der Einkommensteuer verzichtet; aus diesem Grunde wurde auch nicht die Veranlagung von Arbeitnehmern zur Einkommensteuer in die Ausarbeitung aufgenommen.
Die Firma FCT bietet industriellen Unternehmen eine Lösung im Bereich Enterprise-Content-Management und Redaktionssysteme an. Der Fokus liegt auf der medienneutralen Verwaltung der Daten im XML-Format und auf dem Publizieren dieser Daten in verschiedene Ausgabeformate wie PDF, HTML oder Online Help. Die Publikation nach PDF erfolgt meistens mit Desktop Publishing Tools wie Adobe FrameMaker, Adobe InDesign oder Microsoft Word. Immer mehr wird die Publikation nach PDF mit dem W3C Standard XSL Formatting Objects (XSL-FO)eingesetzt. Die Publikation nach PDF erfolgt dabei vollautomatisch anhand von Stylesheets. Durch die vollautomatische Publikation hatte der Redakteur bisher keine Möglichkeit manuell Seitenlayout und Seitenformatierungen anzupassen, da das Anpassen der Stylesheets spezielles programmiertechnisches Know-How voraussetzt. Im Rahmen dieser Diplomarbeit wurde eine Entwicklungsumgebung konzipiert und implementiert, die es Redakteuren ermöglicht, Seitenlayout und Seitenformatierung komfortabel über eine grafische Oberfläche festzulegen. Da hierbei unterschiedliche Dokumententypen und unterschiedliche Kunden berücksichtigt werden müssen, verwendet die Anwendung ein Projektansatz um die unterschiedlichen Stylesheets, Konfigurationen und Kunden zu organisieren. Da bei unterschiedlichen Kunden verschiedene FO-Prozessoren wie Antenna House XSL Formatter, RenderX XEP oder Apache FOP zum Einsatz kommen, war es ein Schwerpunkt dieser Arbeit, die Unterschiede dieser Prozessoren zu analysieren und die Entwicklungsumgebung prozessorunabhängig aufzusetzen. Eine Vorschau zeigt dem Redakteur, wie sich die verschiedenen Konfigurationen auf das PDF-Dokument auswirken, um gegebenenfalls weitere Änderungen am Seitenlayout bzw. Seitenformatierungen vorzunehmen.
Anbindung eines PPC405 embedded CPU Core an ein MPC860-System unter dem Echtzeitbetriebssystem OSE
(2006)
Die Diplomarbeit verfolgt das Ziel, die softwareseitige Anbindung eines PPC405-Systems an das Gesamtsystem einer digitalen Funkgeräteplattform herzustellen. Über eine konzipierte Implementierung, die nach dem Einschalten des Funkgeräts gestartet wird, erfolgt die Übertragung des Betriebssystems in den zugehörigen Arbeitsspeicher des PPC405-Systems. Nach Abschluss der Initialisierungsphase kommunizieren die Anwendungsprozesse auf den beteiligten Systemen über eine transparente Erweiterung des Betriebssystems mit der jeweiligen Gegenseite. Als Übertragungsmedium für die genannte Betriebssystemerweiterung wird ein zwischen den Systemen angesiedelter Speicher genutzt, für dessen koordinierte Zugriffe eine im Rahmen der Diplomarbeit entwickelte Treiberkomponente sorgt. Durch die Anbindung des PPC405-Systems wird eine Leistungssteigerung des Gesamtsystems erwartet. Auf der Basis von Messungen wurde die Performance des somit erhaltenen Multiprozessorsystems bestimmt. Aus den Ergebnissen wurden geeignete Möglichkeiten zur Optimierung erarbeitet und umgesetzt.
Die Zielsetzung dieser Arbeit ist die Entwicklung der Serverdienste einer Client/Server-Software für die computergestützte Telefonie am Arbeitsplatz. Die Software ermöglicht die Steuerung und Statusüberwachung von Telefonapparaten mit dem Ziel, die Benutzung ergonomischer zu gestalten und das zugrunde liegende Telekommunikationssystem stärker in die Informationstechnik zu integrieren. Die Software soll mit der Telekommunikationsanlage Meridian I von Nortel zusammenarbeiten, um die Manipulation der angeschlossenen Telefonapparate zu ermöglichen. Beim Softwareentwurf ist für die Zukunft die Unterstützung weiterer Telekommunikationsanlagen zu berücksichtigen. Zudem soll ein API definiert werden, welches die Implementierung eines Clients in Form eines HTTP-Dienstes für die Nutzung über einen Web-Browser ermöglicht. Ebenso soll der Weg für eine in Zukunft zu entwickelnde dedizierte Client-Software bereitet werden. Für die Umsetzung der Projektziele wurde ein komponentenorientiertes Middleware-Konzept auf Basis des Java Telephony Application Programming Interface (JTAPI) verwirklicht. Dafür wurde eine JTAPI-konforme Provider-Implementierung realisiert, die das zugehörige Zustands- und Objektmodell umsetzt. Für die Kommunikation mit der Telekommunikationsanlage wurde eine Treiberkomponente entwickelt, die das proprietäre Protokoll des CTI-Links implementiert. Schließlich wurde ein einheitliches, RMI-basiertes API spezifiziert, das für die Entwicklung der Client-Software in Form eines HTTP-Dienstes oder einer selbständigen, fensterbasierten Anwendung eingesetzt werden kann. Die komponentenorientierte Gesamtarchitektur ermöglicht darüber hinaus die Entwicklung weiterführender CTI-Dienste.
Selbstorganisierende Karten sind neuronale Netze, die imstande sind, Daten zu klassifizieren und zu reduzieren. Aus diesem Grund eignen sie sich sehr gut fuer die Steuerung von Robotern, da sie deren Sensoreingangswerte klassifizieren und daraus auf eine Reaktion schließen koennen. Die Architektur und Funktionsweise dieser neuronalen Netze sind der des menschlichen Kortex kuenstlich nachgebildet. Im Rahmen dieser Diplomarbeit wurde ein Java-Framework namens JFSOM implementiert, welches nach dem System einer selbstorganisierenden Karte Datenmengen klassifizieren kann. Das Framework ist so entworfen, dass sowohl Eingabedaten als auch Ausgabedaten trainiert werden koennen, um es auch als sensormotorische Karte nutzbarzu machen. JFSOM wurde verwendet, um den Miniaturroboter Khepera nach bestimmten Verhaltensweisen zu steuern. Als Verhaltensweisen wurden eine Hindernisvermeidung, eine Wandverfolgung, eine Korridorverfolgung und eine Objektverfolgung realisiert. Die Wandverfolgung laesst den Roboter aus jedem beliebigen azyklischen Labyrinth herausfinden.
Zur Verringerung der Kosten und des Aufwands zur Installation, Update und Wartung von Workstations in einem industriellen Umfeld, sollte ein System zur zentralen, hardwareunabhängigen und vollautomatischen Installation dieser Workstations eingeführt werden. Hierzu mussten zuerst einmal die Möglichkeiten für eine vollautomatische Installation der verschiedenen Betriebssysteme und Anwendungen betrachtet werden. Nach dem Aufbau der Hardware folgte daraufhin die Installation des Deployment Systems der Firma OnTechnology (OnCommand). Im Anschluss daran wurden die Skripte für die Betriebssystem- und Anwendungsinstallation erstellt. Diese Skripte wurden anschließend zur besseren Handhabung zu Profilen zusammengefasst. Im nächsten Schritt wurden bestehende Clients in das System integriert. Daraufhin wurde das Sicherheitskonzept des Systems betrachtet, mit dem die Möglichkeit besteht bestimmten Benutzern nur bestimmte Rechte zu vergeben. In weiteren Teilen der Diplomarbeit werden die bisherigen Probleme bei der Firma und das erhoffte Ziel, die Möglichkeiten des Systems, sowie die Probleme bei der Umsetzung beziehungsweise des Systems, dargestellt und im Fazit zusammengefasst.
Die vorliegende Arbeit soll die Möglichkeiten von XML und den dazugehörigen Technologien bei der Entwicklung eines komplexen Softwaresystems und dem damit verbundenen Datenaustausch aufzeigen. Dafür soll die Leistungsfähigkeit und Eignung oder ggf. Nichteignung der XML-Technologie durch Entwurf, Aufbau und Test eines Prototyps, durch XML-konforme Ein- und Ausgabe sowie durch Daten- Aufbereitung und -auswertungen nachgewiesen werden. Daten unterschiedlicher Datenbestände werden ins XML-Format transformiert und in eine zentrale Datenbank gespeichert. Diese sollen mittels XML für alle Fremddatensysteme bereitgestellt sowie in HTML- und PDF-Formate transformiert werden.
This thesis deals with background, theory, design, layout and experimental test results of an analogue CMOS VLSI current-mode analog-to-digital converter. This system supports a project, whose goal it is to build a biologically relevant model of synaptic plasticity, named the Artificial Synapse. A critical part of the design, which is based on analogue CMOS VLSI circuits, is the ability to activate a discrete number of channels by sampling an analogue signal. Since currents are the signal of interest and transistors are biased in weak inversion (subthreshold regime), the system requires a current mode A/D circuit that it can operate at ultra-low power and current levels. To meet this need, two new innovative A/D converter approaches are proposed to replace the system’s previous A/D converter design which suffered from a non-linear resolution, uncoded output code and heavy bit oscillations. The initial technical requirements and key criteria for the new converter comprise a resolution of one nano ampere, an input current range between 0 – 100nA, conversion frequencies of up to 5kHz, and a power supply voltage of less than 1.5V. Temperature range, space occupation and power dissipation aspects were not specified due to the early stage of the related Artificial Synapse project. The novel converters both produce seven bit thermometer codes, their functional principle can be best described as current mode flash analog-to-digital converters (ADCs). Due to the fact that the input signal is in the area of a subthreshold current, it is selfevident that the A/D converter design should operate at a subthreshold realm. To support low power operation, clocks or high currents could not be used and were excluded from the design from the very start. To encode the thermometer code into standard binary code, a seven-to-three encoder was designed and integrated on the chip. In October 2003, the design was submitted for production to the MOSIS circuit fabrication service. The AMI Semiconductor 1.5 micron ABN CMOS process was chosen to manufacture the chip. When it was returned in January 2004, simulation results showed that both new A/D converter approaches accomplished excellent results which were expected from SPICE simulation results. With the new chip installed, it became possible to resolve input currents as small as one nano ampere and achieve conversion frequencies of up to 5kHz. The circuits also both meet the requirements which were set at the beginning of the project to operate at a power supply voltage of less than 1.5V, processing input currents in the range between 0 – 100nA. A prototype printed circuit board (PCB) was developed, produced and employed for experiments with the chip. The major application of this test-bed is the ability to generate and measure extremely low currents with high precision. This enables the monitoring of the very small currents that are processed by the chip.
Web services are, due to the excellent tool support, simple to provide and use in trivial cases. But their use in non-trivial Web service-based systems like I3M poses new difficulties and problems. I3M is an instant messaging and chat system with distributed and local components collaborating via Web services. One difficulty is to make a series of related Web service invocations in a stateful session. A problem is the performance of collaborating collocated, service-oriented components of a system due to the high Web service invocation overheaed as is shown by measurements. Solutions to both the difficulty and the problem are proposed.
Logopädische Lernsoftware
(2003)
In den letzen Jahren konnte ein wachsendes Interesse an Lernsoftware im logopä-dischen Einsatzbereich verzeichnet werden. Dieses Interesse zeigte sich nicht nur auf Seite der logopädischen Fachpraxen sondern auch in den Grundschulen. Auf Grund dessen ist die Lernsoftware auf dem besten Wege, sich neben den traditionellen Lern- und Übungsmaterialien am Markt zu etablieren. Auf Grund der Vielfalt an Sprachstörungen wird ein System benötigt, das indivi-duell, je nach Bedürfnis des Klienten, konfiguriert werden kann. Die vorliegende Arbeit beschäftigt sich mit dem Entwurf und der Weiterentwick-lung der logopädischen Lernsoftware Detektiv Langohr, damit dieses Produkt den Anforderungen und Wünschen des Klientel so gerecht wie möglich wird. Auf Basis einer durchgeführten Marktanalyse wurden konkrete Anforderungen an ein solches System spezifiziert und im Anschluss in ein Projekt umgesetzt. Um dem Leser einen besseren Einblick in die Welt der Logopädie verschaffen zu können, wurde eine allgemeine Einführung in die Sprachtherapie dem Analyse- und Um-setzungsteil vorangestellt.
This work treats with the segmentation of 2D environment Laser data, captured by an Autonomous Mobile Indoor Robot. It is part of the data processing, which is necessary to navigate a mobile robot error free in its environment. The whole process can generally be described by data capturing, data processing and navigation. In this project the data processing deals with data, captured by a Laser-Sensor, which provides two dimensional data by a series of distance measurements i.e. point-measurements of the environment. These point series have to be filtered and processed into a more convenient representation to provide a virtual environment map, which can be used of the robot for an error free navigation. This project provides different solutions of the same problem: the conversion from distance points to model segments which should represent the real world environment as close as possible. The advantages and disadvantages of each of the different Segmentation-Algorithms will be shown as well as a comparison taking into account the Computational Time and the Robustness of the results.
Das historisch gewachsene System für die Erstellung, Koordinierung und Auskunft der Lehrveranstaltungspläne (LVP) soll durch ein neues System ersetzt werden. Diese Diplomarbeit befasst sich mit der Konzeption und der Implementierung einer neuen grafischen Benutzeroberfläche und der Migration auf eine SQL basierte Datenbank für das komplette Management der Lehrveranstaltungspläne der FH Konstanz. Wie die Stundenpläne an den Schulen müssen auch die Lehrveranstaltungspläne an der Fachhochschule in jedem Semester entworfen, zu Papier gebracht, vervielfältigt und verteilt werden. An der FH Konstanz wird die heikle Aufgabe des Entwerfens von den LVP- Beauftragten der Studiengänge erledigt, denn sie können die vielen Randbedingungen besser überschauen und das Ergebnis auch rechtfertigen. Für die Routinearbeiten Auskunft und Drucken gab es bisher das LVP- Programm als ein spezielles Informationssystem. Auch wenn sich das bisherige System bewährt hat, blieben doch einige Wünsche der Planer offen. Da das LVP- System über mehrere Jahre gewachsen war, ist man an einige Eigenheiten gebunden, die es zu eliminieren gilt. Auch neue Technologien eröffnen einige interessante Möglichkeiten, die früher noch nicht so einfach, oder gar nicht zu implementieren waren. Ziel dieser Diplomarbeit ist eine komplette Neuentwicklung des gesamten Systems unter Verwendung aktueller Technologien: das LVP³- System.
Im Rahmen dieser Diplomarbeit wird eine horizontale Baumkomponente als JavaBean erstellt. Die Baumkomponente soll als Truppenbaum in ein bestehendes Führungs-Informationssystem implementiert werden. Dazu ist die Verwendung des SVG (XML) Grafikformates zur Darstellung der Symbole einzelner Knoten erforderlich. Weiterhin wird die Interaktion von Java-Komponenten mit Windows COM und DCOM untersucht. Es werden mehrere unterschiedliche Java-COM-Bridges getestet. In der vorliegenden Arbeit wird zuerst auf die Grundlagen eingegangen, indem das XML und SVG Format vorgestellt wird und die Grundlagen von JavaBeans sowie die benutzten Bibliotheken erläutert werden. Anschließend wird die Entwicklung der Komponente mit Pflichtenheft, Architektur und Implementierung dargestellt. Abschließend werden die Java-COM-Bridges beschrieben.
Die Arbeit befasst sich mit dem J2EE Framework Jakarta Struts. Hauptziel ist es, den Einsatz von Struts in der ZKB zu prüfen. Es soll festgestellt werden, ob Struts in Zukunft für die Entwicklung grösserer Web-Applikationen in der ZKB eingesetzt werden kann. Dazu wird eine bereits existierende ASP Web-Applikation zuerst zu einer JSP-Applikation (Model 1) und anschliessend zu einer Struts-Applikation (Model 2) portiert. Danach werden die beiden Versionen bzgl. Entwicklungsaufwand, Funktionsumfang, Performance und Wartbarkeit miteinander verglichen. Darüber hinaus werden Fähigkeiten des Struts Frameworks beleuchtet, die Architektur des Frameworks beschrieben und überprüft, inwiefern das Framework den Entwickler entlasten kann. Entwickler ohne Erfahrung mit Struts finden hier ausserdem eine verständliche Einführung an einem überschaubaren Beispiel. Nach der Einleitung in Kapitel 1 werden im zweiten Kapitel die Struts zu Grunde liegenden Technologien der Java 2 Plattform Enterprise Edition (J2EE) von Sun beschrieben. Im dritten Kapitel wird detailliert auf Struts eingegangen. Um dem Leser den Einstieg in Struts zu erleichtern, wird vor der Beschreibung der Struts Komponenten die Architektur und der Programmablauf erläutert. Eine Anleitung zum Erstellen einer kleinen Struts Applikation erklärt Struts an einem praktischen Beispiel. Vergleichbare Frameworks werden am Ende des Kapitels vorgestellt. Im vierten Kapitel erläutere ich die Entwicklung der von mir mit Struts erstellten Web-Applikation. Die beiden letzten Kapitel enthalten die Erkenntnisse aus meiner Arbeit mit Struts und versuchen eine Entscheidungsgrundlage für oder gegen den Einsatz des Frameworks zu liefern.
This thesis investigates methods for the recognition of facial expressions using support vector machines. Rather than trying to recognize facial actions in the face such as raised eyebrow, mouth open and frowns. These facial actions are described in the Facial Action Coding System (FACS) and are essential facial components, which can be combined to form facial expressions. We perform independent recognition of 6 upper and 10 lower action units in the face, which may occur either individually or in combination. Based on a feature extraction from grey-level values, the system is expected to recognize under real-time conditions. Results are presented with different image resolutions, SVM kernels and variations of low-level features.
Die zunehmende Internationalisierung der Märkte, das wachsende, immer differenziertere Produktangebot und die hohe technische Innovationsgeschwindigkeit führen zu immer härteren Wettbewerbsbedingungen auf dem Markt. Diese Situation zwingt die Unternehmen nicht nur zu kontinuierlichen Anstrengungen, um ihre Produktivität und Qualität zu steigern, sondern es stehen auch immer geringere Mittel für die Realisierung von Produktions- und/oder Messeinheiten innerhalb des Produktionsprozesses zur Verfügung. Als Folge dessen werden Entwickler mit folgenden Grundforderungen konfrontiert: · Abstimmung der Architektur auf vorhandene und/oder gängige Infrastrukturen · Reduzierung des Entwicklungsaufwandes durch Modularisierung des Systemaufbaues · Reduzierung der Wartungs- und Administrationskosten durch einfache Handhabbarkeit · Maximierung der Betriebssicherheit und Minimierung der Ausfallzeiten · Einfache Erweiterbarkeit · Hohe Wiederverwendbarkeit Ein Resümee von Softwareprojekten über die letzten Jahre zeigt, dass sich der Rahmen für Softwareentwicklung insgesamt geändert hat. Softwareprojekte sind heute mehrschichtige, verteilte (ggf. auch komponentenbasierte) Anwendungen mit gestiegenen Anforderungen an Funktionalität, Qualität und Flexibilität. Leider beinhalten die Architekturen und Konzepte der ‚Verteilten Systeme' Schwächen, diese für verteilte Mess- und Steuerungssysteme direkt umzusetzen. Ziel dieser Arbeit ist es, die Schwächen vorhandener Konzepte aufzuzeigen und eine Architektur vorzustellen, die den Entwickler unterstützt, verteilte Mess- und Steuerungssysteme bis hin zu Prozessleitsystemen unter dem Betriebssystem Windows zu entwickeln.
Tauchsimulation
(2003)
Im 1.Kapitel werden die historischen Aspekte des Tauchens und der Tauchphysik beschrieben. Anhand von physikalischen Gesetzen, mathematischen Formeln und empirisch ermittelten Werten werden im 2. Kapitel die nötigen Grundlagen für das Verständnis zur Berechnung eines Tauchgangs vermittelt. Das 3.Kapitel behandelt verschiedene auf dem Markt befindliche Tauchsimulationen, zeigt deren Funktionsumfang sowie deren Vor- und Nachteile. Die erstellte Tauchsimulation wird im 4. Kapitel vorgestellt. Dabei wird auch auf verschiedene Simulationsläufe eingegangen. Zum Abschluß wird ein Ausblick auf aktuelle Entwicklungstendenzen gegeben.
The target of this thesis is the introduction of a client management system (CMS) at Haaland Internet Productions (HiP), a web design and hosting company in Burbank, California, USA. The company needs a system to track orders and improve workflow. HiP needs a system which not only tracks orders, but also stores all client information in a database. This client information can be used for a variety of marketing and contact reasons. It is an important and integral part of HiP's client relationship management (CRM). The lack of a cohesive CMS at HiP caused many fundamental business problems, such as lost orders, missed billing statements, and over/under billing. The research done during the investigation and analysis of the company and their needs should lead to a global system which totally fulfils the needs of HiP. This global system could be in the form of an off-the-shelf product with some customizations, or a completely new, in-house system. Either solution will have respective pros and cons; the goal is to reach a decision that best fits HiP's needs and situation. The following is a concise version of the project. Particular emphasis is placed upon the single steps which made up the decision process, as well as the practiced techniques, methods, and their applications.
In der Diplomarbeit werden verschiedene, schon auf dem Markt befindliche Intrusion Intrusion Detection Systeme auf unterschiedliche Kriterien verglichen. Es werden mögliche Einsatzarten und Einsatzorte mit ihren Vor- und Nachteilen durchleuchtet und besprochen. Auf Basis der erlangten Erkenntnisse wird ein System vorgeschlagen, dass nach Abstimmung mit dem Projektleiter eingesetzt werden soll. Zu den Einsatz- kriterien gehören das vorhanden Budget, die Netzwerkumgebung, die Ausstattung und Leistungsfähigkeit des Einsatz-Intrusion Detection Systems sowie die Art des Intrusion Detection Systems. Geplant ist der Einsatz mindestens eines bzw. mehrerer Systeme als eine sogenannte Enterprise-Lösung. Mittels verschiedener Hilfsmittel und Tools werden die Intrusion Detection Systeme eTrust von Computer Associates, Real Secure von ISS, Snort, Tripwire und Network Intrusion Detection von Network Flight Recorder untersucht. Der Test und der Betrieb dieser Systeme geschieht sowohl vor als auch hinter der Firewall also in der demilitarisierten Zone des Unternehmens. Die Untersuchung der Systeme beinhaltet Kontrollen über Systemstabilität, Prozessor- und Hauptspeicherauslastung, Anzahl der erkannten Angriffe auf Basis simulierter Angriffe sowie die Benutzerfreundlichkeit
Die Integration eines Systems für den Support von Softwareprodukten in ein bestehendes Unternehmensumfeld ist der Schwerpunkt dieser Arbeit. Im ersten Teil dieser Arbeit wird anhand eines theoretischen Prozessmodells das Vorgehen zur stufenweisen Realisierung eines Softwareprojektes beschrieben. Des Weiteren werden den Support unterstützende Managementprozesse und Werkzeuge vorgestellt und ein theoretischer Ansatz für deren Umsetzung im Unternehmen erarbeitet. Der zweite Teil dieser Arbeit beschreibt die einzelnen Prozessphasen der Projektrealisierung. Im Anschluss daran wird das fertige System mit seinen Hauptinhalten erläutert.
Aufbau eines neuen Knowledge Networks für den Bereich "Human Resources" der Winterthur Versicherung
(2003)
Die seit Mitte des letzten Jahrhunderts geprägte Industriegesellschaft erfährt eine neue Wende. Das Zeitalter der Informations- und Wissensgesellschaft drängt sich aufgrund der Informationstechnologie (IT) in den Vordergrund. "Die Wissensgesellschaft ist keine ferne Vision. Sie ist längst Realität. Wir müssen sie nicht erfinden, sondern erfinderisch mit ihren Chancen umgehen". Im Gegensatz zur bisherigen Gesellschaft, in der die Produktion von Objekten zu möglichst geringen Kosten im Mittelpunkt stand, orientiert sich diese neue Gesellschaft mehr an der Entwicklung von neuen Ideen und neuem Wissen zur Produktion und Weiterentwicklung von Objekten. Auch die Organisationsform in Unternehmen erfuhr einen Wandel: von funktionalen zu prozessorientierten Organisationsformen. Diese prozessorientierte Organisation ist lernfähiger, da Barrieren, Abeilungsgrenzen und Hierarchieebenen leichter überwindbar geworden sind. In diesem Zusammenhang liegt die Wertschöpfung von Unternehmen darin, dass die Mitarbeiter der Unternehmung mit Geschick, Originalität und Schnelligkeit neue Probleme identifizieren, kreativ lösen und überzeugend kommunizieren. Zum wettbewerbsentscheidenden Faktor wird das Wissen, welches sich in verschiedensten Formen innerhalb des Unternehmens befindet. Dieses zu offenbaren und zu gebrauchen ist u.a. das Ziel des Knowledge Managements. Wie bei jeder Organisation empfiehlt es sich auch beim Knowledge Management, in zusammenhängenden Prozessen zu denken. Dazu müssen Unternehmen Knowledge Management als einen gestaltbaren Prozess verstehen, der sich auf alle internen Prozesse auswirkt.
Zum automatischen Testen der Endgeräte bei Nokia wird ein computergestütztes Systen namens Austere eingesetzt. Dieses System wurde vollständig innerhalb der Firma konzipiert und wird ständig weiterentwickelt. Der erste Teil der Diplomarbeit bestand darin, ein solches Austere Testsystem aus neuen Hardwarekomponenten aufzubauen und die schon vorhandene Testsoftware namens RAPT darauf anzupassen. Der Aufbau sowie der Zusammenhang der Soft- und Hardwarekomponenten untereinander und die Handhabung des Systems wird in Kapitel 3 beschrieben. Erst wenn man die Komplexität des Systems und den Zusammenhang der Komponenten untereinander verstanden hat, kann man sich den Erweiterungen widmen. Sie gehören zum zweiten Teil der Diplomarbeit. Diese Erweiterungen werden in den Folgekapiteln behandelt. In ihnen wird für das jeweilige Thema zunächst die Theorie beschrieben und anschließend soll eine Lösung der Erweiterung des Austere-Systems gegeben werden.
Wenn neue Tätigkeiten in der PVC-Abdichtlinie2 der Lackiererei bearbeitet werden müssen, ist es notwendig die gesamte Produktionslinie zu betrachten, um eine Aussage darüber machen zu können, an welchem Arbeitsplatz diese neuen Tätigkeiten bearbeitet werden können. Die Zuweisung von neuen Tätigkeiten an Arbeitsplätze wird Eintakten genannt. Ziel der Diplomarbeit war es, ein Konzept für die automatische Eintaktung von manuellen Tätigkeiten an der PVC-Abdichtlinie2 der Lackiererei zu erstellen. Anschließend sollte ein Programm entwickelt werden, womit eine automatische Eintaktung durchgeführt werden kann. Bei der Erstellung dieses Programms sollte darauf geachtet werden, dass das Programm leicht zu handhaben ist. Weiterhin sollte das Programm so gestaltet sein, dass es auch durch die ähnlich aufgebaute Abdichtlinie1 genutzt werden kann.
Diese Arbeit befasst sich mit der Erstellung und Bearbeitung von Datenstrukturen, die für die Entwicklung von Software im Mobilfunksektor benötigt werden. Es wird aufgezeigt, wo diese Datenstrukturen auftauchen und welche Aufgaben ihnen zufallen. Am Beispiel der Texas Instruments Berlin AG wird eine mögliche Implementierung der für deren Handhabung eingesetzten Hilfsmittel im Detail betrachtet sowie auf die diesen innewohnenden Unzulänglichkeiten und Schwachstellen eingegangen. Zur Behebung und Umgehung der aufgezeigten Probleme werden verschiedene Ansätze analysiert und bewertet. Die hierzu benötigten und jeweils kurz vorgestellten Informationen über die Sprache XML und andere Techniken legen ferner oÿen, warum die letztendlich gewählte Vorgehensweise für die Neuimplementierung sinnvoll ist. Auf die für den reibungslosen Verlauf der Implementierungsphase erforderlichen Planungen wird ebenso wie auf die hierfür im Vorfeld notwendigen Überlegungen und Arbeiten eingegangen. Insbesondere wird auf die Erstellung mehrerer Prototyp-Versionen zur Erleichterung der Einarbeitung und zum besseren Verständnis der zu bearbeitenden Materie hingewiesen. Entwicklung und abschliessdes Aussehen einer Grammatik als Grundlage für ein auf XML basierendes Datenformat werden vorgestellt sowie die hierbei auftretenden Problematiken erörtert. Es wird dargestellt, wie die für die Arbeit mit dem neuen Format entworfene Benutzerschnittstelle funktioniert und wie das der dahinterstehenden Funktionalität zugrundeliegende Konzept aussieht. Die Umsetzung dieses Konzepts unter Einsatz der Programmiersprache Java und aufbauend auf der Eclipse-Plattform wird umfassend und im Detail erläutert. Begleitende Tests und Evaluierungen werden angesprochen sowie Probleme und Herausforderungen der Implementierungsphase. Es wird darauf eingegangen, wie die Planungen für den zukünftigen Einsatz und die weitere Entwicklung des Projekts unter dem Dach der Texas Instruments Berlin AG aussehen. Und es werden die aus der Durchführung des Projekts von den ersten Planungen bis hin zum vorläufigen Abschluss der Implementierungsphase und der Vorstellung eines funktionierenden Systems gewonnenen Schlüsse und Erfahrungen präsentiert und ausgewertet.
Das Unternehmen MIK wird vorgestellt und die Entscheidungskriterien für die .NET Remoting-Technologie werden erläutert. Es wird die Entwicklung des .NET Remoting und die Unterschiede zu anderen Technologien für verteilten Anwendungen wie CORBA, DCOM und Java EJB dargestellt. Wichtige Grundbegriffe des .NET Remotings, wie Server activated und Client activated Objects sowie Konfiguration und Deployment werden erklärt und anhand einfacher Beispiele vertieft. Die Forderungen aus der Aufgabenstellung werden analysiert und an Hand der gewonnenen Informationen Daten modelliert und in UML-Klassendiagrammen festgehalten. Auf Client und Server-Seite wurde jeweils eine Software-Komponente entwickelt, welche die Kommunikation zwischen Client und Remoting-Server abwickeln. Implementierungsaspekte der beteiligten Klassen und deren Zusammenwirken werden ausführlich erläutert. Um die XML Strukturen der Konfigurationsdateien zu bearbeiten, werden Basisklassen des .NET Frameworks verwendet. Es werden Einblicke in die XPath-Abfragen und in die Ereignisbehandlung gegeben. Grundsätzlich kann jede .NET-Applikation als Remoting Server arbeiten. Es wird hier speziell die Produktivsetzung im IIS und in einem Windows-Dienst beschrieben. Es folgt die Überlegung, wie ein Apache Webserver in einer .NET Infrastruktur eingesetzt werden kann und was bei einer Kommunikation über eine Firewall zu berücksichtigen ist. Die Sicherheitsaspekte befassen sich mit den Authentifizierungsmethoden des IIS und der Verschlüsselung des Kommunikationskanals mittels SSL. Zur umfangreichen Bearbeitung der Konfigurationsdateien wurde ein Administrations-GUI entwickelt. Mit Hilfe von Reflexion können Remote-Objekte aus Assemblies heraus betrachtet und registriert werden.
Es gibt viele Gründe, darüber nachzudenken, wie die wachsenden Gütertransporte in der Welt wirtschaftlicher gestaltet, umweltfreundlicher durchgeführt und unter Beachtung sozialer Aspekte verwirklicht werden können. Diese ausschlaggebenden Argumente führern zum Thema Transportmanagement. Das Thema hat bisher wenig Beachtung gefunden, obwohl Transporte seit eh und je existieren. Ziel der Arbeit ist die Modellierung der Geschäftsprozesse vom Transportmanagementsystem TM/3 mit der EPK-Methode zu erreichen. Zusätzlich zu der Modellierung soll eine Gegenüberstellung der Standard SAP Transportkomponente LE-TRA mit der TM/3 Software der Logimatik AG erfolgen. Im Hinblick auf die zu erarbeitende Problemlösung werden zu Beginn terminologische Abgrenzungen zum Thema Transport, Logistik, Logistics Execution System vorgenommen. Im Anschluss daran, wird das Thema Geschäftsprozessmodellierung angestellt. Dazu findet eine umfassende Gegenüberstellung der Definitionen zu diesem Begriff. Für die Modellierung der Prozesse ist es von Wichtigkeit, Objekte und Regeln der Ereignisgesteuerten Prozesskette kennenzulernen. Im praktischen Teil der Arbeit wird die Analyse der beiden Produkte vorgenommen und die Geschäftsprozessmodellierung der TM/3 Software begonnen. Der Vergleich der beiden Systeme findet den Abschluss dieser Arbeit.