Refine
Year of publication
Document Type
- Master's Thesis (34)
- Report (17)
- Bachelor Thesis (3)
- Conference Proceeding (2)
- Working Paper (2)
- Article (1)
Has Fulltext
- yes (59) (remove)
Keywords
Institute
- Fakultät Informatik (59) (remove)
In der Diplomarbeit werden verschiedene, schon auf dem Markt befindliche Intrusion Intrusion Detection Systeme auf unterschiedliche Kriterien verglichen. Es werden mögliche Einsatzarten und Einsatzorte mit ihren Vor- und Nachteilen durchleuchtet und besprochen. Auf Basis der erlangten Erkenntnisse wird ein System vorgeschlagen, dass nach Abstimmung mit dem Projektleiter eingesetzt werden soll. Zu den Einsatz- kriterien gehören das vorhanden Budget, die Netzwerkumgebung, die Ausstattung und Leistungsfähigkeit des Einsatz-Intrusion Detection Systems sowie die Art des Intrusion Detection Systems. Geplant ist der Einsatz mindestens eines bzw. mehrerer Systeme als eine sogenannte Enterprise-Lösung. Mittels verschiedener Hilfsmittel und Tools werden die Intrusion Detection Systeme eTrust von Computer Associates, Real Secure von ISS, Snort, Tripwire und Network Intrusion Detection von Network Flight Recorder untersucht. Der Test und der Betrieb dieser Systeme geschieht sowohl vor als auch hinter der Firewall also in der demilitarisierten Zone des Unternehmens. Die Untersuchung der Systeme beinhaltet Kontrollen über Systemstabilität, Prozessor- und Hauptspeicherauslastung, Anzahl der erkannten Angriffe auf Basis simulierter Angriffe sowie die Benutzerfreundlichkeit
Die vorliegende Arbeit untersucht, wie Tools für die Überprüfung von Quell-Code auf Konformität mit Programmierstilen, die komplexere Entwurfsmuster beinhalten, als Erweiterung des statischen CodeAnalyse-Tools Checkstyle realisiert werden können. Als Beispiel wird der Joi Programmierstil verwendet, der für diese Arbeit aus der Java Spracherweiterung Joi (Java Objects by Interfaces), die die Einhaltung einiger Entwurfsmuster, die auf die Reduzierung von Code-Abhängigkeiten zielen, unterstützt, abgeleitet wurde.
Web services are, due to the excellent tool support, simple to provide and use in trivial cases. But their use in non-trivial Web service-based systems like I3M poses new difficulties and problems. I3M is an instant messaging and chat system with distributed and local components collaborating via Web services. One difficulty is to make a series of related Web service invocations in a stateful session. A problem is the performance of collaborating collocated, service-oriented components of a system due to the high Web service invocation overheaed as is shown by measurements. Solutions to both the difficulty and the problem are proposed.
Tauchsimulation
(2003)
Im 1.Kapitel werden die historischen Aspekte des Tauchens und der Tauchphysik beschrieben. Anhand von physikalischen Gesetzen, mathematischen Formeln und empirisch ermittelten Werten werden im 2. Kapitel die nötigen Grundlagen für das Verständnis zur Berechnung eines Tauchgangs vermittelt. Das 3.Kapitel behandelt verschiedene auf dem Markt befindliche Tauchsimulationen, zeigt deren Funktionsumfang sowie deren Vor- und Nachteile. Die erstellte Tauchsimulation wird im 4. Kapitel vorgestellt. Dabei wird auch auf verschiedene Simulationsläufe eingegangen. Zum Abschluß wird ein Ausblick auf aktuelle Entwicklungstendenzen gegeben.
Selbstorganisierende Karten sind neuronale Netze, die imstande sind, Daten zu klassifizieren und zu reduzieren. Aus diesem Grund eignen sie sich sehr gut fuer die Steuerung von Robotern, da sie deren Sensoreingangswerte klassifizieren und daraus auf eine Reaktion schließen koennen. Die Architektur und Funktionsweise dieser neuronalen Netze sind der des menschlichen Kortex kuenstlich nachgebildet. Im Rahmen dieser Diplomarbeit wurde ein Java-Framework namens JFSOM implementiert, welches nach dem System einer selbstorganisierenden Karte Datenmengen klassifizieren kann. Das Framework ist so entworfen, dass sowohl Eingabedaten als auch Ausgabedaten trainiert werden koennen, um es auch als sensormotorische Karte nutzbarzu machen. JFSOM wurde verwendet, um den Miniaturroboter Khepera nach bestimmten Verhaltensweisen zu steuern. Als Verhaltensweisen wurden eine Hindernisvermeidung, eine Wandverfolgung, eine Korridorverfolgung und eine Objektverfolgung realisiert. Die Wandverfolgung laesst den Roboter aus jedem beliebigen azyklischen Labyrinth herausfinden.
Smart-Future-Living-Bodensee
(2018)
This thesis emphasizes problems that reports generated by vulnerability scanners impose on the process of vulnerability management, which are a. an overwhelming amount of data and b. an insufficient prioritization of the scan results.
To assist the process of developing means to counteract those problems and to allow for quantitative evaluation of their solutions, two metrics are proposed for their effectiveness and efficiency. These metrics imply a focus on higher severity vulnerabilities and can be applied to any simplification process of vulnerability scan results, given it relies on a severity score and time of remediation estimation for each vulnerability.
A priority score is introduced which aims to improve the widely used Common Vulnerability Scoring System (CVSS) base score of each vulnerability dependent on a vulnerability’s ease of exploit, estimated probability of exploitation and probability of its existence.
Patterns within the reports generated by the Open Vulnerability Assessment System (OpenVAS) vulnerability scanner between vulnerabilities are discovered which identify criteria by which they can be categorized from a remediation actor standpoint. These categories lay the groundwork of a final simplified report and consist of updates that need to be installed on a host, severe vulnerabilities, vulnerabilities that occur on multiple hosts and vulnerabilities that will take a lot of time for remediation. The highest potential time savings are found to exist within frequently occurring vulnerabilities, minor- and major suggested updates.
Processing of the results provided by the vulnerability scanner and creation of the report is realized in the form of a python script. The resulting reports are short, straight to the point and provide a top down remediation process which should theoretically allow to minimize the institutions attack surface as fast as possible. Evaluation of the practicality must follow as the reports are yet to be introduced into the Information Security Management Lifecycle.
This work treats with the segmentation of 2D environment Laser data, captured by an Autonomous Mobile Indoor Robot. It is part of the data processing, which is necessary to navigate a mobile robot error free in its environment. The whole process can generally be described by data capturing, data processing and navigation. In this project the data processing deals with data, captured by a Laser-Sensor, which provides two dimensional data by a series of distance measurements i.e. point-measurements of the environment. These point series have to be filtered and processed into a more convenient representation to provide a virtual environment map, which can be used of the robot for an error free navigation. This project provides different solutions of the same problem: the conversion from distance points to model segments which should represent the real world environment as close as possible. The advantages and disadvantages of each of the different Segmentation-Algorithms will be shown as well as a comparison taking into account the Computational Time and the Robustness of the results.
In my research sabbatical I was working on three different topics, namely orthogonal polynomials in geometric modeling, re-parametrized univariate subdivision curves, and reconstruction of 3d-fish-models and other zoological artifacts. In the subsequent Sections, I will describe my particular activity in these different fields. The sections are meant to present an overview of my research activities, leaving out the technical details.
Section 1 is on orthogonal polynomials and other related generating systems for functions systems of smooth function.
In Section 2, I will discuss the application of various re-parametrization schemes for interpolatory subdivision algorithms for the generation of space curves.
The next Section 3 is concerned with my research at the University of Queensland, Brisbane, in collaboration with Dr. Ulrike Siebeck from the School of Biomedical Sciences on fish behavior and reconstruction of 3d-fish models in particular.
In the last Section 4, I will describe what effects this research will have on in my subsequent teaching at the University of Applied Science Konstanz (HTWG).
The target of this thesis is the introduction of a client management system (CMS) at Haaland Internet Productions (HiP), a web design and hosting company in Burbank, California, USA. The company needs a system to track orders and improve workflow. HiP needs a system which not only tracks orders, but also stores all client information in a database. This client information can be used for a variety of marketing and contact reasons. It is an important and integral part of HiP's client relationship management (CRM). The lack of a cohesive CMS at HiP caused many fundamental business problems, such as lost orders, missed billing statements, and over/under billing. The research done during the investigation and analysis of the company and their needs should lead to a global system which totally fulfils the needs of HiP. This global system could be in the form of an off-the-shelf product with some customizations, or a completely new, in-house system. Either solution will have respective pros and cons; the goal is to reach a decision that best fits HiP's needs and situation. The following is a concise version of the project. Particular emphasis is placed upon the single steps which made up the decision process, as well as the practiced techniques, methods, and their applications.
Interpretability and uncertainty modeling are important key factors for medical applications. Moreover, data in medicine are often available as a combination of unstructured data like images and structured predictors like patient’s metadata. While deep learning models are state-of-the-art for image classification, the models are often referred to as ’black-box’, caused by the lack of interpretability. Moreover, DL models are often yielding point predictions and are too confident about the parameter estimation and outcome predictions.
On the other side with statistical regression models, it is possible to obtain interpretable predictor effects and capture parameter and model uncertainty based on the Bayesian approach. In this thesis, a publicly available melanoma dataset, consisting of skin lesions and patient’s age, is used to predict the melanoma types by using a semi-structured model, while interpretable components and model uncertainty is quantified. For Bayesian models, transformation model-based variational inference (TM-VI) method is used to determine the posterior distribution of the parameter. Several model constellations consisting of patient’s age and/or skin lesion were implemented and evaluated. Predictive performance was shown to be best by using a combined model of image and patient’s age, while providing the interpretable posterior distribution of the regression coefficient is possible. In addition, integrating uncertainty in image and tabular parts results in larger variability of the outputs corresponding to high uncertainty of the single model components.
Die Arbeit stellt das Wesen und die Grundzüge der Lohnsteuer, einschließlich einem kurzen Abriß der Entwicklung des Lohnsteuerverfahrens, dar. Sie ist weder als Anleitung zur Ausfüllung eines Antrags auf Lohnsteuerjahresausgleich, noch als Nachschlagwerk gedacht. Der Leser dieser Ausarbeitung kennt die wesentlichen Grundzüge der Einkommensteuer, sowie deren besonderen Merkmale, wie z.B. der "Steuerprogression". Deshalb wurde hier auf die Darstellung der Einkommensteuer verzichtet; aus diesem Grunde wurde auch nicht die Veranlagung von Arbeitnehmern zur Einkommensteuer in die Ausarbeitung aufgenommen.
Logopädische Lernsoftware
(2003)
In den letzen Jahren konnte ein wachsendes Interesse an Lernsoftware im logopä-dischen Einsatzbereich verzeichnet werden. Dieses Interesse zeigte sich nicht nur auf Seite der logopädischen Fachpraxen sondern auch in den Grundschulen. Auf Grund dessen ist die Lernsoftware auf dem besten Wege, sich neben den traditionellen Lern- und Übungsmaterialien am Markt zu etablieren. Auf Grund der Vielfalt an Sprachstörungen wird ein System benötigt, das indivi-duell, je nach Bedürfnis des Klienten, konfiguriert werden kann. Die vorliegende Arbeit beschäftigt sich mit dem Entwurf und der Weiterentwick-lung der logopädischen Lernsoftware Detektiv Langohr, damit dieses Produkt den Anforderungen und Wünschen des Klientel so gerecht wie möglich wird. Auf Basis einer durchgeführten Marktanalyse wurden konkrete Anforderungen an ein solches System spezifiziert und im Anschluss in ein Projekt umgesetzt. Um dem Leser einen besseren Einblick in die Welt der Logopädie verschaffen zu können, wurde eine allgemeine Einführung in die Sprachtherapie dem Analyse- und Um-setzungsteil vorangestellt.
An der HTWG Konstanz können Studenten ihre Termine Online-Kalendersystem myDay organisieren. Der Kalender verfügt über eine eigene Datenbank zur persistenten Terminhaltung und ist über ein Webinterface bedienbar. Dieser Kalender wurde um nützliche Web Services erweitert, die externen Applikationen den Zugriff auf das Kalendersystem ermöglichen. Beispielhaft wird dies mit dem Personal Information Manager Outlook 2002 von Microsoft gezeigt. Die entwickelten Web Services bieten verschiedene Möglichkeiten der Termin- und Aufgabenverwaltung. Die Implementierung der Web Services wurde mit Hilfe eines Adapter-Konzeptes realisiert, welches auch in einer Enterprise Application Integration - Anbindung verwendung finden könnte.
Zur Verringerung der Kosten und des Aufwands zur Installation, Update und Wartung von Workstations in einem industriellen Umfeld, sollte ein System zur zentralen, hardwareunabhängigen und vollautomatischen Installation dieser Workstations eingeführt werden. Hierzu mussten zuerst einmal die Möglichkeiten für eine vollautomatische Installation der verschiedenen Betriebssysteme und Anwendungen betrachtet werden. Nach dem Aufbau der Hardware folgte daraufhin die Installation des Deployment Systems der Firma OnTechnology (OnCommand). Im Anschluss daran wurden die Skripte für die Betriebssystem- und Anwendungsinstallation erstellt. Diese Skripte wurden anschließend zur besseren Handhabung zu Profilen zusammengefasst. Im nächsten Schritt wurden bestehende Clients in das System integriert. Daraufhin wurde das Sicherheitskonzept des Systems betrachtet, mit dem die Möglichkeit besteht bestimmten Benutzern nur bestimmte Rechte zu vergeben. In weiteren Teilen der Diplomarbeit werden die bisherigen Probleme bei der Firma und das erhoffte Ziel, die Möglichkeiten des Systems, sowie die Probleme bei der Umsetzung beziehungsweise des Systems, dargestellt und im Fazit zusammengefasst.
Das Unternehmen MIK wird vorgestellt und die Entscheidungskriterien für die .NET Remoting-Technologie werden erläutert. Es wird die Entwicklung des .NET Remoting und die Unterschiede zu anderen Technologien für verteilten Anwendungen wie CORBA, DCOM und Java EJB dargestellt. Wichtige Grundbegriffe des .NET Remotings, wie Server activated und Client activated Objects sowie Konfiguration und Deployment werden erklärt und anhand einfacher Beispiele vertieft. Die Forderungen aus der Aufgabenstellung werden analysiert und an Hand der gewonnenen Informationen Daten modelliert und in UML-Klassendiagrammen festgehalten. Auf Client und Server-Seite wurde jeweils eine Software-Komponente entwickelt, welche die Kommunikation zwischen Client und Remoting-Server abwickeln. Implementierungsaspekte der beteiligten Klassen und deren Zusammenwirken werden ausführlich erläutert. Um die XML Strukturen der Konfigurationsdateien zu bearbeiten, werden Basisklassen des .NET Frameworks verwendet. Es werden Einblicke in die XPath-Abfragen und in die Ereignisbehandlung gegeben. Grundsätzlich kann jede .NET-Applikation als Remoting Server arbeiten. Es wird hier speziell die Produktivsetzung im IIS und in einem Windows-Dienst beschrieben. Es folgt die Überlegung, wie ein Apache Webserver in einer .NET Infrastruktur eingesetzt werden kann und was bei einer Kommunikation über eine Firewall zu berücksichtigen ist. Die Sicherheitsaspekte befassen sich mit den Authentifizierungsmethoden des IIS und der Verschlüsselung des Kommunikationskanals mittels SSL. Zur umfangreichen Bearbeitung der Konfigurationsdateien wurde ein Administrations-GUI entwickelt. Mit Hilfe von Reflexion können Remote-Objekte aus Assemblies heraus betrachtet und registriert werden.
Die Praxis zeigt, dass die meisten Leistungsmessungssysteme für den Vertriebsbereich konzeptuell bereits an ihre Grenzen gestoßen sind und den heutigen Geschäftsgegebenheiten kaum noch entsprechen können. Mehr noch, durch ihre „übertriebene“ Fokussierung auf die finanz-orientierten Indikatoren wirken sie sogar hinderlich im Konkurrenzkampf um den „besten Kunden“. Im Rahmen des Projektes, in welchem diese Arbeit entstanden ist, wurde für den Vertriebsmanager die Sales Performance Analyse als ein leistungsfähiges Controllinginstrument konzipiert und implementiert. Sie basiert auf dem bekannten Ansatz der Balanced Scorecard von Kaplan/Norton und bietet eine über alle Bereiche hinweg ausgewogene und strategieorientierte Betrachtung relevanter Vertriebsabläufe. Sie ermöglicht somit das Controlling, d.h. das Messen und Steuern, der relevanten Erfolgsfaktoren auf Basis der vier Perspektiven: Finanzen, Interne Prozesse, Kunden und Lernen&Wachstum. Um den vordefinierten inhaltlichen und funktionalen Ansprüchen gerecht zu werden, ist die Sales Performance Analyse in einer Systemlandschaft von SAP-eigenen Lösungen implementiert worden: Enterprise Portal, BW (Business Warehouse), CRM (Customer Relationship Management), SEM (Strategic Enterprise Management) und HR (Human Ressources). In diesem Projekt wurde ein funktionsfähiger Prototyp erstellt, der aktuell zu Präsentationszwecken bei den internationalen Branchenveranstaltungen und im laufenden SAP-Lösungs-Vertrieb verwendet wird.