Refine
Year of publication
Document Type
- Master's Thesis (75) (remove)
Has Fulltext
- yes (75) (remove)
Keywords
- .NET Remoting (1)
- .NET-Plattform (1)
- 2 D environment Laser data (1)
- 3D-Druck (1)
- ADO.NET (1)
- ASP.NET (1)
- Active Server Pages (1)
- ActiveX Data Objects (ADO) (1)
- Agenten-Plattform (1)
- Akquisition <Vertrieb> (1)
Institute
- Fakultät Architektur und Gestaltung (5)
- Fakultät Bauingenieurwesen (22)
- Fakultät Elektrotechnik und Informationstechnik (4)
- Fakultät Informatik (34)
- Fakultät Maschinenbau (2)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (1)
- Institut für Optische Systeme - IOS (2)
- Institut für Systemdynamik - ISD (1)
Im Rahmen dieser Masterarbeit wurde an einem Beispielgebäude (Wessenberg-Schule Konstanz) gezeigt, dass Maßnahmen an der Gebäudehülle von Gebäuden der 60er-Jahre trotz Denkmalstatus ein durchaus erhebliches Potential aufweisen, um Wärmeverluste zu begrenzen, und sich Denkmalcharakter und energetischer Modernisierungswunsch nicht zwangsläufig gegenseitig ausschließen.
Hierbei wurden Thermografieaufnahmen angefertigt, Temperaturmessungen durchgeführt und U-Werte aller Bauteile der Gebäudehülle berechnet. Die Maßnahmen wurden auf Wärmebrücken und den Gesamtwärmedurchlass hin separat für jedes Bauteil bewertet.
Für gezielte Sanierungsvorschläge und die Untersuchung ihrer Wirksamkeit wurde das Gebäude intensiv untersucht. Hierbei wurden Informationen aus Archiven (Stadtarchiv Konstanz, Kreisarchiv Konstanz und Südwestdeutsches Archiv für Architektur und Ingenieurbau) zusammengetragen, die ein breites Bild des Bauablaufs und -geschichte, der verwendeten Baustoffe und der Architektur geben.
Da keine ausführliche Denkmalbegründung vorlag, wurde die Architektur und Gestaltung des Gebäudes separat betrachtet und bewertet.
Das Ziel der vorliegenden Arbeit ist die Ermittlung relevanter Parameter der Wirtschaftlichkeitsuntersuchung von Überdeckelungen von Infrastrukturflächen in hybrider Bauweise im innerstädtischen Raum in Deutschland. Die untersuchte Hybridbauweise setzt sich aus Grünbrücken in Leichtbauweise und massive, bebaubare Module zusammen. Zusätzlich soll ein Berechnungsmodell entwickelt werden, in das die Werte der Parameter potenzieller Standorte eingegeben werden können. Hierüber können Bewertungen und Vergleiche der Standorte durchgeführt werden, welche später als Entscheidungsgrundlage für eine Realisierung dienen können. Mit Hilfe einer Sensitivitäts-, Szenarien- und Immobilienmarktanalyse werden die Parameter der Wirtschaftlichkeitsuntersuchung analysiert, wonach den maßgeblichen Einfluss auf das Endergebnis die Grundflächenzahl und die Geschossflächenzahl haben. Die Länge der Überdeckelung hat dagegen weniger bis keinen Einfluss auf das Gesamtergebnis. Die regionalen Immobilienpreise stellen den Schlüssel zur Wirtschaftlichkeit dar. Sie können geringe Werte der Grundflächenzahl und Geschossflächenzahl ausgleichen. Die verschiedenen Gegebenheiten und regionalen Unterschiede der Standorte deutschlandweit machen derartige Großprojekte jeweils zu Individuallösungen und die Entwicklung eines standardisierten Modells schwierig. Das Modell sollte für jeden Standort leicht modifiziert werden, wie die Case Study des McGraw-Grabens in München zeigt. Das Ergebnis der Case Study fällt durch die entsprechende Bebauungsdichte und die hohen Immobilienpreise positiv aus. Trotzdem muss der Detaillierungsgrad berücksichtigt werden, wonach ein solches Modell lediglich erste Anhaltspunkte für eine Bewertung geben kann. Für eine ganzheitliche Beurteilung müssen entsprechende Erweiterungen des Modells vorgenommen werden.
Weltraumhotel Entropolis
(2005)
die aufgabe waren entwurf und ausarbeitung eines weltraumhotels für ca 200 gäste, in einer umlaufbahn um das system erde-mond. die arbeit ist entstanden in zusammenarbeit mit dem luft und raumfahrt institut stuttgart. abgesehen von der machbarkeit( bauphasen, logistik, transport) wurde besonders der umgang zwischen mensch- schwerelosigkeit-raum untersucht. dabei sind die räume nicht für die anforderungen von langzeitaufenthalten im all konzipiert, sondern speziell für menschen die nicht an den umgang mit schwerelosigkeit gewöhnt sind. das heisst die räume sollen auf der einen seite praktikabel sein ( orientierungshilfen, proportionen...) aber vor allem das verhältniss zwischen der perspektive des betrachters und dem ihn umgebenden raum neu definieren.
Der einst vorherrschende Baustoff in Deutschland war Lehm. Dieser wurde durch die erste industrielle Revolution weitgehend verdrängt und durch industrialisierte Baustoffe wie Beton ersetzt. Mit der vierten industriellen Revolution und dem steigenden Bewusstsein der Auswirkungen der Ressourcenverschwendung und Abfallproduktion auf die Umwelt, soll der traditionelle Lehmbau durch Digitalisierung und Automatisierung wieder an ökonomischem Aufschwung gewinnen. Bauen mit Lehm bietet die Chance einer systematischen Transformation der Bauindustrie in Richtung Kohlenstoffneutralität. Bisher ist die Bauindustrie für mehr als 30 % der weltweiten Treibhausgasemissionen verantwortlich. Durch die Verwendung regionaler, zirkulärer Materialien, die idealerweise aus der eigenen Baugrube gewonnen werden, könnte sich dies in Zukunft ändern. Lehm kommt in nahezu allen Teilen der Welt flächendeckend und zur Genüge vor und kann mit verschiedenen regional vorhandenen Additiven ergänzt werden. Durch Standardisierung der Produkte und technologischen Fortschritt könnte der Lehmbau in eine Massenproduktion überführt werden und in Zukunft mit dem konventionellen Stahlbetonbau oder Holzbau konkurrieren.
Diese Masterarbeit konzentriert sich auf die Modernisierung von Lehmbauweisen in Form von digitalisierten und automatisierten additiven Fertigungsverfahren wie der Stampflehmbau oder das 3D-Drucken mit Lehm für Wandbauteile. Ziel der Masterthesis ist es, einen Bauablauf für eines der genannten additiven Fertigungsverfahren zu entwickeln. Um dieses Ziel zu erreichen, werden die verschiedenen Fertigungsverfahren und Arten nach Stand der Technik miteinander verglichen und sich für das am besten bewertete entschieden. Als praktische Grundlage für die Wahl des Fertigungsverfahren dienen beispielhafte Untersuchungen mit einem Lehm 3D-Drucker. Dabei werden Prüfkörper mit und ohne Additive gedruckt sowie Prüfkörper mit unterschiedlichen Füllgraden erstellt und anschließend im Labor auf ihre Druckfestigkeit geprüft.
Die folgende Arbeit zeigt die vielen Potenziale des Lehmbaus als zirkuläre und moderne Bauweise auf und beleuchtet zugleich die Herausforderungen, die es noch zu lösen gilt.
Gegenstand der hier vorgestellten Arbeit ist ein Überblick über die Unterschiede zwischen der aktuell in Baden-Württemberg bauaufsichtlich gültigen Erdbebennorm DIN 4149 und der DIN EN 1998-1/NA 2021-07, die Sie künftig ersetzen soll und bereits dem aktuellen Stand der Technik entspricht. Es wird darauf eingegangen, welche Umstände hinter dem Umstieg auf die Europäische Norm und die Neuauflegung des Nationalen Anhangs stehen und ein Faktor ausgearbeitet, mit dem beide Normen direkt verglichen werden können. Zudem werden gängige Berechnungsverfahren zur Ermittlung von Erdbebenbeanspruchungen vorgestellt und anhand des Berechnungsprogramms Minea Design die Unterschiede zwischen vereinfachter 2D-Berechnung und 3D-Berechnung mit finiten Elementen untersucht. Daraus wird eine Aussage darüber abgeleitet, welches der Berechnungsverfahren auf der „sicheren Seite“ liegt und wie sich die Ergebnisse verifizieren lassen. An einem realen Projekt werden diese Erkenntnisse in Form einer Erdbebenbemessung angewandt.
In der Diplomarbeit werden verschiedene, schon auf dem Markt befindliche Intrusion Intrusion Detection Systeme auf unterschiedliche Kriterien verglichen. Es werden mögliche Einsatzarten und Einsatzorte mit ihren Vor- und Nachteilen durchleuchtet und besprochen. Auf Basis der erlangten Erkenntnisse wird ein System vorgeschlagen, dass nach Abstimmung mit dem Projektleiter eingesetzt werden soll. Zu den Einsatz- kriterien gehören das vorhanden Budget, die Netzwerkumgebung, die Ausstattung und Leistungsfähigkeit des Einsatz-Intrusion Detection Systems sowie die Art des Intrusion Detection Systems. Geplant ist der Einsatz mindestens eines bzw. mehrerer Systeme als eine sogenannte Enterprise-Lösung. Mittels verschiedener Hilfsmittel und Tools werden die Intrusion Detection Systeme eTrust von Computer Associates, Real Secure von ISS, Snort, Tripwire und Network Intrusion Detection von Network Flight Recorder untersucht. Der Test und der Betrieb dieser Systeme geschieht sowohl vor als auch hinter der Firewall also in der demilitarisierten Zone des Unternehmens. Die Untersuchung der Systeme beinhaltet Kontrollen über Systemstabilität, Prozessor- und Hauptspeicherauslastung, Anzahl der erkannten Angriffe auf Basis simulierter Angriffe sowie die Benutzerfreundlichkeit
In the field of autonomously driving vehicles the environment perception containing dynamic objects like other road users is essential. Especially, detecting other vehicles in the road traffic using sensor data is of utmost importance. As the sensor data and the applied system model for the objects of interest are noise corrupted, a filter algorithm must be used to track moving objects. Using LIDAR sensors one object gives rise to more than one measurement per time step and is therefore called extended object. This allows to jointly estimate the objects, position, as well as its orientation, extension and shape. Estimating an arbitrary shaped object comes with a higher computational effort than estimating the shape of an object that can be approximated using a basic geometrical shape like an ellipse or a rectangle. In the case of a vehicle, assuming a rectangular shape is an accurate assumption.
A recently developed approach models the contour of a vehicle as periodic B-spline function. This representation is an easy to use tool, as the contour can be specified by some basis points in Cartesian coordinates. Also rotating, scaling and moving the contour is easy to handle using a spline contour. This contour model can be used to develop a measurement model for extended objects, that can be integrated into a tracking filter. Another approach modeling the shape of a vehicle is the so-called bounding box that represents the shape as rectangle.
In this thesis the basics of single, multi and extended object tracking, as well as the basics of B-spline functions are addressed. Afterwards, the spline measurement model is established in detail and integrated into an extended Kalman filter to track a single extended object. An implementation of the resulting algorithm is compared with the rectangular shape estimator. The implementation of the rectangular shape estimator is provided. The comparison is done using long-term considerations with Monte Carlo simulations and by analyzing the results of a single run. Therefore, both algorithms are applied to the same measurements. The measurements are generated using an artificial LIDAR sensor in a simulation environment.
In a real-world tracking scenario detecting several extended objects and measurements that do not originate from a real object, named clutter measurements, is possible. Also, the sudden appearance and disappearance of an object is possible. A filter framework investigated in recent years that can handle tracking multiple objects in a cluttered environment is a random finite set based approach. The idea of random finite sets and its use in a tracking filter is recapped in this thesis. Afterwards, the spline measurement model is included in a multi extended object tracking framework. An implementation of the resulting filter is investigated in a long-term consideration using Monte Carlo simulations and by analyzing the results of a single run. The multi extended object filter is also applied to artificial LIDAR measurements generated in a simulation environment.
The results of comparing the spline based and rectangular based extended object trackers show a more stable performance of the spline extended object tracker. Also, some problems that have to be addressed in future works are discussed. The investigation of the resulting multi extended object tracker shows a successful integration of the spline measurement model in a multi extended object tracker. Also, with these results some problems remain, that have to be solved in future works.
Tauchsimulation
(2003)
Im 1.Kapitel werden die historischen Aspekte des Tauchens und der Tauchphysik beschrieben. Anhand von physikalischen Gesetzen, mathematischen Formeln und empirisch ermittelten Werten werden im 2. Kapitel die nötigen Grundlagen für das Verständnis zur Berechnung eines Tauchgangs vermittelt. Das 3.Kapitel behandelt verschiedene auf dem Markt befindliche Tauchsimulationen, zeigt deren Funktionsumfang sowie deren Vor- und Nachteile. Die erstellte Tauchsimulation wird im 4. Kapitel vorgestellt. Dabei wird auch auf verschiedene Simulationsläufe eingegangen. Zum Abschluß wird ein Ausblick auf aktuelle Entwicklungstendenzen gegeben.
Selbstorganisierende Karten sind neuronale Netze, die imstande sind, Daten zu klassifizieren und zu reduzieren. Aus diesem Grund eignen sie sich sehr gut fuer die Steuerung von Robotern, da sie deren Sensoreingangswerte klassifizieren und daraus auf eine Reaktion schließen koennen. Die Architektur und Funktionsweise dieser neuronalen Netze sind der des menschlichen Kortex kuenstlich nachgebildet. Im Rahmen dieser Diplomarbeit wurde ein Java-Framework namens JFSOM implementiert, welches nach dem System einer selbstorganisierenden Karte Datenmengen klassifizieren kann. Das Framework ist so entworfen, dass sowohl Eingabedaten als auch Ausgabedaten trainiert werden koennen, um es auch als sensormotorische Karte nutzbarzu machen. JFSOM wurde verwendet, um den Miniaturroboter Khepera nach bestimmten Verhaltensweisen zu steuern. Als Verhaltensweisen wurden eine Hindernisvermeidung, eine Wandverfolgung, eine Korridorverfolgung und eine Objektverfolgung realisiert. Die Wandverfolgung laesst den Roboter aus jedem beliebigen azyklischen Labyrinth herausfinden.
This work treats with the segmentation of 2D environment Laser data, captured by an Autonomous Mobile Indoor Robot. It is part of the data processing, which is necessary to navigate a mobile robot error free in its environment. The whole process can generally be described by data capturing, data processing and navigation. In this project the data processing deals with data, captured by a Laser-Sensor, which provides two dimensional data by a series of distance measurements i.e. point-measurements of the environment. These point series have to be filtered and processed into a more convenient representation to provide a virtual environment map, which can be used of the robot for an error free navigation. This project provides different solutions of the same problem: the conversion from distance points to model segments which should represent the real world environment as close as possible. The advantages and disadvantages of each of the different Segmentation-Algorithms will be shown as well as a comparison taking into account the Computational Time and the Robustness of the results.
The target of this thesis is the introduction of a client management system (CMS) at Haaland Internet Productions (HiP), a web design and hosting company in Burbank, California, USA. The company needs a system to track orders and improve workflow. HiP needs a system which not only tracks orders, but also stores all client information in a database. This client information can be used for a variety of marketing and contact reasons. It is an important and integral part of HiP's client relationship management (CRM). The lack of a cohesive CMS at HiP caused many fundamental business problems, such as lost orders, missed billing statements, and over/under billing. The research done during the investigation and analysis of the company and their needs should lead to a global system which totally fulfils the needs of HiP. This global system could be in the form of an off-the-shelf product with some customizations, or a completely new, in-house system. Either solution will have respective pros and cons; the goal is to reach a decision that best fits HiP's needs and situation. The following is a concise version of the project. Particular emphasis is placed upon the single steps which made up the decision process, as well as the practiced techniques, methods, and their applications.
Forecasting is crucial for both system planning and operations in the energy sector. With increasing penetration of renewable energy sources, increasing fluctuations in the power generation need to be taken into account. Probabilistic load forecasting is a young, but emerging research topic focusing on the prediction of future uncertainties. However, the majority of publications so far focus on techniques like quantile regression, ensemble, or scenario-based methods, which generate discrete quantiles or sets of possible load curves. The conditioned probability distribution remains unknown and can only be estimated when the output is post-processed using a statistical method like kernel density estimation.
Instead, the proposed probabilistic deep learning model uses a cascade of transformation functions, known as normalizing flow, to model the conditioned density function from a smart meter dataset containing electricity demand information for over 4,000 buildings in Ireland. Since the whole probability density function is tractable, the parameters of the model can be obtained by minimizing the negative loglikelihood through the state of the art gradient descent. This leads to the model with the best representation of the data distribution.
Two different deep learning models have been compared, a simple three-layer fully connected neural network and a more advanced convolutional neural network for sequential data processing inspired by the WaveNet architecture. These models have been used to parametrize three different probabilistic models, a simple normal distribution, a Gaussian mixture model, and the normalizing flow model. The prediction horizon is set to one day with a resolution of 30 minutes, hence the models predict 48 conditioned probability distributions.
The normalizing flow model outperforms the two other variants for both architectures and proves its ability to capture the complex structures and dependencies causing the variations in the data. Understanding the stochastic nature of the task in such detail makes the methodology applicable for other use cases apart from forecasting. It is shown how it can be used to detect anomalies in the power grid or generate synthetic scenarios for grid planning.
Interpretability and uncertainty modeling are important key factors for medical applications. Moreover, data in medicine are often available as a combination of unstructured data like images and structured predictors like patient’s metadata. While deep learning models are state-of-the-art for image classification, the models are often referred to as ’black-box’, caused by the lack of interpretability. Moreover, DL models are often yielding point predictions and are too confident about the parameter estimation and outcome predictions.
On the other side with statistical regression models, it is possible to obtain interpretable predictor effects and capture parameter and model uncertainty based on the Bayesian approach. In this thesis, a publicly available melanoma dataset, consisting of skin lesions and patient’s age, is used to predict the melanoma types by using a semi-structured model, while interpretable components and model uncertainty is quantified. For Bayesian models, transformation model-based variational inference (TM-VI) method is used to determine the posterior distribution of the parameter. Several model constellations consisting of patient’s age and/or skin lesion were implemented and evaluated. Predictive performance was shown to be best by using a combined model of image and patient’s age, while providing the interpretable posterior distribution of the regression coefficient is possible. In addition, integrating uncertainty in image and tabular parts results in larger variability of the outputs corresponding to high uncertainty of the single model components.
This diploma thesis is devoted to the design and analysis of a radar signal enabling an object classification capability in surveillance radar systems based on high-resolution radar range profiles. It picks up the research results from Kastinger (2006), who investigated classification algorithms for high-resolution radar range profiles, and Meier (2007), who programmed a MATLAB toolbox for the evaluation of radar signals. A classical, brief, introduction to radar fundamentals is given (Chapter 1) as well as the motivation for this thesis and certain basic parameters used. After high-resolution radar range profiles are discussed with special focus on surveillance radar systems (Chapter 2), the results of Kastinger (2006) are picked up (Chapter 3) as far as necessary for the following chapters of this thesis. Following the chapters on radar basics, high-resolution radar range profiles and classification, basic and advanced radar signals are discussed and analysed, especially their range resolution and sidelobe levels (Chapter 4). This includes linear frequency-modulated pulses and nonlinear frequency-modulated pulses as well as phase-coded pulses, coherent trains of identical pulses, and stepped-frequency waveforms. Their analysis is based on Meier's MATLAB toolbox. In Chapter 5 we will bring up additional points that have to be considered in radar system design for implementing a classification capability, before this thesis ends with an overall conclusion (Chapter 6).
Logopädische Lernsoftware
(2003)
In den letzen Jahren konnte ein wachsendes Interesse an Lernsoftware im logopä-dischen Einsatzbereich verzeichnet werden. Dieses Interesse zeigte sich nicht nur auf Seite der logopädischen Fachpraxen sondern auch in den Grundschulen. Auf Grund dessen ist die Lernsoftware auf dem besten Wege, sich neben den traditionellen Lern- und Übungsmaterialien am Markt zu etablieren. Auf Grund der Vielfalt an Sprachstörungen wird ein System benötigt, das indivi-duell, je nach Bedürfnis des Klienten, konfiguriert werden kann. Die vorliegende Arbeit beschäftigt sich mit dem Entwurf und der Weiterentwick-lung der logopädischen Lernsoftware Detektiv Langohr, damit dieses Produkt den Anforderungen und Wünschen des Klientel so gerecht wie möglich wird. Auf Basis einer durchgeführten Marktanalyse wurden konkrete Anforderungen an ein solches System spezifiziert und im Anschluss in ein Projekt umgesetzt. Um dem Leser einen besseren Einblick in die Welt der Logopädie verschaffen zu können, wurde eine allgemeine Einführung in die Sprachtherapie dem Analyse- und Um-setzungsteil vorangestellt.
Ein Wandel weg von der linearen und hin zu einer Kreislaufwirtschaft, wie man ihn bereits in verschiedenen Bereichen erkennen kann, hat positive Auswirkungen auf das Klima und die Umwelt. Die Baubranche könnte durch ihre hohe Ressourcen- und Energieintensität ein wichtiger Beitrag zur Klima- und Umweltschonung durch Kreislaufpraktiken leisten. Im Fokus sollte nicht mehr nur eine effiziente Gebäudehülle stehen, sondern eine ganzheitliche Nachhaltigkeitsbetrachtung.
Aufgrund mangelnden Bewusstseins, fehlender rechtlicher Rahmenbedingungen, Organisationen, Softwaretools und fehlender Anreize durch Förderungen oder Geschäftsmodelle kann und wird eine ganzheitliche Kreislaufwirtschaft derzeit noch nicht in der Baubranche umgesetzt. Ein weiterer bedeutsamer Grund sind fehlende Materialpässe und deren Umsetzungsmöglichkeiten in der Praxis.
Ziel dieser Arbeit ist es, die Lücke zwischen den Anforderungen an Materialpässe und deren Umsetzung in der Praxis, speziell für WeberHaus und somit den Holz-Fertighausbau, frühzeitig zu schließen. Durch Experteninterviews werden der Ist-Zustand des Material- und Informationsflusses beschrieben und gleichzeitig die Themen Kreislaufwirtschaft, Rückverfolgung und Materialpässe mit den Mitarbeitern diskutiert und nähergebracht. Aus dem Ist- Zustand des Material- und Informationsflusses werden Möglichkeiten einer Umsetzung in Form von zwei Varianten für Materialpässe geliefert, welche die zuvor festgelegten Anforderungen erfüllen.
Zur Beschreibung des Materialflusses hat es sich als sinnvoll erwiesen, eine Einteilung des gesamten Unternehmens auf Gebäude- und Elementebene vorzunehmen. Der Informationsfluss wird für den Materialpass hauptsächlich durch die vorhandenen Softwaresysteme Bentley, Dietrich´s, SAP und WeKo bestimmt. Um die Anforderungen, die an die Materialpässe gestellt werden, bestmöglich und mit geringem Aufwand erfüllen zu können, stellt sich BIM in Kombination mit der Plattform Madaster als sinnvolles Instrument heraus. Hierzu sind jedoch aufwendige Fachmodelle oder ein Koordinationsmodell nötig, welche von WeberHaus noch nicht vollständig realisiert werden. Als Übergangslösung bietet sich ein Materialpass auf Elementebene an, der durch diese Betrachtung standardisiert und ergänzt werden kann. Eine Ergänzung dieser Variante durch QR-Codes bietet zusätzlich eine direkte Verknüpfung von Informationen mit Bauteilen.
An der HTWG Konstanz können Studenten ihre Termine Online-Kalendersystem myDay organisieren. Der Kalender verfügt über eine eigene Datenbank zur persistenten Terminhaltung und ist über ein Webinterface bedienbar. Dieser Kalender wurde um nützliche Web Services erweitert, die externen Applikationen den Zugriff auf das Kalendersystem ermöglichen. Beispielhaft wird dies mit dem Personal Information Manager Outlook 2002 von Microsoft gezeigt. Die entwickelten Web Services bieten verschiedene Möglichkeiten der Termin- und Aufgabenverwaltung. Die Implementierung der Web Services wurde mit Hilfe eines Adapter-Konzeptes realisiert, welches auch in einer Enterprise Application Integration - Anbindung verwendung finden könnte.
Zur Verringerung der Kosten und des Aufwands zur Installation, Update und Wartung von Workstations in einem industriellen Umfeld, sollte ein System zur zentralen, hardwareunabhängigen und vollautomatischen Installation dieser Workstations eingeführt werden. Hierzu mussten zuerst einmal die Möglichkeiten für eine vollautomatische Installation der verschiedenen Betriebssysteme und Anwendungen betrachtet werden. Nach dem Aufbau der Hardware folgte daraufhin die Installation des Deployment Systems der Firma OnTechnology (OnCommand). Im Anschluss daran wurden die Skripte für die Betriebssystem- und Anwendungsinstallation erstellt. Diese Skripte wurden anschließend zur besseren Handhabung zu Profilen zusammengefasst. Im nächsten Schritt wurden bestehende Clients in das System integriert. Daraufhin wurde das Sicherheitskonzept des Systems betrachtet, mit dem die Möglichkeit besteht bestimmten Benutzern nur bestimmte Rechte zu vergeben. In weiteren Teilen der Diplomarbeit werden die bisherigen Probleme bei der Firma und das erhoffte Ziel, die Möglichkeiten des Systems, sowie die Probleme bei der Umsetzung beziehungsweise des Systems, dargestellt und im Fazit zusammengefasst.