Refine
Year of publication
- 2002 (19) (remove)
Document Type
- Master's Thesis (8)
- Working Paper (7)
- Journal (Complete Issue of a Journal) (3)
- Report (1)
Has Fulltext
- yes (19)
Keywords
- Akquisition <Vertrieb> (1)
- Alterung (1)
- Anwendung (1)
- Archivierung (1)
- BW (1)
- Balanced Scorecard (1)
- Betriebsalterung (1)
- CRM (1)
- Codierung (1)
- Controlling (1)
fhk forum - Ausgabe 2001
(2002)
IAF Jahresbericht 2001
(2002)
This thesis investigates methods for the recognition of facial expressions using support vector machines. Rather than trying to recognize facial actions in the face such as raised eyebrow, mouth open and frowns. These facial actions are described in the Facial Action Coding System (FACS) and are essential facial components, which can be combined to form facial expressions. We perform independent recognition of 6 upper and 10 lower action units in the face, which may occur either individually or in combination. Based on a feature extraction from grey-level values, the system is expected to recognize under real-time conditions. Results are presented with different image resolutions, SVM kernels and variations of low-level features.
Es gibt viele Gründe, darüber nachzudenken, wie die wachsenden Gütertransporte in der Welt wirtschaftlicher gestaltet, umweltfreundlicher durchgeführt und unter Beachtung sozialer Aspekte verwirklicht werden können. Diese ausschlaggebenden Argumente führern zum Thema Transportmanagement. Das Thema hat bisher wenig Beachtung gefunden, obwohl Transporte seit eh und je existieren. Ziel der Arbeit ist die Modellierung der Geschäftsprozesse vom Transportmanagementsystem TM/3 mit der EPK-Methode zu erreichen. Zusätzlich zu der Modellierung soll eine Gegenüberstellung der Standard SAP Transportkomponente LE-TRA mit der TM/3 Software der Logimatik AG erfolgen. Im Hinblick auf die zu erarbeitende Problemlösung werden zu Beginn terminologische Abgrenzungen zum Thema Transport, Logistik, Logistics Execution System vorgenommen. Im Anschluss daran, wird das Thema Geschäftsprozessmodellierung angestellt. Dazu findet eine umfassende Gegenüberstellung der Definitionen zu diesem Begriff. Für die Modellierung der Prozesse ist es von Wichtigkeit, Objekte und Regeln der Ereignisgesteuerten Prozesskette kennenzulernen. Im praktischen Teil der Arbeit wird die Analyse der beiden Produkte vorgenommen und die Geschäftsprozessmodellierung der TM/3 Software begonnen. Der Vergleich der beiden Systeme findet den Abschluss dieser Arbeit.
Der Bericht bezieht sich auf das gleichnamige Projekt im BMBF-Programm zu anwendungsorientierter Forschung und Entwicklung an Fachhochschulen an der HTWG Konstanz: Das Monitoring und die Diagnose von Kabel- und Versorgungssystemen beruht zum größten Teil auf der Statistik. Es werden Daten aufgezeichnet und mit bereits ausgewerteten oder älteren Daten aus demselben System verglichen. Der Unterschied zwischen Monitoring und Diagnose ist, dass die Diagnose bei abgeschalteter Spannung erfolgt und das Monitoring ein ständiges Überwachen ist. Ziel der Teilentladungsmessungen an betriebsgealterten Mittelspannungskabel war es einen Vergleich von Teilentladungsmessungen mit 50Hz und 0,1Hz zu erstellen. Dabei wurden Teilentladungsmessungen bei stark voneinander abweichenden Prüfbedingungen untersucht. Des weiteren wurden Verlustleistungsmessungen (tan ð) bei verschiedenen Prüfobjekten mit 50Hz und 0,1Hz durchgeführt.
fhk-Journal. Heft 2, 2002
(2002)
Structural interventions of the Commission comprise expenditures for objective 1, objective 2 and objective 3. The three priority objectives of the Structural Funds are: • promoting the development and structural adjustment of the regions whose development is lagging behind (objective 1); • supporting the economic and social conversion of areas facing structural difficulties (objective 2); • supporting the adaptation and modernisation of policies and systems of education, training and employment. (objective 3). The purpose of this study is to quantify the economic impacts of objective 1 interventions of the Structural Funds for the period 2000 – 2006. The expenditures of the Structural Funds for objective 2 and objective 3, the Cohesion Fund, the Instrument for Structural Policies for Pre-accession (ISPA) and loans which are granted by the European Investment Bank (EIB) are not included in the analysis. The study quantifies how much of expected development can be attributed to objective 1 expenditures for • Community interventions (Structural Funds), • public interventions (Structural Funds, national public interventions) and • total interventions (Structural Funds, national public interventions, private participation). The study uses the autumn 2001 forecast and medium-term projection of Directorate-General for Economic and Financial Affairs of the European Commission in order to calculate a baseline for the impact assessment. Today, the forecast itself seems rather optimistic. However, this does not cause problems for the analysis in this report, because the objective is to estimate the impact of the structural funds. In other words the objective is to estimate, for example, the additional growth caused by the structural funds and not to forecast growth as such. Therefore, whether the forecast as such will materialise is of no consequence for the impact analysis in this study.
Das Projekt RALV (rasche Analyse der Lichtstärkeverteilung) hatte das Ziel zu untersuchen, inwieweit eine schnelle Messung von Lichtstärkeverteilungen mit Hilfe von CCD Kamera-Aufnahmen von Streubildern auf einem Schirm möglich ist. Dazu wird eine Probe von einer gerichteten Lichtquelle (Laser) bestrahlt. Das gestreute Licht trifft auf einen Schirm. Auf dem Schirm entsteht eine Helligkeitsverteilung. Diese wird auf der Rückseite abfotographiert. Aus den Geometriedaten der Anordnung und der gemessenen Helligkeitsverteilung lässt sich die Lichtstärkeverteilung und damit die Streucharakteristik errechnen. Durch geeignete Wahl der Schirm-Materialien, eine gute Kamera-Auslegung sowie einer dafür entwickelten Software ist es im RALV-Projekt gelungen die Funktionsfähigkeit dieses Verfahrens nachzuweisen. Schwerpunkte bei der Arbeit im Projekt waren: - Finden geeigneter Komponenten: Lichtquellen, Schirmmaterial, Kamera - Schreiben der benötigten Software für: Steuerung, Auswertung und Darstellung - Vergleich der RALV-Methode mit Standard Methoden (ebenes Goniometer) Nach Ablauf des Projektes liegen die Daten für den Bau eines industriell einsetzbaren Messgerätes vor. Es zeigte sich, dass das RALV Messverfahren seine Stärken bei Materialien mit einer spiegelnden Vorzugsrichtung hat. Als Nebeneffekte des Projektes wurde ein ebenes Goniometer mit 3 achsiger Probenaufnahme gefertigt. Zudem wurde die Bewitterungskammer der FH Konstanz für lichttechnische Fragen erweitert.
In der automobilen Kompaktklasse werden trockenlaufende Stufenlosgetriebe bisher nicht eingesetzt. Dies ist vor allem auf die nicht zufriedenstellende Übertragbarkeit von Leistung im Zusammenhang mit einem ausreichenden Stellbereich (Getriebespreizung) der Umschlingungsmittel zurückzuführen. Neben Weiterentwicklungen auf dem Gebiet der Verbundkeilriemen, die für diesen Zweck eingesetzt werden, müssen vor allem jedoch konstruktive Lösungen für eine Leistungssteigerung gefunden werden. Es soll das Konzept eines Doppelriemen- (Twinbelt-) Getriebes untersucht werden. Durch die Verwendung zweier Riemen statt eines einzelnen kann nahezu eine Verdoppelung der übertragbaren Leistung erwartet werden, was die Einsatzmöglichkeiten für das Getriebe wesentlich erweitert. Als problematisch ist vor allem die Bauraumfrage des zusätzlichen Riementriebs, sowie der erhöhte Aufwand in der Getriebesteuerung zu sehen. Außerdem müssen für eine rentable Fertigung des Getriebes die notwendigen zusätzlichen Bauteile auf ein Minimum reduziert werden. Neben der theoretischen und konstruktiven Auslegung der zu entwickelnden Komponenten des Twinbelt-Getriebes und der Bauraumuntersuchung für die Anwendung in der automobilen Kompaktklasse ist auch die Entwicklung eines Komponenten-Prüfstandes durchzuführen. Der Prüfstand soll die Untersuchung der Funktionalität dieser neuen Getriebebauform, aber auch die Versuche in bezug auf die notwendigen Verstell- und Anpresssysteme, sowie das Betriebsverhalten der eingesetzten Riemen ermöglichen.
Statische Berechnungen werden heute vorwiegend unter Verwendung von Standardsoftware erstellt. Im wesentlichen kommen dabei Programmsysteme zum Einsatz, die für spezielle Aufgaben konzipiert sind. Beispielweise gibt es zur Berechnung von Decken, Stützen und Dachkonstruktionen im Hochbau entsprechende Stabwerks- und Finite-Element-Programme. Bei der Tragwerksplanung sind jedoch auch Berechnungen durchzuführen, für die fertige Programme nicht zur Verfügung stehen. Diese werden meistens“ von Hand“ , d.h. mit Papier, Bleistift und Taschenrechner durchgeführt. Hierbei kann es sich um spezielle statische Nachweise, z. B. für besondere Bauteile wie Dübelverankerungen, Fundamentanschlüsse für Stützen, ausgeklinkte Träger u.ä. handeln. Aber auch einfache Kontrollen von Computerberechnungen und Vordimensionierungen komplizierter Systeme erfolgen heute noch in der Regel „von Hand“. Zur Durchführung solcher Berechnungen auf dem Computer fehlen heute zwar nicht mehr die allgemeinen Werkzeuge, wohl aber geeignete Software-Hilfsmittel, wie sie bei der Handrechnung etwa die einschlägigen Tabellenbücher darstellen. Diese sind aber wesentlich für eine Engineering-Desktop Anwendung auf dem Computer. Diese zeichnet sich durch eine durchgängige Verwendung des Rechners auch bei nicht standardisierten Berechnungsaufgaben im Bauingenieurwesen aus. Ziel des Projekts war die Entwicklung von Softwarebausteinen für integrierte Engineering-Desktop-Anwendungen für die Tragwerksplanung. Die Funktionalität des Softwarebaukastens lässt sich aus dem statischen ”Wissen” eines Handbuchs wie z.B. [1] ableiten. Die Softwarebausteine sind so aufgebaut, dass sie von verschiedenster Officesoftware, wie MS-Excel und Mathcad genutzt werden können. Mit diesen Bausteinen soll eine deutlich höhere Flexibilität bei der Führung statischer Nachweise erreicht werden als dies bei der derzeitigen Standardsoftware für vorgegebene Nachweisabläufe der Fall ist. Mit Hilfe der entwickelten Softwarebausteine wurde eine Implementierung in Mathcad und Excel vorgenommen.
Im Februar dieses Jahres ist dem Bundesministerium der Justiz der deutsche Corporate Governance-Kodex (DCGK) übergeben worden. Er ist in der Zwischenzeit amtlich bekannt gemacht und mit einer gesetzlichen „Comply-or-Explain“-Regelung versehen. Damit sind nicht nur neue Anforderungen, sondern auch weitere Anglizismen in den deutschen Unternehmensalltag eingezogen. Wie nicht selten vorher, erscheinen diese gerade deswegen als nützlich, weil nicht ganz klar ist, was genau damit gemeint ist. Der DCGK ist freilich kein isoliertes Phänomen. Vielmehr hat eine ganze Reihe von OECD-Ländern ähnliche Bemühungen um „gute Regeln“ für die Wirtschaft politisch angeschobenoder abgeschlossen. So auch in der Schweiz, in der seit dem 1. Juli 2002 der „Swiss Code of Best Practice for Corporate Governance“ in Kraft ist. Die Bezeichnung “Corporate Governance” tauchte erst vor etwa zwei Jahrzehnten in der englischsprachigen Diskussion auf. Es waren vor allem Probleme im Zusammenhang mit Firmenübernahmen und in den Beziehungen zwischen Management und institutionellen Investoren, die dem Begriff rasch zu einer internationalen Karriere verholfen haben. Das ändert allerdings nichts an dem Umstand, dass „Corporate Governance“ bis heute ein unscharfer, wenn nicht gar ein schillernder Begriff ist. Genau genommen trifft dies allerdings nur auf den Begriffsteil „Governance“ zu. Damit ist grundlegend sowohl die Art und Weise als auch die Tätigkeit der Leitung und Kontrolle einer Organisation bezeichnet. Abgeleitet von „to govern/government“ bezieht sie sich ursprünglich auf das politische Herrschafts- und Steuerungsregime des Staates. Was wir daher in der letzten Zeit erleben, ist die Einwanderung eines ursprünglich politischen Begriffs in private Steu-erungsregimes. Denn heute lässt er sich sowohl auf Unternehmen als auch auf individuelle Personen (Self-Governance) anwenden. Als allgemeinste Definition von „Corporate Governance“ bietet sich daher an, darunter die Steuerungsstruktur zur Abwicklung wirtschaftlicher Transaktionen oder Austauschbeziehungen in, zwischen und mittels Unternehmen zu verstehen. Eine solche Steuerungsmatrix setzt sich zusammen aus Regeln und organisatorischen Einrichtungen zur Führung und Kontrolle eines Unternehmens. Die Regeln können dabei sowohl formaler als informaler Natur sein. Gesetzliche Rahmenbedingungen und unternehmensspezifische Anweisungen, Leitlinien und Verfahren gehören in die erste, Unternehmenskultur und Unternehmenswerte in die zweite Kategorie.
Dass Information und Wissen und die Prozesse ihrer Generierung und Nutzung in den neuen Ökonomien der globalen Gesellschaften die wichtigsten Ressourcen sind, ist in Theorie und Praxis allgemein anerkannt. Wenn Information das Gut oder die Dienstleistung der neuen e-Economy ist, dann muss sie umfassend und möglichst ohne alle Beschränkungen für Tauschakte zur Verfügung stehen. Eingeschränkte Zugriffs- und Verfügungsrechte ziehen eingeschränkte Tauschchancen nach sich und vermindern die „gains from trade“. In der Folge sinkt das Niveau gesellschaftlicher Wohlfahrt. Dieser Gesichtspunkt greift durch auf die moralische Bewertung einzelner Aspekte der e-Economy. Privacy etwa kann aus dieser Perspektive nicht bedeuten, dass personenbezogene Daten ausschließlich derjenigen Person gehören, auf die sie sich beziehen, sondern nur, dass ihre Verwendung in ökonomischen Transaktionen vor Missbrauch geschützt oder kompensiert werden muss. Ein weiterer Gesichtspunkt ist: es sind die beiden Kennzeichen der globalen Ökonomie, Geschwindigkeit und Dynamik, die zu einer Zunahme von Unsicherheit in der Wirtschaft führen, so dass Wettbewerbsvorteile nur noch von permanenten Innovatoren gehalten und fortentwickelt werden können. Das aber setzt Organisationen voraus, die nicht nur schell sind auf dem Weg von der Erfindung zum Markt, sondern darüber hinaus alle ihre Ressourcen und Kompetenzen in eine dynamische Schwingung versetzen, die es ermöglicht, immer neue Erfindungen hervorzubringen. Geschwindigkeit ist ein lineares Konzept, Dynamik entsteht aus Netzwerkeffekten. Eine weiterer Gesichtspunkt ist, dass die Wissensanteile an Produkten und Dienstleistungen rapide zugenommen haben und weiter zunehmen werden. Sie sind zu entscheidenden Generatoren der Wertschöpfung geworden. Nicht mehr dem Finanz- und Sachkapital, sondern dem Humankapital als Träger von Wissen wird in dieser Hinsicht entscheidende Bedeutung zugeschrieben.
Dieses Working Paper ist das Ergebnis eines Forschungsprojekts unter Leitung von Prof. Dr. habil. Josef Wieland und Mitarbeit von Dipl.-Betriebswirt Michael Fürst, beide Konstanz Institut für WerteManagement – KIeM (HTWG Konstanz). Das Forschungsprojekt wurde im Zeitraum von Mai 2000 – Juni 2002 durchgeführt. Neben der intensiven Aufarbeitung der vorhandenen Literatur zu den Themen Risikomanagement und Unternehmensethik zielte das Projekt in erster Linie darauf, das Zusammenspiel zwischen Wertemanagementsystemen und Risikomanagementsystemen zu bearbeiten. Um die Wirkungsweise von Wertemanagementsystemen im Kontext einer präventiven Risikovermeidungsstrategie beurteilen zu können, wurde hierzu eine Studie bei Unternehmen der Bauindustrie durchgeführt. Für die Bereitschaft zur Beteiligung an dieser Befragung möchten sich die Autoren sehr herzlich bei den teilnehmenden Unternehmen bedanken. Gefördert wurde das Forschungsprojekt dankenswerterweise vom Ministerium für Wissenschaft, Forschung und Kunst des Landes Baden-Württemberg im Rahmen des Schwerpunktprogramms „Innovative Projekte“.
Die Anforderungen, die von Privatpersonen und Unternehmen an das Internet gestellt werden, sind im Laufe der letzten Jahre stark gewachsen. Längst dient das WWW nicht mehr nur für den Abruf von Informationen, sondern wird als universelle Plattform für Dienstleistungen aller Art verstanden. Im Zuge dieser Entwicklung hat es sich als neue Plattform für die Kommunikation zwischen Kunde und Anbieter etabliert und dient als Medium für die Ausführung komplexer Geschäftsprozesse. Für die Realisierung solcher Geschäftsprozesse werden Web-Anwendungen eingesetzt. Diese sind in ihrer Erstellung wesentlich aufwendiger, als eine Präsentation statischer Webseiten, und damit teurer und fehleranfälliger. Frameworks erlauben, durch die Standardisierung allgemeiner Vorgänge innerhalb von Web-Anwendungen, deren zeit- und damit kosteneffektivere Entwicklung. Zusätzlich kann, durch den Einsatz vorgefertigter Komponenten, der Grad der Wiederverwendung bereits gefundener Lösungen erhöht, und damit nochmals eine Zeitersparnis bei Entwurf und Erstellung einer Anwendung erreicht werden. Ein solches Framework namens "WACoF" wird an der FH Konstanz aktiv entwickelt, basierend auf den Forschungsergebnissen und unter der Leitung von Herrn Prof. Dr. Schmid. In diesem Zusammenhang sind bisher unter anderem Diplomarbeiten von Florian Falkenstein [Falk01] und Marc Nädele [Nädele02] angefertigt worden. Die Hauptaufgabe dieser Diplomarbeit bestand in der Abänderung des oben genanntes Frameworks, so dass sich damit Anwendungen nicht mehr in Programmcode, sondern über einen Anwendungsdeskriptor definieren lassen. Ein solcher Deskriptor enthält sämtliche Informationen, die den Aufbau der Anwendung aus Komponenten beschreiben. Um eine konkrete Anwendung zu erstellen, muss der Anwendungsentwickler lediglich diese Informationen, wie Customizing und die Verbindungen zwischen den Komponenten, in Form einer XML-Datei zur Verfügung stellen. Die Definition der Anwendung wird damit zum einen unabhängig von der konkreten Programmiersprache des Frameworks, zum anderen wird sie in einem einzigen Ort konzentriert und in einer klar definierten Form beschrieben, was ihre Bearbeitung durch entsprechende Tools - wie z.B. grafische Manipulation oder automatische Prüfung auf Korrektheit, und damit frühzeitige Erkennung von Fehlern - erheblich vereinfacht. Dazu war es zuerst notwendig, das Framework in Hinblick auf die Einführung des Deskriptors zu analysieren. Aufgrund dieser Analyse wurden allgemeine Bedingungen für den Zusammenbau von Komponenten aufgestellt, und anhand der bestehenden Anwendungskomponenten (siehe Diplomarbeit von Marc Nädele [Nädele02]) überprüft. Dann wurde das Framework um neue Elemente, wie eine Komponenten-Fabrik und einen Aktivitäts-Pool, erweitert und bestehende Elemente, wie die ComposedActivity und der Crosslink-Mechanismus, neu entworfen bzw. angepasst.
Die Praxis zeigt, dass die meisten Leistungsmessungssysteme für den Vertriebsbereich konzeptuell bereits an ihre Grenzen gestoßen sind und den heutigen Geschäftsgegebenheiten kaum noch entsprechen können. Mehr noch, durch ihre „übertriebene“ Fokussierung auf die finanz-orientierten Indikatoren wirken sie sogar hinderlich im Konkurrenzkampf um den „besten Kunden“. Im Rahmen des Projektes, in welchem diese Arbeit entstanden ist, wurde für den Vertriebsmanager die Sales Performance Analyse als ein leistungsfähiges Controllinginstrument konzipiert und implementiert. Sie basiert auf dem bekannten Ansatz der Balanced Scorecard von Kaplan/Norton und bietet eine über alle Bereiche hinweg ausgewogene und strategieorientierte Betrachtung relevanter Vertriebsabläufe. Sie ermöglicht somit das Controlling, d.h. das Messen und Steuern, der relevanten Erfolgsfaktoren auf Basis der vier Perspektiven: Finanzen, Interne Prozesse, Kunden und Lernen&Wachstum. Um den vordefinierten inhaltlichen und funktionalen Ansprüchen gerecht zu werden, ist die Sales Performance Analyse in einer Systemlandschaft von SAP-eigenen Lösungen implementiert worden: Enterprise Portal, BW (Business Warehouse), CRM (Customer Relationship Management), SEM (Strategic Enterprise Management) und HR (Human Ressources). In diesem Projekt wurde ein funktionsfähiger Prototyp erstellt, der aktuell zu Präsentationszwecken bei den internationalen Branchenveranstaltungen und im laufenden SAP-Lösungs-Vertrieb verwendet wird.
Gegenstand dieser Arbeit ist ein Tool, das das Monitoring von Tabellen über mehrere SAP R/3-Systeme hinweg ermöglichen soll. Es wird in einer J2EE Umgebung implementiert und in ein Community Portal eingebettet. Das Tool soll dabei periodisch, innerhalb von vorgebbaren Zeitabständen automatisch starten. Für diese Aufgabe gibt es ein R/3-Programm, das abgelöst werden soll und dessen Funktionsumfang Grundlage der Neuentwicklung ist. Es müssen drei Tabellen aus den R/3- Systemen gelesen werden: die Tabelle, welche die Loginzeiten der Benutzer je System und Mandant beinhaltet, die Tabellen mit den Systemmeldungen und die mit den Transporten. Die Tabellen werden im neuen Tool über den RFC (Remote Funktion Call) Funktionbaustein RFC_READ_TABLE aus den R/3-Systemen gelesen. Diese Daten werden dann in einer externen Datenbank gespeichert. Um über ein Portal auf die Daten zugreifen zu können, wird eine entsprechende Schnittstelle entwickelt. Die gewünschten Tabellen und Einschränkungen werden über eine Konfigurationsdatei definiert. Somit ist es möglich, nicht nur die drei genannten Tabellen aus den R/3-Systemen zu lesen. Es werden für alle Systeme und deren Mandanten auftretende Fehler dokumentiert, um dem Administrator des Monitors die Möglichkeit zu geben, einfach herauszufinden, warum bestimmte Systeme eventuell nicht ausgelesen werden konnten.. Eine Fehlermeldung aus dem Portal kann, im internen R/3-Fehlermeldungssystem, für das entsprechende System angelegt werden. Zudem wird bei jedem Durchlauf die Anzahl der gelesenen Datensätze je System und Tabelle für mögliche Auswertungen dokumentiert. Abschliessend werden Erweiterungen beschrieben, welche in möglichen weiteren Versionen umgesetzt werden könnten. Dazu müssen allerdings noch eingehendere Vor- und Nachteils Betrachtungen angestellt werden.
Webservices können ein fester Bestandteil von Integrationsbemühungen werden, um nicht nur innerhalb des Unternehmens Altlasten aufzuräumen, sondern mittlerweile auch zwischen den Partnern, Kunden und Lieferanten zu koordinieren. Sie können mit ihrer Schlichtheit und Implementierungseleganz bisherige Integrationstools wie CORBA, DCOM u.a. alt aussehen lassen. Ihre textbasierten Bestandteile SOAP, WSDL und UDDI arbeiten mit XML und HTTP, die das enorme Potenzial des Internet erst jetzt richtig zur Geltung bringen.
Die vorliegende Arbeit beschreibt die Entwicklung und Implementierung eines plattformunabhängigen Facility Management Systems für das Testlabor der Firma Nortel Networks Germany. Ein Facility Management System dient der rechnergestützten Dokumentation und Verwaltung von Netzwerken wie Telekommunikations-, Daten- und Überwachungsnetzen, sowie deren Geräten. Dieses System stellt ein Individualprojekt dar und wurde spezifisch für Switches (Vermittlungsstellen) vom Typ DMS-100F entwickelt, um dem Benutzer die Möglichkeit zu bieten, über eine Applikation auf der Client-Seite die Konfigurationsdaten des jeweiligen Switches in einer zentralen Datenbank zu sichern, zu modifizieren und auszudrucken. Bis zu diesem Zeitpunkt existierte weder ein Tool, das diese Aufgabe erfüllte, noch jegliche andere Art der Dokumentation.
Zentrales Thema dieser Diplomarbeit ist die plattform- und anwendungsübergreifende elektronische Archivierung von Daten und Dokumenten unterschiedlichster Herkunft. Hierzu zählen neben der Einarbeitung in die Thematik, die Aufnahme und Strukturierung der Archivierungsanforderungen innerhalb des Unternehmens, sowie die darauf folgende Auswahl eines geeigneten Anbieters. Die angestrebte Archivierungslösung muss einerseits in der Lage sein sich in vorhandene Systeme zu integrieren (SAP R/3, Lotus Notes), andererseits wird ein applikationsunabhängiger Zugriff auf Daten und Dokumente erwartet. Zudem muss die Archivierungslösung die vorhandenen gesetzlichen Anforderungen erfüllen.