Refine
Year of publication
Document Type
- Conference Proceeding (642)
- Article (426)
- Other Publications (143)
- Part of a Book (141)
- Working Paper (128)
- Book (118)
- Report (115)
- Journal (Complete Issue of a Journal) (85)
- Master's Thesis (77)
- Doctoral Thesis (58)
Language
- German (1113)
- English (882)
- Multiple languages (8)
Keywords
Institute
- Fakultät Architektur und Gestaltung (41)
- Fakultät Bauingenieurwesen (104)
- Fakultät Elektrotechnik und Informationstechnik (34)
- Fakultät Informatik (121)
- Fakultät Maschinenbau (60)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (106)
- Institut für Angewandte Forschung - IAF (115)
- Institut für Naturwissenschaften und Mathematik - INM (3)
- Institut für Optische Systeme - IOS (39)
- Institut für Strategische Innovation und Technologiemanagement - IST (60)
Die Statik im Flugzeugbau
(1917)
Aus dem Vorwort:
"NTF - Hinführung zur naturwissenschaftlichen-technischen Fachsprache" ist ein programmierter, fachsprachlicher Aufbaukurs, der zusammen mit dem Grundkurs "MNF - Hinführung zur mathematisch-naturwissenschaftlichen Fachsprache" ein zweistufiges Unterrichtssystem zur sprachlichen Vorbereitung von Ausländern auf ein naturwissenschaftlich-technisches Studium an Fachhochschulen und Technischen Universitäten darstellt.
Darüber hinaus wendet sich NTF an alle, die über die grundlegende Terminologie der Bereiche Werkstoffkunde, Maschinenbau, Baustoffkunde und Elektrotechnik/Informatik verfügen und Fachtexte aus diesen Gebieten lesen müssen.
Aus dem Vorwort: "NTF - Hinführung zur naturwissenschaftlichen-technischen Fachsprache" ist ein programmierter, fachsprachlicher Aufbaukurs, der zusammen mit dem Grundkurs "MNF - Hinführung zur mathematisch-naturwissenschaftlichen Fachsprache" ein zweistufiges Unterrichtssystem zur sprachlichen Vorbereitung von Ausländern auf ein naturwissenschaftlich-technisches Studium an Fachhochschulen und Technischen Universitäten darstellt. Darüber hinaus wendet sich NTF an alle, die über die grundlegende Terminologie der Bereiche Werkstoffkunde, Maschinenbau, Baustoffkunde und Elektrotechnik/Informatik verfügen und Fachtexte aus diesen Gebieten lesen müssen.
Aus dem Vorwort: "NTF - Hinführung zur naturwissenschaftlichen-technischen Fachsprache" ist ein programmierter, fachsprachlicher Aufbaukurs, der zusammen mit dem Grundkurs "MNF - Hinführung zur mathematisch-naturwissenschaftlichen Fachsprache" ein zweistufiges Unterrichtssystem zur sprachlichen Vorbereitung von Ausländern auf ein naturwissenschaftlich-technisches Studium an Fachhochschulen und Technischen Universitäten darstellt.
Darüber hinaus wendet sich NTF an alle, die über die grundlegende Terminologie der Bereiche Werkstoffkunde, Maschinenbau, Baustoffkunde und Elektrotechnik/Informatik verfügen und Fachtexte aus diesen Gebieten lesen müssen.
Planspiel KLIMA 10.X
(1992)
fhk forum - Ausgabe 2001
(2002)
Zum automatischen Testen der Endgeräte bei Nokia wird ein computergestütztes Systen namens Austere eingesetzt. Dieses System wurde vollständig innerhalb der Firma konzipiert und wird ständig weiterentwickelt. Der erste Teil der Diplomarbeit bestand darin, ein solches Austere Testsystem aus neuen Hardwarekomponenten aufzubauen und die schon vorhandene Testsoftware namens RAPT darauf anzupassen. Der Aufbau sowie der Zusammenhang der Soft- und Hardwarekomponenten untereinander und die Handhabung des Systems wird in Kapitel 3 beschrieben. Erst wenn man die Komplexität des Systems und den Zusammenhang der Komponenten untereinander verstanden hat, kann man sich den Erweiterungen widmen. Sie gehören zum zweiten Teil der Diplomarbeit. Diese Erweiterungen werden in den Folgekapiteln behandelt. In ihnen wird für das jeweilige Thema zunächst die Theorie beschrieben und anschließend soll eine Lösung der Erweiterung des Austere-Systems gegeben werden.
Dass Information und Wissen und die Prozesse ihrer Generierung und Nutzung in den neuen Ökonomien der globalen Gesellschaften die wichtigsten Ressourcen sind, ist in Theorie und Praxis allgemein anerkannt. Wenn Information das Gut oder die Dienstleistung der neuen e-Economy ist, dann muss sie umfassend und möglichst ohne alle Beschränkungen für Tauschakte zur Verfügung stehen. Eingeschränkte Zugriffs- und Verfügungsrechte ziehen eingeschränkte Tauschchancen nach sich und vermindern die „gains from trade“. In der Folge sinkt das Niveau gesellschaftlicher Wohlfahrt. Dieser Gesichtspunkt greift durch auf die moralische Bewertung einzelner Aspekte der e-Economy. Privacy etwa kann aus dieser Perspektive nicht bedeuten, dass personenbezogene Daten ausschließlich derjenigen Person gehören, auf die sie sich beziehen, sondern nur, dass ihre Verwendung in ökonomischen Transaktionen vor Missbrauch geschützt oder kompensiert werden muss. Ein weiterer Gesichtspunkt ist: es sind die beiden Kennzeichen der globalen Ökonomie, Geschwindigkeit und Dynamik, die zu einer Zunahme von Unsicherheit in der Wirtschaft führen, so dass Wettbewerbsvorteile nur noch von permanenten Innovatoren gehalten und fortentwickelt werden können. Das aber setzt Organisationen voraus, die nicht nur schell sind auf dem Weg von der Erfindung zum Markt, sondern darüber hinaus alle ihre Ressourcen und Kompetenzen in eine dynamische Schwingung versetzen, die es ermöglicht, immer neue Erfindungen hervorzubringen. Geschwindigkeit ist ein lineares Konzept, Dynamik entsteht aus Netzwerkeffekten. Eine weiterer Gesichtspunkt ist, dass die Wissensanteile an Produkten und Dienstleistungen rapide zugenommen haben und weiter zunehmen werden. Sie sind zu entscheidenden Generatoren der Wertschöpfung geworden. Nicht mehr dem Finanz- und Sachkapital, sondern dem Humankapital als Träger von Wissen wird in dieser Hinsicht entscheidende Bedeutung zugeschrieben.
Die zunehmende Internationalisierung der Märkte, das wachsende, immer differenziertere Produktangebot und die hohe technische Innovationsgeschwindigkeit führen zu immer härteren Wettbewerbsbedingungen auf dem Markt. Diese Situation zwingt die Unternehmen nicht nur zu kontinuierlichen Anstrengungen, um ihre Produktivität und Qualität zu steigern, sondern es stehen auch immer geringere Mittel für die Realisierung von Produktions- und/oder Messeinheiten innerhalb des Produktionsprozesses zur Verfügung. Als Folge dessen werden Entwickler mit folgenden Grundforderungen konfrontiert: · Abstimmung der Architektur auf vorhandene und/oder gängige Infrastrukturen · Reduzierung des Entwicklungsaufwandes durch Modularisierung des Systemaufbaues · Reduzierung der Wartungs- und Administrationskosten durch einfache Handhabbarkeit · Maximierung der Betriebssicherheit und Minimierung der Ausfallzeiten · Einfache Erweiterbarkeit · Hohe Wiederverwendbarkeit Ein Resümee von Softwareprojekten über die letzten Jahre zeigt, dass sich der Rahmen für Softwareentwicklung insgesamt geändert hat. Softwareprojekte sind heute mehrschichtige, verteilte (ggf. auch komponentenbasierte) Anwendungen mit gestiegenen Anforderungen an Funktionalität, Qualität und Flexibilität. Leider beinhalten die Architekturen und Konzepte der ‚Verteilten Systeme' Schwächen, diese für verteilte Mess- und Steuerungssysteme direkt umzusetzen. Ziel dieser Arbeit ist es, die Schwächen vorhandener Konzepte aufzuzeigen und eine Architektur vorzustellen, die den Entwickler unterstützt, verteilte Mess- und Steuerungssysteme bis hin zu Prozessleitsystemen unter dem Betriebssystem Windows zu entwickeln.
Forum - Ausgabe 2002
(2003)
fhk-Journal. Heft 2, 2002
(2002)
Die traditionelle anonyme Architektur der Tropen hat weltweit über lange Zeiträume hinweg intelligente Bauformen, Baukonstruktionen und Raumfolgen entwickelt für das Wohnen, die Arbeit, die Kultur und die Religion ihrer agrarisch geprägten Gesellschaftsformen unter harten klimatischen Bedingungen. Für die „Dritte Welt“ in den Tropen führte die Begegnung mit der europäischen Zivilisation durch die Kolonisation im 19. Jahrhundert zu einem Zusammenbruch ihrer traditionellen Kulturformen. In den vergangenen 100 Jahren, vor allem seit der Unabhängigkeit der jungen Staaten, wurden grosse bauliche Investitionen geleistet, die jedoch selten unter Beachtung der besonderen Bedingungen des tropischen Klimas erfolgten. Die grosse Masse des Gebauten zeigt heute die stereotypen architektonischen Gestaltungsansätze des europäischen gemässigten Klimas mit nachteiligen Konsequenzen für die ökologische und hygienische Konzeption des Gebäudes. Von derzeit 6 Milliarden Menschen (im Jahre 2000) leben 5 Milliarden in der Dritten Welt. Die Bevölkerungsexplosion in diesen jungen Staaten wird in Zukunft grosse Bauaufgaben für den Wohnungsbau, Verwaltung, Kultur und Soziales erfordern, die mit den überholten europäischen Schematismen nicht mehr zu bewältigen sein werden. Vor diesem Hintergrund könnte ein Rückgriff auf die alten baulichen Erfahrungen der traditionellen anonymen Architektur der Tropen wesentliche und vorbildhafte Hilfestellung bieten für die Entwicklung einer neuen klimagerechten und menschenwürdigen Architektur. Die vorliegende Dissertation konzentriert sich auf die Herausarbeitung der Prinzipien des klimagerechten Bauens in den Tropen. Ihre Ergebnisse gründen auf der Forschung, welche die HTWG Konstanz unter meiner Leitung in den vergangenen 15 Jahren im tropischen Klimaraum Afrikas durchgeführt hat.
Im Februar dieses Jahres ist dem Bundesministerium der Justiz der deutsche Corporate Governance-Kodex (DCGK) übergeben worden. Er ist in der Zwischenzeit amtlich bekannt gemacht und mit einer gesetzlichen „Comply-or-Explain“-Regelung versehen. Damit sind nicht nur neue Anforderungen, sondern auch weitere Anglizismen in den deutschen Unternehmensalltag eingezogen. Wie nicht selten vorher, erscheinen diese gerade deswegen als nützlich, weil nicht ganz klar ist, was genau damit gemeint ist. Der DCGK ist freilich kein isoliertes Phänomen. Vielmehr hat eine ganze Reihe von OECD-Ländern ähnliche Bemühungen um „gute Regeln“ für die Wirtschaft politisch angeschobenoder abgeschlossen. So auch in der Schweiz, in der seit dem 1. Juli 2002 der „Swiss Code of Best Practice for Corporate Governance“ in Kraft ist. Die Bezeichnung “Corporate Governance” tauchte erst vor etwa zwei Jahrzehnten in der englischsprachigen Diskussion auf. Es waren vor allem Probleme im Zusammenhang mit Firmenübernahmen und in den Beziehungen zwischen Management und institutionellen Investoren, die dem Begriff rasch zu einer internationalen Karriere verholfen haben. Das ändert allerdings nichts an dem Umstand, dass „Corporate Governance“ bis heute ein unscharfer, wenn nicht gar ein schillernder Begriff ist. Genau genommen trifft dies allerdings nur auf den Begriffsteil „Governance“ zu. Damit ist grundlegend sowohl die Art und Weise als auch die Tätigkeit der Leitung und Kontrolle einer Organisation bezeichnet. Abgeleitet von „to govern/government“ bezieht sie sich ursprünglich auf das politische Herrschafts- und Steuerungsregime des Staates. Was wir daher in der letzten Zeit erleben, ist die Einwanderung eines ursprünglich politischen Begriffs in private Steu-erungsregimes. Denn heute lässt er sich sowohl auf Unternehmen als auch auf individuelle Personen (Self-Governance) anwenden. Als allgemeinste Definition von „Corporate Governance“ bietet sich daher an, darunter die Steuerungsstruktur zur Abwicklung wirtschaftlicher Transaktionen oder Austauschbeziehungen in, zwischen und mittels Unternehmen zu verstehen. Eine solche Steuerungsmatrix setzt sich zusammen aus Regeln und organisatorischen Einrichtungen zur Führung und Kontrolle eines Unternehmens. Die Regeln können dabei sowohl formaler als informaler Natur sein. Gesetzliche Rahmenbedingungen und unternehmensspezifische Anweisungen, Leitlinien und Verfahren gehören in die erste, Unternehmenskultur und Unternehmenswerte in die zweite Kategorie.
Statische Berechnungen werden heute vorwiegend unter Verwendung von Standardsoftware erstellt. Im wesentlichen kommen dabei Programmsysteme zum Einsatz, die für spezielle Aufgaben konzipiert sind. Beispielweise gibt es zur Berechnung von Decken, Stützen und Dachkonstruktionen im Hochbau entsprechende Stabwerks- und Finite-Element-Programme. Bei der Tragwerksplanung sind jedoch auch Berechnungen durchzuführen, für die fertige Programme nicht zur Verfügung stehen. Diese werden meistens“ von Hand“ , d.h. mit Papier, Bleistift und Taschenrechner durchgeführt. Hierbei kann es sich um spezielle statische Nachweise, z. B. für besondere Bauteile wie Dübelverankerungen, Fundamentanschlüsse für Stützen, ausgeklinkte Träger u.ä. handeln. Aber auch einfache Kontrollen von Computerberechnungen und Vordimensionierungen komplizierter Systeme erfolgen heute noch in der Regel „von Hand“. Zur Durchführung solcher Berechnungen auf dem Computer fehlen heute zwar nicht mehr die allgemeinen Werkzeuge, wohl aber geeignete Software-Hilfsmittel, wie sie bei der Handrechnung etwa die einschlägigen Tabellenbücher darstellen. Diese sind aber wesentlich für eine Engineering-Desktop Anwendung auf dem Computer. Diese zeichnet sich durch eine durchgängige Verwendung des Rechners auch bei nicht standardisierten Berechnungsaufgaben im Bauingenieurwesen aus. Ziel des Projekts war die Entwicklung von Softwarebausteinen für integrierte Engineering-Desktop-Anwendungen für die Tragwerksplanung. Die Funktionalität des Softwarebaukastens lässt sich aus dem statischen ”Wissen” eines Handbuchs wie z.B. [1] ableiten. Die Softwarebausteine sind so aufgebaut, dass sie von verschiedenster Officesoftware, wie MS-Excel und Mathcad genutzt werden können. Mit diesen Bausteinen soll eine deutlich höhere Flexibilität bei der Führung statischer Nachweise erreicht werden als dies bei der derzeitigen Standardsoftware für vorgegebene Nachweisabläufe der Fall ist. Mit Hilfe der entwickelten Softwarebausteine wurde eine Implementierung in Mathcad und Excel vorgenommen.
Die zunehmende Vernetzung von Unternehmen, die Globalisierung der Wirtschaft und die stark ansteigende Aufmerksamkeit gesellschaftlicher Akteure für das Handeln von Unternehmen haben eine Vielzahl wirtschaftsethischer Probleme auf die Agenda von Unternehmen gesetzt. Als Instrumentarium für diese Problemstellung dienen Wertemanagementsysteme, deren Einsatz in der Praxis durch die empirischen Ergebnisse vorliegender Längsstudie untersucht werden.
Entwicklung eines Software-Systems für die Qualitätssicherung von Oberflächen im Automobilbau
(2003)
Heutzutage nimmt die Qualitätssicherung der Produkte bei immer mehr Betrieben einen zunehmend hohen Stellenwert ein. Auch in der Automobilindustrie gelten mittlerweile hohe Qualitätsrichtlinien. Damit der Qualitätsstandard aber auch gewährleistet werden kann, muss die Qualität des Produkts ständig gemessen und beurteilt werden. Um die manuelle Prüfung der Pressteile zu unterstützen wurde in den letzten Jahren bei VW/Audi do Brasil – BUC das Oberflächen-Inspektions-System DSight eingesetzt. Leider haben jedoch zahlreiche Messungen mit DSight ergeben, dass die Ergebnisse unzuverlässig und nicht reproduzierbar sind. Aus diesem Grund wurde im Rahmen dieser Diplomarbeit ein neues Software-System zur Inspektion von Oberflächen im Automobilbau entwickelt, das die Anforderungen der Qualitätssicherung besser erfüllt. Das neue System, das den Namen VisionMaster trägt, basiert auf dem Prinzip der Retro-Reflexion. Mit Hilfe implementierter Auswertungsalgorithmen werden aufgenommene Grauwertbilder der gepressten Teile analysiert. Die Ergebnisse der Inspektion werden anschließend in übersichtlicher Form in einem Protokoll ausgegeben. Um die Reproduzierbarkeit der Messungen zu garantieren und die Messergebnisse archivieren zu können, wird zusätzlich eine Datenbank eingesetzt, auf die über die ADO-Technologie zugegriffen wird. Zur Beschleunigung der Inspektion wir das neue System VisionMaster direkt in die Produktionshalle verlagert, um dort vor Ort Messungen an den gepressten Teilen durchführen zu können.
Aufbau eines neuen Knowledge Networks für den Bereich "Human Resources" der Winterthur Versicherung
(2003)
Die seit Mitte des letzten Jahrhunderts geprägte Industriegesellschaft erfährt eine neue Wende. Das Zeitalter der Informations- und Wissensgesellschaft drängt sich aufgrund der Informationstechnologie (IT) in den Vordergrund. "Die Wissensgesellschaft ist keine ferne Vision. Sie ist längst Realität. Wir müssen sie nicht erfinden, sondern erfinderisch mit ihren Chancen umgehen". Im Gegensatz zur bisherigen Gesellschaft, in der die Produktion von Objekten zu möglichst geringen Kosten im Mittelpunkt stand, orientiert sich diese neue Gesellschaft mehr an der Entwicklung von neuen Ideen und neuem Wissen zur Produktion und Weiterentwicklung von Objekten. Auch die Organisationsform in Unternehmen erfuhr einen Wandel: von funktionalen zu prozessorientierten Organisationsformen. Diese prozessorientierte Organisation ist lernfähiger, da Barrieren, Abeilungsgrenzen und Hierarchieebenen leichter überwindbar geworden sind. In diesem Zusammenhang liegt die Wertschöpfung von Unternehmen darin, dass die Mitarbeiter der Unternehmung mit Geschick, Originalität und Schnelligkeit neue Probleme identifizieren, kreativ lösen und überzeugend kommunizieren. Zum wettbewerbsentscheidenden Faktor wird das Wissen, welches sich in verschiedensten Formen innerhalb des Unternehmens befindet. Dieses zu offenbaren und zu gebrauchen ist u.a. das Ziel des Knowledge Managements. Wie bei jeder Organisation empfiehlt es sich auch beim Knowledge Management, in zusammenhängenden Prozessen zu denken. Dazu müssen Unternehmen Knowledge Management als einen gestaltbaren Prozess verstehen, der sich auf alle internen Prozesse auswirkt.
This thesis investigates methods for the recognition of facial expressions using support vector machines. Rather than trying to recognize facial actions in the face such as raised eyebrow, mouth open and frowns. These facial actions are described in the Facial Action Coding System (FACS) and are essential facial components, which can be combined to form facial expressions. We perform independent recognition of 6 upper and 10 lower action units in the face, which may occur either individually or in combination. Based on a feature extraction from grey-level values, the system is expected to recognize under real-time conditions. Results are presented with different image resolutions, SVM kernels and variations of low-level features.
Die Praxis zeigt, dass die meisten Leistungsmessungssysteme für den Vertriebsbereich konzeptuell bereits an ihre Grenzen gestoßen sind und den heutigen Geschäftsgegebenheiten kaum noch entsprechen können. Mehr noch, durch ihre „übertriebene“ Fokussierung auf die finanz-orientierten Indikatoren wirken sie sogar hinderlich im Konkurrenzkampf um den „besten Kunden“. Im Rahmen des Projektes, in welchem diese Arbeit entstanden ist, wurde für den Vertriebsmanager die Sales Performance Analyse als ein leistungsfähiges Controllinginstrument konzipiert und implementiert. Sie basiert auf dem bekannten Ansatz der Balanced Scorecard von Kaplan/Norton und bietet eine über alle Bereiche hinweg ausgewogene und strategieorientierte Betrachtung relevanter Vertriebsabläufe. Sie ermöglicht somit das Controlling, d.h. das Messen und Steuern, der relevanten Erfolgsfaktoren auf Basis der vier Perspektiven: Finanzen, Interne Prozesse, Kunden und Lernen&Wachstum. Um den vordefinierten inhaltlichen und funktionalen Ansprüchen gerecht zu werden, ist die Sales Performance Analyse in einer Systemlandschaft von SAP-eigenen Lösungen implementiert worden: Enterprise Portal, BW (Business Warehouse), CRM (Customer Relationship Management), SEM (Strategic Enterprise Management) und HR (Human Ressources). In diesem Projekt wurde ein funktionsfähiger Prototyp erstellt, der aktuell zu Präsentationszwecken bei den internationalen Branchenveranstaltungen und im laufenden SAP-Lösungs-Vertrieb verwendet wird.
Die Anforderungen, die von Privatpersonen und Unternehmen an das Internet gestellt werden, sind im Laufe der letzten Jahre stark gewachsen. Längst dient das WWW nicht mehr nur für den Abruf von Informationen, sondern wird als universelle Plattform für Dienstleistungen aller Art verstanden. Im Zuge dieser Entwicklung hat es sich als neue Plattform für die Kommunikation zwischen Kunde und Anbieter etabliert und dient als Medium für die Ausführung komplexer Geschäftsprozesse. Für die Realisierung solcher Geschäftsprozesse werden Web-Anwendungen eingesetzt. Diese sind in ihrer Erstellung wesentlich aufwendiger, als eine Präsentation statischer Webseiten, und damit teurer und fehleranfälliger. Frameworks erlauben, durch die Standardisierung allgemeiner Vorgänge innerhalb von Web-Anwendungen, deren zeit- und damit kosteneffektivere Entwicklung. Zusätzlich kann, durch den Einsatz vorgefertigter Komponenten, der Grad der Wiederverwendung bereits gefundener Lösungen erhöht, und damit nochmals eine Zeitersparnis bei Entwurf und Erstellung einer Anwendung erreicht werden. Ein solches Framework namens "WACoF" wird an der FH Konstanz aktiv entwickelt, basierend auf den Forschungsergebnissen und unter der Leitung von Herrn Prof. Dr. Schmid. In diesem Zusammenhang sind bisher unter anderem Diplomarbeiten von Florian Falkenstein [Falk01] und Marc Nädele [Nädele02] angefertigt worden. Die Hauptaufgabe dieser Diplomarbeit bestand in der Abänderung des oben genanntes Frameworks, so dass sich damit Anwendungen nicht mehr in Programmcode, sondern über einen Anwendungsdeskriptor definieren lassen. Ein solcher Deskriptor enthält sämtliche Informationen, die den Aufbau der Anwendung aus Komponenten beschreiben. Um eine konkrete Anwendung zu erstellen, muss der Anwendungsentwickler lediglich diese Informationen, wie Customizing und die Verbindungen zwischen den Komponenten, in Form einer XML-Datei zur Verfügung stellen. Die Definition der Anwendung wird damit zum einen unabhängig von der konkreten Programmiersprache des Frameworks, zum anderen wird sie in einem einzigen Ort konzentriert und in einer klar definierten Form beschrieben, was ihre Bearbeitung durch entsprechende Tools - wie z.B. grafische Manipulation oder automatische Prüfung auf Korrektheit, und damit frühzeitige Erkennung von Fehlern - erheblich vereinfacht. Dazu war es zuerst notwendig, das Framework in Hinblick auf die Einführung des Deskriptors zu analysieren. Aufgrund dieser Analyse wurden allgemeine Bedingungen für den Zusammenbau von Komponenten aufgestellt, und anhand der bestehenden Anwendungskomponenten (siehe Diplomarbeit von Marc Nädele [Nädele02]) überprüft. Dann wurde das Framework um neue Elemente, wie eine Komponenten-Fabrik und einen Aktivitäts-Pool, erweitert und bestehende Elemente, wie die ComposedActivity und der Crosslink-Mechanismus, neu entworfen bzw. angepasst.
Die vorliegende Arbeit beschreibt die Entwicklung und Implementierung eines plattformunabhängigen Facility Management Systems für das Testlabor der Firma Nortel Networks Germany. Ein Facility Management System dient der rechnergestützten Dokumentation und Verwaltung von Netzwerken wie Telekommunikations-, Daten- und Überwachungsnetzen, sowie deren Geräten. Dieses System stellt ein Individualprojekt dar und wurde spezifisch für Switches (Vermittlungsstellen) vom Typ DMS-100F entwickelt, um dem Benutzer die Möglichkeit zu bieten, über eine Applikation auf der Client-Seite die Konfigurationsdaten des jeweiligen Switches in einer zentralen Datenbank zu sichern, zu modifizieren und auszudrucken. Bis zu diesem Zeitpunkt existierte weder ein Tool, das diese Aufgabe erfüllte, noch jegliche andere Art der Dokumentation.
Das historisch gewachsene System für die Erstellung, Koordinierung und Auskunft der Lehrveranstaltungspläne (LVP) soll durch ein neues System ersetzt werden. Diese Diplomarbeit befasst sich mit der Konzeption und der Implementierung einer neuen grafischen Benutzeroberfläche und der Migration auf eine SQL basierte Datenbank für das komplette Management der Lehrveranstaltungspläne der FH Konstanz. Wie die Stundenpläne an den Schulen müssen auch die Lehrveranstaltungspläne an der Fachhochschule in jedem Semester entworfen, zu Papier gebracht, vervielfältigt und verteilt werden. An der FH Konstanz wird die heikle Aufgabe des Entwerfens von den LVP- Beauftragten der Studiengänge erledigt, denn sie können die vielen Randbedingungen besser überschauen und das Ergebnis auch rechtfertigen. Für die Routinearbeiten Auskunft und Drucken gab es bisher das LVP- Programm als ein spezielles Informationssystem. Auch wenn sich das bisherige System bewährt hat, blieben doch einige Wünsche der Planer offen. Da das LVP- System über mehrere Jahre gewachsen war, ist man an einige Eigenheiten gebunden, die es zu eliminieren gilt. Auch neue Technologien eröffnen einige interessante Möglichkeiten, die früher noch nicht so einfach, oder gar nicht zu implementieren waren. Ziel dieser Diplomarbeit ist eine komplette Neuentwicklung des gesamten Systems unter Verwendung aktueller Technologien: das LVP³- System.
Dieses Working Paper ist das Ergebnis eines Forschungsprojekts unter Leitung von Prof. Dr. habil. Josef Wieland und Mitarbeit von Dipl.-Betriebswirt Michael Fürst, beide Konstanz Institut für WerteManagement – KIeM (HTWG Konstanz). Das Forschungsprojekt wurde im Zeitraum von Mai 2000 – Juni 2002 durchgeführt. Neben der intensiven Aufarbeitung der vorhandenen Literatur zu den Themen Risikomanagement und Unternehmensethik zielte das Projekt in erster Linie darauf, das Zusammenspiel zwischen Wertemanagementsystemen und Risikomanagementsystemen zu bearbeiten. Um die Wirkungsweise von Wertemanagementsystemen im Kontext einer präventiven Risikovermeidungsstrategie beurteilen zu können, wurde hierzu eine Studie bei Unternehmen der Bauindustrie durchgeführt. Für die Bereitschaft zur Beteiligung an dieser Befragung möchten sich die Autoren sehr herzlich bei den teilnehmenden Unternehmen bedanken. Gefördert wurde das Forschungsprojekt dankenswerterweise vom Ministerium für Wissenschaft, Forschung und Kunst des Landes Baden-Württemberg im Rahmen des Schwerpunktprogramms „Innovative Projekte“.
In der Diplomarbeit werden verschiedene, schon auf dem Markt befindliche Intrusion Intrusion Detection Systeme auf unterschiedliche Kriterien verglichen. Es werden mögliche Einsatzarten und Einsatzorte mit ihren Vor- und Nachteilen durchleuchtet und besprochen. Auf Basis der erlangten Erkenntnisse wird ein System vorgeschlagen, dass nach Abstimmung mit dem Projektleiter eingesetzt werden soll. Zu den Einsatz- kriterien gehören das vorhanden Budget, die Netzwerkumgebung, die Ausstattung und Leistungsfähigkeit des Einsatz-Intrusion Detection Systems sowie die Art des Intrusion Detection Systems. Geplant ist der Einsatz mindestens eines bzw. mehrerer Systeme als eine sogenannte Enterprise-Lösung. Mittels verschiedener Hilfsmittel und Tools werden die Intrusion Detection Systeme eTrust von Computer Associates, Real Secure von ISS, Snort, Tripwire und Network Intrusion Detection von Network Flight Recorder untersucht. Der Test und der Betrieb dieser Systeme geschieht sowohl vor als auch hinter der Firewall also in der demilitarisierten Zone des Unternehmens. Die Untersuchung der Systeme beinhaltet Kontrollen über Systemstabilität, Prozessor- und Hauptspeicherauslastung, Anzahl der erkannten Angriffe auf Basis simulierter Angriffe sowie die Benutzerfreundlichkeit
In Ländern mit aridem Klima, z.B. in Dürregebieten, und nicht flächendeckender Energieversorgung stellt der Antrieb von Pumpen zur landwirtschaftlichen Bewässerung und zur Trinkwasserversorgung ein erhebliches Problem dar. Bisherige Bewässerungsanlagen arbeiten größtenteils mit Dieselgeneratoren, welche die Umwelt mit Emissionen belasten und zur Verstärkung des weltweiten Treibhauseffektes führen, oder über photovoltaisch betriebene Anlagen. Letztere sind in der Anschaffung sehr kostenintensiv und aufgrund ihrer Funktionsweise gegenüber Störeinwirkungen sehr anfällig. Gerade in den sogenannten Dritte-Welt-Ländern, in denen in der Regel kein geschultes Fachpersonal für Wartungsarbeiten bereitsteht, ist der Ausfall der Anlagen schon kurz nach der Inbetriebnahme eine häufig berichtete Tatsache. Im Werkstoffprüflabor der HTWG Konstanz wurde ein System zur energieautonomen Wasserförderung entwickelt, bei der zum Antrieb der Pumpen Formgedächtnislegierungen (FGL) verwendet werden [1, 2]. Bei Sonnenschein arbeitet diese geplante Bewässerungsanlage völlig energieautonom: Die Wärmeenergie der Sonne wird durch die FG-Drähte direkt in mechanische Energie umgewandelt und betreibt die Bewässerungspumpen. Die Vorteile dieses einfachen Prinzips liegen in der Bedienerfreundlichkeit, Wirtschaftlichkeit und Leistungsfähigkeit der Anlage wie auch in der Fle-xibilität bezüglich weiterer Anwendungsfälle der modular einsetzbaren Wärmekraftmaschine in Industrie und Klimatechnik. Der angestrebte Einsatz von derartigen Anlagen würde zu einer entsprechenden Entlastung der immer stärker mit Emissionen belasteten Umwelt führen. Das überaus große Interesse an diesen Forschungsarbeiten sowie an einem Transfer der Bewässerungsanlage in die Industrie zeigte sich auch schon während früherer Teilnahmen an Messen, Tagungen und Konferenzen. Die Konkurrenzfähigkeit dieser sowohl neuartigen als auch sehr einfachen Systemlösung wurde, ausgehend von den damals zur Verfügung stehenden Ergebnissen, in einer bereits durchgeführten Studie nachgewiesen [2]. Im einzelnen sollten in diesem Projekt neben den anstehenden wissenschaftlichen Untersuchungen zwei Versuchsanlagen konstruiert und gefertigt werden. Dadurch sollten die nötigen Erkenntnisse gewonnen werden, um diese innovative Erfindung zu einem späteren Zeitpunkt zu einer transferfähigen Anlage fertig zu entwickeln. Diese beiden Prototypen bauen auf den bisherigen Arbeiten in diesem Projekt auf, die mit Erfolg gezeigt haben, daß das entwickelte Prinzip sehr gut funktioniert. Ziel dieses Projektes war es also, diese neuartige, innovative Wärmekraftmaschine weiterzuentwickeln, zu optimieren und die nötigen Erkenntnisse zu gewinnen, um diese Anlage nach Abschluß dieses aFuE-Projektes in Zusammenarbeit mit der beteiligten oder neu zu gründenden Firmen zur Serienreife zu bringen. Ein damit eng verbundenes, weiteres Ziel lag in der Entwicklung einer modular einsetzbaren Wärmekraftmaschine, die dann auch für die anderen nachfolgend genannten Anwendungsgebiete verwendet werden kann: • Meerwasserentsalzung • Klimatisierungstechnik • Antrieb der Pumpen bei geothermischer Wärmeeinbringung • Energierückgewinnung aus Wärmequellen (z.B. Geysire in Island) • Energierückgewinnung in industriellen Kühlwasserkreisläufen • Energierückgewinnung in der Verfahrenstechnik • Restwärmenutzung bei konventioneller Energieerzeugung.
Die Diplomarbeit beschäftigt sich mit dem Erfassen und der Auswertung von Störungen und Statusmeldungen, welche in einem Teilbereich der automatisierten Fertigung des Automobilbaus bei VW/Audi do Brasil entstehen. Die erste Anwendung, die im Rahmen der Diplomarbeit entstand, ist ein Editor für SIEMENS S5 Symbolzuordnungstabellen. Die Anwendung ermöglicht es, mit Hilfe der programminternen Datenbank, die Kommentare der Symboltabellen zu durchsuchen und nach einem gegebenen Standard automatisch zu normieren. Diese Normierung der Kommentare ist notwendig, um das mit den S5 Einheiten verbundene Anlagen - Informations - System SIEMENS SICALIS PMC mit sinnvollen Meldungen zu versorgen. Die Anwendung besteht im Wesentlichen aus einer Oberfläche zur Datenbankmodifikation und aus einem Suchalgorithmus zum Finden der Meldungen, welche normierbar sind. Die zweite Anwendung, ist eine Client-Server-Software, die es einem Nutzer des Clients ermöglicht, Nachrichten an Pager des lokalen Pagerfirmennetzes zu schicken. Der Server-Part der Anwendung, ist auf einem Pager-Server installiert. Der Pager-Server ist mit der Sendeantenne über eine serielle Schnittstelle verbunden. Der Pager-Server war bereits mit der Applikation AMIS vorhanden, welche automatisch erzeugte Nachrichten von SICALIS publizierte. Die Client-Server-Software ergänzt nun dieses System um die Funktion eines manuell ausgelösten Personenrufs. Um diesen manuellen Ruf zu erzeugen, manipuliert der Server-Part die AMIS-Software via einem Handle auf die AMIS Applikation und dem Senden von Windowsmessages, Pagerinformationen und Pagermeldungen an AMIS.
Die Integration eines Systems für den Support von Softwareprodukten in ein bestehendes Unternehmensumfeld ist der Schwerpunkt dieser Arbeit. Im ersten Teil dieser Arbeit wird anhand eines theoretischen Prozessmodells das Vorgehen zur stufenweisen Realisierung eines Softwareprojektes beschrieben. Des Weiteren werden den Support unterstützende Managementprozesse und Werkzeuge vorgestellt und ein theoretischer Ansatz für deren Umsetzung im Unternehmen erarbeitet. Der zweite Teil dieser Arbeit beschreibt die einzelnen Prozessphasen der Projektrealisierung. Im Anschluss daran wird das fertige System mit seinen Hauptinhalten erläutert.
Im Rahmen dieser Diplomarbeit wird eine horizontale Baumkomponente als JavaBean erstellt. Die Baumkomponente soll als Truppenbaum in ein bestehendes Führungs-Informationssystem implementiert werden. Dazu ist die Verwendung des SVG (XML) Grafikformates zur Darstellung der Symbole einzelner Knoten erforderlich. Weiterhin wird die Interaktion von Java-Komponenten mit Windows COM und DCOM untersucht. Es werden mehrere unterschiedliche Java-COM-Bridges getestet. In der vorliegenden Arbeit wird zuerst auf die Grundlagen eingegangen, indem das XML und SVG Format vorgestellt wird und die Grundlagen von JavaBeans sowie die benutzten Bibliotheken erläutert werden. Anschließend wird die Entwicklung der Komponente mit Pflichtenheft, Architektur und Implementierung dargestellt. Abschließend werden die Java-COM-Bridges beschrieben.
The target of this thesis is the introduction of a client management system (CMS) at Haaland Internet Productions (HiP), a web design and hosting company in Burbank, California, USA. The company needs a system to track orders and improve workflow. HiP needs a system which not only tracks orders, but also stores all client information in a database. This client information can be used for a variety of marketing and contact reasons. It is an important and integral part of HiP's client relationship management (CRM). The lack of a cohesive CMS at HiP caused many fundamental business problems, such as lost orders, missed billing statements, and over/under billing. The research done during the investigation and analysis of the company and their needs should lead to a global system which totally fulfils the needs of HiP. This global system could be in the form of an off-the-shelf product with some customizations, or a completely new, in-house system. Either solution will have respective pros and cons; the goal is to reach a decision that best fits HiP's needs and situation. The following is a concise version of the project. Particular emphasis is placed upon the single steps which made up the decision process, as well as the practiced techniques, methods, and their applications.
Ziel dieses Projektes ist die Entwicklung eines miniaturisierten vollimplantierbaren Gerätes zur Verlängerung von Kiefer- und Schädelknochen, basierend auf den Erkenntnissen von Plattenosteosynthese-Verfahren. Dieses Gerät, im folgenden Mechatronische Osteosyntheseplatte (kurz MO) oder Distraktor genannt, ist ein kleiner Teleskopaktuator, der eine Kraft von mindestens 30 N erzeugt, die zur Verlängerung eines Knochens benötigt wird. Der Antrieb erfolgt durch Formgedächtnisdrähte aus einer Nickel-Titan-Legierung, die im Inneren des Gerätes gespannt sind. Diese Drähte werden über eine drahtlose niederfrequente Energieeinkopplung mit Strom versorgt. Über einen Ratschenmechanismus wird die Kraft auf eine teleskopartig ausfahrende Platte übertragen. Der Distraktor wird direkt auf den Knochen mit kommerziell erhältlichen Titan-Knochenschrauben aufgeschraubt. Die Neuerung bei dieser Entwicklung ist u.a. der Antrieb durch Drähte aus Formgedächtnislegierung, sowie die vollständige Implantierbarkeit des Gerätes. Formgedächtnislegierungen können in kaltem Zustand mit geringem Kraftaufwand verformt werden. Werden sie anschließend erhitzt, so „erinnert“ sich die Legierung an ihre ursprüngliche Form und nimmt den vorherigen unverformten Zustand wieder ein. Ziel dieser Neuentwicklung ist, durch das vollständige Verschließen des operierten Bereichs die Infektionsgefahr zu minimieren, das Risiko für den Patienten zu senken und den Behandlungskonfort zu erhöhen. Durch die minimierte Narbenbildung wird das kosmetische Ergebnis ebenfalls verbessert. Desweiteren soll die Erfassung von Messwerten für Weg und Kraft integriert werden, um so dem betreuenden Arzt Auskunft über den Fortschritt des Verlängerungsprozess und die Heilung zu geben. Eingesetzt wird die Osteosynthese durch Knochenverlängerung in der plastischen Chirurgie bei Missbildungen, Fehlstellungen oder Unfällen.
An der HTWG Konstanz sind bis zu dem o.g. Projekt keine Aktivitäten auf dem Gebiet der Forschung und Entwicklung von Fahrrädern unternommen worden. Mit Projektbeginn ist die Möglichkeit einen Fahrradrahmen mit Knotenpunkten aus Kunststoffspritzguss herzustellen untersucht und zum Patent angemeldet worden. Ziele: Ziel des Vorhabens war es zu untersuchen, ob im Bereich von Tourenfahrrädern der Preisklasse um die 1000 DM Verkaufspreis ein Rahmen kostengünstiger als durch hart verlöten oder verschweißen von Stahl- bzw. Aluminiumrohren zu realisieren ist. Dabei ist eine 10-15%-ige Einsparung als Zielsetzung angesehen worden. Ergebnisse: Es sind fünf Generationen von Prototypen gebaut worden und in entsprechenden DIN-Versuchen untersucht worden. Derzeit werden Langzeitversuche an 14 Fahrrädern vorgenommen um die Dauerhaltbarkeit der Konstruktion zu überprüfen.
Gegenstand dieser Arbeit ist ein Tool, das das Monitoring von Tabellen über mehrere SAP R/3-Systeme hinweg ermöglichen soll. Es wird in einer J2EE Umgebung implementiert und in ein Community Portal eingebettet. Das Tool soll dabei periodisch, innerhalb von vorgebbaren Zeitabständen automatisch starten. Für diese Aufgabe gibt es ein R/3-Programm, das abgelöst werden soll und dessen Funktionsumfang Grundlage der Neuentwicklung ist. Es müssen drei Tabellen aus den R/3- Systemen gelesen werden: die Tabelle, welche die Loginzeiten der Benutzer je System und Mandant beinhaltet, die Tabellen mit den Systemmeldungen und die mit den Transporten. Die Tabellen werden im neuen Tool über den RFC (Remote Funktion Call) Funktionbaustein RFC_READ_TABLE aus den R/3-Systemen gelesen. Diese Daten werden dann in einer externen Datenbank gespeichert. Um über ein Portal auf die Daten zugreifen zu können, wird eine entsprechende Schnittstelle entwickelt. Die gewünschten Tabellen und Einschränkungen werden über eine Konfigurationsdatei definiert. Somit ist es möglich, nicht nur die drei genannten Tabellen aus den R/3-Systemen zu lesen. Es werden für alle Systeme und deren Mandanten auftretende Fehler dokumentiert, um dem Administrator des Monitors die Möglichkeit zu geben, einfach herauszufinden, warum bestimmte Systeme eventuell nicht ausgelesen werden konnten.. Eine Fehlermeldung aus dem Portal kann, im internen R/3-Fehlermeldungssystem, für das entsprechende System angelegt werden. Zudem wird bei jedem Durchlauf die Anzahl der gelesenen Datensätze je System und Tabelle für mögliche Auswertungen dokumentiert. Abschliessend werden Erweiterungen beschrieben, welche in möglichen weiteren Versionen umgesetzt werden könnten. Dazu müssen allerdings noch eingehendere Vor- und Nachteils Betrachtungen angestellt werden.
Mobile-Agenten erweitern die Möglichkeiten von verteilten Systemen dadurch, dass sie lauffähigen Code transportieren und diesen ausführen können. Sie können sich frei im Netzwerk bewegen, dort nach Informationen suchen und Aufgaben im Namen ihrer Auftraggeber ausführen. Viele Mobile-Agenten-Plattformen verwenden Java als Laufzeitumgebung, dadurch sind sie unabhängig vor dem darunter-liegenden Betriebssystem. Auf eine Unterstützung einer Anzeigegeräte-unabhängigen Benutzer-Agent-Interaktion wird aber meist nicht geachtet. Betrachtet man sich diese Anzeigegeräte mit den unterschiedlichen Eigenschaften in Display-Größe, Farbfähigkeit und Möglichkeiten für die Ein-und Ausgabe, besonders im Zusammenhang mit mobilen Geräten, z.B. Smartphpones und PDAs, ist es verständlich warum der Benutzer oft noch auf herkömmliche Geräte zur Interaktion angewiesen ist. Der Fokus dieser Diplomarbeit lag auf der Entwicklung eines Frameworks, das graphische Java-Benutzerschnittstellen in einem geräteunabhängigen XML-Format beschreibt und daraus ein geräteabhängiges Format erzeugt. Ein besonderes Augenmerk lag dabei in der einfachen Erweiterbarkeit des Frameworks, um zukünftige Ausgabeformate zu unterstützen, weswegen die Technik XSLT zum Einsatz kam. Nach dem Übermitteln der GUI-Daten werden über einen Rückkanal die Benutzerinteraktionen wieder dem Framewok zugeführt. Da die meisten mobilen Geräte einen Webbrowser integriert haben, eignen sich die Markup-Sprachen HTML oder WML besonders gut als Ausgabeformate für diese Geräte. Das Framework erlaubt darüberhinaus sowohl die lokale als auch die entfernte Interaktion mit den Software-Agenten. Sowohl für den Transport der GUI-Daten als auch für die Interaktion mit Agenten verwendet das Framework die Sicherheitsmechanismen der Agenten-Plattform SeMoA (Secure Mobile Agents). Das vorgestellte Framework lässt sich in SeMoA einfach integrieren und gestattet die individuelle Konfiguration der Interaktionsmethode mit einem Agenten.
Ziel dieses Projektes war die Entwicklung eines Linearantriebes mittels Formge-dächtnislegierungen (FGL) zur Knochenverlängerung und Defektüberbrückung ent-sprechend der Methode nach Betz und Baumgart. Der zu entwickelnde Linearantrieb sollte im Idealfall folgende Eigenschaften aufweisen: • mechanisch einfach aufgebaut • leicht zu miniaturisieren • großer Arbeitsweg • variable Positionierung • hohe Leistung • kostengünstig Zur Entwicklung eines derartigen FG-Marknagels sollten die folgenden Teilprobleme gelöst werden: • Auswahl einer geeigneten FGL zur Realisierung der benötigten Kräfte innerhalb der möglichen Temperaturdifferenz • Auswahl der Heizspirale und Messung der Aufheiztemperaturen an der Marknagel-oberfläche • Ausarbeiten der konstruktiven Lösung hinsichtlich der ermittelten Werte bezüglich des Verhältnisses Kraft/Weg • Werkstoffauswahl hinsichtlich der Implantierbarkeit, der Schweißbarkeit mit Laser und der Aufheizung • Mechanische Sicherung (Arretiermechanismus) bei Belastung der Extremität durch den Patienten und Entwicklung eines Rückstellmechanismus • Verbindungstechnik der Komponenten • Erprobung der entwickelten Prototypen in Labortests
Der Bericht bezieht sich auf das gleichnamige Projekt im BMBF-Programm zu anwendungsorientierter Forschung und Entwicklung an Fachhochschulen an der HTWG Konstanz: Das Monitoring und die Diagnose von Kabel- und Versorgungssystemen beruht zum größten Teil auf der Statistik. Es werden Daten aufgezeichnet und mit bereits ausgewerteten oder älteren Daten aus demselben System verglichen. Der Unterschied zwischen Monitoring und Diagnose ist, dass die Diagnose bei abgeschalteter Spannung erfolgt und das Monitoring ein ständiges Überwachen ist. Ziel der Teilentladungsmessungen an betriebsgealterten Mittelspannungskabel war es einen Vergleich von Teilentladungsmessungen mit 50Hz und 0,1Hz zu erstellen. Dabei wurden Teilentladungsmessungen bei stark voneinander abweichenden Prüfbedingungen untersucht. Des weiteren wurden Verlustleistungsmessungen (tan ð) bei verschiedenen Prüfobjekten mit 50Hz und 0,1Hz durchgeführt.
Zentrales Thema dieser Diplomarbeit ist die plattform- und anwendungsübergreifende elektronische Archivierung von Daten und Dokumenten unterschiedlichster Herkunft. Hierzu zählen neben der Einarbeitung in die Thematik, die Aufnahme und Strukturierung der Archivierungsanforderungen innerhalb des Unternehmens, sowie die darauf folgende Auswahl eines geeigneten Anbieters. Die angestrebte Archivierungslösung muss einerseits in der Lage sein sich in vorhandene Systeme zu integrieren (SAP R/3, Lotus Notes), andererseits wird ein applikationsunabhängiger Zugriff auf Daten und Dokumente erwartet. Zudem muss die Archivierungslösung die vorhandenen gesetzlichen Anforderungen erfüllen.
Structural interventions of the Commission comprise expenditures for objective 1, objective 2 and objective 3. The three priority objectives of the Structural Funds are: • promoting the development and structural adjustment of the regions whose development is lagging behind (objective 1); • supporting the economic and social conversion of areas facing structural difficulties (objective 2); • supporting the adaptation and modernisation of policies and systems of education, training and employment. (objective 3). The purpose of this study is to quantify the economic impacts of objective 1 interventions of the Structural Funds for the period 2000 – 2006. The expenditures of the Structural Funds for objective 2 and objective 3, the Cohesion Fund, the Instrument for Structural Policies for Pre-accession (ISPA) and loans which are granted by the European Investment Bank (EIB) are not included in the analysis. The study quantifies how much of expected development can be attributed to objective 1 expenditures for • Community interventions (Structural Funds), • public interventions (Structural Funds, national public interventions) and • total interventions (Structural Funds, national public interventions, private participation). The study uses the autumn 2001 forecast and medium-term projection of Directorate-General for Economic and Financial Affairs of the European Commission in order to calculate a baseline for the impact assessment. Today, the forecast itself seems rather optimistic. However, this does not cause problems for the analysis in this report, because the objective is to estimate the impact of the structural funds. In other words the objective is to estimate, for example, the additional growth caused by the structural funds and not to forecast growth as such. Therefore, whether the forecast as such will materialise is of no consequence for the impact analysis in this study.
Diese Arbeit befasst sich mit der Erstellung und Bearbeitung von Datenstrukturen, die für die Entwicklung von Software im Mobilfunksektor benötigt werden. Es wird aufgezeigt, wo diese Datenstrukturen auftauchen und welche Aufgaben ihnen zufallen. Am Beispiel der Texas Instruments Berlin AG wird eine mögliche Implementierung der für deren Handhabung eingesetzten Hilfsmittel im Detail betrachtet sowie auf die diesen innewohnenden Unzulänglichkeiten und Schwachstellen eingegangen. Zur Behebung und Umgehung der aufgezeigten Probleme werden verschiedene Ansätze analysiert und bewertet. Die hierzu benötigten und jeweils kurz vorgestellten Informationen über die Sprache XML und andere Techniken legen ferner oÿen, warum die letztendlich gewählte Vorgehensweise für die Neuimplementierung sinnvoll ist. Auf die für den reibungslosen Verlauf der Implementierungsphase erforderlichen Planungen wird ebenso wie auf die hierfür im Vorfeld notwendigen Überlegungen und Arbeiten eingegangen. Insbesondere wird auf die Erstellung mehrerer Prototyp-Versionen zur Erleichterung der Einarbeitung und zum besseren Verständnis der zu bearbeitenden Materie hingewiesen. Entwicklung und abschliessdes Aussehen einer Grammatik als Grundlage für ein auf XML basierendes Datenformat werden vorgestellt sowie die hierbei auftretenden Problematiken erörtert. Es wird dargestellt, wie die für die Arbeit mit dem neuen Format entworfene Benutzerschnittstelle funktioniert und wie das der dahinterstehenden Funktionalität zugrundeliegende Konzept aussieht. Die Umsetzung dieses Konzepts unter Einsatz der Programmiersprache Java und aufbauend auf der Eclipse-Plattform wird umfassend und im Detail erläutert. Begleitende Tests und Evaluierungen werden angesprochen sowie Probleme und Herausforderungen der Implementierungsphase. Es wird darauf eingegangen, wie die Planungen für den zukünftigen Einsatz und die weitere Entwicklung des Projekts unter dem Dach der Texas Instruments Berlin AG aussehen. Und es werden die aus der Durchführung des Projekts von den ersten Planungen bis hin zum vorläufigen Abschluss der Implementierungsphase und der Vorstellung eines funktionierenden Systems gewonnenen Schlüsse und Erfahrungen präsentiert und ausgewertet.
Es gibt viele Gründe, darüber nachzudenken, wie die wachsenden Gütertransporte in der Welt wirtschaftlicher gestaltet, umweltfreundlicher durchgeführt und unter Beachtung sozialer Aspekte verwirklicht werden können. Diese ausschlaggebenden Argumente führern zum Thema Transportmanagement. Das Thema hat bisher wenig Beachtung gefunden, obwohl Transporte seit eh und je existieren. Ziel der Arbeit ist die Modellierung der Geschäftsprozesse vom Transportmanagementsystem TM/3 mit der EPK-Methode zu erreichen. Zusätzlich zu der Modellierung soll eine Gegenüberstellung der Standard SAP Transportkomponente LE-TRA mit der TM/3 Software der Logimatik AG erfolgen. Im Hinblick auf die zu erarbeitende Problemlösung werden zu Beginn terminologische Abgrenzungen zum Thema Transport, Logistik, Logistics Execution System vorgenommen. Im Anschluss daran, wird das Thema Geschäftsprozessmodellierung angestellt. Dazu findet eine umfassende Gegenüberstellung der Definitionen zu diesem Begriff. Für die Modellierung der Prozesse ist es von Wichtigkeit, Objekte und Regeln der Ereignisgesteuerten Prozesskette kennenzulernen. Im praktischen Teil der Arbeit wird die Analyse der beiden Produkte vorgenommen und die Geschäftsprozessmodellierung der TM/3 Software begonnen. Der Vergleich der beiden Systeme findet den Abschluss dieser Arbeit.
Das Unternehmen MIK wird vorgestellt und die Entscheidungskriterien für die .NET Remoting-Technologie werden erläutert. Es wird die Entwicklung des .NET Remoting und die Unterschiede zu anderen Technologien für verteilten Anwendungen wie CORBA, DCOM und Java EJB dargestellt. Wichtige Grundbegriffe des .NET Remotings, wie Server activated und Client activated Objects sowie Konfiguration und Deployment werden erklärt und anhand einfacher Beispiele vertieft. Die Forderungen aus der Aufgabenstellung werden analysiert und an Hand der gewonnenen Informationen Daten modelliert und in UML-Klassendiagrammen festgehalten. Auf Client und Server-Seite wurde jeweils eine Software-Komponente entwickelt, welche die Kommunikation zwischen Client und Remoting-Server abwickeln. Implementierungsaspekte der beteiligten Klassen und deren Zusammenwirken werden ausführlich erläutert. Um die XML Strukturen der Konfigurationsdateien zu bearbeiten, werden Basisklassen des .NET Frameworks verwendet. Es werden Einblicke in die XPath-Abfragen und in die Ereignisbehandlung gegeben. Grundsätzlich kann jede .NET-Applikation als Remoting Server arbeiten. Es wird hier speziell die Produktivsetzung im IIS und in einem Windows-Dienst beschrieben. Es folgt die Überlegung, wie ein Apache Webserver in einer .NET Infrastruktur eingesetzt werden kann und was bei einer Kommunikation über eine Firewall zu berücksichtigen ist. Die Sicherheitsaspekte befassen sich mit den Authentifizierungsmethoden des IIS und der Verschlüsselung des Kommunikationskanals mittels SSL. Zur umfangreichen Bearbeitung der Konfigurationsdateien wurde ein Administrations-GUI entwickelt. Mit Hilfe von Reflexion können Remote-Objekte aus Assemblies heraus betrachtet und registriert werden.
Das Software-System MODES ist ein Programmwerkzeug zur Planung und Optimierung von Energieversorgungsanlagen bezüglich Auslegung und Energiemanagement. Es ermöglicht die integrierte Betrachtung von Wärme- und Elektroenergie unter Einschluss von erneuerbaren Energieträgern. Da für die Eingabeparameter nicht nur feste Werte, sondern auch Unschärfebereiche eingegeben werden können, ist ein stochastische Behandlung der Ergebnisse möglich. Neben der technischen erfolgt ebenfalls die in der Praxis unumgängliche wirtschaftliche Simulation. Damit ist mit Hilfe von MODES eine numerische, mehrkriterielle technische und energiewirtschaftliche Bewertung von Energieversorgungssystemen möglich. Es handelt sich um den Abschlußbericht des entsprechenden Projektes für das Bundesministerium für Bildung und Forschung, Förderkennzeichen 1707499. Vertrauliche Stellen wurden aus dem vorliegenden Text herausgenommen.
Webservices können ein fester Bestandteil von Integrationsbemühungen werden, um nicht nur innerhalb des Unternehmens Altlasten aufzuräumen, sondern mittlerweile auch zwischen den Partnern, Kunden und Lieferanten zu koordinieren. Sie können mit ihrer Schlichtheit und Implementierungseleganz bisherige Integrationstools wie CORBA, DCOM u.a. alt aussehen lassen. Ihre textbasierten Bestandteile SOAP, WSDL und UDDI arbeiten mit XML und HTTP, die das enorme Potenzial des Internet erst jetzt richtig zur Geltung bringen.
Wenn neue Tätigkeiten in der PVC-Abdichtlinie2 der Lackiererei bearbeitet werden müssen, ist es notwendig die gesamte Produktionslinie zu betrachten, um eine Aussage darüber machen zu können, an welchem Arbeitsplatz diese neuen Tätigkeiten bearbeitet werden können. Die Zuweisung von neuen Tätigkeiten an Arbeitsplätze wird Eintakten genannt. Ziel der Diplomarbeit war es, ein Konzept für die automatische Eintaktung von manuellen Tätigkeiten an der PVC-Abdichtlinie2 der Lackiererei zu erstellen. Anschließend sollte ein Programm entwickelt werden, womit eine automatische Eintaktung durchgeführt werden kann. Bei der Erstellung dieses Programms sollte darauf geachtet werden, dass das Programm leicht zu handhaben ist. Weiterhin sollte das Programm so gestaltet sein, dass es auch durch die ähnlich aufgebaute Abdichtlinie1 genutzt werden kann.
In der automobilen Kompaktklasse werden trockenlaufende Stufenlosgetriebe bisher nicht eingesetzt. Dies ist vor allem auf die nicht zufriedenstellende Übertragbarkeit von Leistung im Zusammenhang mit einem ausreichenden Stellbereich (Getriebespreizung) der Umschlingungsmittel zurückzuführen. Neben Weiterentwicklungen auf dem Gebiet der Verbundkeilriemen, die für diesen Zweck eingesetzt werden, müssen vor allem jedoch konstruktive Lösungen für eine Leistungssteigerung gefunden werden. Es soll das Konzept eines Doppelriemen- (Twinbelt-) Getriebes untersucht werden. Durch die Verwendung zweier Riemen statt eines einzelnen kann nahezu eine Verdoppelung der übertragbaren Leistung erwartet werden, was die Einsatzmöglichkeiten für das Getriebe wesentlich erweitert. Als problematisch ist vor allem die Bauraumfrage des zusätzlichen Riementriebs, sowie der erhöhte Aufwand in der Getriebesteuerung zu sehen. Außerdem müssen für eine rentable Fertigung des Getriebes die notwendigen zusätzlichen Bauteile auf ein Minimum reduziert werden. Neben der theoretischen und konstruktiven Auslegung der zu entwickelnden Komponenten des Twinbelt-Getriebes und der Bauraumuntersuchung für die Anwendung in der automobilen Kompaktklasse ist auch die Entwicklung eines Komponenten-Prüfstandes durchzuführen. Der Prüfstand soll die Untersuchung der Funktionalität dieser neuen Getriebebauform, aber auch die Versuche in bezug auf die notwendigen Verstell- und Anpresssysteme, sowie das Betriebsverhalten der eingesetzten Riemen ermöglichen.
Tauchsimulation
(2003)
Im 1.Kapitel werden die historischen Aspekte des Tauchens und der Tauchphysik beschrieben. Anhand von physikalischen Gesetzen, mathematischen Formeln und empirisch ermittelten Werten werden im 2. Kapitel die nötigen Grundlagen für das Verständnis zur Berechnung eines Tauchgangs vermittelt. Das 3.Kapitel behandelt verschiedene auf dem Markt befindliche Tauchsimulationen, zeigt deren Funktionsumfang sowie deren Vor- und Nachteile. Die erstellte Tauchsimulation wird im 4. Kapitel vorgestellt. Dabei wird auch auf verschiedene Simulationsläufe eingegangen. Zum Abschluß wird ein Ausblick auf aktuelle Entwicklungstendenzen gegeben.
Die Globalisierung hat insbesondere auf Kapital- und Informationsmärkten starke Veränderungen bewirkt. Der Anteil der Bevölkerung mit Aktienbesitz stieg in den letzten Jahren stetig an. Immer häufiger lösen sich Investoren von den institutionellen Anlageempfehlungen und bilden sich ihre eigene Meinung zur Entwicklung auf den Kapitalmärkten. Für die Kaufentscheidung einzelner Assets stehen Investoren neben den Fundamentaldaten aus Presse, Rundfunk und Internet auch Chartanalyse-Programme zur Entscheidungsunterstützung zur Verfügung. Die Gewichtung einzelner Aktien im Portfolio ist dabei eher willkürlich oder naiv. Die quantitative Optimierung des Portfolios ist heute noch institutionellen Einrichtungen bzw. Fonds-Managern vorbehalten, obgleich die informationstechnischen Voraussetzungen bereits für viele Investoren gegeben sind. Im Vergleich mit der klassischen Portfoliooptimierung, die der quadratischen Optimierung zuzurechnen ist, können lineare Modelle der Portfoliooptimierung diverse Vorteile bieten. Mit dem Risikomaß der sog. Tar-get-Shortfall-Probability können z.B. auch bei schiefen Renditeverteilungen effiziente Portfolios bestimmt werden. Darüberhinaus ist dieses Risikomaß, z.B. in der Form der Verlustwahrscheinlichkeit, für jeden Investor intuitiv verständlich. Im Folgenden werden einleitend knapp die klassische Portfoliooptimierung und Wege zur Auswahl effizienter Entscheidungen dargestellt. Nach einem Überblick zu den Risikokriterien der Portfoliooptimierung und zu den entsprechenden linearen Portfoliooptimierungsmodellen, werden Vorteile und Nachteile linearer Modelle diskutiert. Das letzte Kapitel ist dem Mean-Target-Shortfall-Probability-Vektor-Modell gewidmet. Abschließend werden die Ergebnisse eines empirischen Tests vorgestellt.
Die Arbeit befasst sich mit dem J2EE Framework Jakarta Struts. Hauptziel ist es, den Einsatz von Struts in der ZKB zu prüfen. Es soll festgestellt werden, ob Struts in Zukunft für die Entwicklung grösserer Web-Applikationen in der ZKB eingesetzt werden kann. Dazu wird eine bereits existierende ASP Web-Applikation zuerst zu einer JSP-Applikation (Model 1) und anschliessend zu einer Struts-Applikation (Model 2) portiert. Danach werden die beiden Versionen bzgl. Entwicklungsaufwand, Funktionsumfang, Performance und Wartbarkeit miteinander verglichen. Darüber hinaus werden Fähigkeiten des Struts Frameworks beleuchtet, die Architektur des Frameworks beschrieben und überprüft, inwiefern das Framework den Entwickler entlasten kann. Entwickler ohne Erfahrung mit Struts finden hier ausserdem eine verständliche Einführung an einem überschaubaren Beispiel. Nach der Einleitung in Kapitel 1 werden im zweiten Kapitel die Struts zu Grunde liegenden Technologien der Java 2 Plattform Enterprise Edition (J2EE) von Sun beschrieben. Im dritten Kapitel wird detailliert auf Struts eingegangen. Um dem Leser den Einstieg in Struts zu erleichtern, wird vor der Beschreibung der Struts Komponenten die Architektur und der Programmablauf erläutert. Eine Anleitung zum Erstellen einer kleinen Struts Applikation erklärt Struts an einem praktischen Beispiel. Vergleichbare Frameworks werden am Ende des Kapitels vorgestellt. Im vierten Kapitel erläutere ich die Entwicklung der von mir mit Struts erstellten Web-Applikation. Die beiden letzten Kapitel enthalten die Erkenntnisse aus meiner Arbeit mit Struts und versuchen eine Entscheidungsgrundlage für oder gegen den Einsatz des Frameworks zu liefern.
An der HTWG Konstanz können Studenten ihre Termine Online-Kalendersystem myDay organisieren. Der Kalender verfügt über eine eigene Datenbank zur persistenten Terminhaltung und ist über ein Webinterface bedienbar. Dieser Kalender wurde um nützliche Web Services erweitert, die externen Applikationen den Zugriff auf das Kalendersystem ermöglichen. Beispielhaft wird dies mit dem Personal Information Manager Outlook 2002 von Microsoft gezeigt. Die entwickelten Web Services bieten verschiedene Möglichkeiten der Termin- und Aufgabenverwaltung. Die Implementierung der Web Services wurde mit Hilfe eines Adapter-Konzeptes realisiert, welches auch in einer Enterprise Application Integration - Anbindung verwendung finden könnte.
Genera
(2003)
Diplomarbeit „Genera“ Ralph J. Schiel Erstbetreuung: Professor Bernd Jahnke Co-Betreuung: Andreas Bechtold Kommunikationsdesign HTWG Konstanz, SS 2003 Thema Die Diplomarbeit „Genera“ beschäftigt sich mit Interaktions- und Interfacedesign für eine Multimedia Home Plattform (MHP). Diese Plattform stellt eine Verbindung von Internet, Radio,TV, LAN-Netzwerken, , Computer, Hi-Fi und Telefonanlage dar. Die Entwicklung geht hierbei weg von verschiedenen Medien mit unterschiedlichsten Formaten, hin zu einer einzigen Gerätschaft, welche alle Komponenten beinhaltet. Am Beispiel des multimedialen Computerspiels „Genera“ wird eine zukünftige Nutzungsform dieses Mediums aufgezeigt. Tragende Elemente sind hierbei Film, Videospiel, Videoclips, Media Art, Internet und Hyperstrukturen. Die Einsatzbereiche liegen u.a. in den Bereichen Bildung, Wissenschaft und Forschung, Projekt Management und Unterhaltung. Der Benutzer eignet sich Kompetenzen bezüglich innovativer Nutzungs- und Kombinationsformen von Medien an. Durch verant-wortungsvolles Informations Knowledge und - Management erhält er die nötigen Voraussetzungen, um im stattfindenden Digital Devide bestehen zu können. Der Benutzer interagiert in den zunehmend verschmelzenden Dimensionen von Realität und Virtualität.
Seit einigen Jahren befinden sich das ökonomische System, dessen Märkte und Organisationen in einem äußerst dynamischen Veränderungsprozess. Globalisierung ist das Stichwort, das im Allgemeinen als Treiber dieser Entwicklung identifiziert wird und dem dieser Umbruch zugeschrieben wird. Bei einer genaueren Inspektion des Globalisierungsphänomens finden sich zwei Aspekte, die unternehmensethische und wirtschaftsethische Problemstellungen auf die Agenda der Unternehmen gesetzt haben und die für das hier verhandelte Thema von außerordentlicher Bedeutung sind. 1. Zum einen vollzieht sich in der Gesellschaft ein Wandel hinsichtlich der Erwartungshaltung an verantwortungsvolles und moralisch integres Handeln von Unternehmen. Corporate Social Responsibiliy oder Corporate Citizenship sind hier die Begriffe, die das Feld markieren. 2. Zum anderen entwickelten sich vor der Folie der Globalisierung eine Reihe neuer Governancestrukturen zur Abwicklung ökonomischer Transaktionen: ökonomische Netzwerke, die sich organisationsintern wie -extern entwickeln können, die Umstellung innerhalb einer Organisation von Hierarchie auf Markt, die Neugestaltung bislang rein marktlich abgewickelter Transaktionen auf eine hybride Form der Transaktion wie eine Supply Chain-Beziehungen, virtuelle Teambildungen, strategische Allianzen, die Ausgliederung von Teilen der organisationalen Wertschöpfungskette auf sogenannte Wertschöpfungspartner und somit die Reduktion der Fertigungstiefe, Cross-Border-Akquisitionen, um Wachstumspotentiale im Ausland nutzen zu können oder Global-Sourcing, um an lokales Know-how, Humankapital, Technologie und Produkte zu gelangen. Die grob skizzierten ökonomischen Dimensionen und Konsequenzen der Globalisierung kristallisieren in der These, dass Kooperation in verschiedenen Kooperationssphären das entscheidende und prägende Element des zukünftigen ökonomischen Systems sein wird. Ökonomisch formuliert: Kooperationsbereitschaft und Kooperationsfähigkeit von kollektiven Akteuren entlang der gesamten Wertschöpfungskette und gegenüber den relevanten Stakeholdern werden die zu ökonomisierenden Ressourcen sein, von deren Aktivierung der Erfolg gesamter Volkswirtschaften und einzelner Unternehmen abhängig ist. Unterstellt, diese Analyse und das daraus abgeleitete Argument ist zutreffend, dann wird sehr schnell deutlich, dass sich hieraus enorme Konsequenzen für die Beziehung von Unternehmen zu seinen Lieferanten ergeben. Für Unternehmen gilt es demnach, sich in einer entwickelnden Kooperationsökonomie stärker als in vergangenen Perioden systematisch mit der Moralität ihrer Lieferanten auseinander zu setzen und nicht nur auf die eigene moralische Identität und die Qualität des eigenen moralischen Handelns zu fokussieren. Diese neue Herausforderung muss mittels hierfür geeigneter Governancestrukturen bearbeitet werden. Denn es ist unschwer zu erkennen, dass eine erhebliche Differenz besteht zwischen einer Kooperationsbeziehung zu einem Lieferanten, der neben den im klassischen Kanon des Lieferantenmanagements üblicherweise zu prüfenden Kriterien wie die Qualität der Produkte, der Liefertreue oder der logistischen Kompetenz zudem einen hohen Arbeitsethos und einen ausgebildeten Sinn für Vertragstreue und Integrität besitzt und einem Lieferanten, der mit einer Präferenz für opportunistische Vertragsausbeutung, Korruption, Bestechung und Bestechlichkeit ausgestattet ist. Ein Verhalten, das zu einem Verlust von Reputation oder materiellen Werten führen kann. Ein Vorschlag für die Instrumentierung und Prozessierung einer solchen Lieferantenbewertung wird in diesem Aufsatz unterbreitet.
Das Projekt RALV (rasche Analyse der Lichtstärkeverteilung) hatte das Ziel zu untersuchen, inwieweit eine schnelle Messung von Lichtstärkeverteilungen mit Hilfe von CCD Kamera-Aufnahmen von Streubildern auf einem Schirm möglich ist. Dazu wird eine Probe von einer gerichteten Lichtquelle (Laser) bestrahlt. Das gestreute Licht trifft auf einen Schirm. Auf dem Schirm entsteht eine Helligkeitsverteilung. Diese wird auf der Rückseite abfotographiert. Aus den Geometriedaten der Anordnung und der gemessenen Helligkeitsverteilung lässt sich die Lichtstärkeverteilung und damit die Streucharakteristik errechnen. Durch geeignete Wahl der Schirm-Materialien, eine gute Kamera-Auslegung sowie einer dafür entwickelten Software ist es im RALV-Projekt gelungen die Funktionsfähigkeit dieses Verfahrens nachzuweisen. Schwerpunkte bei der Arbeit im Projekt waren: - Finden geeigneter Komponenten: Lichtquellen, Schirmmaterial, Kamera - Schreiben der benötigten Software für: Steuerung, Auswertung und Darstellung - Vergleich der RALV-Methode mit Standard Methoden (ebenes Goniometer) Nach Ablauf des Projektes liegen die Daten für den Bau eines industriell einsetzbaren Messgerätes vor. Es zeigte sich, dass das RALV Messverfahren seine Stärken bei Materialien mit einer spiegelnden Vorzugsrichtung hat. Als Nebeneffekte des Projektes wurde ein ebenes Goniometer mit 3 achsiger Probenaufnahme gefertigt. Zudem wurde die Bewitterungskammer der FH Konstanz für lichttechnische Fragen erweitert.
BMBF-Programm "Anwendungsorientierte Forschung und Entwicklung an Fachhochschulen Schlussbericht FKZ 17086 00 Ausgangssituation Bei der Entwässerung von Siedlungsgebieten sind teure Maßnahmen zum Schutz der Siedlungen und der Gewässer vor Hochwasser und Schmutzstoffen erforderlich. Mit den Zielsetzungen „Kosteneinsparung“ und “Verbesserung des Gewässerschutzes“ hat der Beratende Ingenieur Dipl.-Ing.(FH) Harald Güthler (1996) aus Waldshut-Tiengen das Verfahren des „HydrOstyx“ gebremsten Abflusses entwickelt und im Dezember 1995 zum Patent angemeldet. Die im Rahmen des Verfahrens benutzte neue technische Einrichtung ist die HydrOstyx-Abflussbremse. Bei der HydrOstyx-Abflussbremse handelt es sich um eine technische Einrichtung, die wegen ihrer Einfachheit ein preiswertes Drosselorgan im Abwasserkanal darstellt, das ohne Fremdenergie weitgehend wartungsfrei und betriebssicher funktioniert. Die HydrOstyx-Abflussbremse kann sowohl in bestehende als auch in neue Abwasserkanäle eingebaut werden. Ziele Mit der Hydrostyx-Abflußbremse können u. a. folgende Ziele erreicht werden: Reduzierung von Neubaumaßnahmen durch Aktivierung bisher ungenutzter Speicher. Da im Sinne der Richtlinien für die Bemessung und Gestaltung von Regenentlastungsanlagen in Mischwasserkanälen nach ATV-Arbeitsblatt A 128 die Anrechenbarkeit solcher Speicherräume zulässig ist, kann bei geschickter Nutzung der aktivierten Retentionsvolumen eine Redimensionierung der bisher geplanten Regenbecken erfolgen. Beseitigung von Konfliktpunkten im Kanalnetz. Durch Aktivierung von Retentionsvolumen lassen sich Abflussspitzen reduzieren. Überlastete Kanäle können nun die abflussverzögerte Wassermenge transportieren, der Austausch bzw. Neubau von Kanälen kann entfallen. Minderung von Überflutungshäufig und Belastungen von Flüssen und Bächen aus Regenwasserentlastungen. Der Einstau des Wassers im Kanal führt zu einer Retentionswirkung, dadurch werden die Abflussspitzen bei Regenwasserentlastungen in die Vorfluter häufig wesentlich reduziert. Die führt zu Verbesserungen beim Hochwasserschutz und bei der Gewässerökologie. Optimierung des Wirkungsgrades von Kläranlagen durch verbesserte Ausschöpfung der zulässigen Beaufschlagung. Kläranlagen sind durch den diskontinuierlichen Zufluss von Schmutz- bzw. Mischwasser Schwankungen im Betriebsablauf unterzogen, die durch entsprechende Reserven in den Becken ausgeglichen werden können. Durch die Aktivierung von Retentionsraum lassen sich Stoßbelastungen reduzieren und bei Regenwetter kann ein größerer Teil des verschmutzten Wasser als bisher auf der Kläranlage gereinigt werden. Im Rahmen des BMBF-Forschungsprojekts wurden folgende Teilaufgaben bearbeitet: Hydraulische Untersuchung der Hydrostyx-Abflussbremse im Wasserbaulabor der HTWG Konstanz. Ziel war die Ermittlung der Schachtverluste, der Überfall- und Durchflussbeiwerte für die HydrOstyx-Abflussbremse. Auswertung und Beurteilung der Abfluss- und Schmutzfrachtmessungen an den Regenüberläufen Hoppetenzell und Zizenhausen/Stampfwiese vor und nach dem Einbau von 4 HydrOstyx-Abflussbremsen. Durchführung von Schmutzfrachtberechnungen mittels Langzeitsimulation mit dem Simulationsmodell KOSIM XL vom Institut für technisch-wissenschaftliche Hydrologie in Hannover. Die Simulationsberechnungen erfolgen mit und ohne Hydrostyx-Abflussbremsen für die Einzugsgebiete der beiden Regenüberläufe. Mit Hilfe der hydraulischen Untersuchungen im Wasserbaulabor und durch die Auswertung der Naturmessungen sollten die hydraulischen und hydrologischen Bemessungsgrundlagen für die Neuentwicklung erarbeitet werden. Die Untersuchungsergebnisse liefern auch wichtige Grundlagen für die wasserwirtschaftliche Beurteilung des neuen Verfahrens. Verwertung der Ergebnisse Das Projekt hat insgesamt gezeigt, dass mit Hilfe von HydrOstyx-Abflussbremsen erhebliche Einsparpotentiale sowohl bei der hydraulischen Sanierung als auch bei der Regenwasserbehandlung in Mischwasserkanalisationen möglich sind. Die Ergebnisse dieses Projekts tragen sicher dazu bei, dass beim weiteren Ausbau der Regenwasserbehandlung und bei der Sanierung von Mischwasserkanalisationen verstärkt nach kostengünstigen Alternativen gesucht wird. Hierzu kann das Verfahren des HydrOstyx gebremsten Abflusses einen wesentlichen Beitrag leisten.
Selbstorganisierende Karten sind neuronale Netze, die imstande sind, Daten zu klassifizieren und zu reduzieren. Aus diesem Grund eignen sie sich sehr gut fuer die Steuerung von Robotern, da sie deren Sensoreingangswerte klassifizieren und daraus auf eine Reaktion schließen koennen. Die Architektur und Funktionsweise dieser neuronalen Netze sind der des menschlichen Kortex kuenstlich nachgebildet. Im Rahmen dieser Diplomarbeit wurde ein Java-Framework namens JFSOM implementiert, welches nach dem System einer selbstorganisierenden Karte Datenmengen klassifizieren kann. Das Framework ist so entworfen, dass sowohl Eingabedaten als auch Ausgabedaten trainiert werden koennen, um es auch als sensormotorische Karte nutzbarzu machen. JFSOM wurde verwendet, um den Miniaturroboter Khepera nach bestimmten Verhaltensweisen zu steuern. Als Verhaltensweisen wurden eine Hindernisvermeidung, eine Wandverfolgung, eine Korridorverfolgung und eine Objektverfolgung realisiert. Die Wandverfolgung laesst den Roboter aus jedem beliebigen azyklischen Labyrinth herausfinden.
Vor der Folie der Governanceethik beantwortet dieser Text die Frage nach dem Wesen moralischer Anreize und Güter und den Gründen ihrer Befolgung bzw. Nicht-Befolgung. Dies führt zu dem für die wirtschafts- und unternehmensethische Diskussion strategischen Begriff des umfassenden Anreizmanagements, das die Kopplung zwischen den Funktionssystemen Moral und Ökonomie ermöglicht. Der Artikel kommt zu dem Schluss, dass werteorientiertes Handeln und Verhalten von einer entsprechenden Governancestruktur abhängig ist und die systematische Implementierung kodifizierter Wertemanagementsysteme die Grundlage für die Justierung von Wertschätzung in ökonomischen Transaktionen bildet.
Nachdem bei vielen kleineren und mittelgroßen Feuerwehren das komplette Be- richtswesen für Einsätze immer noch auf Papier geführt wird und Statistik oft eine Sache von wochenlanger Handarbeit ist, wurde im Rahmen dieser Diplom- arbeit ein System entwickelt, das auf Basis einer Client-Server-Architektur die vernetzte Echtzeit-Bearbeitung von Feuerwehr-Einsätzen erlaubt. Dabei wur- de Wert auf offene Schnittstellen zu Fremdsystemen gelegt und einige dieser Schnittstellen wurden auch implementiert. Die Diplomarbeit ist gegliedert in eine allgemeine und spezielle Einführung (Ka- pitel 1-3) und eine Abhandlung über die Entwicklung der Software und deren Architektur und Funktionalität (Kapitel 4). Eine mögliche Vermarktungsstrate- gie für das System wurde ebenfalls konzipiert (Kapitel 5).
Im diesem Beitrag geht es darum zu zeigen, dass die spezifisch ethische Dimension der Go-vernanceethik als kohärentistische Ethikauffassung gedeutet - und begründungstheoretisch unterfüttert - werden kann. Mein Blick richtet sich also vor allem auf die Frage, wie ethisches Nachdenken kohärentistisch konzeptualisiert werden kann und, im zweiten Schritt, in welchem Sinne es m.E. eine strukturelle Parallele bzw. Anschlussfähigkeit von Kohärentismus und Governanceethik gibt. Es geht also im Folgenden weder darum, die Governanceethik als bereichsspezifische wirtschafts- und unternehmensethische Theorie zu untersuchen noch darum, bestimmte Referenzpunkte des Wielandschen Governanceethik-Modells1 wie z.B. ihre systemtheoretischen Prämissen zu diskutieren. Beginnen werde ich mit einer Bestimmung ethischen Nachdenkens als einer Orientierungsreflexion, die nicht letzte Prinzipien begründen, sondern vernünftige Selbstorientierung moralischer Akteure ermöglichen soll. Vor diesem Hintergrund wird das Theoriemodell des ethischen Kohärentismus entfaltet, um abschließend zu zeigen, dass dieses wesentliche Prämissen hinsichtlich der Auffassung über die Funktion ethischen Nachdenkens mit der Governanceethik teilt.
Towards an integrated theory of economic governance – Conclusions from the governance of ethics
(2004)
Identität versus Interessen
(2004)
Organisation und Sprache
(2004)
Governance und Simultanität
(2004)
Das Forschungsprojekt betrifft ein Verfahren und eine Vorrichtung zur Ermittlung der Griffigkeit von Verkehrsoberflächen mittels Daten, die von einem Satelliten-Navigations-System in Verbindung mit Kfz-typischen Daten während eines Bremsvorganges erhalten werden. Die Bewegungsdaten des Fahrzeuges werden aus relativ genauen Navigationsinformationen in sehr kurzen Zeitintervallen per Funkübertragung oder direkt im Fahrzeug auf einem Datenträger abgelegt. Hieraus werden die ortsbezogenen Bremsverzögerungen ermittelt und ggf. mit denjenigen eines mitgeführten Beschleunigungsmeßgerätes verglichen. Aus den Bremsverzögerungen werden in Verbindung mit den Kfz-Kennwerten und der Straßengeometrie die jeweils ausnutzbaren Kraftschlussbeiwerte (sog. Reibwertmaxima) bzw. die örtliche Griffigkeit der Verkehrsoberfläche ermittelt.
Zur Verringerung der Kosten und des Aufwands zur Installation, Update und Wartung von Workstations in einem industriellen Umfeld, sollte ein System zur zentralen, hardwareunabhängigen und vollautomatischen Installation dieser Workstations eingeführt werden. Hierzu mussten zuerst einmal die Möglichkeiten für eine vollautomatische Installation der verschiedenen Betriebssysteme und Anwendungen betrachtet werden. Nach dem Aufbau der Hardware folgte daraufhin die Installation des Deployment Systems der Firma OnTechnology (OnCommand). Im Anschluss daran wurden die Skripte für die Betriebssystem- und Anwendungsinstallation erstellt. Diese Skripte wurden anschließend zur besseren Handhabung zu Profilen zusammengefasst. Im nächsten Schritt wurden bestehende Clients in das System integriert. Daraufhin wurde das Sicherheitskonzept des Systems betrachtet, mit dem die Möglichkeit besteht bestimmten Benutzern nur bestimmte Rechte zu vergeben. In weiteren Teilen der Diplomarbeit werden die bisherigen Probleme bei der Firma und das erhoffte Ziel, die Möglichkeiten des Systems, sowie die Probleme bei der Umsetzung beziehungsweise des Systems, dargestellt und im Fazit zusammengefasst.
Schlussbericht Verbundprojekt "Verfahren zur Schwermetallelimination in sauren Beizabwässern"
(2003)
Im Vorhaben zur "Schwermetallelimination aus sauren Beizabwässern" sollen zwei 2-stufige Laborreaktoren aufgebaut und betrieben werden, um in diesem Maßstab, die zur Reinigung der Abwässer notwendigen mikrobiologischen, physikalisch-chemischen und biophysikalischen Prozesse zu optimieren. Schadstoffabbau, Schwermetallausfällung und Biosorption wurden in einem Durchflusssystem so aufeinander abgestimmt, daß bei minimaler Verweilzeit die mikrobiellen Umsetzungen von Nitrat zu molekularem Stickstoff (Denitrifikation) und von Sulfat zu Sulfid (Sulfatreduktion) ablaufen und dabei die Schwermetalle als Hydroxide, Carbonate oder Sulfide effizient ausgefällt werden. Dabei muß außerdem die Versorgung der Mikroorganismen durch eine eigene Kohlenstoff- und Energiequelle gewährleistet sein. Die auf der Laborreaktorebene gewonnenen Erkenntnisse sollten dann in den Technikumsmaßstab (100 1) übertragen werden. Nach der Erprobung dieser Anlage im Dauerbetrieb und Ausweitung der gewonnenen Erfährungen sollte eine industrielle Anlage (300 1) konzipiert werden. Als erstes Ziel war ein Nitratabbau von 3500 mg NO3/l d angestrebt, während als weitergehendes Ziel eine flexible Strategie zur Prozeßführung bei variierenden Konzentrationen der Abwasserinhaltsstoffe unter Einhaltung der durch den Rahmen-Abwasser-VwV Anhang 40 vorgeschriebenen Einleitungsgrenzwerte ermittelt werden sollte
Das Gesamtprojekt umfasst die Entwicklung eines modularen Sende-Empfängers (Transceiver) bestehend aus Hard- und Software. Der Transceiver stellt eine Experimentalplattform dar, mit der nicht nur die üblichen Funktionen eines Sende-Empfängers genutzt werden können. Es bestehen vielfältige Experimentier- und Entwicklungsmöglichkeiten in den Bereichen der digitalen Signalverarbeitung, der Softwareentwicklung für Mikrokontroller und Personal Computer sowie der Übertragungstechnik. Im Rahmen dieser Diplomarbeit wurde das zentrale Steuermodul des Sende-Empfängers, die sog. Command Unit entwickelt. Sie beinhaltet die logischen Gruppen des MMI (Mensch-Maschine-Schnittstelle) und einer Host-PC-Schnittstelle mit DMA-Kontroller. Die Arbeit beinhaltet die Entwicklung der Hardware ebenso wie die Entwicklung von Firmware zum Testen der Schaltung.
This thesis deals with background, theory, design, layout and experimental test results of an analogue CMOS VLSI current-mode analog-to-digital converter. This system supports a project, whose goal it is to build a biologically relevant model of synaptic plasticity, named the Artificial Synapse. A critical part of the design, which is based on analogue CMOS VLSI circuits, is the ability to activate a discrete number of channels by sampling an analogue signal. Since currents are the signal of interest and transistors are biased in weak inversion (subthreshold regime), the system requires a current mode A/D circuit that it can operate at ultra-low power and current levels. To meet this need, two new innovative A/D converter approaches are proposed to replace the system’s previous A/D converter design which suffered from a non-linear resolution, uncoded output code and heavy bit oscillations. The initial technical requirements and key criteria for the new converter comprise a resolution of one nano ampere, an input current range between 0 – 100nA, conversion frequencies of up to 5kHz, and a power supply voltage of less than 1.5V. Temperature range, space occupation and power dissipation aspects were not specified due to the early stage of the related Artificial Synapse project. The novel converters both produce seven bit thermometer codes, their functional principle can be best described as current mode flash analog-to-digital converters (ADCs). Due to the fact that the input signal is in the area of a subthreshold current, it is selfevident that the A/D converter design should operate at a subthreshold realm. To support low power operation, clocks or high currents could not be used and were excluded from the design from the very start. To encode the thermometer code into standard binary code, a seven-to-three encoder was designed and integrated on the chip. In October 2003, the design was submitted for production to the MOSIS circuit fabrication service. The AMI Semiconductor 1.5 micron ABN CMOS process was chosen to manufacture the chip. When it was returned in January 2004, simulation results showed that both new A/D converter approaches accomplished excellent results which were expected from SPICE simulation results. With the new chip installed, it became possible to resolve input currents as small as one nano ampere and achieve conversion frequencies of up to 5kHz. The circuits also both meet the requirements which were set at the beginning of the project to operate at a power supply voltage of less than 1.5V, processing input currents in the range between 0 – 100nA. A prototype printed circuit board (PCB) was developed, produced and employed for experiments with the chip. The major application of this test-bed is the ability to generate and measure extremely low currents with high precision. This enables the monitoring of the very small currents that are processed by the chip.
This work treats with the segmentation of 2D environment Laser data, captured by an Autonomous Mobile Indoor Robot. It is part of the data processing, which is necessary to navigate a mobile robot error free in its environment. The whole process can generally be described by data capturing, data processing and navigation. In this project the data processing deals with data, captured by a Laser-Sensor, which provides two dimensional data by a series of distance measurements i.e. point-measurements of the environment. These point series have to be filtered and processed into a more convenient representation to provide a virtual environment map, which can be used of the robot for an error free navigation. This project provides different solutions of the same problem: the conversion from distance points to model segments which should represent the real world environment as close as possible. The advantages and disadvantages of each of the different Segmentation-Algorithms will be shown as well as a comparison taking into account the Computational Time and the Robustness of the results.
Logopädische Lernsoftware
(2003)
In den letzen Jahren konnte ein wachsendes Interesse an Lernsoftware im logopä-dischen Einsatzbereich verzeichnet werden. Dieses Interesse zeigte sich nicht nur auf Seite der logopädischen Fachpraxen sondern auch in den Grundschulen. Auf Grund dessen ist die Lernsoftware auf dem besten Wege, sich neben den traditionellen Lern- und Übungsmaterialien am Markt zu etablieren. Auf Grund der Vielfalt an Sprachstörungen wird ein System benötigt, das indivi-duell, je nach Bedürfnis des Klienten, konfiguriert werden kann. Die vorliegende Arbeit beschäftigt sich mit dem Entwurf und der Weiterentwick-lung der logopädischen Lernsoftware Detektiv Langohr, damit dieses Produkt den Anforderungen und Wünschen des Klientel so gerecht wie möglich wird. Auf Basis einer durchgeführten Marktanalyse wurden konkrete Anforderungen an ein solches System spezifiziert und im Anschluss in ein Projekt umgesetzt. Um dem Leser einen besseren Einblick in die Welt der Logopädie verschaffen zu können, wurde eine allgemeine Einführung in die Sprachtherapie dem Analyse- und Um-setzungsteil vorangestellt.
Die vorliegende Arbeit soll die Möglichkeiten von XML und den dazugehörigen Technologien bei der Entwicklung eines komplexen Softwaresystems und dem damit verbundenen Datenaustausch aufzeigen. Dafür soll die Leistungsfähigkeit und Eignung oder ggf. Nichteignung der XML-Technologie durch Entwurf, Aufbau und Test eines Prototyps, durch XML-konforme Ein- und Ausgabe sowie durch Daten- Aufbereitung und -auswertungen nachgewiesen werden. Daten unterschiedlicher Datenbestände werden ins XML-Format transformiert und in eine zentrale Datenbank gespeichert. Diese sollen mittels XML für alle Fremddatensysteme bereitgestellt sowie in HTML- und PDF-Formate transformiert werden.
Es handelt sich um eine Arbeit im Rahmen des BMBF-Programm "Anwendungsorientierte Forschung und Entwicklung an Fachhochschulen". Schutz und Steuerung spielen eine entscheidende Rolle bei der Automatisierung in der elektrischen Energieversorgung. Moderne Geräte sind Mikrorechnergesteuert, und ihre korrekte Funktion wird bestimmt durch das Zusammenwirken ihrer Hardware und Software mit der Hochspannungsanlage. Zudem ist die Software für den individuellen Einsatz parametriert. Untersuchungen mit realen Schutz- und Steuerungseinrichtungen an realen Anlagen sind aufwendig und riskant. Gewonnene Betriebserfahrungen kommen häufig erst nach einem Schadensereignis. Dagegen ermöglichen Simulationen breit abgestützte Untersuchungen realer Betriebs- und Fehlerfälle im Voraus. Sie unterstützen damit nicht nur kurze Entwicklungs-, Projektierungs- und Inbetriebnahmezeiten, sondern tragen auch zur sicheren, zuverlässigen und kostengünstigen Stromversorgung bei. Simulationen sind aus unterschiedlichen Blickwinkeln sinnvoll: • Planung und Projektierung von Hochspannungsanlagen mit den zugehörigen Schutz- und Leitsystemen • Ereignisgenaue und präzise Analyse von Störungen, z.B. nach einem Leitungsausfall oder einem Blackout • Entwicklung von Schutz- und Steuergeräten und -systemen einschließlich Hardware, Software und Firmware • Ausbildung, Training, Beratung. Aufgabe des Projekts ist die Erprobung eines Echtzeitnetzmodells für typische Schutztechnik-Anwendungen. Im Gegensatz zu bekannten Energietechnik- und Schutztechnik-spezifischen Lösungen soll die Simulation auf der Basis des in der gesamten Technik weit verbreiteten Werkzeugs Matlab/Simulink einschließlich SimPowerSystems (frühere Bezeichnung: Power System Blockset) basieren. Zunächst soll ein vollständiges Simulationssystem einschließlich Schutzgeräten in Betrieb genommen werden. Dafür ist die Simulationsrechner-Hardware mit möglichst hoher Rechenleistung einschließlich geeigneter Interfacekarten für die Analogausgaben und die digitalen Schnittstellen zum Projektbeginn neu zu beschaffen. Die Untersuchung des Echtzeit-Netzmodells soll anhand typischer Netzkonfigurationen mit entsprechenden Schutzanwendungen erfolgen, z.B.: Hochspannungs-Doppelleitung mit Kurzschluss oder Pendelungen; Generator-Einspeisung, auch mit motorischen Verbrauchern und Umschaltvorgängen. Damit sollen die wesentlichen Möglichkeiten und Grenzen der Simulation festgestellt werden: • Korrektheit und Genauigkeit der Simulation • Anforderungen an Simulations-Rechnerhardware abhängig von Modellgröße, Frequenzbereich bzw. Zeitschrittweite • Möglichkeiten für Echtzeit- und Offline-Simulation auf Basis derselben Modellparameter • Integration von Schutzalgorithmen und -geräten in die Simulation (anstelle realer Geräte) • Erweiterbarkeit und Offenheit, z.B. betreffend Wide-Area-Protection, Simulation von Stromwandlern mit Sättigung, Modellierung von nicht in der Bibliothek verfügbaren Komponenten, Anlagen mit mehreren und verschiedenartigen Schutz-, Steuer- und Leitsystemkomponenten Simulation für Schutz- und Stationsleittechnik mit Matlab/Simulink Seite 4 • Bedienungsfreundlichkeit • Geeignete Visualisierung, Archivierung und Dokumentation • Kosten • Empfehlungen für den Einsatz.
Web services are, due to the excellent tool support, simple to provide and use in trivial cases. But their use in non-trivial Web service-based systems like I3M poses new difficulties and problems. I3M is an instant messaging and chat system with distributed and local components collaborating via Web services. One difficulty is to make a series of related Web service invocations in a stateful session. A problem is the performance of collaborating collocated, service-oriented components of a system due to the high Web service invocation overheaed as is shown by measurements. Solutions to both the difficulty and the problem are proposed.
Altbausanierung spielt in der Baupraxis eine immer wichtigere Rolle, während das Bauvolumen bei den Neubauten abnimmt. Diesem Trend wird im Studiengang Architektur der HTWG Konstanz durch neue Vorlesungen und Seminare vermehrt Rechnung getragen. So wurde im Sommersemester 2003 durch den Lehrbeauftragten Architekten Roger Karbe (Berlin) und Prof. Cengiz Dicleli (FH-Konstanz) das Seminar „Konstruktiver Denkmalschutz“ durchgeführt. Fünf denkmalgeschützte Bauten vom Weltrang, die bereits erfolgreich saniert, modernisiert und zum Teil umgenutzt worden sind, wurden unter konstruktiven und funktionalen Aspekten des Denkmalschutzes untersucht und analysiert. Diese sind der Hamburger Bahnhof, das Alte Museum, der Langhansbau im Schloss Charlottenburg, das Fährhaus auf der Pfaueninsel und Stülers Neues Museum, das zurzeit vom englischen Architekten David Chipperfield wieder hergestellt wird. Häufig werden Überlegungen zum Erhalt und Schutz historischer Bausubstanz zu wenig, zu spät oder gar nicht angestellt. Viele herausragende Gebäude sind deshalb bereits verloren gegangen. Die totale Konservierung historischer Anlagen bietet selten einen sinnvollen Lösungsansatz. Der Verzicht auf jede Veränderung schließt am Ende eine sinnvolle Nutzung aus. Entfallen oder Verändern sich die ursprünglich geplanten Nutzungen, so sollte vor jeder Aufgabe sorgfältig geprüft werden, wie weit bauliche Anlagen für neue Nutzungsanforderungen herangezogen werden können. Das Lehrziel beinhaltet die Einordnung der betreffenden Gebäude in das geschichtliche Umfeld. Danach wird das Hauptaugenmerk auf die konstruktiven Zusammenhänge gelenkt. Dabei werden möglichst alle Rahmenbedingungen erfasst: Grundstückswahl, Baugrund, Bauzeit, Baumaterialien, Baumethoden, technische Ausstattungen und Kostenrelevanz. Vertiefend folgen dann eine Erarbeitung der Wechselwirkung zu den ursprünglichen Nutzungen und die Hinlenkung zur Erkenntnis der speziellen Korrelation zwischen Konstruktion und Funktion auch bei den historischen Bauten. Die zukünftigen Architekten müssen auch lernen, sich und ihren schöpferischen Ansatz selbst kritisch zu hinterfragen. Erst das umfassende Wissen um die geschichtlichen wie kon-struktiven Zusammenhänge ermöglicht ihnen eine eigene Positionierung. Beim Erhalt historischer Gebäude durch einen möglichst schonenden Umgang mit vorhandener Substanz können gleichermaßen wirtschaftliche Interessen der Investoren wie auch die Forderungen des Denkmalschutzes befriedigt werden. Anhand der ausgewählten Bauwerke in Berlin, die alle unter Denkmalschutz stehen, konnten die Architekturstudenten verschiedene Ansätze von erfolgten Umnutzungen und den daraus folgenden Umbauten studieren. Die Bauten bieten einen Abriss der Bau- und Kulturgeschichte Preußens über einen Zeitraum von 100 Jahren vom Ende des 18. bis zum Ende des 19. Jahrhunderts.
Der Einsatz von adaptiv arbeitenden Sicherheitssystemen im Kraftfahrzeugbereich wird ständig zunehmen. Im vorliegenden Projekt soll ein einfach arbeitendes und schnellschaltendendes Aktorprinzip mit Hilfe des Einsatzes von Formgedächtniselementen realisiert werden. Ein solch kostengünstiges und sehr sicher arbeitendes System wird nicht nur vorhandene teure und aufwendige Systeme ersetzen können, sondern es wird auch durch die hohe Integrierbarkeit und günstige Recyclebarkeit den Einsatz von Aktoren im Kraftfahrzeugbereich erhöhen. Gegenstand dieses Projektes ist die werkstoffkundliche Entwicklung eines adaptiven Sicherheitssystems mit Formgedächtnislegierungen zum Einsatz in Kraftfahrzeugen. Durch die spontane Umwandlung der FGL beim Überschreiten einer kritischen Temperatur, können sehr schnell und funktionssicher Linearbewegungen ausgeführt werden. Das Problem der Langzeitstabilität des Formgedächtniseffektes soll in diesem Forschungsvorhaben betrachtet werden. Hierzu werden durch Auslagerungsversuche sowohl die Auswirkungen von Ausscheidungen, als auch die metallkundlichen Hintergründe für die Entstehung der Ausscheidungen betrachtet. Durch die Kenntnis der ablaufenden Vorgänge sollte es möglich sein Legierungen einzusetzen, welche die erforderliche Langzeitstabilität aufweisen. In einem weiteren Projektschritt sollen Schnellerwärmungssysteme entwickelt und erprobt werden, die es ermöglichen mit dem vorhandenen Bordstromnetz eine schnellstmögliche und sichere Erwärmung der FG-Elemente zu gewährleisten.
Im Jahr 2009 startet die AMSAT Deutschland e.V. das Raumfahrzeug "Phase 5-A" zum Mars. Dort wird das "Archimedes"-Ballon-Landesystem der Mars Society abgesetzt, während das Raumfahrzeug in einer elliptischen Umlaufbahn um den Mars bleibt und als Relaisstation für die Kommunikation zwischen Landesystem und Bodenstation auf der Erde arbeitet. Für diese Raumfahrtmission wurde an der HTWG Konstanz im Fachbereich Elektrotechnik und Informationstechnik eine Diplomarbeit über einen Teil der Antennen des Raumfahrzeugs angefertigt. Bodenstation und Raumfahrzeug kommunizieren durch einen Uplink im S-Band (2,45 GHz) und einen Downlink im X-Band (10,45 GHz). Im normalen Betriebsfall werden auf dem Raumfahrzeug Richtantennen eingesetzt. Sowohl für Uplink, als auch für den Downlink wird rechtszirkular polarisierte Strahlung verwendet. In bestimmten Betriebsfällen sind die Richtantennen des Raumfahrzeugs nicht zur Erde ausgerichtet. Dies ist der Fall, wenn die Triebwerke in Betrieb sind, oder im extremen Fall, wenn das Lageregelungssystem temporär oder komplett ausfällt. Für diesen Fall sind möglichst isotrop abstrahlende Notfallantennen notwendig, um zumindest eine minimale Kommunikation zur Erde zu gewährleisten. In der Diplomarbeit wurde für die Richtantenne für das X-Band ein Doppelreflektorsystem (Cassegrain-System) gewählt. Im berechneten Design wurde der Durchmesser des Hauptreflektors zu 2000 mm und der Durchmesser des Subreflektors zu 302,3 mm gewählt. Ebenfalls berechnet wurde die zugehörige Kegelhorn-Antenne als Primärstrahler, sowie ein praktikabler Zirkularpolarisator vorgeschlagen. Bei den isotropen Antennen stellt sich das Problem, dass das Raumfahrzeug sehr groß gegenüber der Wellenlänge ist und dadurch praktisch eine Hemisphäre abgeschattet wird. Deshalb wurden für die S-Band- und X-Band-Notfallantennen Antennen gesucht, die eine möglichst gute hemisphärische Abstrahlung haben. Zwei dieser hemisphärisch abstrahlenden Antennen werden jeweils auf entgegengesetzten Seiten des Raumfahrzeugs montiert und ermöglichen so eine (nahezu) isotrope Abstrahlung. Für die S-Band-Notfallantenne wurden unterschiedliche Antennentypen (Drehkreuzantenne, Eggbeater-Antenne, Lindenblad-Antenne, Quadrifilar-Helix-Antenne und Streifenleitungsantenne) hinsichtlich ihres Abstrahlungsdiagramms und der Eignung für Raumfahrtanwendung miteinander verglichen. Als Ergebnis stellt sich die Streifenleitungsantenne als am besten geeignet heraus, da dieser Antennentyp über viele Freiheitsgrade (z.B. Form, Abmessungen und Materialien) verfügt. Über die Freiheitsgrade kann das Abstrahlungsdiagramm geformt werden. Auch für die X-Band-Notfallantenne wurde ebenfalls die Streifenleitungsantenne untersucht. Dieser Antennentyp weist allerdings einige gravierende Nachteile im Sendebetrieb auf: Das gravierendste Problem sind die hohen Verluste dieses Antennentyps. Deshalb wurde für die X-Band-Notfallantenne ein offener Hohlleiter mit zusätzlichen Reflektionselementen vorgeschlagen. Ein offener Hohlleiter strahlt bereits relativ stark gebündelt ab. Die zusätzlichen Reflektionselemente weiten die Abstrahlung aus. So wird eine annähernd hemisphärische Abstrahlung möglich. Das Raumfahrzeug wird zumindest zeitweilig durch Rotation um die eigene Achse stabilisiert (Spin-Stabilisation). Sind die Antennen außerhalb der Rotationsachse montiert, so tritt ein mit der Rotationsdauer sich periodisch ändernder Doppler-Effekt auf. Problematisch wird dies, wenn die Frequenzverschiebung durch den Doppler-Effekt in die Größenordnung der Bandbreite des Nutzsignals kommt. Dadurch wird die Dekodierung des Nutzsignals erschwert.
Weltraumhotel Entropolis
(2005)
die aufgabe waren entwurf und ausarbeitung eines weltraumhotels für ca 200 gäste, in einer umlaufbahn um das system erde-mond. die arbeit ist entstanden in zusammenarbeit mit dem luft und raumfahrt institut stuttgart. abgesehen von der machbarkeit( bauphasen, logistik, transport) wurde besonders der umgang zwischen mensch- schwerelosigkeit-raum untersucht. dabei sind die räume nicht für die anforderungen von langzeitaufenthalten im all konzipiert, sondern speziell für menschen die nicht an den umgang mit schwerelosigkeit gewöhnt sind. das heisst die räume sollen auf der einen seite praktikabel sein ( orientierungshilfen, proportionen...) aber vor allem das verhältniss zwischen der perspektive des betrachters und dem ihn umgebenden raum neu definieren.
Die Zielsetzung dieser Arbeit ist die Entwicklung der Serverdienste einer Client/Server-Software für die computergestützte Telefonie am Arbeitsplatz. Die Software ermöglicht die Steuerung und Statusüberwachung von Telefonapparaten mit dem Ziel, die Benutzung ergonomischer zu gestalten und das zugrunde liegende Telekommunikationssystem stärker in die Informationstechnik zu integrieren. Die Software soll mit der Telekommunikationsanlage Meridian I von Nortel zusammenarbeiten, um die Manipulation der angeschlossenen Telefonapparate zu ermöglichen. Beim Softwareentwurf ist für die Zukunft die Unterstützung weiterer Telekommunikationsanlagen zu berücksichtigen. Zudem soll ein API definiert werden, welches die Implementierung eines Clients in Form eines HTTP-Dienstes für die Nutzung über einen Web-Browser ermöglicht. Ebenso soll der Weg für eine in Zukunft zu entwickelnde dedizierte Client-Software bereitet werden. Für die Umsetzung der Projektziele wurde ein komponentenorientiertes Middleware-Konzept auf Basis des Java Telephony Application Programming Interface (JTAPI) verwirklicht. Dafür wurde eine JTAPI-konforme Provider-Implementierung realisiert, die das zugehörige Zustands- und Objektmodell umsetzt. Für die Kommunikation mit der Telekommunikationsanlage wurde eine Treiberkomponente entwickelt, die das proprietäre Protokoll des CTI-Links implementiert. Schließlich wurde ein einheitliches, RMI-basiertes API spezifiziert, das für die Entwicklung der Client-Software in Form eines HTTP-Dienstes oder einer selbständigen, fensterbasierten Anwendung eingesetzt werden kann. Die komponentenorientierte Gesamtarchitektur ermöglicht darüber hinaus die Entwicklung weiterführender CTI-Dienste.
die schön/er/finder
(2005)
Niemand soll oder darf einem anderem sagen, was schön ist. Jeder muss das für sich selbst herausfinden, denn: Jeder ist ein <schönerfinder>. das Ziel Ästhetischer Geschmack soll nicht als eine gegebene Größe im gesellschaftlichen Leben, sondern als eine persönliche Eigenart wahrgenommen werden, die individuell verschieden, aber weder gut noch schlecht ist. Besonders diejenigen, die ihren individuellen Geschmack erst noch entwickeln, also vor allem Kinder und Jugendliche, sollen die Möglichkeit bekommen, sich zu informieren und ohne äußeren Druck Entscheidungen auszuprobieren. Durch die Beschäftigung mit dem Thema und spielerisches Ausprobieren sollen sie ihren Geschmack und das Schöne als etwas eigenes entdecken. Jugendliche sollen sich als stark und selbstbewusst wahrnehmen, als jemand, der Entscheidungen trifft. Er soll die Rolle eines Entdeckers einnehmen, welcher in fremde Welten vorstößt und andere Lebensentwürfe und Geschmäcker kennenlernt und akzeptiert. Diese spielerische Erfahrung soll mit ins tägliche Leben übernommen werden und das Selbstbewusstsein genauso wie die Toleranz fördern. der Weg dorthin Phase 1: Bewusstsein schaffen für das Thema Schönheit, das Thema ästhetisches Urteil – mit Schönem, Kultigem, Geschmacklosem und Hässlichem Phase 2: Informieren – Aufklärung über Theorien und mögliche Positionen zum Thema – mit klugen Worten, Dichtern und Denkern und den zwölf schön/er/finder-Typen Phase 3: Nutzen vermitteln – herausfinden, was für einen selbst schön ist; seine eigene Position suchen und damit Selbstbewusstsein gewinnen – mit einem Spiel und einem kleinen Freund, <Poti> Phase 4: Anstecken – sich mit anderen austauschen, Unterschiede, aber auch Gemeinsamkeiten finden – im Forum und in der Galerie der schön/er/finder
Entwicklung einer neuartigen Prüfanlage zur Prüfung von Bauelementen aus Formgedächtnisteilen
(2004)
Im Rahmen des Forschungsvorhabens, unterstützt durch das Förderprogramm des BMBF „Anwendungsorientierte Forschung und Entwicklung an Fachhochschulen“ (aFuE), soll eine voll automatisierte, universale Prüfanlage gebaut werden mit deren Hilfe es möglich ist, das Verhalten von Formgedächtnislegierungen (FGL) bei der Variation verschiedener Parameter zu ermitteln. Die Prüfanlage soll in erster Linie sehr genau die Phasenumwandlungstemperaturen der Formgedächtnislegierungen ermitteln, um damit einen tieferen Einblick in die metallkundlichen Hintergründe zu gewinnen. Aber es gibt auch weitere Anwendungen wie zum Beispiel das so genannte „Training“, indem man durch gezielte thermische und mechanische Belastungen den FGL verschiedene Formgedächtniseffekte trainiert. Ein weiteres Ziel des Forschungsvorhabens ist das Erstellen einer Prüfnorm für FGL die den gesamten Prüfablauf dokumentieren und ergänzen wird. Letztendlich soll die Prüfeinrichtung eine Plattform für die Weiterentwicklung der existierenden FG-Anwendungen sein, sowie die Einsatzmöglichkeiten dieser Werkstoffe zu erweitern. Da es derzeit keine Normung für Bauteile aus FGL gibt, soll in den erfolgten Tests ein Vorschlag für eine FG-Normung gemacht werden. Förderkennziffer 17 092 02
Der Anstoß zu diesem Projekt kam beim Lesen eines Artikels in einem Wirtschaftsmagazin zum Einsatz des Brettspiels "Go" (abgewandelt 'Gobang') im Training des Managementnachwuchses in Japan und Südkorea. Dieses jahrtausendealte Spiel (siehe unten) wird in diesen Ländern zum Erlernen strategischen Denkens eingesetzt. Der Gedanke lag daher nahe, zu testen, ob dieses Lernziel auch in der qualifizierten Ausbildung in unserem Kulturkreis erreichbar ist. Leider ist aber die Zahl möglicher Spielkonstellationen ist bei Go zum Durchspielen aller Varianten immens groß – wesentlich grösser als beim Schachspiel (!) –, so daß nur einfache Spielvarianten über einen Rechner abbildbar sind. Bei der Suche nach weiteren Spielen kam ich auf den Begriff "Brettplanspiel". Es folgten (teils zufällig) diverse Gespräche, in denen immer wieder neue Informationen zum Thema gewonnen wurden, und es reifte die Idee, eine studentische Arbeitsgruppe zusammenzustellen, die angeleitet testen sollte, ob der Einsatz von Unternehmensspielen in Form haptischer Spiele (= Brettspiele) im Rahmen der Hochschulausbildung einen Nutzen bringen kann. Nach mehreren Gesprächen wurde das Projekt mit zwölf Probanden integriert in das Pflichtfach 'Case Studies' (8. Semester). Berücksichtigt wurden die Spiele 'Factory Global' , 'Coludo', 'Apples&Oranges' und 'Go' Im WS 2004/2005 wurden dann unter dem Titel "BPS" (für: Brettplanspiele) die Testrunden zu den ausgewählten Spielen an insgesamt fünf Tagen durchgeführt; die Detailorganisation wurde von den studentischen Teammitgliedern selbständig abgewickelt. Abschließend wurde von den Studierenden eine Präsentation der Ergebnisse vorgelegt (s. u.). Grundlage für diese Ergebnispräsentation war u. a. die Auswertung der von den Teilnehmern erarbeiteten Fragebögen, die von allen Spielern nach jeder Spielrunde ausgefüllt wurden. Die Spiele aus dieser ersten Testrunde (BPS 1) sind – sieht man von dem Exoten 'Go' (kein Unternehmensspiel) einmal ab – eher dem klassischen Genre zuzuordnen, in denen der unternehmerische Prozess eines Produktionsunternehmens als Ganzes abgebildet / simuliert und durchgespielt wird und in dem die Spieler das Zusammenwirken des güterwirtschaftlichen und des finanzwirtschaftlichen Teilprozesses bis schlußendlich zu dessen Abbildung im Periodenabschluss und dessen Interpretation 'begreifbar' erfahren. Neben branchenorientierten Varianten und firmenspezifischen Anpassungen (Siemens z.B. hat 'Apples&Oranges' der Firma Celemi auf das Wertesystem des Economic Value Added (EVA) angepaßt) entstanden in den letzten Jahren themenspezifische Unternehmens-Brettplanspiele, z.B. zu Themen wie Projektmanagement, Unternehmenslogistik etc.. Im SS 2005 wurde eine weitere Spiel- und Testrunde durchgeführt mit den Spielen 'Silke' (Untenehmenslogistik / SCM), 'PM erleben' (Projektmanagement) und 'Process Factory' (Prozess-Management). Auch die Erkenntnisse aus dieser BPS 2 – Runde (Fragebogen) wurden in einer Präsentation zusammengefaßt.