Refine
Year of publication
Document Type
- Master's Thesis (77) (remove)
Keywords
- .NET Remoting (1)
- .NET-Plattform (1)
- 2 D environment Laser data (1)
- 3D-Druck (1)
- ADO.NET (1)
- ASP.NET (1)
- Active Server Pages (1)
- ActiveX Data Objects (ADO) (1)
- Agenten-Plattform (1)
- Akquisition <Vertrieb> (1)
Institute
- Fakultät Architektur und Gestaltung (5)
- Fakultät Bauingenieurwesen (22)
- Fakultät Elektrotechnik und Informationstechnik (5)
- Fakultät Informatik (34)
- Fakultät Maschinenbau (2)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (1)
- Institut für Optische Systeme - IOS (2)
- Institut für Systemdynamik - ISD (2)
Diese Masterarbeit erforscht das Potenzial großer Sprachmodelle in der Bauindustrie mit einem Fokus auf digitale Transformation, Effizienzsteigerung und Nachhaltigkeit. Durch eine umfassende Literaturanalyse und qualitative Experteninterviews werden spezifische Anwendungsfälle, Herausforderungen bei der Implementierung und ethische sowie datenschutzrechtliche Überlegungen untersucht.
Die Arbeit hebt hervor, wie große Sprachmodelle die Planungsprozesse optimieren, das Risikomanagement verbessern und maßgeschneiderte Lösungen entwickeln können, um ökonomische und ökologische Vorteile zu erzielen. Zudem werden praxisorientierte Empfehlungen für eine erfolgreiche Integration dieser Technik in das Bauwesen präsentiert, die sowohl die technologische Machbarkeit als auch soziale Akzeptanz berücksichtigen.
Abschließend werden zukünftige Forschungsrichtungen aufgezeigt, die darauf abzielen, die digitale Transformation im Bauwesen unter Einbeziehung ethischer Standards und Datenschutz zu beschleunigen.
Die Ergebnisse dieser Arbeit demonstrieren das Potenzial von großen Sprachmodellen, traditionelle Bauprozesse zu revolutionieren, und betonen die Notwendigkeit einer sorgfältigen Implementierung, um die Vorteile dieser Technologie vollständig auszuschöpfen.
Die folgende Masterarbeit gibt eine Übersicht zu modernen AR-Technologien für den Einsatz in der Lehre mit dem Ziel eine geeignete Software zu identifizieren, die eine AR-Anwendungserstellung sowie die Integration dieser in das Vorlesungsgeschehen der HTWG ermöglicht. Diese Arbeit baut auf einer Literaturrecherche auf, welche den gegenwärtigen Einsatz von AR in der Lehrpraxis analysiert. Es wird der aktuelle Stand der Entwicklung in Bezug auf verschiedenste Hard- und Softwarelösungen dargestellt, einschließlich der Funktionsweise von AR-Anwendungen sowie relevanter Systemkomponenten. Anschließend werden sowohl der Einsatz von Augmented Reality im Bildungsbereich betrachtet als auch andere Sektoren wie Medizin und Industrie einbezogen, um eine umfassende Übersicht zu Fallstudien sowie Praxisbeispielen zu gewährleisten. Der Auswahlprozess der Software wird ebenfalls thematisiert und eine Anleitung zur Benutzung des gewählten Tools, Vuforia Studio, wird dargeboten.
Die Analyse ergab, dass AR-Anwendungen es den Schülern und Studierenden ermöglichen, aktiv am Unterricht bzw. den Vorlesungen teilzunehmen und Inhalte interaktiv zu erkunden, was das Interesse am Lehrinhalt steigert sowie eigenständiges Lernen fördert. Dem Einsatz von AR in der Lehre stehen jedoch Herausforderungen gegenüber. Insbesondere eine pädagogisch angemessene AR-Inhaltserstellung erweist sich als schwierig. Sowohl die Anfertigung
eines 3D-Modells als auch das Arbeiten mit Programmen wie Vuforia Studio selbst stellen sich als zeitintensiv und technologisch anspruchsvoll heraus. Von Seiten der Bildungseinrichtung müssen finanzielle Mittel bereitgestellt werden, denn ohne entsprechende Schulungen und Ressourcen wird auch die Bereitschaft der Lehrenden, sich mit neuen Technologien auseinanderzusetzen, nicht ausreichend sein, um hochwertige AR-Inhalte zu konzipieren. Obwohl die
technologische Infrastruktur zwar deutlich besser ausgebaut ist als noch vor einigen Jahren, vor allem, weil flächendeckendes Internet zur Verfügung steht und die Lernenden zum Großteil eigene Smartgeräte besitzen, ist eine kontinuierliche Investition in Hard- und Software sowie das Pflegen der gesammelten Daten und genutzten Server unerlässlich.
Insgesamt bietet der Einsatz von Augmented Reality in der Lehre vielversprechende Möglichkeiten, um das Lernerlebnis zu verbessern und die Bildungsergebnisse zu optimieren, jedoch müssen die genannten Herausforderungen überwunden werden, um das gesamte Potenzial von Augmented Reality Technologien in der Lehre auszuschöpfen.
Gegenstand der hier vorgestellten Arbeit ist ein Überblick über die Unterschiede zwischen der aktuell in Baden-Württemberg bauaufsichtlich gültigen Erdbebennorm DIN 4149 und der DIN EN 1998-1/NA 2021-07, die Sie künftig ersetzen soll und bereits dem aktuellen Stand der Technik entspricht. Es wird darauf eingegangen, welche Umstände hinter dem Umstieg auf die Europäische Norm und die Neuauflegung des Nationalen Anhangs stehen und ein Faktor ausgearbeitet, mit dem beide Normen direkt verglichen werden können. Zudem werden gängige Berechnungsverfahren zur Ermittlung von Erdbebenbeanspruchungen vorgestellt und anhand des Berechnungsprogramms Minea Design die Unterschiede zwischen vereinfachter 2D-Berechnung und 3D-Berechnung mit finiten Elementen untersucht. Daraus wird eine Aussage darüber abgeleitet, welches der Berechnungsverfahren auf der „sicheren Seite“ liegt und wie sich die Ergebnisse verifizieren lassen. An einem realen Projekt werden diese Erkenntnisse in Form einer Erdbebenbemessung angewandt.
Der einst vorherrschende Baustoff in Deutschland war Lehm. Dieser wurde durch die erste industrielle Revolution weitgehend verdrängt und durch industrialisierte Baustoffe wie Beton ersetzt. Mit der vierten industriellen Revolution und dem steigenden Bewusstsein der Auswirkungen der Ressourcenverschwendung und Abfallproduktion auf die Umwelt, soll der traditionelle Lehmbau durch Digitalisierung und Automatisierung wieder an ökonomischem Aufschwung gewinnen. Bauen mit Lehm bietet die Chance einer systematischen Transformation der Bauindustrie in Richtung Kohlenstoffneutralität. Bisher ist die Bauindustrie für mehr als 30 % der weltweiten Treibhausgasemissionen verantwortlich. Durch die Verwendung regionaler, zirkulärer Materialien, die idealerweise aus der eigenen Baugrube gewonnen werden, könnte sich dies in Zukunft ändern. Lehm kommt in nahezu allen Teilen der Welt flächendeckend und zur Genüge vor und kann mit verschiedenen regional vorhandenen Additiven ergänzt werden. Durch Standardisierung der Produkte und technologischen Fortschritt könnte der Lehmbau in eine Massenproduktion überführt werden und in Zukunft mit dem konventionellen Stahlbetonbau oder Holzbau konkurrieren.
Diese Masterarbeit konzentriert sich auf die Modernisierung von Lehmbauweisen in Form von digitalisierten und automatisierten additiven Fertigungsverfahren wie der Stampflehmbau oder das 3D-Drucken mit Lehm für Wandbauteile. Ziel der Masterthesis ist es, einen Bauablauf für eines der genannten additiven Fertigungsverfahren zu entwickeln. Um dieses Ziel zu erreichen, werden die verschiedenen Fertigungsverfahren und Arten nach Stand der Technik miteinander verglichen und sich für das am besten bewertete entschieden. Als praktische Grundlage für die Wahl des Fertigungsverfahren dienen beispielhafte Untersuchungen mit einem Lehm 3D-Drucker. Dabei werden Prüfkörper mit und ohne Additive gedruckt sowie Prüfkörper mit unterschiedlichen Füllgraden erstellt und anschließend im Labor auf ihre Druckfestigkeit geprüft.
Die folgende Arbeit zeigt die vielen Potenziale des Lehmbaus als zirkuläre und moderne Bauweise auf und beleuchtet zugleich die Herausforderungen, die es noch zu lösen gilt.
Die Berücksichtigung ökologischer und sozialer Gesichtspunkte in der Konzeption, Planung und Errichtung von Gebäuden hat in den vergangenen Jahren großen Einfluss auf Marktfähigkeit der Immobilien gewonnen. Regulatorische Rahmenwerke wie die Taxonomie-Verordnung der Europäischen Union formulieren die klare Anforderung an die Bauwirtschaft dem Schutz von Mensch und Natur mehr Bedeutung einzuräumen. Nur mit einem wesentlichen Beitrag zu den Klimazielen der Europäischen Union wird es der Branche langfristig möglich sein sich einen uneingeschränkten Zugang zum Investorenmarkt zu sichern.
Die vorliegende wissenschaftliche Arbeit widmet sich dem Kriterienkatalog der Deutschen Gesellschaft für Nachhaltiges Bauen e.V. und legt Übereinstimmungen mit den technischen Bewertungskriterien der EU-Taxonomie Verordnung offen. Der im Frühjahr 2023 erschienen Kriterienkatalog umfasst eine Vielzahl von Kriterien, anhand derer Gebäude auf Nachhaltigkeit geprüft werden. Im Vergleich zu der Vorgängerversion aus dem Jahr 2018 wurden erhebliche Änderungen eingearbeitet. Besonders hervorzuheben sind neue technische Prüfkriterien im Bereich Klimaschutz, Ressourcengewinnung, Biodiversität und Kreislaufwirtschaft. Die Angleichung der Berechnungsmethode für die Ökobilanzen an das bundeseigene „Qualitätssiegel Nachhaltiges Gebäude“, die Mindestanforderung nach dem erhöhten Einsatz von nachhaltig gewachsenem Holz, die Prüfung spezifischer Zielquoten bei dem Einsatz von Recyclingbeton sowie Anforderungen an die Zirkularität sind nur ein Teil der Neuerungen. Für die zusätzlichen Anforderung müssen Projektentwickler mit Mehrkosten im hohen sechsstelligen Bereich im Vergleich zu der Vorgängerversion rechnen. Vorteile der Neuauflage des Kriterienkataloges sind eine erhöhte Übereinstimmung mit den Nachhaltigkeitsanforderungen der Europäischen Union. Es werden jedoch nicht alle Anforderungen erfüllt. Nachweise für den Primärenergiebedarf, die Schadstoffbelastung von Bauteilen bzw. -materialien und eine Umweltverträglichkeitsprüfung müssen zusätzlich zu dem Kriterienkatalog der Deutschen Gesellschaft für Nachhaltiges Bauen geleistet werden. Insgesamt ebnen die Kriterien der Deutschen Gesellschaft für Nachhaltiges Bauen aber den Weg hin zu einer EU-Konformität und helfen Projektentwicklern Immobilien erfolgreich auf dem Markt zu positionieren.
Entwicklung und Analyse eines Turmes aus Buchenfurnierschichtholz für eine Kleinwindkraftanlage
(2023)
Die Energiepreise in Deutschland steigen und viele Immobilienbesitzer wollen unabhängiger von den Stromerzeugern werden, weshalb sie in eine eigene Stromproduktion investieren. Eine optimale Ergänzung zu einer Photovoltaikanlage stellt dabei eine Kleinwindkraftanlage dar, die im Vergleich zu den großen Anlagen geringere Umweltbelastungen verursacht. Allerdings entstehen beim Bau einer Kleinwindkraftanlage hohe Kosten, weshalb dieses Konzept kaum verbreitet ist.
Die Türme von Windkraftanlagen werden normalerweise aus Stahl hergestellt. Bei der Herstellung dieses Baustoffs werden große Mengen an Treibhausgasen freigesetzt. Ein umweltfreundlicheres Material ist der nachwachsende Rohstoff Holz. Die Herstellung der Türme in Holzbauweise ist bisher kaum zu finden. Daher wird in dieser Arbeit untersucht, ob ein Holzturm eine Alternative zum Stahlturm sein kann und ob dadurch die Investitionskosten für eine Kleinwindkraftanlage gesenkt werden können.
Um die Forschungsfrage zu beantworten, wurde ein Konzept für einen Holzturm aus Buchenfurnierschichtholz entwickelt. Zunächst wurde die Bedeutung von Buchenholz im Bauwesen erarbeitet. Anschließend wurden die Grundlagen für den Bau von Kleinwindkraftanlagen erforscht und die Abmessungen einer fiktiven Anlage festgelegt. Es wurden die relevanten Einwirkungen ermittelt und die Anlage mittels einer Finiten-Elemente-Berechnung untersucht. Zuletzt wurden die Nachweise für die Tragfähigkeit und die Ermüdungssicherheit des Querschnittes und der Verbindungsmittel geführt.
Bei den Untersuchungen der Randbedingungen konnten keine Argumente gefunden werden, die gegen die Verwendung von Holz sprechen. In einigen Punkten wie beispielsweise in der Herstellungs- und Errichtungsphase sind sogar Vorteile gegenüber dem Stahl zu erkennen. Zudem wurde in einer Kostenschätzung herausgefunden, dass ein Holzturm auch preislich mithalten kann und dass die Herstellungskosten sogar gesenkt werden können. Die Gesamtkosten für eine Kleinwindkraftanlage können dennoch nur unwesentlich gesenkt werden. Die Investition ist daher nur sinnvoll, wenn am geplanten Standort genügend Wind zur Verfügung steht und wenn der produzierte Strom größtenteils selbst genutzt werden kann.
Ein Wandel weg von der linearen und hin zu einer Kreislaufwirtschaft, wie man ihn bereits in verschiedenen Bereichen erkennen kann, hat positive Auswirkungen auf das Klima und die Umwelt. Die Baubranche könnte durch ihre hohe Ressourcen- und Energieintensität ein wichtiger Beitrag zur Klima- und Umweltschonung durch Kreislaufpraktiken leisten. Im Fokus sollte nicht mehr nur eine effiziente Gebäudehülle stehen, sondern eine ganzheitliche Nachhaltigkeitsbetrachtung.
Aufgrund mangelnden Bewusstseins, fehlender rechtlicher Rahmenbedingungen, Organisationen, Softwaretools und fehlender Anreize durch Förderungen oder Geschäftsmodelle kann und wird eine ganzheitliche Kreislaufwirtschaft derzeit noch nicht in der Baubranche umgesetzt. Ein weiterer bedeutsamer Grund sind fehlende Materialpässe und deren Umsetzungsmöglichkeiten in der Praxis.
Ziel dieser Arbeit ist es, die Lücke zwischen den Anforderungen an Materialpässe und deren Umsetzung in der Praxis, speziell für WeberHaus und somit den Holz-Fertighausbau, frühzeitig zu schließen. Durch Experteninterviews werden der Ist-Zustand des Material- und Informationsflusses beschrieben und gleichzeitig die Themen Kreislaufwirtschaft, Rückverfolgung und Materialpässe mit den Mitarbeitern diskutiert und nähergebracht. Aus dem Ist- Zustand des Material- und Informationsflusses werden Möglichkeiten einer Umsetzung in Form von zwei Varianten für Materialpässe geliefert, welche die zuvor festgelegten Anforderungen erfüllen.
Zur Beschreibung des Materialflusses hat es sich als sinnvoll erwiesen, eine Einteilung des gesamten Unternehmens auf Gebäude- und Elementebene vorzunehmen. Der Informationsfluss wird für den Materialpass hauptsächlich durch die vorhandenen Softwaresysteme Bentley, Dietrich´s, SAP und WeKo bestimmt. Um die Anforderungen, die an die Materialpässe gestellt werden, bestmöglich und mit geringem Aufwand erfüllen zu können, stellt sich BIM in Kombination mit der Plattform Madaster als sinnvolles Instrument heraus. Hierzu sind jedoch aufwendige Fachmodelle oder ein Koordinationsmodell nötig, welche von WeberHaus noch nicht vollständig realisiert werden. Als Übergangslösung bietet sich ein Materialpass auf Elementebene an, der durch diese Betrachtung standardisiert und ergänzt werden kann. Eine Ergänzung dieser Variante durch QR-Codes bietet zusätzlich eine direkte Verknüpfung von Informationen mit Bauteilen.
Die vorliegende Arbeit soll durch einen möglichst gesamtheitlichen Vergleich von Fertigbadzellen und der konventionellen Ausführung von Bädern als eine Entscheidungshilfe für zukünftige Projekte dienen. Durch den immer stärker werdenden Fachkräftemangel sind Unternehmen auf Methoden angewiesen, welche diesem Mangel entgegenwirken. Eine Möglichkeit bietet die Verwendung von Fertigbadmodulen, welche noch viele weitere Vorteile sowohl für den Nutzer als auch den Generalunternehmer darstellt. Ziel der Arbeit ist es, neben der Ermittlung der Mindeststückzahl für eine sinnvolle Anwendung, eines Kosten- und Bauzeitenvergleichs auch einen Ausblick auf einen vermehrten Einsatz von Fertigbädern im Wohnungsbau zu geben. Im Rahmen der Arbeit wurden Experteninterviews geführt, um die gesammelten Erfahrungen auf den Baustellen sowie die Informationen aus Internet- und Literaturrecherchen mit aktuellen und aussagekräftigen Informationen zu stärken. Zuletzt fasst ein Leitfaden alle wichtigen Aspekte zusammen, die berücksichtigt werden sollten, wenn es um die Frage geht, ob der Einsatz von Fertigbädern sinnvoll ist. Zu den wichtigsten Erkenntnissen gehört die Tatsache, dass beim betrachteten Beispielprojekt eine deutliche Kosteneinsparung durch eine Verkürzung der Gesamtbauzeit sowie durch einen reduzierten Koordinationsaufwand ermittelt werden konnte. Weiterhin zeigen die Erkenntnisse aus den Interviews eine zukünftig verstärkte Orientierung in Richtung des Wohnungsbaus. Dies zeigt sich in den Anwendungszahlen sowie durch Maßnahmen zur stärkeren Etablierung im Wohnungsbau. Zusammenfassend kann die Anwendung von Fertigbadzellen besonders bei Projekten mit hoher Wiederholungsrate empfohlen werden, jedoch sollte auch hier in Zukunft der Wohnungsbau unter Berücksichtigung bestimmter Prämissen nicht vernachlässigt werden.
Durch neuartige Arten der Fortbewegung, eine weitreichende Vernetzung und die Notwendigkeit einer nachhaltigen Mobilität steht die Mobilitätsplanung vor neuen Herausforderungen. Die bisherige Ausrichtung auf die Optimierung von Kapazität und Geschwindigkeit des Verkehrsflusses ist mit der modernen Stadtplanung nicht mehr vereinbar.
Ziel dieser Masterarbeit ist es, ein Konzept für eine zukunftsorientierte Mobilitätsplanung mit der Eingliederung in eine klimaresiliente Stadtplanung zu schaffen. Dafür wird der Einsatz von Fernerkundungsdaten als Datengrundlage für Planung und Monitoring und die Verwendung weicher Maßnahmen untersucht. Sie erfordern keinen direkten Eingriff in die Infrastruktur, sondern bauen auf der bereits bestehenden auf und zielen auf eine Veränderung des Mobilitätsverhalten der Reisenden ab.
Auf Basis einer Literaturrecherche wurde ein Konzept erstellt, das die identifizierten Problemstellen der heutigen Mobilitätsplanung aufgreift. Zur Validierung der technischen Machbarkeit und die Praxistauglichkeit, wurden Experteninterviews durchgeführt. Mit den daraus gewonnenen Erkenntnissen wurde der neue Ansatz darauffolgend erweitert und angepasst.
Die Auswertung zeigt, dass die Herausforderungen durch das entwickelte Konzept aufgegriffen werden und die Mobilitätsplanung von der Verwendung von Fernerkundungsdaten profitieren kann. Um eine optimale Datenverwertung zu gewährleisten, ist eine Bilderkennungssoftware erforderlich. Allerdings erfordert die angestrebte Verhaltensänderung bei den Reisenden zudem ein unterstützendes zielgruppenorientiertes Marketing. Für eine weitere Verbesserung des Monitorings ist die Bildung von KPIs bereits in der Planungsphase und eine Monitoring-Plattform hilfreich.
Zur Einbindung des Konzepts in der Praxis ist die Entwicklung einer auf die Fernerkundungsdaten angepasste Bilderkennungssoftware notwendig. Danach kann das entwickelte Konzept in Pilotprojekten angewendet werden. Dadurch können auch die prozessualen Änderungen, die durch den Ansatz erfolgen, erprobt werden.
Das Ziel der vorliegenden Arbeit ist die Ermittlung relevanter Parameter der Wirtschaftlichkeitsuntersuchung von Überdeckelungen von Infrastrukturflächen in hybrider Bauweise im innerstädtischen Raum in Deutschland. Die untersuchte Hybridbauweise setzt sich aus Grünbrücken in Leichtbauweise und massive, bebaubare Module zusammen. Zusätzlich soll ein Berechnungsmodell entwickelt werden, in das die Werte der Parameter potenzieller Standorte eingegeben werden können. Hierüber können Bewertungen und Vergleiche der Standorte durchgeführt werden, welche später als Entscheidungsgrundlage für eine Realisierung dienen können. Mit Hilfe einer Sensitivitäts-, Szenarien- und Immobilienmarktanalyse werden die Parameter der Wirtschaftlichkeitsuntersuchung analysiert, wonach den maßgeblichen Einfluss auf das Endergebnis die Grundflächenzahl und die Geschossflächenzahl haben. Die Länge der Überdeckelung hat dagegen weniger bis keinen Einfluss auf das Gesamtergebnis. Die regionalen Immobilienpreise stellen den Schlüssel zur Wirtschaftlichkeit dar. Sie können geringe Werte der Grundflächenzahl und Geschossflächenzahl ausgleichen. Die verschiedenen Gegebenheiten und regionalen Unterschiede der Standorte deutschlandweit machen derartige Großprojekte jeweils zu Individuallösungen und die Entwicklung eines standardisierten Modells schwierig. Das Modell sollte für jeden Standort leicht modifiziert werden, wie die Case Study des McGraw-Grabens in München zeigt. Das Ergebnis der Case Study fällt durch die entsprechende Bebauungsdichte und die hohen Immobilienpreise positiv aus. Trotzdem muss der Detaillierungsgrad berücksichtigt werden, wonach ein solches Modell lediglich erste Anhaltspunkte für eine Bewertung geben kann. Für eine ganzheitliche Beurteilung müssen entsprechende Erweiterungen des Modells vorgenommen werden.
Der wirtschaftliche Erfolg eines Unternehmens wird an seinen Umsätzen und Gewinnen gemessen. Im Sinne der Lean Management-Philosophie wird versucht, Prozesse und Abläufe immer weiter zu optimieren, um immer bessere Ergebnisse zu liefern. Der maßgebliche Einfluss, den dabei die Führung des Unternehmens, aber auch die Führung innerhalb des Betriebs auf die Produktion hat, wird jedoch häufig unterschätzt. Shopfloor Management bietet hier das Führungsinstrument, um durch Führung am Ort des Geschehens Produktion und Management miteinander zu verbinden. Das Bauunternehmen Ed. Züblin AG setzt Lean Construction mit Hilfe der Methode der Taktplanung und Taktsteuerung um. Zu diesem Zweck hat es mit der digitalen Taktsteuerungstafel (dTST) ein eigenes Instrument zur Steuerung der Prozesse auf der Baustelle entwickelt, mit dem der Status täglich erfasst und bewertet wird. Ziel dieser Arbeit ist es, herauszufinden wie sich mit Hilfe der dTST und ihrer Daten Shopfloor Management Ansätze für Bauprojekte entwickeln lassen. Hierzu werden Interviews mit Stakeholdern höherer Hierarchieebenen verschiedener Bauprojekte geführt, um deren Bedürfnisse und Anforderungen an einen entsprechenden Ansatz zu eruieren. Die Verbesserung der Kommunikation, das Schaffen von Transparenz und auch die Mitarbeiterentwicklung sind die maßgeblichen Ziele der Stakeholder, die mit Shopfloor Management erreicht werden sollen. Die dTST wird dabei jetzt schon als das Werkzeug zur Durchführung von Shopfloor Management angesehen. Auf Basis dieser Erkenntnisse wurde ein Konzept in Form einer Besprechungslandschaft entwickelt. In dieser dienen die dTST und ihre Daten als Grundlage der täglich stattfindenden Kommunikation zwischen den Ebenen. Um die dTST noch aktiver in die tägliche Kommunikation einzubinden und ihre Daten aktiver und besser nutzen zu können, wurden Zusatzeigenschaften entworfen. Es muss jedoch berücksichtigt werden, dass bei der Entwicklung und Gestaltung von Shopfloor Management Ansätzen in der Praxis eine Vielzahl von Hindernissen und Herausforderungen gemeistert werden müssen. Eine maßgebliche Rolle spielen hier u.a. die Entwicklung von Standards, der notwendige Kulturwandel (z.B. Fehlerkultur, Führungsstil), die Berücksichtigung des Einflusses externer Stakeholder und die Gestaltung des Change Managements.
Die durch den Klimawandel verursachten Auswirkungen und die daraus resultierende Betroffenheit nehmen stetig zu, dennoch ist das Bewusstsein für den Klimaschutz noch immer stärker verankert als das für die Klimaanpassung. Letztere sollte jedoch zum Schutz der Gesundheit der Bevölkerung und bestehender Infrastruktur mehr in das Bewusstsein rücken.
Die vorliegende Arbeit befasst sich mit der Frage, wie Städte widerstandsfähiger gegenüber den Folgen des Klimawandels werden können. Dazu werden die Prozesse der Stadtplanung auf diesen Kontext bezogen untersucht.
Um die Prozesse abzubilden, wird zunächst eine Übersicht über allgemeine Handlungsmöglichkeiten gegeben, bevor die Stadt Konstanz genauer betrachtet wird und die Ergebnisse, der dort geführten Experteninterviews ausgewertet werden. Mitarbeiter der Stadtverwaltung wurden in diesem Rahmen nach ihren Erfahrungen, bestehenden Prozessen und notwendigen Veränderungen befragt. Im letzten Schritt wurde der Untersuchungsraum erweitert, um Erfahrungen aus Städten, die bereits aktiv Klimaanpassung umsetzen, einzubringen. Aus diesen Ergebnissen werden Handlungsempfehlungen für die Klimaanpassung abgeleitet und beschrieben.
In der vorliegenden Arbeit wird eine Vorlage für ein generalisiertes Betonfertigteil-Tracking für die Bauindustrie geschaffen. In dem ersten der vier Kapitel wird zuerst der Prozess des Fertigteil-Trackings dargestellt. Dieser wird anhand von Experteninterviews modifiziert und es wird ein Standardprozess als Vorlage präsentiert. Dieser Standardprozess soll für projektspezifische Wünsche modular erweiterbar sein. Hierfür werden Vorteile, Probleme und Verbesserungswünsche der Anwender eingearbeitet. Um den Prozess auf die gesamte Baubranche erweitern zu können, werden die softwaretechnischen Voraussetzungen für eine Standardschnittstelle der Fertigteil-Werke analysiert. Um Probleme bei der Implementierung und Durchführung des Trackings zu verhindern, werden die Partikularinteressen aller Beteiligten analysiert. Die Ergebnisse werden aus Experteninterviews generiert sowie durch Literaturrecherche und die eigenen Erfahrungen bei der Implementierung des Fertigteil-Trackings auf der Baustelle Telekom Areal der Ed. Züblin AG ergänzt.
Thema der Masterarbeit ist die Zukunft des Generalunternehmers. Auf Grund verschiedener Entwicklungen in den letzten Monaten und Jahren, wie zum Beispiel dem Auflösen der Generalunternehmungssparte des Schweizer Pioniers Steiner AG, stellt sich in der Baubranche die Frage, ob das Modell des GU zukunftsfähig ist oder ob in nächster Zeit ein disruptiver Prozess Einzug erhalten könnte.
Das primäre Ziel der Arbeit ist es, herauszufinden, ob für das Geschäftsmodell des Generalunternehmers bereits oder zukünftig eine Bedrohung besteht. Dabei wird die vergangene, derzeitige und zu-künftige Lage der Baubranche analysiert. Eine Rolle spielen dabei die betrieblichen Triebkräfte, Marktanalysen und Trends. Weiterhin sollen verschiedene Trends und Innovationen in der Baubranche er-mittelt, sowie den hieraus entstehenden Einfluss für den Generalunternehmer abgeschätzt werden. Zusätzlich soll ein Analysetool entworfen werden, mit Hilfe dessen man in Zukunft schnell, einheitlich und verlässlich Trends und Innovationen analysieren und bewerten kann.
Zuerst wird das Geschäftsmodell des Generalunternehmers erläutert. Hierbei wird unter anderem die Wertschöpfung des Generalunternehmers behandelt. Danach werden die Five Forces nach Porter betrachtet. Weiterhin wird die Rolle der Unternehmenskultur hinsichtlich ihres Einflusses auf den Betriebserfolg untersucht. Im darauffolgenden Kapitel geht es um die vergangene, derzeitige und kurzfristige Entwicklung der Baubranche in Europa. Im abschließenden Kapitel werden verschiedene Trends, die das Generalunternehmer Modell betreffen, ermittelt. Zu guter Letzt wird aufgezeigt, wie wichtig Trendanalysen für die langfristige Zukunft von Generalunternehmern sind. Außerdem wird ein Analysetool erstellt und an den Trends BIM und Nachhaltigkeit angewendet.
Das Ergebnis der Masterarbeit zeigt, dass das Modell des Generalunternehmers im Vergleich zur über-geordneten Branche derzeit nicht wesentlicher bedroht ist. Der stetige Zuwachs der Inanspruchnahme von Dienstleistungen und der steigende Fachkräftemangel in der ganzen Baubranche sind Indikatoren, die die Attraktivität des GU Modells auf dem Markt anheben. Termin- Kosten- und Qualitätsrisiken liegen beim GU aufgrund des Fachkräftemangels und steigender Materialpreise in der Baubranche. Die Digitalisierungstrends bieten für die Baubranche und somit auch für den GU neue Möglichkeiten für produktivere Projektabwicklungen. Sie dienen damit mehr als Werkzeug denn als Ersatz für das GU Modell. Die Lieferengpässe und die Bauteuerungen beeinträchtigen derzeitige und zukünftige Projekte branchenübergreifend. Abhilfe könnte hier die Mietung von Hallen bzw. Lagerflächen leisten, um das Material frühzeitig zu bestellen und zu lagern. Einzig neue Vertragsgestaltungen, wie sie zum Teil schon in England, Australien und den USA angewendet werden, können eine Bedrohung für das GU-Modell darstellen. Da in diesen Verträgen eine Kernkompetenz des GU, die Koordination zwischen den Ge-werken, durch die Kooperation zwischen den Gewerken, bedroht wird. Jedoch sträuben sich bislang die Planer und die Bauherren dagegen. Der Baubranche werden allgemein stabile Prognosen mit leichtem Umsatzplus zugesagt. Aus Sicht des Marktes besteht somit vorerst keine Gefahr für das GU Modell. Um den Einfluss von Trends und Entwicklungen auf das GU Modell anhand verschiedener Indikatoren einschätzen zu können, wurde ein Analysetool entwickelt, damit auch zukünftig der Einfluss von Neuerungen auf den GU Markt abgeleitet werden kann. Bei der Analyse der Trends spielt vor allem die Beschaffung von verlässlichen Informationen eine tragende Rolle. Die Einsatzgebiete von Trendanalysen sind in einem Unternehmen sehr vielfältig. Das Ergebnis der untersuchten Trends BIM und Nachhaltigkeit hat ergeben, dass diese eher Chancen anstatt Risiken für die Baubranche und somit auch für das GU Modell darstellen. Die allgemeine Umfrage zur Bedrohung des Geschäftsmodells GU hat ergeben, dass aus Sicht der Probanden eine mittlere Bedrohung vorliegt. Umfragewerte sind hinsichtlich ihrer Subjektivität und der aktuellen durch Krisen bestimmten Lage jedoch immer hinsichtlich Ihrer Aussagekraft in Kontext zu setzen.
In Maun, Botswana, a self-sufficient, sustainable and future-oriented district will be created, the Maun Science Park. Within this project, several 5-8 storey smart homes shall be built in sustainable construction. The aim of this thesis is to develop a sustainable structural concept for those homes of the Maun Science Park. In a first step, the general basics for tall building structures and sustainable construction were established. Based on those fundamentals, criteria for the structural requirements, the ecological as well as the social sustainability of a structural design could be defined. Subsequently, four structural systems were drafted: a concrete core structure, a steel shear frame structure, a rammed earth shear wall structure and a wooden diagrid structure. In addition to the pre-dimensioning of the systems, a life cycle assessment was set up to evaluate the ecological sustainability of the designs. With the help of a utility value analysis, the wooden diagrid structure was determined as the preferred variant. The comparison of the designs also allows to draw general conclusions for the development of sustainable tall building structures. The results of the life cycle assessment show the advantage of wood as an ecological building material over industrially manufactured building materials, such as steel and concrete. Whereas rammed earth, a likewise ecological building material, is not convincing due to its low strength. In general, a balance is created in the life cycle assessment between ecological and industrially manufactured products in regard of strength and environmental impact. In terms of social sustainability, the design of the structure system can significantly influence the flexibility and use of local resources. However, due to the diversity of sustainable construction, the development of a structural system should be linked to an overarching sustainability concept that takes architecture and stakeholders into account.
Die fortschreitende Urbanisierung sowie die voranschreitende digitale Transformation stellen viele Städte vor großen Herausforderungen. Um den wirtschaftlichen und gesellschaftlichen Veränderungsprozessen gerecht zu werden, braucht es innovative Lösungen. Die Nutzung digitaler Technologien und Daten eröffnen Städten neue Möglichkeiten, um sich zukunftsfähig zu gestalten. So wird die Stadt der Zukunft eine Stadt der Daten sein. Sie ist smart, vernetzt und entwickelt intelligente, digitale Lösungen für sich und ihre Bürger. Digitale, offene föderierte Plattformen bilden hierbei das Herzstück. Als zentraler Zugangspunkt zu Daten schaffen sie eine grenzenlose Vernetzung und generieren einen Mehrwert für Stadt, Bürger und Wirtschaft. Sie vereinen smarte Dienste und Services, verbessern die digitale Teilhabe und erhöhen die Lebensqualität in einer Stadt.
Das Ziel in der vorliegenden Arbeit ist die Entwicklung von Anwendungsfällen aus dem Bereich der Bauwirtschaft für offene, föderierte digitale Plattformen. Der Fokus liegt hierbei auf der Online-Plattform für sogenannte digitale Zwillinge, die ein virtuelles Abbild der Realität erschaffen. Der virtuelle Stadtzwilling bildet das Fundament zahlreicher Smart City-Konzepte. Er ist ein Smart City-Werkzeug, das aufgrund seiner vielfältigen Einsatzfähigkeit für Städte großes Potenzial bietet.
Der Stadt Konstanz eröffnen sich mit der Etablierung eines digitalen Stadtzwillings neue Möglichkeiten für eine resiliente und umweltschonende Gestaltung ihres urbanen Raums. Der digitale Zwilling findet in den unterschiedlichsten Feldern Anwendung. So kann er beispielsweise für die Entwicklung klimaoptimierter Bebauungsszenarien eingesetzt oder für intelligent vorausschauende Verkehrsleitsysteme genutzt werden. Darüber hinaus ermöglicht er neue Formen mit der Öffentlichkeit zu interagieren, indem er geplante Bauvorhaben und deren Auswirkungen realitätsgetreu abbildet. Dennoch stellt die Etablierung und die vollumfängliche Nutzung des digitalen Zwillings die Stadt Konstanz vor großen Herausforderungen. So setzt die Anwendung smarter städtischer Lösungen einen ausreichenden Datenschutz voraus. Darüber hinaus ist die digitale Transformation ein zeitintensiver und kostenaufwendiger Prozess, für den entsprechende Ressourcen benötigt werden. Zudem bedarf es einen gesellschaftsübergreifenden Paradigmenwechsel, der bislang nur langsam voranschreitet. Dennoch ist es unerlässlich, dass die Stadt Konstanz die Herausforderungen annimmt und die Chancen ergreift, um zu einer zukunftsfähigen und digitalen Stadt zu werden. Denn der digitale Zwilling bildet einen zentralen Baustein auf dem Weg zu einer Smart City.
Interpretability and uncertainty modeling are important key factors for medical applications. Moreover, data in medicine are often available as a combination of unstructured data like images and structured predictors like patient’s metadata. While deep learning models are state-of-the-art for image classification, the models are often referred to as ’black-box’, caused by the lack of interpretability. Moreover, DL models are often yielding point predictions and are too confident about the parameter estimation and outcome predictions.
On the other side with statistical regression models, it is possible to obtain interpretable predictor effects and capture parameter and model uncertainty based on the Bayesian approach. In this thesis, a publicly available melanoma dataset, consisting of skin lesions and patient’s age, is used to predict the melanoma types by using a semi-structured model, while interpretable components and model uncertainty is quantified. For Bayesian models, transformation model-based variational inference (TM-VI) method is used to determine the posterior distribution of the parameter. Several model constellations consisting of patient’s age and/or skin lesion were implemented and evaluated. Predictive performance was shown to be best by using a combined model of image and patient’s age, while providing the interpretable posterior distribution of the regression coefficient is possible. In addition, integrating uncertainty in image and tabular parts results in larger variability of the outputs corresponding to high uncertainty of the single model components.
Experimentelle Untersuchung einer Kontaktverbindung für die Anwendung im konstruktiven Holzbau
(2021)
Im Rahmen dieser Arbeit wurde eine Holz-Holz-Kontaktverbindung aus Brettschichtholz ohne mechanische Verbindungsmittel hinsichtlich ihrer Steifigkeit experimentell untersucht. Eine Druckstrebe wurde mit Hilfe eines versteckten Treppenversatzes unter einem Winkel von 30° bzw. 60° an einen Gurt angeschlossen. Insgesamt wurden in den zwei Prüfreihen 20 Prüfkörper untersucht.
Das für die Versuche verwendete Brettschichtholz wurde von vier verschiedenen Firmen und Ingenieurbüros in Deutschland zur Verfügung gestellt. Für die experimentellen Untersuchungen in dieser privatfinanzierten Masterthesis standen so immerhin ca. 50 Meter Brettschichtholz zur Verfügung.
Die Versuche wurden in der Öffentlichen Prüfstelle für Baustoffe und Geotechnik an der HTWG durchgeführt.
Die Auswertung der Versuchsergebnisse soll Aufschluss über die Steifigkeit, die Tragfähigkeit und das mechanische Verhalten eines solchen modifizierten Versatzes geben. Diese Erkenntnisse sollen eine Grundlage für die computergestützte Modellierung von Verbindungen schaffen, um lokale Effekte in Anschlussbereichen besser zu verstehen und möglichst realitätsnah implementieren zu können.
Kapitel 2 der vorliegenden Arbeit beschreibt die theoretischen Grundlagen optimaler Regelung und die unterschiedlichen Methoden des Pfadintegral Frameworks zur Reglersynthese. Zudem wird ein Ansatz zur Erweiterung des stochastischen NMPC dargestellt, sodass eine Adaption an eine real vorliegende Systemdynamik erfolgt. Weiter wird eine Methode entwickelt und beschrieben, welche die Effizienz des Algorithmus stark erhöht.
In Kapitel 3 wird aufgezeigt, wie die Pfadintegral Regelung dazu genutzt wird ein Furuta Pendel aufzuschwingen.
In Kapitel 4 werden die Algorithmen zur Lösung unterschiedlicher Problemstellungen im Kontext eines Forschungsboot appliziert. So wird unter anderem gezeigt, wie ein Pfadintegral Regelungsalgorithmus genutzt werden kann, um autonom mit dem Forschungsboot Solgenia am Steg der HTWG Konstanz anzulegen.
Abschließend wird in Kapitel 5 ein Fazit aus den Ergebnissen gezogen, diese eingeordnet und ein Ausblick auf weitere mögliche Arbeiten gegeben.
Forecasting is crucial for both system planning and operations in the energy sector. With increasing penetration of renewable energy sources, increasing fluctuations in the power generation need to be taken into account. Probabilistic load forecasting is a young, but emerging research topic focusing on the prediction of future uncertainties. However, the majority of publications so far focus on techniques like quantile regression, ensemble, or scenario-based methods, which generate discrete quantiles or sets of possible load curves. The conditioned probability distribution remains unknown and can only be estimated when the output is post-processed using a statistical method like kernel density estimation.
Instead, the proposed probabilistic deep learning model uses a cascade of transformation functions, known as normalizing flow, to model the conditioned density function from a smart meter dataset containing electricity demand information for over 4,000 buildings in Ireland. Since the whole probability density function is tractable, the parameters of the model can be obtained by minimizing the negative loglikelihood through the state of the art gradient descent. This leads to the model with the best representation of the data distribution.
Two different deep learning models have been compared, a simple three-layer fully connected neural network and a more advanced convolutional neural network for sequential data processing inspired by the WaveNet architecture. These models have been used to parametrize three different probabilistic models, a simple normal distribution, a Gaussian mixture model, and the normalizing flow model. The prediction horizon is set to one day with a resolution of 30 minutes, hence the models predict 48 conditioned probability distributions.
The normalizing flow model outperforms the two other variants for both architectures and proves its ability to capture the complex structures and dependencies causing the variations in the data. Understanding the stochastic nature of the task in such detail makes the methodology applicable for other use cases apart from forecasting. It is shown how it can be used to detect anomalies in the power grid or generate synthetic scenarios for grid planning.
Botswana, a new construction project – the Maun Science Park - is to be built with a focus on sustainability and to create a new living space for the rapidly growing population in Africa. The project will be a blueprint for future projects in Africain terms of progress, technology and sustainability. This thesis will deal with its financial framework and will serve as a basis for the development of ways and means of financing such projects.
Throughout this thesis, the implementation of tools for knowledge management as a key factor for sustainable corporate development, is presented. In industries with a high fluc-tuation rate, such as construction, efficient knowledge management is of particular im-portance. Companies feel the effects of negligent handling of this resource especially dur-ing the Corona pandemic. Restructuring leads to experienced employees leaving the com-pany – and with them the know-how and experience gained. With a systematic knowledge transfer, the most important insights in such situations remain within the or-ganization. Thus, the company becomes crisis-proof and receives all the tools it needs to grow healthily again after the recession. Practical data from competitors indicates that knowledge management promises savings potential of several million euros per year for BAM. Further potentials in the areas of sustainability, customer- and employee satisfac-tion as well as occupational safety, which do not lead to savings, are also worth mention-ing. This thesis determines the current maturity level of knowledge management at BAM, before introducing processes and systems that successively drive the improvement. The developed methods simultaneously help to prevent and solve problems and systematical-ly promote the continuous improvement of all work processes in the company.
Detailed steps are presented to carry out change management towards the successful introduction and further development of knowledge management at BAM. A major focus is on interpersonal factors. The related topic of knowledge culture was recently ranked by german think-tank Zukunftsinstitut as one of the top 5 megatrends for companies in the 2020s. The methods developed, contribute to the creation of such a culture and to the transformation of BAM towards a learning organization. Knowledge management identi-fies with the BAM values. In the course of this thesis it will be shown how the system by its very nature, helps to implement these values in the work of every employee.
The results of this elaboration were recently awarded the Digital Construction Award 2020 for Business Excellence at BAM Deutschland AG.
Cities around the world are facing an increasing number of global and local challenges, such as climate change and scarcity of raw materials. At the same time trends like digitalization, globalization and networking gain in importance. For this reason, cities have started imple-menting smart solutions within the urban structure in order to evolve towards a Smart City. In Botswana, the Maun Science Park is intended to provide a best practice approach for a Bot-swanan Smart City. Since Smart City concepts have to be specifically tailored to local condi-tions, the first main goal of this thesis is to develop a synthesis concept for the Maun Science Park. A key problem in cities is the utilization of space, which is further intensified by increasing urbanization and population growth. Therefore, the second main goal is to develop approaches of (digitally) re-programmable space to use available areas intelligently and optimized.
Within the thesis, human-centered design has been applied as structure-giving methodology. By clarifying relevant Smart City contents, considering reference examples as well as identify-ing local challenges and requirements, an appropriate concept has been developed with hu-man-focus. Furthermore, the methodologies of literature research and expert interviews have been used as input in the individual human-centered design phases. In combination with an innovation funnel, the methodology human-centered design forms the structure of the thesis.
In total, ten main solution areas and 37 sub-segments have been identified for the synthesis concept of Maun Science Park. Additionally, a concept for Smart Buildings has been devel-oped as a part of the synthesis concept and as an essential infrastructure component of the Maun Science Park (three main segments, 16 sub-segments). Based on expert input, a priori-tization has been determined by evaluating the impact and economic affordability of the indi-vidual sub-areas. Moreover, individual key areas have been highlighted by identifying direct interactions between sub-segments and on the basis of expert input – these are particularly related to the segments Smart Data and Smart People. Besides the synthesis concept, ap-proaches of (digitally) re-programmable space have been created. Thereby, ten approaches refer to the conversion, reuse or expansion abilities of space within daily, weekly or life cycle. In addition, the conventional (digitally) re-programmable space idea has been extended by two new considerations – “multi-purpose use of built-up space” and “concept programming in the planning phase”. Finally, within an overall consideration – synthesis concept combined with approaches of (digitally) re-programmable space – the added value of the developed contents has been outlined, positive and negative aspects have been identified within a SWOT analysis and the business model of the Maun Science Park approach has been verified in a Business Model Canvas.
Through explicit elaboration, classification and prioritization of solution areas, the developed concept can serve as a basis for further project steps. Based on the defined requirements of the sub-segments, solutions can be developed with regard to the entire Smart City context.
In the field of autonomously driving vehicles the environment perception containing dynamic objects like other road users is essential. Especially, detecting other vehicles in the road traffic using sensor data is of utmost importance. As the sensor data and the applied system model for the objects of interest are noise corrupted, a filter algorithm must be used to track moving objects. Using LIDAR sensors one object gives rise to more than one measurement per time step and is therefore called extended object. This allows to jointly estimate the objects, position, as well as its orientation, extension and shape. Estimating an arbitrary shaped object comes with a higher computational effort than estimating the shape of an object that can be approximated using a basic geometrical shape like an ellipse or a rectangle. In the case of a vehicle, assuming a rectangular shape is an accurate assumption.
A recently developed approach models the contour of a vehicle as periodic B-spline function. This representation is an easy to use tool, as the contour can be specified by some basis points in Cartesian coordinates. Also rotating, scaling and moving the contour is easy to handle using a spline contour. This contour model can be used to develop a measurement model for extended objects, that can be integrated into a tracking filter. Another approach modeling the shape of a vehicle is the so-called bounding box that represents the shape as rectangle.
In this thesis the basics of single, multi and extended object tracking, as well as the basics of B-spline functions are addressed. Afterwards, the spline measurement model is established in detail and integrated into an extended Kalman filter to track a single extended object. An implementation of the resulting algorithm is compared with the rectangular shape estimator. The implementation of the rectangular shape estimator is provided. The comparison is done using long-term considerations with Monte Carlo simulations and by analyzing the results of a single run. Therefore, both algorithms are applied to the same measurements. The measurements are generated using an artificial LIDAR sensor in a simulation environment.
In a real-world tracking scenario detecting several extended objects and measurements that do not originate from a real object, named clutter measurements, is possible. Also, the sudden appearance and disappearance of an object is possible. A filter framework investigated in recent years that can handle tracking multiple objects in a cluttered environment is a random finite set based approach. The idea of random finite sets and its use in a tracking filter is recapped in this thesis. Afterwards, the spline measurement model is included in a multi extended object tracking framework. An implementation of the resulting filter is investigated in a long-term consideration using Monte Carlo simulations and by analyzing the results of a single run. The multi extended object filter is also applied to artificial LIDAR measurements generated in a simulation environment.
The results of comparing the spline based and rectangular based extended object trackers show a more stable performance of the spline extended object tracker. Also, some problems that have to be addressed in future works are discussed. The investigation of the resulting multi extended object tracker shows a successful integration of the spline measurement model in a multi extended object tracker. Also, with these results some problems remain, that have to be solved in future works.
BIM im Membranbau
(2019)
Die fortschreitende Digitalisierung wird zurzeit zu einem der wichtigsten Themen und zugleich zu einer der größten Herausforderungen für die Bauwirtschaft. Building Information Modeling (BIM) kommt eine immer größere Bedeutung zu.
Es ist sicherlich richtig, dass derzeit nur wenige Projekte im Bauwesen den geforderten BIM-Anforderungen der Bauherrschaft genügen. Es ist zu erwarten, dass in den kommenden Jahren auch an Membranbauprojekte immer mehr Anforderungen bezüglich BIM gestellt werden. Aus diesem Grund ist es wichtig, dass sich Planungsbüros für leichte Flächentragwerke mit dem Thema BIM befassen.
Ziel dieser Arbeit ist die Ausarbeitung eines Konzepts für die effiziente durchgehende Umsetzung der Building Information Modeling-Arbeitsmethode bei der Tragwerksplanung im Membranbau.
Es werden vorhandene Funktionalitäten untersucht und alternative Interoperabilitätskomponenten entwickelt. Aufbauend auf den möglichen Werkzeugketten werden verschiedene Einsatzverfahren vorgeschlagen. Darauffolgend wird eines der möglichen Verfahren an einem realen Tragwerk implementiert. Die erhaltenen Ergebnisse werden einer kritischen Analyse unterzogen.
Abschließende Rückschlüsse, Beurteilung der angewandten Planungsmethoden und Ausblick fassen das behandelte Thema zusammen.
Bei der Arbeit verwendete Methoden schließen den parametrischen Entwurf, manuelle Modellierung in zwei verschiedenen Softwareumgebungen und textliche Programmierung mit C#-Sprache ein.
Die Relevanz des untersuchten Themas erstreckt sich überwiegend auf praktisch tätige Ingenieure aus den Bereichen leichte Flächentragwerke, Sondertragwerke, Membranbau, wird aber auch für wissenschaftliche Mitarbeiter der Forschungsinstitutionen, BIM-Spezialisten und Produkthersteller von Interesse sein.
This thesis deals with the object tracking problem of multiple extended objects. For instance, this tracking problem occurs when a car with sensors drives on the road and detects multiple other cars in front of it. When the setup between the senor and the other cars is in a such way that multiple measurements are created by each single car, the cars are called extended objects. This can occur in real world scenarios, mainly with the use of high resolution sensors in near field applications. Such a near field scenario leads a single object to occupy several resolution cells of the sensor so that multiple measurements are generated per scan. The measurements are additionally superimposed by the sensor’s noise. Beside the object generated measurements, there occur false alarms, which are not caused by any object and sometimes in a sensor scan, single objects could be missed so that they not generate any measurements.
To handle these scenarios, object tracking filters are needed to process the sensor measurements in order to obtain a stable and accurate estimate of the objects in each sensor scan. In this thesis, the scope is to implement such a tracking filter that handles the extended objects, i.e. the filter estimates their positions and extents. In context of this, the topic of measurement partitioning occurs, which is a pre-processing of the measurement data. With the use of partitioning, the measurements that are likely generated by one object are put into one cluster, also called cell. Then, the obtained cells are processed by the tracking filter for the estimation process. The partitioning of measurement data is a crucial part for the performance of tracking filter because insufficient partitioning leads to bad tracking performance, i.e. inaccurate object estimates.
In this thesis, a Gaussian inverse Wishart Probability Hypothesis Density (GIW-PHD) filter was implemented to handle the multiple extended object tracking problem. Within this filter framework, the number of objects are modelled as Random Finite Sets (RFSs) and the objects’ extent as random matrices (RM). The partitioning methods that are used to cluster the measurement data are existing ones as well as a new approach that is based on likelihood sampling methods. The applied classical heuristic methods are Distance Partitioning (DP) and Sub-Partitioning (SP), whereas the proposed likelihood-based approach is called Stochastic Partitioning (StP). The latter was developed in this thesis based on the Stochastic Optimisation approach by Granström et al. An implementation, including the StP method and its integration into the filter framework, is provided within this thesis.
The implementations, using the different partitioning methods, were tested on simulated random multi-object scenarios and in a fixed parallel tracking scenario using Monte Carlo methods. Further, a runtime analysis was done to provide an insight into the computational effort using the different partitioning methods. It emphasized, that the StP method outperforms the classical partitioning methods in scenarios, where the objects move spatially close. The filter using StP performs more stable and with more accurate estimates. However, this advantage is associated with a higher computational effort compared to the classical heuristic partitioning methods.
Creatio ex nihilo
(2015)
Von Kommunikationsdesignern wird erwartet, dass sie kreativ sind. Es wird von ihnen gefordert, dass sie Ideen haben, die innovativ, neu und originell wirken. Diese Anforderung bekommen Gestalter schon früh in ihrer Ausbildung zu spüren. Die Frage, die sich diese Arbeit stellt, ist: Kann dieses Ziel überhaupt erreicht werden? Oder ist das Verfolgen von Originalität nur eine Illusion? Oder gar ein Mythos? Wie schon Picasso anmerkte: »Kunst ist Diebstahl.« Wenn nichts Neues geschaffen werden kann, müssen wir einen Weg finden, Bestehendes so zu verändern, dass das Ergebnis mehr ist als die Summe der Einzelteile. Der Diebstahl bestehender kreativer Leistung wäre somit Teil unseres Berufsfelds und sollte auch in der Designerausbildung eine wichtige Rolle spielen. Ich stelle mich mit dieser Arbeit dem Mythos der Originalität, dem Glauben an eine »creatio ex nihilo«, und beschäftige mich mit dessen Einfluss auf den Designprozess und den möglichen Auswirkungen auf die Ausbildung junger Gestalter.
Der Begriff der Originalität wird heute sehr unkontrolliert verwendet. Mittels einer quantitativen Inhaltsanalyse, Experteninterviews sowie Telefongesprächen wurde der Begriff deshalb hinterfragt und anders definiert. Die Auswirkungen auf den Designprozess wurden mittels eines Experiments mit Studierenden der Studiengänge
Kommunikationsdesign ermittelt. Dabei mussten die Probanden unter dem Druck einer originellen Idee gestalten. Die Lösungen wurden anschließend in einer Online-Umfrage von mehreren Personen subjektiv bewertet. Alle gesammelten Inhalte finden sich wieder in sechs Kapiteln zum Mythos der Originalität im Kommunikationsdesign (Teil A) und einer Forschungsdokumentation (Teil B).
Im Rahmen dieser Masterarbeit wurde an einem Beispielgebäude (Wessenberg-Schule Konstanz) gezeigt, dass Maßnahmen an der Gebäudehülle von Gebäuden der 60er-Jahre trotz Denkmalstatus ein durchaus erhebliches Potential aufweisen, um Wärmeverluste zu begrenzen, und sich Denkmalcharakter und energetischer Modernisierungswunsch nicht zwangsläufig gegenseitig ausschließen.
Hierbei wurden Thermografieaufnahmen angefertigt, Temperaturmessungen durchgeführt und U-Werte aller Bauteile der Gebäudehülle berechnet. Die Maßnahmen wurden auf Wärmebrücken und den Gesamtwärmedurchlass hin separat für jedes Bauteil bewertet.
Für gezielte Sanierungsvorschläge und die Untersuchung ihrer Wirksamkeit wurde das Gebäude intensiv untersucht. Hierbei wurden Informationen aus Archiven (Stadtarchiv Konstanz, Kreisarchiv Konstanz und Südwestdeutsches Archiv für Architektur und Ingenieurbau) zusammengetragen, die ein breites Bild des Bauablaufs und -geschichte, der verwendeten Baustoffe und der Architektur geben.
Da keine ausführliche Denkmalbegründung vorlag, wurde die Architektur und Gestaltung des Gebäudes separat betrachtet und bewertet.
Die Dinge meiner Gegenwart
(2014)
Unsere Welt besteht aus Dingen. Wenn wir geboren werden, sind sie bereits da und warten auf uns. Und wenn wir sterben, bleiben sie zurück. Dazwischen liegen Bedeutungen.
Das Buch «Die Dinge meiner Gegenwart» geht der Frage nach, ob es Unterschiede in der Art der Bedeutungen persönlicher Gegenstände gibt. Dafür beschreibt und fotografiert der Autor einhundert seiner persönlichen Dinge und untersucht mit akribischer Genauigkeit den Unterschied zwischen Typen von Gegenständen an konkreten Artefakten.
Es sind die Dinge seiner Gegenwart. Simon Felix Tarantik's Absicht ist es, diese Welt und die Dinge darin so darzustellen, wie er sie wahrnimmt und darauf zu achten nichts Wichtiges wegzulassen. Einhundert deshalb, weil diese Menge ein Stöbern – ein Blättern im Buch –, ein beliebiges Aufschlagen erlaubt und da bereits Neil MacGregor anhand von einhundert Dingen die Vergangenheit und Adrian Hon anhand von einhundert Dingen die Zukunft beschrieben haben, stellt er sich mit einhundert seiner Dinge zwischen sie und beschreibt die Gegenwart – seine Gegenwart.
Auf die persönliche Perspektive kommt es in dieser Arbeit an, darauf, die tatsächlichen Bedeutungen konkreter einzelner Dinge in einer Bandbreite offenzulegen, wie es für gewöhnlich nicht geschieht – denn niemand sieht Dinge auf dieselbe Weise. Empirisch und schöpferisch ordnen sie sich im Buch, reflektieren sich in Geschichten, Erinnerungen, Gefühlen und Bedeutungen und laden den Leser ein, seine Imagination gegen das Beschriebene und fotografisch Abgebildete abzuwiegen.
Die Designprofession ist einem tief greifenden Wandel unterworfen: Während das Design an Bedeutung gewinnt, verliert es zugleich an Exklusivität. Der Beruf ist nicht geschützt und das Web fördert ein Verschwimmen der Grenzen zwischen Amateur und Profi. In einer Welt in der alle zu Sendern werden, wer hört da noch zu? Wie kann sich ein Designer in der heutigen Zeit gegen den Volkssport Design behaupten? Die Antwort lautet: Durch professionelles Design! Die Designer müssen ihre Profession auf eine neue Ebene bringen, um sich klar und deutlich vom Amateurdesigner differenzieren zu können. Doch was ist professionelles Design? Welche Kompetenzen braucht ein Designer heute und in Zukunft, um den Anforderungen an Professionalität gerecht zu werden? Auf diese Fragen versucht diese Arbeit eine Antwort zu geben. Um der Antwort näher zu kommen, wurden in einem ersten Schritt deutschlandweit 27 Kunst- und (Fach) Hochschulen untersucht. Dabei wurde analysiert wie in dem neuen Bachelor- und Mastersystem, dass durchschnittliche Kompetenzprofil eines Absolventen der jeweiligen Hochschulen aussieht. Aus aktuellen Diskussionen und Auseinandersetzungen zu der Thematik des Volkssport Designs, wurden anschließend die wichtigsten Aspekte herausgefiltert und zusammen mit grundlegenden Anforderungen an Professionalität zusammengefasst. Diese Erkenntnisse und die Ergebnisse aus der Hochschuluntersuchung dienten als Basis für eine empirische Erhebung. So wurden erfahrene Designer in Führungs- und Lehrpositionen aus unterschiedlichsten Agenturen und Hochschulen, zu den Anforderungen an professionelles Design befragt. Durch einzelne Interviews wurde die Untersuchung abschließend noch einmal in bestimmten Bereichen vertieft.
Die Firma FCT bietet industriellen Unternehmen eine Lösung im Bereich Enterprise-Content-Management und Redaktionssysteme an. Der Fokus liegt auf der medienneutralen Verwaltung der Daten im XML-Format und auf dem Publizieren dieser Daten in verschiedene Ausgabeformate wie PDF, HTML oder Online Help. Die Publikation nach PDF erfolgt meistens mit Desktop Publishing Tools wie Adobe FrameMaker, Adobe InDesign oder Microsoft Word. Immer mehr wird die Publikation nach PDF mit dem W3C Standard XSL Formatting Objects (XSL-FO)eingesetzt. Die Publikation nach PDF erfolgt dabei vollautomatisch anhand von Stylesheets. Durch die vollautomatische Publikation hatte der Redakteur bisher keine Möglichkeit manuell Seitenlayout und Seitenformatierungen anzupassen, da das Anpassen der Stylesheets spezielles programmiertechnisches Know-How voraussetzt. Im Rahmen dieser Diplomarbeit wurde eine Entwicklungsumgebung konzipiert und implementiert, die es Redakteuren ermöglicht, Seitenlayout und Seitenformatierung komfortabel über eine grafische Oberfläche festzulegen. Da hierbei unterschiedliche Dokumententypen und unterschiedliche Kunden berücksichtigt werden müssen, verwendet die Anwendung ein Projektansatz um die unterschiedlichen Stylesheets, Konfigurationen und Kunden zu organisieren. Da bei unterschiedlichen Kunden verschiedene FO-Prozessoren wie Antenna House XSL Formatter, RenderX XEP oder Apache FOP zum Einsatz kommen, war es ein Schwerpunkt dieser Arbeit, die Unterschiede dieser Prozessoren zu analysieren und die Entwicklungsumgebung prozessorunabhängig aufzusetzen. Eine Vorschau zeigt dem Redakteur, wie sich die verschiedenen Konfigurationen auf das PDF-Dokument auswirken, um gegebenenfalls weitere Änderungen am Seitenlayout bzw. Seitenformatierungen vorzunehmen.
This diploma thesis is devoted to the design and analysis of a radar signal enabling an object classification capability in surveillance radar systems based on high-resolution radar range profiles. It picks up the research results from Kastinger (2006), who investigated classification algorithms for high-resolution radar range profiles, and Meier (2007), who programmed a MATLAB toolbox for the evaluation of radar signals. A classical, brief, introduction to radar fundamentals is given (Chapter 1) as well as the motivation for this thesis and certain basic parameters used. After high-resolution radar range profiles are discussed with special focus on surveillance radar systems (Chapter 2), the results of Kastinger (2006) are picked up (Chapter 3) as far as necessary for the following chapters of this thesis. Following the chapters on radar basics, high-resolution radar range profiles and classification, basic and advanced radar signals are discussed and analysed, especially their range resolution and sidelobe levels (Chapter 4). This includes linear frequency-modulated pulses and nonlinear frequency-modulated pulses as well as phase-coded pulses, coherent trains of identical pulses, and stepped-frequency waveforms. Their analysis is based on Meier's MATLAB toolbox. In Chapter 5 we will bring up additional points that have to be considered in radar system design for implementing a classification capability, before this thesis ends with an overall conclusion (Chapter 6).
Anbindung eines PPC405 embedded CPU Core an ein MPC860-System unter dem Echtzeitbetriebssystem OSE
(2006)
Die Diplomarbeit verfolgt das Ziel, die softwareseitige Anbindung eines PPC405-Systems an das Gesamtsystem einer digitalen Funkgeräteplattform herzustellen. Über eine konzipierte Implementierung, die nach dem Einschalten des Funkgeräts gestartet wird, erfolgt die Übertragung des Betriebssystems in den zugehörigen Arbeitsspeicher des PPC405-Systems. Nach Abschluss der Initialisierungsphase kommunizieren die Anwendungsprozesse auf den beteiligten Systemen über eine transparente Erweiterung des Betriebssystems mit der jeweiligen Gegenseite. Als Übertragungsmedium für die genannte Betriebssystemerweiterung wird ein zwischen den Systemen angesiedelter Speicher genutzt, für dessen koordinierte Zugriffe eine im Rahmen der Diplomarbeit entwickelte Treiberkomponente sorgt. Durch die Anbindung des PPC405-Systems wird eine Leistungssteigerung des Gesamtsystems erwartet. Auf der Basis von Messungen wurde die Performance des somit erhaltenen Multiprozessorsystems bestimmt. Aus den Ergebnissen wurden geeignete Möglichkeiten zur Optimierung erarbeitet und umgesetzt.
Im Jahr 2009 startet die AMSAT Deutschland e.V. das Raumfahrzeug "Phase 5-A" zum Mars. Dort wird das "Archimedes"-Ballon-Landesystem der Mars Society abgesetzt, während das Raumfahrzeug in einer elliptischen Umlaufbahn um den Mars bleibt und als Relaisstation für die Kommunikation zwischen Landesystem und Bodenstation auf der Erde arbeitet. Für diese Raumfahrtmission wurde an der HTWG Konstanz im Fachbereich Elektrotechnik und Informationstechnik eine Diplomarbeit über einen Teil der Antennen des Raumfahrzeugs angefertigt. Bodenstation und Raumfahrzeug kommunizieren durch einen Uplink im S-Band (2,45 GHz) und einen Downlink im X-Band (10,45 GHz). Im normalen Betriebsfall werden auf dem Raumfahrzeug Richtantennen eingesetzt. Sowohl für Uplink, als auch für den Downlink wird rechtszirkular polarisierte Strahlung verwendet. In bestimmten Betriebsfällen sind die Richtantennen des Raumfahrzeugs nicht zur Erde ausgerichtet. Dies ist der Fall, wenn die Triebwerke in Betrieb sind, oder im extremen Fall, wenn das Lageregelungssystem temporär oder komplett ausfällt. Für diesen Fall sind möglichst isotrop abstrahlende Notfallantennen notwendig, um zumindest eine minimale Kommunikation zur Erde zu gewährleisten. In der Diplomarbeit wurde für die Richtantenne für das X-Band ein Doppelreflektorsystem (Cassegrain-System) gewählt. Im berechneten Design wurde der Durchmesser des Hauptreflektors zu 2000 mm und der Durchmesser des Subreflektors zu 302,3 mm gewählt. Ebenfalls berechnet wurde die zugehörige Kegelhorn-Antenne als Primärstrahler, sowie ein praktikabler Zirkularpolarisator vorgeschlagen. Bei den isotropen Antennen stellt sich das Problem, dass das Raumfahrzeug sehr groß gegenüber der Wellenlänge ist und dadurch praktisch eine Hemisphäre abgeschattet wird. Deshalb wurden für die S-Band- und X-Band-Notfallantennen Antennen gesucht, die eine möglichst gute hemisphärische Abstrahlung haben. Zwei dieser hemisphärisch abstrahlenden Antennen werden jeweils auf entgegengesetzten Seiten des Raumfahrzeugs montiert und ermöglichen so eine (nahezu) isotrope Abstrahlung. Für die S-Band-Notfallantenne wurden unterschiedliche Antennentypen (Drehkreuzantenne, Eggbeater-Antenne, Lindenblad-Antenne, Quadrifilar-Helix-Antenne und Streifenleitungsantenne) hinsichtlich ihres Abstrahlungsdiagramms und der Eignung für Raumfahrtanwendung miteinander verglichen. Als Ergebnis stellt sich die Streifenleitungsantenne als am besten geeignet heraus, da dieser Antennentyp über viele Freiheitsgrade (z.B. Form, Abmessungen und Materialien) verfügt. Über die Freiheitsgrade kann das Abstrahlungsdiagramm geformt werden. Auch für die X-Band-Notfallantenne wurde ebenfalls die Streifenleitungsantenne untersucht. Dieser Antennentyp weist allerdings einige gravierende Nachteile im Sendebetrieb auf: Das gravierendste Problem sind die hohen Verluste dieses Antennentyps. Deshalb wurde für die X-Band-Notfallantenne ein offener Hohlleiter mit zusätzlichen Reflektionselementen vorgeschlagen. Ein offener Hohlleiter strahlt bereits relativ stark gebündelt ab. Die zusätzlichen Reflektionselemente weiten die Abstrahlung aus. So wird eine annähernd hemisphärische Abstrahlung möglich. Das Raumfahrzeug wird zumindest zeitweilig durch Rotation um die eigene Achse stabilisiert (Spin-Stabilisation). Sind die Antennen außerhalb der Rotationsachse montiert, so tritt ein mit der Rotationsdauer sich periodisch ändernder Doppler-Effekt auf. Problematisch wird dies, wenn die Frequenzverschiebung durch den Doppler-Effekt in die Größenordnung der Bandbreite des Nutzsignals kommt. Dadurch wird die Dekodierung des Nutzsignals erschwert.
Weltraumhotel Entropolis
(2005)
die aufgabe waren entwurf und ausarbeitung eines weltraumhotels für ca 200 gäste, in einer umlaufbahn um das system erde-mond. die arbeit ist entstanden in zusammenarbeit mit dem luft und raumfahrt institut stuttgart. abgesehen von der machbarkeit( bauphasen, logistik, transport) wurde besonders der umgang zwischen mensch- schwerelosigkeit-raum untersucht. dabei sind die räume nicht für die anforderungen von langzeitaufenthalten im all konzipiert, sondern speziell für menschen die nicht an den umgang mit schwerelosigkeit gewöhnt sind. das heisst die räume sollen auf der einen seite praktikabel sein ( orientierungshilfen, proportionen...) aber vor allem das verhältniss zwischen der perspektive des betrachters und dem ihn umgebenden raum neu definieren.
Die Zielsetzung dieser Arbeit ist die Entwicklung der Serverdienste einer Client/Server-Software für die computergestützte Telefonie am Arbeitsplatz. Die Software ermöglicht die Steuerung und Statusüberwachung von Telefonapparaten mit dem Ziel, die Benutzung ergonomischer zu gestalten und das zugrunde liegende Telekommunikationssystem stärker in die Informationstechnik zu integrieren. Die Software soll mit der Telekommunikationsanlage Meridian I von Nortel zusammenarbeiten, um die Manipulation der angeschlossenen Telefonapparate zu ermöglichen. Beim Softwareentwurf ist für die Zukunft die Unterstützung weiterer Telekommunikationsanlagen zu berücksichtigen. Zudem soll ein API definiert werden, welches die Implementierung eines Clients in Form eines HTTP-Dienstes für die Nutzung über einen Web-Browser ermöglicht. Ebenso soll der Weg für eine in Zukunft zu entwickelnde dedizierte Client-Software bereitet werden. Für die Umsetzung der Projektziele wurde ein komponentenorientiertes Middleware-Konzept auf Basis des Java Telephony Application Programming Interface (JTAPI) verwirklicht. Dafür wurde eine JTAPI-konforme Provider-Implementierung realisiert, die das zugehörige Zustands- und Objektmodell umsetzt. Für die Kommunikation mit der Telekommunikationsanlage wurde eine Treiberkomponente entwickelt, die das proprietäre Protokoll des CTI-Links implementiert. Schließlich wurde ein einheitliches, RMI-basiertes API spezifiziert, das für die Entwicklung der Client-Software in Form eines HTTP-Dienstes oder einer selbständigen, fensterbasierten Anwendung eingesetzt werden kann. Die komponentenorientierte Gesamtarchitektur ermöglicht darüber hinaus die Entwicklung weiterführender CTI-Dienste.
die schön/er/finder
(2005)
Niemand soll oder darf einem anderem sagen, was schön ist. Jeder muss das für sich selbst herausfinden, denn: Jeder ist ein <schönerfinder>. das Ziel Ästhetischer Geschmack soll nicht als eine gegebene Größe im gesellschaftlichen Leben, sondern als eine persönliche Eigenart wahrgenommen werden, die individuell verschieden, aber weder gut noch schlecht ist. Besonders diejenigen, die ihren individuellen Geschmack erst noch entwickeln, also vor allem Kinder und Jugendliche, sollen die Möglichkeit bekommen, sich zu informieren und ohne äußeren Druck Entscheidungen auszuprobieren. Durch die Beschäftigung mit dem Thema und spielerisches Ausprobieren sollen sie ihren Geschmack und das Schöne als etwas eigenes entdecken. Jugendliche sollen sich als stark und selbstbewusst wahrnehmen, als jemand, der Entscheidungen trifft. Er soll die Rolle eines Entdeckers einnehmen, welcher in fremde Welten vorstößt und andere Lebensentwürfe und Geschmäcker kennenlernt und akzeptiert. Diese spielerische Erfahrung soll mit ins tägliche Leben übernommen werden und das Selbstbewusstsein genauso wie die Toleranz fördern. der Weg dorthin Phase 1: Bewusstsein schaffen für das Thema Schönheit, das Thema ästhetisches Urteil – mit Schönem, Kultigem, Geschmacklosem und Hässlichem Phase 2: Informieren – Aufklärung über Theorien und mögliche Positionen zum Thema – mit klugen Worten, Dichtern und Denkern und den zwölf schön/er/finder-Typen Phase 3: Nutzen vermitteln – herausfinden, was für einen selbst schön ist; seine eigene Position suchen und damit Selbstbewusstsein gewinnen – mit einem Spiel und einem kleinen Freund, <Poti> Phase 4: Anstecken – sich mit anderen austauschen, Unterschiede, aber auch Gemeinsamkeiten finden – im Forum und in der Galerie der schön/er/finder
Selbstorganisierende Karten sind neuronale Netze, die imstande sind, Daten zu klassifizieren und zu reduzieren. Aus diesem Grund eignen sie sich sehr gut fuer die Steuerung von Robotern, da sie deren Sensoreingangswerte klassifizieren und daraus auf eine Reaktion schließen koennen. Die Architektur und Funktionsweise dieser neuronalen Netze sind der des menschlichen Kortex kuenstlich nachgebildet. Im Rahmen dieser Diplomarbeit wurde ein Java-Framework namens JFSOM implementiert, welches nach dem System einer selbstorganisierenden Karte Datenmengen klassifizieren kann. Das Framework ist so entworfen, dass sowohl Eingabedaten als auch Ausgabedaten trainiert werden koennen, um es auch als sensormotorische Karte nutzbarzu machen. JFSOM wurde verwendet, um den Miniaturroboter Khepera nach bestimmten Verhaltensweisen zu steuern. Als Verhaltensweisen wurden eine Hindernisvermeidung, eine Wandverfolgung, eine Korridorverfolgung und eine Objektverfolgung realisiert. Die Wandverfolgung laesst den Roboter aus jedem beliebigen azyklischen Labyrinth herausfinden.
Nachdem bei vielen kleineren und mittelgroßen Feuerwehren das komplette Be- richtswesen für Einsätze immer noch auf Papier geführt wird und Statistik oft eine Sache von wochenlanger Handarbeit ist, wurde im Rahmen dieser Diplom- arbeit ein System entwickelt, das auf Basis einer Client-Server-Architektur die vernetzte Echtzeit-Bearbeitung von Feuerwehr-Einsätzen erlaubt. Dabei wur- de Wert auf offene Schnittstellen zu Fremdsystemen gelegt und einige dieser Schnittstellen wurden auch implementiert. Die Diplomarbeit ist gegliedert in eine allgemeine und spezielle Einführung (Ka- pitel 1-3) und eine Abhandlung über die Entwicklung der Software und deren Architektur und Funktionalität (Kapitel 4). Eine mögliche Vermarktungsstrate- gie für das System wurde ebenfalls konzipiert (Kapitel 5).
Zur Verringerung der Kosten und des Aufwands zur Installation, Update und Wartung von Workstations in einem industriellen Umfeld, sollte ein System zur zentralen, hardwareunabhängigen und vollautomatischen Installation dieser Workstations eingeführt werden. Hierzu mussten zuerst einmal die Möglichkeiten für eine vollautomatische Installation der verschiedenen Betriebssysteme und Anwendungen betrachtet werden. Nach dem Aufbau der Hardware folgte daraufhin die Installation des Deployment Systems der Firma OnTechnology (OnCommand). Im Anschluss daran wurden die Skripte für die Betriebssystem- und Anwendungsinstallation erstellt. Diese Skripte wurden anschließend zur besseren Handhabung zu Profilen zusammengefasst. Im nächsten Schritt wurden bestehende Clients in das System integriert. Daraufhin wurde das Sicherheitskonzept des Systems betrachtet, mit dem die Möglichkeit besteht bestimmten Benutzern nur bestimmte Rechte zu vergeben. In weiteren Teilen der Diplomarbeit werden die bisherigen Probleme bei der Firma und das erhoffte Ziel, die Möglichkeiten des Systems, sowie die Probleme bei der Umsetzung beziehungsweise des Systems, dargestellt und im Fazit zusammengefasst.
Das Gesamtprojekt umfasst die Entwicklung eines modularen Sende-Empfängers (Transceiver) bestehend aus Hard- und Software. Der Transceiver stellt eine Experimentalplattform dar, mit der nicht nur die üblichen Funktionen eines Sende-Empfängers genutzt werden können. Es bestehen vielfältige Experimentier- und Entwicklungsmöglichkeiten in den Bereichen der digitalen Signalverarbeitung, der Softwareentwicklung für Mikrokontroller und Personal Computer sowie der Übertragungstechnik. Im Rahmen dieser Diplomarbeit wurde das zentrale Steuermodul des Sende-Empfängers, die sog. Command Unit entwickelt. Sie beinhaltet die logischen Gruppen des MMI (Mensch-Maschine-Schnittstelle) und einer Host-PC-Schnittstelle mit DMA-Kontroller. Die Arbeit beinhaltet die Entwicklung der Hardware ebenso wie die Entwicklung von Firmware zum Testen der Schaltung.
This thesis deals with background, theory, design, layout and experimental test results of an analogue CMOS VLSI current-mode analog-to-digital converter. This system supports a project, whose goal it is to build a biologically relevant model of synaptic plasticity, named the Artificial Synapse. A critical part of the design, which is based on analogue CMOS VLSI circuits, is the ability to activate a discrete number of channels by sampling an analogue signal. Since currents are the signal of interest and transistors are biased in weak inversion (subthreshold regime), the system requires a current mode A/D circuit that it can operate at ultra-low power and current levels. To meet this need, two new innovative A/D converter approaches are proposed to replace the system’s previous A/D converter design which suffered from a non-linear resolution, uncoded output code and heavy bit oscillations. The initial technical requirements and key criteria for the new converter comprise a resolution of one nano ampere, an input current range between 0 – 100nA, conversion frequencies of up to 5kHz, and a power supply voltage of less than 1.5V. Temperature range, space occupation and power dissipation aspects were not specified due to the early stage of the related Artificial Synapse project. The novel converters both produce seven bit thermometer codes, their functional principle can be best described as current mode flash analog-to-digital converters (ADCs). Due to the fact that the input signal is in the area of a subthreshold current, it is selfevident that the A/D converter design should operate at a subthreshold realm. To support low power operation, clocks or high currents could not be used and were excluded from the design from the very start. To encode the thermometer code into standard binary code, a seven-to-three encoder was designed and integrated on the chip. In October 2003, the design was submitted for production to the MOSIS circuit fabrication service. The AMI Semiconductor 1.5 micron ABN CMOS process was chosen to manufacture the chip. When it was returned in January 2004, simulation results showed that both new A/D converter approaches accomplished excellent results which were expected from SPICE simulation results. With the new chip installed, it became possible to resolve input currents as small as one nano ampere and achieve conversion frequencies of up to 5kHz. The circuits also both meet the requirements which were set at the beginning of the project to operate at a power supply voltage of less than 1.5V, processing input currents in the range between 0 – 100nA. A prototype printed circuit board (PCB) was developed, produced and employed for experiments with the chip. The major application of this test-bed is the ability to generate and measure extremely low currents with high precision. This enables the monitoring of the very small currents that are processed by the chip.
This work treats with the segmentation of 2D environment Laser data, captured by an Autonomous Mobile Indoor Robot. It is part of the data processing, which is necessary to navigate a mobile robot error free in its environment. The whole process can generally be described by data capturing, data processing and navigation. In this project the data processing deals with data, captured by a Laser-Sensor, which provides two dimensional data by a series of distance measurements i.e. point-measurements of the environment. These point series have to be filtered and processed into a more convenient representation to provide a virtual environment map, which can be used of the robot for an error free navigation. This project provides different solutions of the same problem: the conversion from distance points to model segments which should represent the real world environment as close as possible. The advantages and disadvantages of each of the different Segmentation-Algorithms will be shown as well as a comparison taking into account the Computational Time and the Robustness of the results.
Logopädische Lernsoftware
(2003)
In den letzen Jahren konnte ein wachsendes Interesse an Lernsoftware im logopä-dischen Einsatzbereich verzeichnet werden. Dieses Interesse zeigte sich nicht nur auf Seite der logopädischen Fachpraxen sondern auch in den Grundschulen. Auf Grund dessen ist die Lernsoftware auf dem besten Wege, sich neben den traditionellen Lern- und Übungsmaterialien am Markt zu etablieren. Auf Grund der Vielfalt an Sprachstörungen wird ein System benötigt, das indivi-duell, je nach Bedürfnis des Klienten, konfiguriert werden kann. Die vorliegende Arbeit beschäftigt sich mit dem Entwurf und der Weiterentwick-lung der logopädischen Lernsoftware Detektiv Langohr, damit dieses Produkt den Anforderungen und Wünschen des Klientel so gerecht wie möglich wird. Auf Basis einer durchgeführten Marktanalyse wurden konkrete Anforderungen an ein solches System spezifiziert und im Anschluss in ein Projekt umgesetzt. Um dem Leser einen besseren Einblick in die Welt der Logopädie verschaffen zu können, wurde eine allgemeine Einführung in die Sprachtherapie dem Analyse- und Um-setzungsteil vorangestellt.
Die vorliegende Arbeit soll die Möglichkeiten von XML und den dazugehörigen Technologien bei der Entwicklung eines komplexen Softwaresystems und dem damit verbundenen Datenaustausch aufzeigen. Dafür soll die Leistungsfähigkeit und Eignung oder ggf. Nichteignung der XML-Technologie durch Entwurf, Aufbau und Test eines Prototyps, durch XML-konforme Ein- und Ausgabe sowie durch Daten- Aufbereitung und -auswertungen nachgewiesen werden. Daten unterschiedlicher Datenbestände werden ins XML-Format transformiert und in eine zentrale Datenbank gespeichert. Diese sollen mittels XML für alle Fremddatensysteme bereitgestellt sowie in HTML- und PDF-Formate transformiert werden.
Zum automatischen Testen der Endgeräte bei Nokia wird ein computergestütztes Systen namens Austere eingesetzt. Dieses System wurde vollständig innerhalb der Firma konzipiert und wird ständig weiterentwickelt. Der erste Teil der Diplomarbeit bestand darin, ein solches Austere Testsystem aus neuen Hardwarekomponenten aufzubauen und die schon vorhandene Testsoftware namens RAPT darauf anzupassen. Der Aufbau sowie der Zusammenhang der Soft- und Hardwarekomponenten untereinander und die Handhabung des Systems wird in Kapitel 3 beschrieben. Erst wenn man die Komplexität des Systems und den Zusammenhang der Komponenten untereinander verstanden hat, kann man sich den Erweiterungen widmen. Sie gehören zum zweiten Teil der Diplomarbeit. Diese Erweiterungen werden in den Folgekapiteln behandelt. In ihnen wird für das jeweilige Thema zunächst die Theorie beschrieben und anschließend soll eine Lösung der Erweiterung des Austere-Systems gegeben werden.
Die zunehmende Internationalisierung der Märkte, das wachsende, immer differenziertere Produktangebot und die hohe technische Innovationsgeschwindigkeit führen zu immer härteren Wettbewerbsbedingungen auf dem Markt. Diese Situation zwingt die Unternehmen nicht nur zu kontinuierlichen Anstrengungen, um ihre Produktivität und Qualität zu steigern, sondern es stehen auch immer geringere Mittel für die Realisierung von Produktions- und/oder Messeinheiten innerhalb des Produktionsprozesses zur Verfügung. Als Folge dessen werden Entwickler mit folgenden Grundforderungen konfrontiert: · Abstimmung der Architektur auf vorhandene und/oder gängige Infrastrukturen · Reduzierung des Entwicklungsaufwandes durch Modularisierung des Systemaufbaues · Reduzierung der Wartungs- und Administrationskosten durch einfache Handhabbarkeit · Maximierung der Betriebssicherheit und Minimierung der Ausfallzeiten · Einfache Erweiterbarkeit · Hohe Wiederverwendbarkeit Ein Resümee von Softwareprojekten über die letzten Jahre zeigt, dass sich der Rahmen für Softwareentwicklung insgesamt geändert hat. Softwareprojekte sind heute mehrschichtige, verteilte (ggf. auch komponentenbasierte) Anwendungen mit gestiegenen Anforderungen an Funktionalität, Qualität und Flexibilität. Leider beinhalten die Architekturen und Konzepte der ‚Verteilten Systeme' Schwächen, diese für verteilte Mess- und Steuerungssysteme direkt umzusetzen. Ziel dieser Arbeit ist es, die Schwächen vorhandener Konzepte aufzuzeigen und eine Architektur vorzustellen, die den Entwickler unterstützt, verteilte Mess- und Steuerungssysteme bis hin zu Prozessleitsystemen unter dem Betriebssystem Windows zu entwickeln.
Entwicklung eines Software-Systems für die Qualitätssicherung von Oberflächen im Automobilbau
(2003)
Heutzutage nimmt die Qualitätssicherung der Produkte bei immer mehr Betrieben einen zunehmend hohen Stellenwert ein. Auch in der Automobilindustrie gelten mittlerweile hohe Qualitätsrichtlinien. Damit der Qualitätsstandard aber auch gewährleistet werden kann, muss die Qualität des Produkts ständig gemessen und beurteilt werden. Um die manuelle Prüfung der Pressteile zu unterstützen wurde in den letzten Jahren bei VW/Audi do Brasil – BUC das Oberflächen-Inspektions-System DSight eingesetzt. Leider haben jedoch zahlreiche Messungen mit DSight ergeben, dass die Ergebnisse unzuverlässig und nicht reproduzierbar sind. Aus diesem Grund wurde im Rahmen dieser Diplomarbeit ein neues Software-System zur Inspektion von Oberflächen im Automobilbau entwickelt, das die Anforderungen der Qualitätssicherung besser erfüllt. Das neue System, das den Namen VisionMaster trägt, basiert auf dem Prinzip der Retro-Reflexion. Mit Hilfe implementierter Auswertungsalgorithmen werden aufgenommene Grauwertbilder der gepressten Teile analysiert. Die Ergebnisse der Inspektion werden anschließend in übersichtlicher Form in einem Protokoll ausgegeben. Um die Reproduzierbarkeit der Messungen zu garantieren und die Messergebnisse archivieren zu können, wird zusätzlich eine Datenbank eingesetzt, auf die über die ADO-Technologie zugegriffen wird. Zur Beschleunigung der Inspektion wir das neue System VisionMaster direkt in die Produktionshalle verlagert, um dort vor Ort Messungen an den gepressten Teilen durchführen zu können.
Aufbau eines neuen Knowledge Networks für den Bereich "Human Resources" der Winterthur Versicherung
(2003)
Die seit Mitte des letzten Jahrhunderts geprägte Industriegesellschaft erfährt eine neue Wende. Das Zeitalter der Informations- und Wissensgesellschaft drängt sich aufgrund der Informationstechnologie (IT) in den Vordergrund. "Die Wissensgesellschaft ist keine ferne Vision. Sie ist längst Realität. Wir müssen sie nicht erfinden, sondern erfinderisch mit ihren Chancen umgehen". Im Gegensatz zur bisherigen Gesellschaft, in der die Produktion von Objekten zu möglichst geringen Kosten im Mittelpunkt stand, orientiert sich diese neue Gesellschaft mehr an der Entwicklung von neuen Ideen und neuem Wissen zur Produktion und Weiterentwicklung von Objekten. Auch die Organisationsform in Unternehmen erfuhr einen Wandel: von funktionalen zu prozessorientierten Organisationsformen. Diese prozessorientierte Organisation ist lernfähiger, da Barrieren, Abeilungsgrenzen und Hierarchieebenen leichter überwindbar geworden sind. In diesem Zusammenhang liegt die Wertschöpfung von Unternehmen darin, dass die Mitarbeiter der Unternehmung mit Geschick, Originalität und Schnelligkeit neue Probleme identifizieren, kreativ lösen und überzeugend kommunizieren. Zum wettbewerbsentscheidenden Faktor wird das Wissen, welches sich in verschiedensten Formen innerhalb des Unternehmens befindet. Dieses zu offenbaren und zu gebrauchen ist u.a. das Ziel des Knowledge Managements. Wie bei jeder Organisation empfiehlt es sich auch beim Knowledge Management, in zusammenhängenden Prozessen zu denken. Dazu müssen Unternehmen Knowledge Management als einen gestaltbaren Prozess verstehen, der sich auf alle internen Prozesse auswirkt.
This thesis investigates methods for the recognition of facial expressions using support vector machines. Rather than trying to recognize facial actions in the face such as raised eyebrow, mouth open and frowns. These facial actions are described in the Facial Action Coding System (FACS) and are essential facial components, which can be combined to form facial expressions. We perform independent recognition of 6 upper and 10 lower action units in the face, which may occur either individually or in combination. Based on a feature extraction from grey-level values, the system is expected to recognize under real-time conditions. Results are presented with different image resolutions, SVM kernels and variations of low-level features.
Die Praxis zeigt, dass die meisten Leistungsmessungssysteme für den Vertriebsbereich konzeptuell bereits an ihre Grenzen gestoßen sind und den heutigen Geschäftsgegebenheiten kaum noch entsprechen können. Mehr noch, durch ihre „übertriebene“ Fokussierung auf die finanz-orientierten Indikatoren wirken sie sogar hinderlich im Konkurrenzkampf um den „besten Kunden“. Im Rahmen des Projektes, in welchem diese Arbeit entstanden ist, wurde für den Vertriebsmanager die Sales Performance Analyse als ein leistungsfähiges Controllinginstrument konzipiert und implementiert. Sie basiert auf dem bekannten Ansatz der Balanced Scorecard von Kaplan/Norton und bietet eine über alle Bereiche hinweg ausgewogene und strategieorientierte Betrachtung relevanter Vertriebsabläufe. Sie ermöglicht somit das Controlling, d.h. das Messen und Steuern, der relevanten Erfolgsfaktoren auf Basis der vier Perspektiven: Finanzen, Interne Prozesse, Kunden und Lernen&Wachstum. Um den vordefinierten inhaltlichen und funktionalen Ansprüchen gerecht zu werden, ist die Sales Performance Analyse in einer Systemlandschaft von SAP-eigenen Lösungen implementiert worden: Enterprise Portal, BW (Business Warehouse), CRM (Customer Relationship Management), SEM (Strategic Enterprise Management) und HR (Human Ressources). In diesem Projekt wurde ein funktionsfähiger Prototyp erstellt, der aktuell zu Präsentationszwecken bei den internationalen Branchenveranstaltungen und im laufenden SAP-Lösungs-Vertrieb verwendet wird.
Die Anforderungen, die von Privatpersonen und Unternehmen an das Internet gestellt werden, sind im Laufe der letzten Jahre stark gewachsen. Längst dient das WWW nicht mehr nur für den Abruf von Informationen, sondern wird als universelle Plattform für Dienstleistungen aller Art verstanden. Im Zuge dieser Entwicklung hat es sich als neue Plattform für die Kommunikation zwischen Kunde und Anbieter etabliert und dient als Medium für die Ausführung komplexer Geschäftsprozesse. Für die Realisierung solcher Geschäftsprozesse werden Web-Anwendungen eingesetzt. Diese sind in ihrer Erstellung wesentlich aufwendiger, als eine Präsentation statischer Webseiten, und damit teurer und fehleranfälliger. Frameworks erlauben, durch die Standardisierung allgemeiner Vorgänge innerhalb von Web-Anwendungen, deren zeit- und damit kosteneffektivere Entwicklung. Zusätzlich kann, durch den Einsatz vorgefertigter Komponenten, der Grad der Wiederverwendung bereits gefundener Lösungen erhöht, und damit nochmals eine Zeitersparnis bei Entwurf und Erstellung einer Anwendung erreicht werden. Ein solches Framework namens "WACoF" wird an der FH Konstanz aktiv entwickelt, basierend auf den Forschungsergebnissen und unter der Leitung von Herrn Prof. Dr. Schmid. In diesem Zusammenhang sind bisher unter anderem Diplomarbeiten von Florian Falkenstein [Falk01] und Marc Nädele [Nädele02] angefertigt worden. Die Hauptaufgabe dieser Diplomarbeit bestand in der Abänderung des oben genanntes Frameworks, so dass sich damit Anwendungen nicht mehr in Programmcode, sondern über einen Anwendungsdeskriptor definieren lassen. Ein solcher Deskriptor enthält sämtliche Informationen, die den Aufbau der Anwendung aus Komponenten beschreiben. Um eine konkrete Anwendung zu erstellen, muss der Anwendungsentwickler lediglich diese Informationen, wie Customizing und die Verbindungen zwischen den Komponenten, in Form einer XML-Datei zur Verfügung stellen. Die Definition der Anwendung wird damit zum einen unabhängig von der konkreten Programmiersprache des Frameworks, zum anderen wird sie in einem einzigen Ort konzentriert und in einer klar definierten Form beschrieben, was ihre Bearbeitung durch entsprechende Tools - wie z.B. grafische Manipulation oder automatische Prüfung auf Korrektheit, und damit frühzeitige Erkennung von Fehlern - erheblich vereinfacht. Dazu war es zuerst notwendig, das Framework in Hinblick auf die Einführung des Deskriptors zu analysieren. Aufgrund dieser Analyse wurden allgemeine Bedingungen für den Zusammenbau von Komponenten aufgestellt, und anhand der bestehenden Anwendungskomponenten (siehe Diplomarbeit von Marc Nädele [Nädele02]) überprüft. Dann wurde das Framework um neue Elemente, wie eine Komponenten-Fabrik und einen Aktivitäts-Pool, erweitert und bestehende Elemente, wie die ComposedActivity und der Crosslink-Mechanismus, neu entworfen bzw. angepasst.
Die vorliegende Arbeit beschreibt die Entwicklung und Implementierung eines plattformunabhängigen Facility Management Systems für das Testlabor der Firma Nortel Networks Germany. Ein Facility Management System dient der rechnergestützten Dokumentation und Verwaltung von Netzwerken wie Telekommunikations-, Daten- und Überwachungsnetzen, sowie deren Geräten. Dieses System stellt ein Individualprojekt dar und wurde spezifisch für Switches (Vermittlungsstellen) vom Typ DMS-100F entwickelt, um dem Benutzer die Möglichkeit zu bieten, über eine Applikation auf der Client-Seite die Konfigurationsdaten des jeweiligen Switches in einer zentralen Datenbank zu sichern, zu modifizieren und auszudrucken. Bis zu diesem Zeitpunkt existierte weder ein Tool, das diese Aufgabe erfüllte, noch jegliche andere Art der Dokumentation.
Das historisch gewachsene System für die Erstellung, Koordinierung und Auskunft der Lehrveranstaltungspläne (LVP) soll durch ein neues System ersetzt werden. Diese Diplomarbeit befasst sich mit der Konzeption und der Implementierung einer neuen grafischen Benutzeroberfläche und der Migration auf eine SQL basierte Datenbank für das komplette Management der Lehrveranstaltungspläne der FH Konstanz. Wie die Stundenpläne an den Schulen müssen auch die Lehrveranstaltungspläne an der Fachhochschule in jedem Semester entworfen, zu Papier gebracht, vervielfältigt und verteilt werden. An der FH Konstanz wird die heikle Aufgabe des Entwerfens von den LVP- Beauftragten der Studiengänge erledigt, denn sie können die vielen Randbedingungen besser überschauen und das Ergebnis auch rechtfertigen. Für die Routinearbeiten Auskunft und Drucken gab es bisher das LVP- Programm als ein spezielles Informationssystem. Auch wenn sich das bisherige System bewährt hat, blieben doch einige Wünsche der Planer offen. Da das LVP- System über mehrere Jahre gewachsen war, ist man an einige Eigenheiten gebunden, die es zu eliminieren gilt. Auch neue Technologien eröffnen einige interessante Möglichkeiten, die früher noch nicht so einfach, oder gar nicht zu implementieren waren. Ziel dieser Diplomarbeit ist eine komplette Neuentwicklung des gesamten Systems unter Verwendung aktueller Technologien: das LVP³- System.
In der Diplomarbeit werden verschiedene, schon auf dem Markt befindliche Intrusion Intrusion Detection Systeme auf unterschiedliche Kriterien verglichen. Es werden mögliche Einsatzarten und Einsatzorte mit ihren Vor- und Nachteilen durchleuchtet und besprochen. Auf Basis der erlangten Erkenntnisse wird ein System vorgeschlagen, dass nach Abstimmung mit dem Projektleiter eingesetzt werden soll. Zu den Einsatz- kriterien gehören das vorhanden Budget, die Netzwerkumgebung, die Ausstattung und Leistungsfähigkeit des Einsatz-Intrusion Detection Systems sowie die Art des Intrusion Detection Systems. Geplant ist der Einsatz mindestens eines bzw. mehrerer Systeme als eine sogenannte Enterprise-Lösung. Mittels verschiedener Hilfsmittel und Tools werden die Intrusion Detection Systeme eTrust von Computer Associates, Real Secure von ISS, Snort, Tripwire und Network Intrusion Detection von Network Flight Recorder untersucht. Der Test und der Betrieb dieser Systeme geschieht sowohl vor als auch hinter der Firewall also in der demilitarisierten Zone des Unternehmens. Die Untersuchung der Systeme beinhaltet Kontrollen über Systemstabilität, Prozessor- und Hauptspeicherauslastung, Anzahl der erkannten Angriffe auf Basis simulierter Angriffe sowie die Benutzerfreundlichkeit
Die Diplomarbeit beschäftigt sich mit dem Erfassen und der Auswertung von Störungen und Statusmeldungen, welche in einem Teilbereich der automatisierten Fertigung des Automobilbaus bei VW/Audi do Brasil entstehen. Die erste Anwendung, die im Rahmen der Diplomarbeit entstand, ist ein Editor für SIEMENS S5 Symbolzuordnungstabellen. Die Anwendung ermöglicht es, mit Hilfe der programminternen Datenbank, die Kommentare der Symboltabellen zu durchsuchen und nach einem gegebenen Standard automatisch zu normieren. Diese Normierung der Kommentare ist notwendig, um das mit den S5 Einheiten verbundene Anlagen - Informations - System SIEMENS SICALIS PMC mit sinnvollen Meldungen zu versorgen. Die Anwendung besteht im Wesentlichen aus einer Oberfläche zur Datenbankmodifikation und aus einem Suchalgorithmus zum Finden der Meldungen, welche normierbar sind. Die zweite Anwendung, ist eine Client-Server-Software, die es einem Nutzer des Clients ermöglicht, Nachrichten an Pager des lokalen Pagerfirmennetzes zu schicken. Der Server-Part der Anwendung, ist auf einem Pager-Server installiert. Der Pager-Server ist mit der Sendeantenne über eine serielle Schnittstelle verbunden. Der Pager-Server war bereits mit der Applikation AMIS vorhanden, welche automatisch erzeugte Nachrichten von SICALIS publizierte. Die Client-Server-Software ergänzt nun dieses System um die Funktion eines manuell ausgelösten Personenrufs. Um diesen manuellen Ruf zu erzeugen, manipuliert der Server-Part die AMIS-Software via einem Handle auf die AMIS Applikation und dem Senden von Windowsmessages, Pagerinformationen und Pagermeldungen an AMIS.
Die Integration eines Systems für den Support von Softwareprodukten in ein bestehendes Unternehmensumfeld ist der Schwerpunkt dieser Arbeit. Im ersten Teil dieser Arbeit wird anhand eines theoretischen Prozessmodells das Vorgehen zur stufenweisen Realisierung eines Softwareprojektes beschrieben. Des Weiteren werden den Support unterstützende Managementprozesse und Werkzeuge vorgestellt und ein theoretischer Ansatz für deren Umsetzung im Unternehmen erarbeitet. Der zweite Teil dieser Arbeit beschreibt die einzelnen Prozessphasen der Projektrealisierung. Im Anschluss daran wird das fertige System mit seinen Hauptinhalten erläutert.
Im Rahmen dieser Diplomarbeit wird eine horizontale Baumkomponente als JavaBean erstellt. Die Baumkomponente soll als Truppenbaum in ein bestehendes Führungs-Informationssystem implementiert werden. Dazu ist die Verwendung des SVG (XML) Grafikformates zur Darstellung der Symbole einzelner Knoten erforderlich. Weiterhin wird die Interaktion von Java-Komponenten mit Windows COM und DCOM untersucht. Es werden mehrere unterschiedliche Java-COM-Bridges getestet. In der vorliegenden Arbeit wird zuerst auf die Grundlagen eingegangen, indem das XML und SVG Format vorgestellt wird und die Grundlagen von JavaBeans sowie die benutzten Bibliotheken erläutert werden. Anschließend wird die Entwicklung der Komponente mit Pflichtenheft, Architektur und Implementierung dargestellt. Abschließend werden die Java-COM-Bridges beschrieben.
The target of this thesis is the introduction of a client management system (CMS) at Haaland Internet Productions (HiP), a web design and hosting company in Burbank, California, USA. The company needs a system to track orders and improve workflow. HiP needs a system which not only tracks orders, but also stores all client information in a database. This client information can be used for a variety of marketing and contact reasons. It is an important and integral part of HiP's client relationship management (CRM). The lack of a cohesive CMS at HiP caused many fundamental business problems, such as lost orders, missed billing statements, and over/under billing. The research done during the investigation and analysis of the company and their needs should lead to a global system which totally fulfils the needs of HiP. This global system could be in the form of an off-the-shelf product with some customizations, or a completely new, in-house system. Either solution will have respective pros and cons; the goal is to reach a decision that best fits HiP's needs and situation. The following is a concise version of the project. Particular emphasis is placed upon the single steps which made up the decision process, as well as the practiced techniques, methods, and their applications.
Gegenstand dieser Arbeit ist ein Tool, das das Monitoring von Tabellen über mehrere SAP R/3-Systeme hinweg ermöglichen soll. Es wird in einer J2EE Umgebung implementiert und in ein Community Portal eingebettet. Das Tool soll dabei periodisch, innerhalb von vorgebbaren Zeitabständen automatisch starten. Für diese Aufgabe gibt es ein R/3-Programm, das abgelöst werden soll und dessen Funktionsumfang Grundlage der Neuentwicklung ist. Es müssen drei Tabellen aus den R/3- Systemen gelesen werden: die Tabelle, welche die Loginzeiten der Benutzer je System und Mandant beinhaltet, die Tabellen mit den Systemmeldungen und die mit den Transporten. Die Tabellen werden im neuen Tool über den RFC (Remote Funktion Call) Funktionbaustein RFC_READ_TABLE aus den R/3-Systemen gelesen. Diese Daten werden dann in einer externen Datenbank gespeichert. Um über ein Portal auf die Daten zugreifen zu können, wird eine entsprechende Schnittstelle entwickelt. Die gewünschten Tabellen und Einschränkungen werden über eine Konfigurationsdatei definiert. Somit ist es möglich, nicht nur die drei genannten Tabellen aus den R/3-Systemen zu lesen. Es werden für alle Systeme und deren Mandanten auftretende Fehler dokumentiert, um dem Administrator des Monitors die Möglichkeit zu geben, einfach herauszufinden, warum bestimmte Systeme eventuell nicht ausgelesen werden konnten.. Eine Fehlermeldung aus dem Portal kann, im internen R/3-Fehlermeldungssystem, für das entsprechende System angelegt werden. Zudem wird bei jedem Durchlauf die Anzahl der gelesenen Datensätze je System und Tabelle für mögliche Auswertungen dokumentiert. Abschliessend werden Erweiterungen beschrieben, welche in möglichen weiteren Versionen umgesetzt werden könnten. Dazu müssen allerdings noch eingehendere Vor- und Nachteils Betrachtungen angestellt werden.
Mobile-Agenten erweitern die Möglichkeiten von verteilten Systemen dadurch, dass sie lauffähigen Code transportieren und diesen ausführen können. Sie können sich frei im Netzwerk bewegen, dort nach Informationen suchen und Aufgaben im Namen ihrer Auftraggeber ausführen. Viele Mobile-Agenten-Plattformen verwenden Java als Laufzeitumgebung, dadurch sind sie unabhängig vor dem darunter-liegenden Betriebssystem. Auf eine Unterstützung einer Anzeigegeräte-unabhängigen Benutzer-Agent-Interaktion wird aber meist nicht geachtet. Betrachtet man sich diese Anzeigegeräte mit den unterschiedlichen Eigenschaften in Display-Größe, Farbfähigkeit und Möglichkeiten für die Ein-und Ausgabe, besonders im Zusammenhang mit mobilen Geräten, z.B. Smartphpones und PDAs, ist es verständlich warum der Benutzer oft noch auf herkömmliche Geräte zur Interaktion angewiesen ist. Der Fokus dieser Diplomarbeit lag auf der Entwicklung eines Frameworks, das graphische Java-Benutzerschnittstellen in einem geräteunabhängigen XML-Format beschreibt und daraus ein geräteabhängiges Format erzeugt. Ein besonderes Augenmerk lag dabei in der einfachen Erweiterbarkeit des Frameworks, um zukünftige Ausgabeformate zu unterstützen, weswegen die Technik XSLT zum Einsatz kam. Nach dem Übermitteln der GUI-Daten werden über einen Rückkanal die Benutzerinteraktionen wieder dem Framewok zugeführt. Da die meisten mobilen Geräte einen Webbrowser integriert haben, eignen sich die Markup-Sprachen HTML oder WML besonders gut als Ausgabeformate für diese Geräte. Das Framework erlaubt darüberhinaus sowohl die lokale als auch die entfernte Interaktion mit den Software-Agenten. Sowohl für den Transport der GUI-Daten als auch für die Interaktion mit Agenten verwendet das Framework die Sicherheitsmechanismen der Agenten-Plattform SeMoA (Secure Mobile Agents). Das vorgestellte Framework lässt sich in SeMoA einfach integrieren und gestattet die individuelle Konfiguration der Interaktionsmethode mit einem Agenten.
Zentrales Thema dieser Diplomarbeit ist die plattform- und anwendungsübergreifende elektronische Archivierung von Daten und Dokumenten unterschiedlichster Herkunft. Hierzu zählen neben der Einarbeitung in die Thematik, die Aufnahme und Strukturierung der Archivierungsanforderungen innerhalb des Unternehmens, sowie die darauf folgende Auswahl eines geeigneten Anbieters. Die angestrebte Archivierungslösung muss einerseits in der Lage sein sich in vorhandene Systeme zu integrieren (SAP R/3, Lotus Notes), andererseits wird ein applikationsunabhängiger Zugriff auf Daten und Dokumente erwartet. Zudem muss die Archivierungslösung die vorhandenen gesetzlichen Anforderungen erfüllen.
Diese Arbeit befasst sich mit der Erstellung und Bearbeitung von Datenstrukturen, die für die Entwicklung von Software im Mobilfunksektor benötigt werden. Es wird aufgezeigt, wo diese Datenstrukturen auftauchen und welche Aufgaben ihnen zufallen. Am Beispiel der Texas Instruments Berlin AG wird eine mögliche Implementierung der für deren Handhabung eingesetzten Hilfsmittel im Detail betrachtet sowie auf die diesen innewohnenden Unzulänglichkeiten und Schwachstellen eingegangen. Zur Behebung und Umgehung der aufgezeigten Probleme werden verschiedene Ansätze analysiert und bewertet. Die hierzu benötigten und jeweils kurz vorgestellten Informationen über die Sprache XML und andere Techniken legen ferner oÿen, warum die letztendlich gewählte Vorgehensweise für die Neuimplementierung sinnvoll ist. Auf die für den reibungslosen Verlauf der Implementierungsphase erforderlichen Planungen wird ebenso wie auf die hierfür im Vorfeld notwendigen Überlegungen und Arbeiten eingegangen. Insbesondere wird auf die Erstellung mehrerer Prototyp-Versionen zur Erleichterung der Einarbeitung und zum besseren Verständnis der zu bearbeitenden Materie hingewiesen. Entwicklung und abschliessdes Aussehen einer Grammatik als Grundlage für ein auf XML basierendes Datenformat werden vorgestellt sowie die hierbei auftretenden Problematiken erörtert. Es wird dargestellt, wie die für die Arbeit mit dem neuen Format entworfene Benutzerschnittstelle funktioniert und wie das der dahinterstehenden Funktionalität zugrundeliegende Konzept aussieht. Die Umsetzung dieses Konzepts unter Einsatz der Programmiersprache Java und aufbauend auf der Eclipse-Plattform wird umfassend und im Detail erläutert. Begleitende Tests und Evaluierungen werden angesprochen sowie Probleme und Herausforderungen der Implementierungsphase. Es wird darauf eingegangen, wie die Planungen für den zukünftigen Einsatz und die weitere Entwicklung des Projekts unter dem Dach der Texas Instruments Berlin AG aussehen. Und es werden die aus der Durchführung des Projekts von den ersten Planungen bis hin zum vorläufigen Abschluss der Implementierungsphase und der Vorstellung eines funktionierenden Systems gewonnenen Schlüsse und Erfahrungen präsentiert und ausgewertet.
Es gibt viele Gründe, darüber nachzudenken, wie die wachsenden Gütertransporte in der Welt wirtschaftlicher gestaltet, umweltfreundlicher durchgeführt und unter Beachtung sozialer Aspekte verwirklicht werden können. Diese ausschlaggebenden Argumente führern zum Thema Transportmanagement. Das Thema hat bisher wenig Beachtung gefunden, obwohl Transporte seit eh und je existieren. Ziel der Arbeit ist die Modellierung der Geschäftsprozesse vom Transportmanagementsystem TM/3 mit der EPK-Methode zu erreichen. Zusätzlich zu der Modellierung soll eine Gegenüberstellung der Standard SAP Transportkomponente LE-TRA mit der TM/3 Software der Logimatik AG erfolgen. Im Hinblick auf die zu erarbeitende Problemlösung werden zu Beginn terminologische Abgrenzungen zum Thema Transport, Logistik, Logistics Execution System vorgenommen. Im Anschluss daran, wird das Thema Geschäftsprozessmodellierung angestellt. Dazu findet eine umfassende Gegenüberstellung der Definitionen zu diesem Begriff. Für die Modellierung der Prozesse ist es von Wichtigkeit, Objekte und Regeln der Ereignisgesteuerten Prozesskette kennenzulernen. Im praktischen Teil der Arbeit wird die Analyse der beiden Produkte vorgenommen und die Geschäftsprozessmodellierung der TM/3 Software begonnen. Der Vergleich der beiden Systeme findet den Abschluss dieser Arbeit.
Das Unternehmen MIK wird vorgestellt und die Entscheidungskriterien für die .NET Remoting-Technologie werden erläutert. Es wird die Entwicklung des .NET Remoting und die Unterschiede zu anderen Technologien für verteilten Anwendungen wie CORBA, DCOM und Java EJB dargestellt. Wichtige Grundbegriffe des .NET Remotings, wie Server activated und Client activated Objects sowie Konfiguration und Deployment werden erklärt und anhand einfacher Beispiele vertieft. Die Forderungen aus der Aufgabenstellung werden analysiert und an Hand der gewonnenen Informationen Daten modelliert und in UML-Klassendiagrammen festgehalten. Auf Client und Server-Seite wurde jeweils eine Software-Komponente entwickelt, welche die Kommunikation zwischen Client und Remoting-Server abwickeln. Implementierungsaspekte der beteiligten Klassen und deren Zusammenwirken werden ausführlich erläutert. Um die XML Strukturen der Konfigurationsdateien zu bearbeiten, werden Basisklassen des .NET Frameworks verwendet. Es werden Einblicke in die XPath-Abfragen und in die Ereignisbehandlung gegeben. Grundsätzlich kann jede .NET-Applikation als Remoting Server arbeiten. Es wird hier speziell die Produktivsetzung im IIS und in einem Windows-Dienst beschrieben. Es folgt die Überlegung, wie ein Apache Webserver in einer .NET Infrastruktur eingesetzt werden kann und was bei einer Kommunikation über eine Firewall zu berücksichtigen ist. Die Sicherheitsaspekte befassen sich mit den Authentifizierungsmethoden des IIS und der Verschlüsselung des Kommunikationskanals mittels SSL. Zur umfangreichen Bearbeitung der Konfigurationsdateien wurde ein Administrations-GUI entwickelt. Mit Hilfe von Reflexion können Remote-Objekte aus Assemblies heraus betrachtet und registriert werden.
Webservices können ein fester Bestandteil von Integrationsbemühungen werden, um nicht nur innerhalb des Unternehmens Altlasten aufzuräumen, sondern mittlerweile auch zwischen den Partnern, Kunden und Lieferanten zu koordinieren. Sie können mit ihrer Schlichtheit und Implementierungseleganz bisherige Integrationstools wie CORBA, DCOM u.a. alt aussehen lassen. Ihre textbasierten Bestandteile SOAP, WSDL und UDDI arbeiten mit XML und HTTP, die das enorme Potenzial des Internet erst jetzt richtig zur Geltung bringen.
Wenn neue Tätigkeiten in der PVC-Abdichtlinie2 der Lackiererei bearbeitet werden müssen, ist es notwendig die gesamte Produktionslinie zu betrachten, um eine Aussage darüber machen zu können, an welchem Arbeitsplatz diese neuen Tätigkeiten bearbeitet werden können. Die Zuweisung von neuen Tätigkeiten an Arbeitsplätze wird Eintakten genannt. Ziel der Diplomarbeit war es, ein Konzept für die automatische Eintaktung von manuellen Tätigkeiten an der PVC-Abdichtlinie2 der Lackiererei zu erstellen. Anschließend sollte ein Programm entwickelt werden, womit eine automatische Eintaktung durchgeführt werden kann. Bei der Erstellung dieses Programms sollte darauf geachtet werden, dass das Programm leicht zu handhaben ist. Weiterhin sollte das Programm so gestaltet sein, dass es auch durch die ähnlich aufgebaute Abdichtlinie1 genutzt werden kann.
Tauchsimulation
(2003)
Im 1.Kapitel werden die historischen Aspekte des Tauchens und der Tauchphysik beschrieben. Anhand von physikalischen Gesetzen, mathematischen Formeln und empirisch ermittelten Werten werden im 2. Kapitel die nötigen Grundlagen für das Verständnis zur Berechnung eines Tauchgangs vermittelt. Das 3.Kapitel behandelt verschiedene auf dem Markt befindliche Tauchsimulationen, zeigt deren Funktionsumfang sowie deren Vor- und Nachteile. Die erstellte Tauchsimulation wird im 4. Kapitel vorgestellt. Dabei wird auch auf verschiedene Simulationsläufe eingegangen. Zum Abschluß wird ein Ausblick auf aktuelle Entwicklungstendenzen gegeben.
Die Arbeit befasst sich mit dem J2EE Framework Jakarta Struts. Hauptziel ist es, den Einsatz von Struts in der ZKB zu prüfen. Es soll festgestellt werden, ob Struts in Zukunft für die Entwicklung grösserer Web-Applikationen in der ZKB eingesetzt werden kann. Dazu wird eine bereits existierende ASP Web-Applikation zuerst zu einer JSP-Applikation (Model 1) und anschliessend zu einer Struts-Applikation (Model 2) portiert. Danach werden die beiden Versionen bzgl. Entwicklungsaufwand, Funktionsumfang, Performance und Wartbarkeit miteinander verglichen. Darüber hinaus werden Fähigkeiten des Struts Frameworks beleuchtet, die Architektur des Frameworks beschrieben und überprüft, inwiefern das Framework den Entwickler entlasten kann. Entwickler ohne Erfahrung mit Struts finden hier ausserdem eine verständliche Einführung an einem überschaubaren Beispiel. Nach der Einleitung in Kapitel 1 werden im zweiten Kapitel die Struts zu Grunde liegenden Technologien der Java 2 Plattform Enterprise Edition (J2EE) von Sun beschrieben. Im dritten Kapitel wird detailliert auf Struts eingegangen. Um dem Leser den Einstieg in Struts zu erleichtern, wird vor der Beschreibung der Struts Komponenten die Architektur und der Programmablauf erläutert. Eine Anleitung zum Erstellen einer kleinen Struts Applikation erklärt Struts an einem praktischen Beispiel. Vergleichbare Frameworks werden am Ende des Kapitels vorgestellt. Im vierten Kapitel erläutere ich die Entwicklung der von mir mit Struts erstellten Web-Applikation. Die beiden letzten Kapitel enthalten die Erkenntnisse aus meiner Arbeit mit Struts und versuchen eine Entscheidungsgrundlage für oder gegen den Einsatz des Frameworks zu liefern.
An der HTWG Konstanz können Studenten ihre Termine Online-Kalendersystem myDay organisieren. Der Kalender verfügt über eine eigene Datenbank zur persistenten Terminhaltung und ist über ein Webinterface bedienbar. Dieser Kalender wurde um nützliche Web Services erweitert, die externen Applikationen den Zugriff auf das Kalendersystem ermöglichen. Beispielhaft wird dies mit dem Personal Information Manager Outlook 2002 von Microsoft gezeigt. Die entwickelten Web Services bieten verschiedene Möglichkeiten der Termin- und Aufgabenverwaltung. Die Implementierung der Web Services wurde mit Hilfe eines Adapter-Konzeptes realisiert, welches auch in einer Enterprise Application Integration - Anbindung verwendung finden könnte.
Genera
(2003)
Diplomarbeit „Genera“ Ralph J. Schiel Erstbetreuung: Professor Bernd Jahnke Co-Betreuung: Andreas Bechtold Kommunikationsdesign HTWG Konstanz, SS 2003 Thema Die Diplomarbeit „Genera“ beschäftigt sich mit Interaktions- und Interfacedesign für eine Multimedia Home Plattform (MHP). Diese Plattform stellt eine Verbindung von Internet, Radio,TV, LAN-Netzwerken, , Computer, Hi-Fi und Telefonanlage dar. Die Entwicklung geht hierbei weg von verschiedenen Medien mit unterschiedlichsten Formaten, hin zu einer einzigen Gerätschaft, welche alle Komponenten beinhaltet. Am Beispiel des multimedialen Computerspiels „Genera“ wird eine zukünftige Nutzungsform dieses Mediums aufgezeigt. Tragende Elemente sind hierbei Film, Videospiel, Videoclips, Media Art, Internet und Hyperstrukturen. Die Einsatzbereiche liegen u.a. in den Bereichen Bildung, Wissenschaft und Forschung, Projekt Management und Unterhaltung. Der Benutzer eignet sich Kompetenzen bezüglich innovativer Nutzungs- und Kombinationsformen von Medien an. Durch verant-wortungsvolles Informations Knowledge und - Management erhält er die nötigen Voraussetzungen, um im stattfindenden Digital Devide bestehen zu können. Der Benutzer interagiert in den zunehmend verschmelzenden Dimensionen von Realität und Virtualität.