Refine
Document Type
- Master's Thesis (34) (remove)
Has Fulltext
- yes (34)
Keywords
- .NET Remoting (1)
- 2 D environment Laser data (1)
- ADO.NET (1)
- ASP.NET (1)
- Active Server Pages (1)
- ActiveX Data Objects (ADO) (1)
- Agenten-Plattform (1)
- Akquisition <Vertrieb> (1)
- Analog-Digital-Umsetzer (1)
- Analog-to-digital-Converter ; Spice Simulation ; Analog integrated circuit design ; (1)
- Anwendung (1)
- Arbeitsablauf (1)
- Arbeitsplatzcomputer (1)
- Archivierung (1)
- Audi (1)
- Auftragsabwicklung (1)
- Automatisches Eintakten (1)
- Autonomous Mobile Indoor Robot (1)
- BW (1)
- Balanced Scorecard (1)
- Benutzerinteraktion (1)
- Benutzeroberfläche (1)
- Betriebssystem (1)
- Bootloader (1)
- C sharp (1)
- C++ (1)
- CL <C++> (1)
- CRM (1)
- CSTA (1)
- Client Management System ; Haaland Internet Productions ; Client Relationship Management ; workflow (1)
- Codierung (1)
- Computer Telephony Integration (1)
- Computersimulation (1)
- Controlling (1)
- DTD (1)
- Datenbankmodellierung (1)
- Datenstruktur (1)
- Datentypeditor (1)
- Deep learning (1)
- Detektiv Langohr (1)
- Dokumentenerstellung (1)
- Dokumententyp (1)
- Dokumentvorlage (1)
- EJB (1)
- ELF (1)
- Echtzeitsystem (1)
- Eindringerkennung (1)
- Erkennung (1)
- FACS (1)
- Facial Action Coding System (1)
- Facility-Management (1)
- Fehlersuche (1)
- Feldbus (1)
- Formel (1)
- Framework (1)
- Framework <Informatik> (2)
- GUI (1)
- Geschäftsprozessmodellierung (1)
- Gesetz <Physik> (1)
- Graphische Benutzeroberfläche (1)
- Grundschule (1)
- HTML (1)
- Handy (1)
- Helpdesk-System (1)
- Implementierung (1)
- Installation (1)
- Interfaceeditor (1)
- Interpretability (1)
- Intranet (1)
- J2EE (1)
- JDBC (1)
- JTAPI (1)
- Java (2)
- Java 2 Enterprise Edition (2)
- Java <Programmiersprache> (1)
- Java Beans (1)
- Java Naming and Directory Interface (1)
- Java Server Pages (1)
- Karosseriebau (1)
- Khepera (1)
- Konfigurationsmanagement (1)
- Konfigurationsverwaltung (1)
- Kraftfahrzeugbau (1)
- Kundenmanagement (1)
- Künstliche Intelligenz (1)
- LDAP (1)
- LVP (1)
- Laser-Sensor (1)
- Laserimpuls (1)
- Lasermesstechnik (1)
- Layout (1)
- Lehrveranstaltungsplan (1)
- Lernprogramm (1)
- Link Handler (1)
- Logimatik TM/3 (1)
- Logopädie (1)
- Lösung (1)
- MIDP (1)
- Marktanalyse (1)
- Mess- und Steuerungssystem ; DDNA (1)
- Mimik (1)
- Mobile-Agenten (1)
- Mobilfunk (1)
- Mobilfunkprotokoll (1)
- Model View Controller (1)
- Monitoring <Informatik> (1)
- Mund-Kiefer-Gesichtsbereich (1)
- MySQL 4.0 (1)
- Navigation (1)
- Navigieren (1)
- Nebenstellenanlage (1)
- Neuronales Netz (1)
- Nokia (1)
- Nortel Meridian (1)
- OLAP (1)
- OSE (1)
- Oberflächeninspektion von Pressteilen (1)
- Oberflächenprüfung (1)
- Objektorientierung (1)
- OnTechnology ; CCM ; OnCommand ; Deployment Werkzeuge ; unattended Setup (1)
- Organisationsform (1)
- Outlook (1)
- Pflichtenheft (1)
- Physiognomik (1)
- Portal (1)
- Portal-Komponenenten (1)
- PowerPC (1)
- Probabilistic modeling (1)
- Produktion (1)
- Produkttest (1)
- Programmierumgebung (1)
- Prozesskette (1)
- Prozessleitsystem (1)
- Prozessmanagement (1)
- Prozessmodell (1)
- Qt (1)
- Qualitätsmanagement (1)
- Qualitätssicherung (1)
- Qualitätssicherung im Automobilbau (1)
- RMI (1)
- Releasemanagement (1)
- Remote Access (1)
- Roboter (2)
- SAP AG (1)
- SAP Enterprise Portal (1)
- SAP LE-TRA (1)
- SAP R/3 (1)
- SAP Vertriebs-Manager-Portal (1)
- SAX <Programmierumgebung> (1)
- SOAP <Protokoll> (1)
- SPICE <Programm> (1)
- SQL (1)
- SVG (1)
- Sales Performance Analyse (1)
- Schriftzeichenerkennung (1)
- Schweizerische Versicherungs-Gesellschaft (1)
- SeMoA (1)
- Seitenformatierung (1)
- Seitenlayout (1)
- Selbstorganisierende Karte (1)
- Sicherheit (1)
- Softwareentwicklung (2)
- Softwareentwicklung / Projekt (1)
- Softwarekomponenten (1)
- Softwareproduktionsumgebung (1)
- Sprachstörung (1)
- Statistics (1)
- Steuerung (1)
- Struts (1)
- Swing (1)
- TSAPI (1)
- Tauchen (1)
- Tauchphysik (1)
- Test (1)
- Transistortechnologie (1)
- Transportproblem (1)
- Transportsteuerung (1)
- Treiber <Programm> (1)
- Un-certainty (1)
- Unterstützungssystem <Informatik> (1)
- Update (1)
- Verbindungsoptimierung (1)
- Vergleich (1)
- Versionsverwaltung (1)
- Verteiltes System (1)
- Visual C++ (1)
- VisualBASIC für Applikationen (1)
- WML (1)
- WSDL (1)
- Web Services (2)
- WebObjects 5 (1)
- Webanwendung (1)
- Winterthur (1)
- Wissensmanagement (1)
- World wide web (1)
- XML (6)
- XML-Anwendungsdeskriptor (1)
- XPath (1)
- XSL (1)
- XSL-FO (2)
- XSLT (2)
- Zeichenerkennung (1)
- Zürcher Kantonalbank (1)
- distance measurement (1)
- dual-ported RAM (1)
- facial expression recognition ; action unit recognition (1)
- integrierte Java Laufzeitumgebung (1)
- low-level feature extraction (1)
- mySAP Enterprise Portal (1)
- support vector machines (1)
Institute
- Fakultät Informatik (34) (remove)
Entwicklung eines Software-Systems für die Qualitätssicherung von Oberflächen im Automobilbau
(2003)
Heutzutage nimmt die Qualitätssicherung der Produkte bei immer mehr Betrieben einen zunehmend hohen Stellenwert ein. Auch in der Automobilindustrie gelten mittlerweile hohe Qualitätsrichtlinien. Damit der Qualitätsstandard aber auch gewährleistet werden kann, muss die Qualität des Produkts ständig gemessen und beurteilt werden. Um die manuelle Prüfung der Pressteile zu unterstützen wurde in den letzten Jahren bei VW/Audi do Brasil – BUC das Oberflächen-Inspektions-System DSight eingesetzt. Leider haben jedoch zahlreiche Messungen mit DSight ergeben, dass die Ergebnisse unzuverlässig und nicht reproduzierbar sind. Aus diesem Grund wurde im Rahmen dieser Diplomarbeit ein neues Software-System zur Inspektion von Oberflächen im Automobilbau entwickelt, das die Anforderungen der Qualitätssicherung besser erfüllt. Das neue System, das den Namen VisionMaster trägt, basiert auf dem Prinzip der Retro-Reflexion. Mit Hilfe implementierter Auswertungsalgorithmen werden aufgenommene Grauwertbilder der gepressten Teile analysiert. Die Ergebnisse der Inspektion werden anschließend in übersichtlicher Form in einem Protokoll ausgegeben. Um die Reproduzierbarkeit der Messungen zu garantieren und die Messergebnisse archivieren zu können, wird zusätzlich eine Datenbank eingesetzt, auf die über die ADO-Technologie zugegriffen wird. Zur Beschleunigung der Inspektion wir das neue System VisionMaster direkt in die Produktionshalle verlagert, um dort vor Ort Messungen an den gepressten Teilen durchführen zu können.
Mobile-Agenten erweitern die Möglichkeiten von verteilten Systemen dadurch, dass sie lauffähigen Code transportieren und diesen ausführen können. Sie können sich frei im Netzwerk bewegen, dort nach Informationen suchen und Aufgaben im Namen ihrer Auftraggeber ausführen. Viele Mobile-Agenten-Plattformen verwenden Java als Laufzeitumgebung, dadurch sind sie unabhängig vor dem darunter-liegenden Betriebssystem. Auf eine Unterstützung einer Anzeigegeräte-unabhängigen Benutzer-Agent-Interaktion wird aber meist nicht geachtet. Betrachtet man sich diese Anzeigegeräte mit den unterschiedlichen Eigenschaften in Display-Größe, Farbfähigkeit und Möglichkeiten für die Ein-und Ausgabe, besonders im Zusammenhang mit mobilen Geräten, z.B. Smartphpones und PDAs, ist es verständlich warum der Benutzer oft noch auf herkömmliche Geräte zur Interaktion angewiesen ist. Der Fokus dieser Diplomarbeit lag auf der Entwicklung eines Frameworks, das graphische Java-Benutzerschnittstellen in einem geräteunabhängigen XML-Format beschreibt und daraus ein geräteabhängiges Format erzeugt. Ein besonderes Augenmerk lag dabei in der einfachen Erweiterbarkeit des Frameworks, um zukünftige Ausgabeformate zu unterstützen, weswegen die Technik XSLT zum Einsatz kam. Nach dem Übermitteln der GUI-Daten werden über einen Rückkanal die Benutzerinteraktionen wieder dem Framewok zugeführt. Da die meisten mobilen Geräte einen Webbrowser integriert haben, eignen sich die Markup-Sprachen HTML oder WML besonders gut als Ausgabeformate für diese Geräte. Das Framework erlaubt darüberhinaus sowohl die lokale als auch die entfernte Interaktion mit den Software-Agenten. Sowohl für den Transport der GUI-Daten als auch für die Interaktion mit Agenten verwendet das Framework die Sicherheitsmechanismen der Agenten-Plattform SeMoA (Secure Mobile Agents). Das vorgestellte Framework lässt sich in SeMoA einfach integrieren und gestattet die individuelle Konfiguration der Interaktionsmethode mit einem Agenten.
Anbindung eines PPC405 embedded CPU Core an ein MPC860-System unter dem Echtzeitbetriebssystem OSE
(2006)
Die Diplomarbeit verfolgt das Ziel, die softwareseitige Anbindung eines PPC405-Systems an das Gesamtsystem einer digitalen Funkgeräteplattform herzustellen. Über eine konzipierte Implementierung, die nach dem Einschalten des Funkgeräts gestartet wird, erfolgt die Übertragung des Betriebssystems in den zugehörigen Arbeitsspeicher des PPC405-Systems. Nach Abschluss der Initialisierungsphase kommunizieren die Anwendungsprozesse auf den beteiligten Systemen über eine transparente Erweiterung des Betriebssystems mit der jeweiligen Gegenseite. Als Übertragungsmedium für die genannte Betriebssystemerweiterung wird ein zwischen den Systemen angesiedelter Speicher genutzt, für dessen koordinierte Zugriffe eine im Rahmen der Diplomarbeit entwickelte Treiberkomponente sorgt. Durch die Anbindung des PPC405-Systems wird eine Leistungssteigerung des Gesamtsystems erwartet. Auf der Basis von Messungen wurde die Performance des somit erhaltenen Multiprozessorsystems bestimmt. Aus den Ergebnissen wurden geeignete Möglichkeiten zur Optimierung erarbeitet und umgesetzt.
Webservices können ein fester Bestandteil von Integrationsbemühungen werden, um nicht nur innerhalb des Unternehmens Altlasten aufzuräumen, sondern mittlerweile auch zwischen den Partnern, Kunden und Lieferanten zu koordinieren. Sie können mit ihrer Schlichtheit und Implementierungseleganz bisherige Integrationstools wie CORBA, DCOM u.a. alt aussehen lassen. Ihre textbasierten Bestandteile SOAP, WSDL und UDDI arbeiten mit XML und HTTP, die das enorme Potenzial des Internet erst jetzt richtig zur Geltung bringen.
Die Anforderungen, die von Privatpersonen und Unternehmen an das Internet gestellt werden, sind im Laufe der letzten Jahre stark gewachsen. Längst dient das WWW nicht mehr nur für den Abruf von Informationen, sondern wird als universelle Plattform für Dienstleistungen aller Art verstanden. Im Zuge dieser Entwicklung hat es sich als neue Plattform für die Kommunikation zwischen Kunde und Anbieter etabliert und dient als Medium für die Ausführung komplexer Geschäftsprozesse. Für die Realisierung solcher Geschäftsprozesse werden Web-Anwendungen eingesetzt. Diese sind in ihrer Erstellung wesentlich aufwendiger, als eine Präsentation statischer Webseiten, und damit teurer und fehleranfälliger. Frameworks erlauben, durch die Standardisierung allgemeiner Vorgänge innerhalb von Web-Anwendungen, deren zeit- und damit kosteneffektivere Entwicklung. Zusätzlich kann, durch den Einsatz vorgefertigter Komponenten, der Grad der Wiederverwendung bereits gefundener Lösungen erhöht, und damit nochmals eine Zeitersparnis bei Entwurf und Erstellung einer Anwendung erreicht werden. Ein solches Framework namens "WACoF" wird an der FH Konstanz aktiv entwickelt, basierend auf den Forschungsergebnissen und unter der Leitung von Herrn Prof. Dr. Schmid. In diesem Zusammenhang sind bisher unter anderem Diplomarbeiten von Florian Falkenstein [Falk01] und Marc Nädele [Nädele02] angefertigt worden. Die Hauptaufgabe dieser Diplomarbeit bestand in der Abänderung des oben genanntes Frameworks, so dass sich damit Anwendungen nicht mehr in Programmcode, sondern über einen Anwendungsdeskriptor definieren lassen. Ein solcher Deskriptor enthält sämtliche Informationen, die den Aufbau der Anwendung aus Komponenten beschreiben. Um eine konkrete Anwendung zu erstellen, muss der Anwendungsentwickler lediglich diese Informationen, wie Customizing und die Verbindungen zwischen den Komponenten, in Form einer XML-Datei zur Verfügung stellen. Die Definition der Anwendung wird damit zum einen unabhängig von der konkreten Programmiersprache des Frameworks, zum anderen wird sie in einem einzigen Ort konzentriert und in einer klar definierten Form beschrieben, was ihre Bearbeitung durch entsprechende Tools - wie z.B. grafische Manipulation oder automatische Prüfung auf Korrektheit, und damit frühzeitige Erkennung von Fehlern - erheblich vereinfacht. Dazu war es zuerst notwendig, das Framework in Hinblick auf die Einführung des Deskriptors zu analysieren. Aufgrund dieser Analyse wurden allgemeine Bedingungen für den Zusammenbau von Komponenten aufgestellt, und anhand der bestehenden Anwendungskomponenten (siehe Diplomarbeit von Marc Nädele [Nädele02]) überprüft. Dann wurde das Framework um neue Elemente, wie eine Komponenten-Fabrik und einen Aktivitäts-Pool, erweitert und bestehende Elemente, wie die ComposedActivity und der Crosslink-Mechanismus, neu entworfen bzw. angepasst.
Wenn neue Tätigkeiten in der PVC-Abdichtlinie2 der Lackiererei bearbeitet werden müssen, ist es notwendig die gesamte Produktionslinie zu betrachten, um eine Aussage darüber machen zu können, an welchem Arbeitsplatz diese neuen Tätigkeiten bearbeitet werden können. Die Zuweisung von neuen Tätigkeiten an Arbeitsplätze wird Eintakten genannt. Ziel der Diplomarbeit war es, ein Konzept für die automatische Eintaktung von manuellen Tätigkeiten an der PVC-Abdichtlinie2 der Lackiererei zu erstellen. Anschließend sollte ein Programm entwickelt werden, womit eine automatische Eintaktung durchgeführt werden kann. Bei der Erstellung dieses Programms sollte darauf geachtet werden, dass das Programm leicht zu handhaben ist. Weiterhin sollte das Programm so gestaltet sein, dass es auch durch die ähnlich aufgebaute Abdichtlinie1 genutzt werden kann.
Die vorliegende Arbeit soll die Möglichkeiten von XML und den dazugehörigen Technologien bei der Entwicklung eines komplexen Softwaresystems und dem damit verbundenen Datenaustausch aufzeigen. Dafür soll die Leistungsfähigkeit und Eignung oder ggf. Nichteignung der XML-Technologie durch Entwurf, Aufbau und Test eines Prototyps, durch XML-konforme Ein- und Ausgabe sowie durch Daten- Aufbereitung und -auswertungen nachgewiesen werden. Daten unterschiedlicher Datenbestände werden ins XML-Format transformiert und in eine zentrale Datenbank gespeichert. Diese sollen mittels XML für alle Fremddatensysteme bereitgestellt sowie in HTML- und PDF-Formate transformiert werden.
Aufbau eines neuen Knowledge Networks für den Bereich "Human Resources" der Winterthur Versicherung
(2003)
Die seit Mitte des letzten Jahrhunderts geprägte Industriegesellschaft erfährt eine neue Wende. Das Zeitalter der Informations- und Wissensgesellschaft drängt sich aufgrund der Informationstechnologie (IT) in den Vordergrund. "Die Wissensgesellschaft ist keine ferne Vision. Sie ist längst Realität. Wir müssen sie nicht erfinden, sondern erfinderisch mit ihren Chancen umgehen". Im Gegensatz zur bisherigen Gesellschaft, in der die Produktion von Objekten zu möglichst geringen Kosten im Mittelpunkt stand, orientiert sich diese neue Gesellschaft mehr an der Entwicklung von neuen Ideen und neuem Wissen zur Produktion und Weiterentwicklung von Objekten. Auch die Organisationsform in Unternehmen erfuhr einen Wandel: von funktionalen zu prozessorientierten Organisationsformen. Diese prozessorientierte Organisation ist lernfähiger, da Barrieren, Abeilungsgrenzen und Hierarchieebenen leichter überwindbar geworden sind. In diesem Zusammenhang liegt die Wertschöpfung von Unternehmen darin, dass die Mitarbeiter der Unternehmung mit Geschick, Originalität und Schnelligkeit neue Probleme identifizieren, kreativ lösen und überzeugend kommunizieren. Zum wettbewerbsentscheidenden Faktor wird das Wissen, welches sich in verschiedensten Formen innerhalb des Unternehmens befindet. Dieses zu offenbaren und zu gebrauchen ist u.a. das Ziel des Knowledge Managements. Wie bei jeder Organisation empfiehlt es sich auch beim Knowledge Management, in zusammenhängenden Prozessen zu denken. Dazu müssen Unternehmen Knowledge Management als einen gestaltbaren Prozess verstehen, der sich auf alle internen Prozesse auswirkt.
Die Integration eines Systems für den Support von Softwareprodukten in ein bestehendes Unternehmensumfeld ist der Schwerpunkt dieser Arbeit. Im ersten Teil dieser Arbeit wird anhand eines theoretischen Prozessmodells das Vorgehen zur stufenweisen Realisierung eines Softwareprojektes beschrieben. Des Weiteren werden den Support unterstützende Managementprozesse und Werkzeuge vorgestellt und ein theoretischer Ansatz für deren Umsetzung im Unternehmen erarbeitet. Der zweite Teil dieser Arbeit beschreibt die einzelnen Prozessphasen der Projektrealisierung. Im Anschluss daran wird das fertige System mit seinen Hauptinhalten erläutert.
Zur Verringerung der Kosten und des Aufwands zur Installation, Update und Wartung von Workstations in einem industriellen Umfeld, sollte ein System zur zentralen, hardwareunabhängigen und vollautomatischen Installation dieser Workstations eingeführt werden. Hierzu mussten zuerst einmal die Möglichkeiten für eine vollautomatische Installation der verschiedenen Betriebssysteme und Anwendungen betrachtet werden. Nach dem Aufbau der Hardware folgte daraufhin die Installation des Deployment Systems der Firma OnTechnology (OnCommand). Im Anschluss daran wurden die Skripte für die Betriebssystem- und Anwendungsinstallation erstellt. Diese Skripte wurden anschließend zur besseren Handhabung zu Profilen zusammengefasst. Im nächsten Schritt wurden bestehende Clients in das System integriert. Daraufhin wurde das Sicherheitskonzept des Systems betrachtet, mit dem die Möglichkeit besteht bestimmten Benutzern nur bestimmte Rechte zu vergeben. In weiteren Teilen der Diplomarbeit werden die bisherigen Probleme bei der Firma und das erhoffte Ziel, die Möglichkeiten des Systems, sowie die Probleme bei der Umsetzung beziehungsweise des Systems, dargestellt und im Fazit zusammengefasst.
Gegenstand dieser Arbeit ist ein Tool, das das Monitoring von Tabellen über mehrere SAP R/3-Systeme hinweg ermöglichen soll. Es wird in einer J2EE Umgebung implementiert und in ein Community Portal eingebettet. Das Tool soll dabei periodisch, innerhalb von vorgebbaren Zeitabständen automatisch starten. Für diese Aufgabe gibt es ein R/3-Programm, das abgelöst werden soll und dessen Funktionsumfang Grundlage der Neuentwicklung ist. Es müssen drei Tabellen aus den R/3- Systemen gelesen werden: die Tabelle, welche die Loginzeiten der Benutzer je System und Mandant beinhaltet, die Tabellen mit den Systemmeldungen und die mit den Transporten. Die Tabellen werden im neuen Tool über den RFC (Remote Funktion Call) Funktionbaustein RFC_READ_TABLE aus den R/3-Systemen gelesen. Diese Daten werden dann in einer externen Datenbank gespeichert. Um über ein Portal auf die Daten zugreifen zu können, wird eine entsprechende Schnittstelle entwickelt. Die gewünschten Tabellen und Einschränkungen werden über eine Konfigurationsdatei definiert. Somit ist es möglich, nicht nur die drei genannten Tabellen aus den R/3-Systemen zu lesen. Es werden für alle Systeme und deren Mandanten auftretende Fehler dokumentiert, um dem Administrator des Monitors die Möglichkeit zu geben, einfach herauszufinden, warum bestimmte Systeme eventuell nicht ausgelesen werden konnten.. Eine Fehlermeldung aus dem Portal kann, im internen R/3-Fehlermeldungssystem, für das entsprechende System angelegt werden. Zudem wird bei jedem Durchlauf die Anzahl der gelesenen Datensätze je System und Tabelle für mögliche Auswertungen dokumentiert. Abschliessend werden Erweiterungen beschrieben, welche in möglichen weiteren Versionen umgesetzt werden könnten. Dazu müssen allerdings noch eingehendere Vor- und Nachteils Betrachtungen angestellt werden.
Die Zielsetzung dieser Arbeit ist die Entwicklung der Serverdienste einer Client/Server-Software für die computergestützte Telefonie am Arbeitsplatz. Die Software ermöglicht die Steuerung und Statusüberwachung von Telefonapparaten mit dem Ziel, die Benutzung ergonomischer zu gestalten und das zugrunde liegende Telekommunikationssystem stärker in die Informationstechnik zu integrieren. Die Software soll mit der Telekommunikationsanlage Meridian I von Nortel zusammenarbeiten, um die Manipulation der angeschlossenen Telefonapparate zu ermöglichen. Beim Softwareentwurf ist für die Zukunft die Unterstützung weiterer Telekommunikationsanlagen zu berücksichtigen. Zudem soll ein API definiert werden, welches die Implementierung eines Clients in Form eines HTTP-Dienstes für die Nutzung über einen Web-Browser ermöglicht. Ebenso soll der Weg für eine in Zukunft zu entwickelnde dedizierte Client-Software bereitet werden. Für die Umsetzung der Projektziele wurde ein komponentenorientiertes Middleware-Konzept auf Basis des Java Telephony Application Programming Interface (JTAPI) verwirklicht. Dafür wurde eine JTAPI-konforme Provider-Implementierung realisiert, die das zugehörige Zustands- und Objektmodell umsetzt. Für die Kommunikation mit der Telekommunikationsanlage wurde eine Treiberkomponente entwickelt, die das proprietäre Protokoll des CTI-Links implementiert. Schließlich wurde ein einheitliches, RMI-basiertes API spezifiziert, das für die Entwicklung der Client-Software in Form eines HTTP-Dienstes oder einer selbständigen, fensterbasierten Anwendung eingesetzt werden kann. Die komponentenorientierte Gesamtarchitektur ermöglicht darüber hinaus die Entwicklung weiterführender CTI-Dienste.
Logopädische Lernsoftware
(2003)
In den letzen Jahren konnte ein wachsendes Interesse an Lernsoftware im logopä-dischen Einsatzbereich verzeichnet werden. Dieses Interesse zeigte sich nicht nur auf Seite der logopädischen Fachpraxen sondern auch in den Grundschulen. Auf Grund dessen ist die Lernsoftware auf dem besten Wege, sich neben den traditionellen Lern- und Übungsmaterialien am Markt zu etablieren. Auf Grund der Vielfalt an Sprachstörungen wird ein System benötigt, das indivi-duell, je nach Bedürfnis des Klienten, konfiguriert werden kann. Die vorliegende Arbeit beschäftigt sich mit dem Entwurf und der Weiterentwick-lung der logopädischen Lernsoftware Detektiv Langohr, damit dieses Produkt den Anforderungen und Wünschen des Klientel so gerecht wie möglich wird. Auf Basis einer durchgeführten Marktanalyse wurden konkrete Anforderungen an ein solches System spezifiziert und im Anschluss in ein Projekt umgesetzt. Um dem Leser einen besseren Einblick in die Welt der Logopädie verschaffen zu können, wurde eine allgemeine Einführung in die Sprachtherapie dem Analyse- und Um-setzungsteil vorangestellt.
This thesis deals with background, theory, design, layout and experimental test results of an analogue CMOS VLSI current-mode analog-to-digital converter. This system supports a project, whose goal it is to build a biologically relevant model of synaptic plasticity, named the Artificial Synapse. A critical part of the design, which is based on analogue CMOS VLSI circuits, is the ability to activate a discrete number of channels by sampling an analogue signal. Since currents are the signal of interest and transistors are biased in weak inversion (subthreshold regime), the system requires a current mode A/D circuit that it can operate at ultra-low power and current levels. To meet this need, two new innovative A/D converter approaches are proposed to replace the system’s previous A/D converter design which suffered from a non-linear resolution, uncoded output code and heavy bit oscillations. The initial technical requirements and key criteria for the new converter comprise a resolution of one nano ampere, an input current range between 0 – 100nA, conversion frequencies of up to 5kHz, and a power supply voltage of less than 1.5V. Temperature range, space occupation and power dissipation aspects were not specified due to the early stage of the related Artificial Synapse project. The novel converters both produce seven bit thermometer codes, their functional principle can be best described as current mode flash analog-to-digital converters (ADCs). Due to the fact that the input signal is in the area of a subthreshold current, it is selfevident that the A/D converter design should operate at a subthreshold realm. To support low power operation, clocks or high currents could not be used and were excluded from the design from the very start. To encode the thermometer code into standard binary code, a seven-to-three encoder was designed and integrated on the chip. In October 2003, the design was submitted for production to the MOSIS circuit fabrication service. The AMI Semiconductor 1.5 micron ABN CMOS process was chosen to manufacture the chip. When it was returned in January 2004, simulation results showed that both new A/D converter approaches accomplished excellent results which were expected from SPICE simulation results. With the new chip installed, it became possible to resolve input currents as small as one nano ampere and achieve conversion frequencies of up to 5kHz. The circuits also both meet the requirements which were set at the beginning of the project to operate at a power supply voltage of less than 1.5V, processing input currents in the range between 0 – 100nA. A prototype printed circuit board (PCB) was developed, produced and employed for experiments with the chip. The major application of this test-bed is the ability to generate and measure extremely low currents with high precision. This enables the monitoring of the very small currents that are processed by the chip.
Die vorliegende Arbeit beschreibt die Entwicklung und Implementierung eines plattformunabhängigen Facility Management Systems für das Testlabor der Firma Nortel Networks Germany. Ein Facility Management System dient der rechnergestützten Dokumentation und Verwaltung von Netzwerken wie Telekommunikations-, Daten- und Überwachungsnetzen, sowie deren Geräten. Dieses System stellt ein Individualprojekt dar und wurde spezifisch für Switches (Vermittlungsstellen) vom Typ DMS-100F entwickelt, um dem Benutzer die Möglichkeit zu bieten, über eine Applikation auf der Client-Seite die Konfigurationsdaten des jeweiligen Switches in einer zentralen Datenbank zu sichern, zu modifizieren und auszudrucken. Bis zu diesem Zeitpunkt existierte weder ein Tool, das diese Aufgabe erfüllte, noch jegliche andere Art der Dokumentation.
Die Arbeit befasst sich mit dem J2EE Framework Jakarta Struts. Hauptziel ist es, den Einsatz von Struts in der ZKB zu prüfen. Es soll festgestellt werden, ob Struts in Zukunft für die Entwicklung grösserer Web-Applikationen in der ZKB eingesetzt werden kann. Dazu wird eine bereits existierende ASP Web-Applikation zuerst zu einer JSP-Applikation (Model 1) und anschliessend zu einer Struts-Applikation (Model 2) portiert. Danach werden die beiden Versionen bzgl. Entwicklungsaufwand, Funktionsumfang, Performance und Wartbarkeit miteinander verglichen. Darüber hinaus werden Fähigkeiten des Struts Frameworks beleuchtet, die Architektur des Frameworks beschrieben und überprüft, inwiefern das Framework den Entwickler entlasten kann. Entwickler ohne Erfahrung mit Struts finden hier ausserdem eine verständliche Einführung an einem überschaubaren Beispiel. Nach der Einleitung in Kapitel 1 werden im zweiten Kapitel die Struts zu Grunde liegenden Technologien der Java 2 Plattform Enterprise Edition (J2EE) von Sun beschrieben. Im dritten Kapitel wird detailliert auf Struts eingegangen. Um dem Leser den Einstieg in Struts zu erleichtern, wird vor der Beschreibung der Struts Komponenten die Architektur und der Programmablauf erläutert. Eine Anleitung zum Erstellen einer kleinen Struts Applikation erklärt Struts an einem praktischen Beispiel. Vergleichbare Frameworks werden am Ende des Kapitels vorgestellt. Im vierten Kapitel erläutere ich die Entwicklung der von mir mit Struts erstellten Web-Applikation. Die beiden letzten Kapitel enthalten die Erkenntnisse aus meiner Arbeit mit Struts und versuchen eine Entscheidungsgrundlage für oder gegen den Einsatz des Frameworks zu liefern.
Zentrales Thema dieser Diplomarbeit ist die plattform- und anwendungsübergreifende elektronische Archivierung von Daten und Dokumenten unterschiedlichster Herkunft. Hierzu zählen neben der Einarbeitung in die Thematik, die Aufnahme und Strukturierung der Archivierungsanforderungen innerhalb des Unternehmens, sowie die darauf folgende Auswahl eines geeigneten Anbieters. Die angestrebte Archivierungslösung muss einerseits in der Lage sein sich in vorhandene Systeme zu integrieren (SAP R/3, Lotus Notes), andererseits wird ein applikationsunabhängiger Zugriff auf Daten und Dokumente erwartet. Zudem muss die Archivierungslösung die vorhandenen gesetzlichen Anforderungen erfüllen.
Tauchsimulation
(2003)
Im 1.Kapitel werden die historischen Aspekte des Tauchens und der Tauchphysik beschrieben. Anhand von physikalischen Gesetzen, mathematischen Formeln und empirisch ermittelten Werten werden im 2. Kapitel die nötigen Grundlagen für das Verständnis zur Berechnung eines Tauchgangs vermittelt. Das 3.Kapitel behandelt verschiedene auf dem Markt befindliche Tauchsimulationen, zeigt deren Funktionsumfang sowie deren Vor- und Nachteile. Die erstellte Tauchsimulation wird im 4. Kapitel vorgestellt. Dabei wird auch auf verschiedene Simulationsläufe eingegangen. Zum Abschluß wird ein Ausblick auf aktuelle Entwicklungstendenzen gegeben.
Interpretability and uncertainty modeling are important key factors for medical applications. Moreover, data in medicine are often available as a combination of unstructured data like images and structured predictors like patient’s metadata. While deep learning models are state-of-the-art for image classification, the models are often referred to as ’black-box’, caused by the lack of interpretability. Moreover, DL models are often yielding point predictions and are too confident about the parameter estimation and outcome predictions.
On the other side with statistical regression models, it is possible to obtain interpretable predictor effects and capture parameter and model uncertainty based on the Bayesian approach. In this thesis, a publicly available melanoma dataset, consisting of skin lesions and patient’s age, is used to predict the melanoma types by using a semi-structured model, while interpretable components and model uncertainty is quantified. For Bayesian models, transformation model-based variational inference (TM-VI) method is used to determine the posterior distribution of the parameter. Several model constellations consisting of patient’s age and/or skin lesion were implemented and evaluated. Predictive performance was shown to be best by using a combined model of image and patient’s age, while providing the interpretable posterior distribution of the regression coefficient is possible. In addition, integrating uncertainty in image and tabular parts results in larger variability of the outputs corresponding to high uncertainty of the single model components.
Die zunehmende Internationalisierung der Märkte, das wachsende, immer differenziertere Produktangebot und die hohe technische Innovationsgeschwindigkeit führen zu immer härteren Wettbewerbsbedingungen auf dem Markt. Diese Situation zwingt die Unternehmen nicht nur zu kontinuierlichen Anstrengungen, um ihre Produktivität und Qualität zu steigern, sondern es stehen auch immer geringere Mittel für die Realisierung von Produktions- und/oder Messeinheiten innerhalb des Produktionsprozesses zur Verfügung. Als Folge dessen werden Entwickler mit folgenden Grundforderungen konfrontiert: · Abstimmung der Architektur auf vorhandene und/oder gängige Infrastrukturen · Reduzierung des Entwicklungsaufwandes durch Modularisierung des Systemaufbaues · Reduzierung der Wartungs- und Administrationskosten durch einfache Handhabbarkeit · Maximierung der Betriebssicherheit und Minimierung der Ausfallzeiten · Einfache Erweiterbarkeit · Hohe Wiederverwendbarkeit Ein Resümee von Softwareprojekten über die letzten Jahre zeigt, dass sich der Rahmen für Softwareentwicklung insgesamt geändert hat. Softwareprojekte sind heute mehrschichtige, verteilte (ggf. auch komponentenbasierte) Anwendungen mit gestiegenen Anforderungen an Funktionalität, Qualität und Flexibilität. Leider beinhalten die Architekturen und Konzepte der ‚Verteilten Systeme' Schwächen, diese für verteilte Mess- und Steuerungssysteme direkt umzusetzen. Ziel dieser Arbeit ist es, die Schwächen vorhandener Konzepte aufzuzeigen und eine Architektur vorzustellen, die den Entwickler unterstützt, verteilte Mess- und Steuerungssysteme bis hin zu Prozessleitsystemen unter dem Betriebssystem Windows zu entwickeln.