Refine
Year of publication
- 2004 (23) (remove)
Document Type
Has Fulltext
- yes (23)
Keywords
- ADO.NET (1)
- Abflussmenge (1)
- Abflussregime (1)
- Abflussrohr (1)
- Abwasserableitung (1)
- Abwasserkanal (1)
- Analog-Digital-Umsetzer (1)
- Analog-to-digital-Converter ; Spice Simulation ; Analog integrated circuit design ; (1)
- Arbeitsplatzcomputer (1)
- Arbitration (1)
- Arbitrierung (1)
- Ausstellung (1)
- Bauelement (1)
- Baugeschichte (1)
- Baukonstruktion (1)
- Bauphysik (1)
- Berlin (1)
- Betriebssystem (1)
- Brandschutz (1)
- Brandschutztür (1)
- C sharp (1)
- DMA <Direct Memory Access> (1)
- DMA <direkter Speicherzugriff> (1)
- DTD (1)
- Denkmalschutz (1)
- Display (1)
- Echtzeitsimulation (1)
- Fh-Konstanz (1)
- Field programmable gate array (1)
- Forschung (2)
- Framework <Informatik> (1)
- Friedrich August (1)
- Gedruckte Schaltung (1)
- Griffigkeit (1)
- Historical Monuments (1)
- HydrOstyx-Abflussbremse (1)
- I3M (1)
- Installation (1)
- Khepera (1)
- Konstanz / Hochschule Konstanz Technik (1)
- Konstanz / Hochschule Technik (1)
- Künstliche Intelligenz (1)
- Leittechnik (1)
- Memory-Effekt (1)
- Memory-Legierung (1)
- Mensch-Maschine-Schnittstelle (1)
- Mikrocontroller (1)
- Monumental Protection (1)
- Museum (1)
- Museumsbau (1)
- Neuronales Netz (1)
- OnTechnology ; CCM ; OnCommand ; Deployment Werkzeuge ; unattended Setup (1)
- Personalcomputer (1)
- Prüfgerät (1)
- Regenwasser / Abfluss (1)
- Reifen (1)
- Roboter (1)
- SAX <Programmierumgebung> (1)
- SPICE <Programm> (1)
- Sch (1)
- Schinkel (1)
- Schutz <Elektrotechnik> (1)
- Selbstorganisierende Karte (1)
- Stationsleittechnik (1)
- Steuerung (1)
- Stüler (1)
- Tragkonstruktion (1)
- Transceiver (1)
- Transistortechnologie (1)
- Update (1)
- Verkehrsfläche (1)
- Web Services (1)
- Wirtschaft und Gestaltung (2)
- XML (1)
- XPath (1)
- XSL (1)
- XSL-FO (1)
- XSLT (1)
- berlin (1)
- chat system (1)
- istant messaging system (1)
BMBF-Programm "Anwendungsorientierte Forschung und Entwicklung an Fachhochschulen Schlussbericht FKZ 17086 00 Ausgangssituation Bei der Entwässerung von Siedlungsgebieten sind teure Maßnahmen zum Schutz der Siedlungen und der Gewässer vor Hochwasser und Schmutzstoffen erforderlich. Mit den Zielsetzungen „Kosteneinsparung“ und “Verbesserung des Gewässerschutzes“ hat der Beratende Ingenieur Dipl.-Ing.(FH) Harald Güthler (1996) aus Waldshut-Tiengen das Verfahren des „HydrOstyx“ gebremsten Abflusses entwickelt und im Dezember 1995 zum Patent angemeldet. Die im Rahmen des Verfahrens benutzte neue technische Einrichtung ist die HydrOstyx-Abflussbremse. Bei der HydrOstyx-Abflussbremse handelt es sich um eine technische Einrichtung, die wegen ihrer Einfachheit ein preiswertes Drosselorgan im Abwasserkanal darstellt, das ohne Fremdenergie weitgehend wartungsfrei und betriebssicher funktioniert. Die HydrOstyx-Abflussbremse kann sowohl in bestehende als auch in neue Abwasserkanäle eingebaut werden. Ziele Mit der Hydrostyx-Abflußbremse können u. a. folgende Ziele erreicht werden: Reduzierung von Neubaumaßnahmen durch Aktivierung bisher ungenutzter Speicher. Da im Sinne der Richtlinien für die Bemessung und Gestaltung von Regenentlastungsanlagen in Mischwasserkanälen nach ATV-Arbeitsblatt A 128 die Anrechenbarkeit solcher Speicherräume zulässig ist, kann bei geschickter Nutzung der aktivierten Retentionsvolumen eine Redimensionierung der bisher geplanten Regenbecken erfolgen. Beseitigung von Konfliktpunkten im Kanalnetz. Durch Aktivierung von Retentionsvolumen lassen sich Abflussspitzen reduzieren. Überlastete Kanäle können nun die abflussverzögerte Wassermenge transportieren, der Austausch bzw. Neubau von Kanälen kann entfallen. Minderung von Überflutungshäufig und Belastungen von Flüssen und Bächen aus Regenwasserentlastungen. Der Einstau des Wassers im Kanal führt zu einer Retentionswirkung, dadurch werden die Abflussspitzen bei Regenwasserentlastungen in die Vorfluter häufig wesentlich reduziert. Die führt zu Verbesserungen beim Hochwasserschutz und bei der Gewässerökologie. Optimierung des Wirkungsgrades von Kläranlagen durch verbesserte Ausschöpfung der zulässigen Beaufschlagung. Kläranlagen sind durch den diskontinuierlichen Zufluss von Schmutz- bzw. Mischwasser Schwankungen im Betriebsablauf unterzogen, die durch entsprechende Reserven in den Becken ausgeglichen werden können. Durch die Aktivierung von Retentionsraum lassen sich Stoßbelastungen reduzieren und bei Regenwetter kann ein größerer Teil des verschmutzten Wasser als bisher auf der Kläranlage gereinigt werden. Im Rahmen des BMBF-Forschungsprojekts wurden folgende Teilaufgaben bearbeitet: Hydraulische Untersuchung der Hydrostyx-Abflussbremse im Wasserbaulabor der HTWG Konstanz. Ziel war die Ermittlung der Schachtverluste, der Überfall- und Durchflussbeiwerte für die HydrOstyx-Abflussbremse. Auswertung und Beurteilung der Abfluss- und Schmutzfrachtmessungen an den Regenüberläufen Hoppetenzell und Zizenhausen/Stampfwiese vor und nach dem Einbau von 4 HydrOstyx-Abflussbremsen. Durchführung von Schmutzfrachtberechnungen mittels Langzeitsimulation mit dem Simulationsmodell KOSIM XL vom Institut für technisch-wissenschaftliche Hydrologie in Hannover. Die Simulationsberechnungen erfolgen mit und ohne Hydrostyx-Abflussbremsen für die Einzugsgebiete der beiden Regenüberläufe. Mit Hilfe der hydraulischen Untersuchungen im Wasserbaulabor und durch die Auswertung der Naturmessungen sollten die hydraulischen und hydrologischen Bemessungsgrundlagen für die Neuentwicklung erarbeitet werden. Die Untersuchungsergebnisse liefern auch wichtige Grundlagen für die wasserwirtschaftliche Beurteilung des neuen Verfahrens. Verwertung der Ergebnisse Das Projekt hat insgesamt gezeigt, dass mit Hilfe von HydrOstyx-Abflussbremsen erhebliche Einsparpotentiale sowohl bei der hydraulischen Sanierung als auch bei der Regenwasserbehandlung in Mischwasserkanalisationen möglich sind. Die Ergebnisse dieses Projekts tragen sicher dazu bei, dass beim weiteren Ausbau der Regenwasserbehandlung und bei der Sanierung von Mischwasserkanalisationen verstärkt nach kostengünstigen Alternativen gesucht wird. Hierzu kann das Verfahren des HydrOstyx gebremsten Abflusses einen wesentlichen Beitrag leisten.
Selbstorganisierende Karten sind neuronale Netze, die imstande sind, Daten zu klassifizieren und zu reduzieren. Aus diesem Grund eignen sie sich sehr gut fuer die Steuerung von Robotern, da sie deren Sensoreingangswerte klassifizieren und daraus auf eine Reaktion schließen koennen. Die Architektur und Funktionsweise dieser neuronalen Netze sind der des menschlichen Kortex kuenstlich nachgebildet. Im Rahmen dieser Diplomarbeit wurde ein Java-Framework namens JFSOM implementiert, welches nach dem System einer selbstorganisierenden Karte Datenmengen klassifizieren kann. Das Framework ist so entworfen, dass sowohl Eingabedaten als auch Ausgabedaten trainiert werden koennen, um es auch als sensormotorische Karte nutzbarzu machen. JFSOM wurde verwendet, um den Miniaturroboter Khepera nach bestimmten Verhaltensweisen zu steuern. Als Verhaltensweisen wurden eine Hindernisvermeidung, eine Wandverfolgung, eine Korridorverfolgung und eine Objektverfolgung realisiert. Die Wandverfolgung laesst den Roboter aus jedem beliebigen azyklischen Labyrinth herausfinden.
Vor der Folie der Governanceethik beantwortet dieser Text die Frage nach dem Wesen moralischer Anreize und Güter und den Gründen ihrer Befolgung bzw. Nicht-Befolgung. Dies führt zu dem für die wirtschafts- und unternehmensethische Diskussion strategischen Begriff des umfassenden Anreizmanagements, das die Kopplung zwischen den Funktionssystemen Moral und Ökonomie ermöglicht. Der Artikel kommt zu dem Schluss, dass werteorientiertes Handeln und Verhalten von einer entsprechenden Governancestruktur abhängig ist und die systematische Implementierung kodifizierter Wertemanagementsysteme die Grundlage für die Justierung von Wertschätzung in ökonomischen Transaktionen bildet.
Im diesem Beitrag geht es darum zu zeigen, dass die spezifisch ethische Dimension der Go-vernanceethik als kohärentistische Ethikauffassung gedeutet - und begründungstheoretisch unterfüttert - werden kann. Mein Blick richtet sich also vor allem auf die Frage, wie ethisches Nachdenken kohärentistisch konzeptualisiert werden kann und, im zweiten Schritt, in welchem Sinne es m.E. eine strukturelle Parallele bzw. Anschlussfähigkeit von Kohärentismus und Governanceethik gibt. Es geht also im Folgenden weder darum, die Governanceethik als bereichsspezifische wirtschafts- und unternehmensethische Theorie zu untersuchen noch darum, bestimmte Referenzpunkte des Wielandschen Governanceethik-Modells1 wie z.B. ihre systemtheoretischen Prämissen zu diskutieren. Beginnen werde ich mit einer Bestimmung ethischen Nachdenkens als einer Orientierungsreflexion, die nicht letzte Prinzipien begründen, sondern vernünftige Selbstorientierung moralischer Akteure ermöglichen soll. Vor diesem Hintergrund wird das Theoriemodell des ethischen Kohärentismus entfaltet, um abschließend zu zeigen, dass dieses wesentliche Prämissen hinsichtlich der Auffassung über die Funktion ethischen Nachdenkens mit der Governanceethik teilt.
Towards an integrated theory of economic governance – Conclusions from the governance of ethics
(2004)
Identität versus Interessen
(2004)
Organisation und Sprache
(2004)
Governance und Simultanität
(2004)
Das Forschungsprojekt betrifft ein Verfahren und eine Vorrichtung zur Ermittlung der Griffigkeit von Verkehrsoberflächen mittels Daten, die von einem Satelliten-Navigations-System in Verbindung mit Kfz-typischen Daten während eines Bremsvorganges erhalten werden. Die Bewegungsdaten des Fahrzeuges werden aus relativ genauen Navigationsinformationen in sehr kurzen Zeitintervallen per Funkübertragung oder direkt im Fahrzeug auf einem Datenträger abgelegt. Hieraus werden die ortsbezogenen Bremsverzögerungen ermittelt und ggf. mit denjenigen eines mitgeführten Beschleunigungsmeßgerätes verglichen. Aus den Bremsverzögerungen werden in Verbindung mit den Kfz-Kennwerten und der Straßengeometrie die jeweils ausnutzbaren Kraftschlussbeiwerte (sog. Reibwertmaxima) bzw. die örtliche Griffigkeit der Verkehrsoberfläche ermittelt.
Zur Verringerung der Kosten und des Aufwands zur Installation, Update und Wartung von Workstations in einem industriellen Umfeld, sollte ein System zur zentralen, hardwareunabhängigen und vollautomatischen Installation dieser Workstations eingeführt werden. Hierzu mussten zuerst einmal die Möglichkeiten für eine vollautomatische Installation der verschiedenen Betriebssysteme und Anwendungen betrachtet werden. Nach dem Aufbau der Hardware folgte daraufhin die Installation des Deployment Systems der Firma OnTechnology (OnCommand). Im Anschluss daran wurden die Skripte für die Betriebssystem- und Anwendungsinstallation erstellt. Diese Skripte wurden anschließend zur besseren Handhabung zu Profilen zusammengefasst. Im nächsten Schritt wurden bestehende Clients in das System integriert. Daraufhin wurde das Sicherheitskonzept des Systems betrachtet, mit dem die Möglichkeit besteht bestimmten Benutzern nur bestimmte Rechte zu vergeben. In weiteren Teilen der Diplomarbeit werden die bisherigen Probleme bei der Firma und das erhoffte Ziel, die Möglichkeiten des Systems, sowie die Probleme bei der Umsetzung beziehungsweise des Systems, dargestellt und im Fazit zusammengefasst.
Das Gesamtprojekt umfasst die Entwicklung eines modularen Sende-Empfängers (Transceiver) bestehend aus Hard- und Software. Der Transceiver stellt eine Experimentalplattform dar, mit der nicht nur die üblichen Funktionen eines Sende-Empfängers genutzt werden können. Es bestehen vielfältige Experimentier- und Entwicklungsmöglichkeiten in den Bereichen der digitalen Signalverarbeitung, der Softwareentwicklung für Mikrokontroller und Personal Computer sowie der Übertragungstechnik. Im Rahmen dieser Diplomarbeit wurde das zentrale Steuermodul des Sende-Empfängers, die sog. Command Unit entwickelt. Sie beinhaltet die logischen Gruppen des MMI (Mensch-Maschine-Schnittstelle) und einer Host-PC-Schnittstelle mit DMA-Kontroller. Die Arbeit beinhaltet die Entwicklung der Hardware ebenso wie die Entwicklung von Firmware zum Testen der Schaltung.
This thesis deals with background, theory, design, layout and experimental test results of an analogue CMOS VLSI current-mode analog-to-digital converter. This system supports a project, whose goal it is to build a biologically relevant model of synaptic plasticity, named the Artificial Synapse. A critical part of the design, which is based on analogue CMOS VLSI circuits, is the ability to activate a discrete number of channels by sampling an analogue signal. Since currents are the signal of interest and transistors are biased in weak inversion (subthreshold regime), the system requires a current mode A/D circuit that it can operate at ultra-low power and current levels. To meet this need, two new innovative A/D converter approaches are proposed to replace the system’s previous A/D converter design which suffered from a non-linear resolution, uncoded output code and heavy bit oscillations. The initial technical requirements and key criteria for the new converter comprise a resolution of one nano ampere, an input current range between 0 – 100nA, conversion frequencies of up to 5kHz, and a power supply voltage of less than 1.5V. Temperature range, space occupation and power dissipation aspects were not specified due to the early stage of the related Artificial Synapse project. The novel converters both produce seven bit thermometer codes, their functional principle can be best described as current mode flash analog-to-digital converters (ADCs). Due to the fact that the input signal is in the area of a subthreshold current, it is selfevident that the A/D converter design should operate at a subthreshold realm. To support low power operation, clocks or high currents could not be used and were excluded from the design from the very start. To encode the thermometer code into standard binary code, a seven-to-three encoder was designed and integrated on the chip. In October 2003, the design was submitted for production to the MOSIS circuit fabrication service. The AMI Semiconductor 1.5 micron ABN CMOS process was chosen to manufacture the chip. When it was returned in January 2004, simulation results showed that both new A/D converter approaches accomplished excellent results which were expected from SPICE simulation results. With the new chip installed, it became possible to resolve input currents as small as one nano ampere and achieve conversion frequencies of up to 5kHz. The circuits also both meet the requirements which were set at the beginning of the project to operate at a power supply voltage of less than 1.5V, processing input currents in the range between 0 – 100nA. A prototype printed circuit board (PCB) was developed, produced and employed for experiments with the chip. The major application of this test-bed is the ability to generate and measure extremely low currents with high precision. This enables the monitoring of the very small currents that are processed by the chip.
Die vorliegende Arbeit soll die Möglichkeiten von XML und den dazugehörigen Technologien bei der Entwicklung eines komplexen Softwaresystems und dem damit verbundenen Datenaustausch aufzeigen. Dafür soll die Leistungsfähigkeit und Eignung oder ggf. Nichteignung der XML-Technologie durch Entwurf, Aufbau und Test eines Prototyps, durch XML-konforme Ein- und Ausgabe sowie durch Daten- Aufbereitung und -auswertungen nachgewiesen werden. Daten unterschiedlicher Datenbestände werden ins XML-Format transformiert und in eine zentrale Datenbank gespeichert. Diese sollen mittels XML für alle Fremddatensysteme bereitgestellt sowie in HTML- und PDF-Formate transformiert werden.
Es handelt sich um eine Arbeit im Rahmen des BMBF-Programm "Anwendungsorientierte Forschung und Entwicklung an Fachhochschulen". Schutz und Steuerung spielen eine entscheidende Rolle bei der Automatisierung in der elektrischen Energieversorgung. Moderne Geräte sind Mikrorechnergesteuert, und ihre korrekte Funktion wird bestimmt durch das Zusammenwirken ihrer Hardware und Software mit der Hochspannungsanlage. Zudem ist die Software für den individuellen Einsatz parametriert. Untersuchungen mit realen Schutz- und Steuerungseinrichtungen an realen Anlagen sind aufwendig und riskant. Gewonnene Betriebserfahrungen kommen häufig erst nach einem Schadensereignis. Dagegen ermöglichen Simulationen breit abgestützte Untersuchungen realer Betriebs- und Fehlerfälle im Voraus. Sie unterstützen damit nicht nur kurze Entwicklungs-, Projektierungs- und Inbetriebnahmezeiten, sondern tragen auch zur sicheren, zuverlässigen und kostengünstigen Stromversorgung bei. Simulationen sind aus unterschiedlichen Blickwinkeln sinnvoll: • Planung und Projektierung von Hochspannungsanlagen mit den zugehörigen Schutz- und Leitsystemen • Ereignisgenaue und präzise Analyse von Störungen, z.B. nach einem Leitungsausfall oder einem Blackout • Entwicklung von Schutz- und Steuergeräten und -systemen einschließlich Hardware, Software und Firmware • Ausbildung, Training, Beratung. Aufgabe des Projekts ist die Erprobung eines Echtzeitnetzmodells für typische Schutztechnik-Anwendungen. Im Gegensatz zu bekannten Energietechnik- und Schutztechnik-spezifischen Lösungen soll die Simulation auf der Basis des in der gesamten Technik weit verbreiteten Werkzeugs Matlab/Simulink einschließlich SimPowerSystems (frühere Bezeichnung: Power System Blockset) basieren. Zunächst soll ein vollständiges Simulationssystem einschließlich Schutzgeräten in Betrieb genommen werden. Dafür ist die Simulationsrechner-Hardware mit möglichst hoher Rechenleistung einschließlich geeigneter Interfacekarten für die Analogausgaben und die digitalen Schnittstellen zum Projektbeginn neu zu beschaffen. Die Untersuchung des Echtzeit-Netzmodells soll anhand typischer Netzkonfigurationen mit entsprechenden Schutzanwendungen erfolgen, z.B.: Hochspannungs-Doppelleitung mit Kurzschluss oder Pendelungen; Generator-Einspeisung, auch mit motorischen Verbrauchern und Umschaltvorgängen. Damit sollen die wesentlichen Möglichkeiten und Grenzen der Simulation festgestellt werden: • Korrektheit und Genauigkeit der Simulation • Anforderungen an Simulations-Rechnerhardware abhängig von Modellgröße, Frequenzbereich bzw. Zeitschrittweite • Möglichkeiten für Echtzeit- und Offline-Simulation auf Basis derselben Modellparameter • Integration von Schutzalgorithmen und -geräten in die Simulation (anstelle realer Geräte) • Erweiterbarkeit und Offenheit, z.B. betreffend Wide-Area-Protection, Simulation von Stromwandlern mit Sättigung, Modellierung von nicht in der Bibliothek verfügbaren Komponenten, Anlagen mit mehreren und verschiedenartigen Schutz-, Steuer- und Leitsystemkomponenten Simulation für Schutz- und Stationsleittechnik mit Matlab/Simulink Seite 4 • Bedienungsfreundlichkeit • Geeignete Visualisierung, Archivierung und Dokumentation • Kosten • Empfehlungen für den Einsatz.
Web services are, due to the excellent tool support, simple to provide and use in trivial cases. But their use in non-trivial Web service-based systems like I3M poses new difficulties and problems. I3M is an instant messaging and chat system with distributed and local components collaborating via Web services. One difficulty is to make a series of related Web service invocations in a stateful session. A problem is the performance of collaborating collocated, service-oriented components of a system due to the high Web service invocation overheaed as is shown by measurements. Solutions to both the difficulty and the problem are proposed.
Altbausanierung spielt in der Baupraxis eine immer wichtigere Rolle, während das Bauvolumen bei den Neubauten abnimmt. Diesem Trend wird im Studiengang Architektur der HTWG Konstanz durch neue Vorlesungen und Seminare vermehrt Rechnung getragen. So wurde im Sommersemester 2003 durch den Lehrbeauftragten Architekten Roger Karbe (Berlin) und Prof. Cengiz Dicleli (FH-Konstanz) das Seminar „Konstruktiver Denkmalschutz“ durchgeführt. Fünf denkmalgeschützte Bauten vom Weltrang, die bereits erfolgreich saniert, modernisiert und zum Teil umgenutzt worden sind, wurden unter konstruktiven und funktionalen Aspekten des Denkmalschutzes untersucht und analysiert. Diese sind der Hamburger Bahnhof, das Alte Museum, der Langhansbau im Schloss Charlottenburg, das Fährhaus auf der Pfaueninsel und Stülers Neues Museum, das zurzeit vom englischen Architekten David Chipperfield wieder hergestellt wird. Häufig werden Überlegungen zum Erhalt und Schutz historischer Bausubstanz zu wenig, zu spät oder gar nicht angestellt. Viele herausragende Gebäude sind deshalb bereits verloren gegangen. Die totale Konservierung historischer Anlagen bietet selten einen sinnvollen Lösungsansatz. Der Verzicht auf jede Veränderung schließt am Ende eine sinnvolle Nutzung aus. Entfallen oder Verändern sich die ursprünglich geplanten Nutzungen, so sollte vor jeder Aufgabe sorgfältig geprüft werden, wie weit bauliche Anlagen für neue Nutzungsanforderungen herangezogen werden können. Das Lehrziel beinhaltet die Einordnung der betreffenden Gebäude in das geschichtliche Umfeld. Danach wird das Hauptaugenmerk auf die konstruktiven Zusammenhänge gelenkt. Dabei werden möglichst alle Rahmenbedingungen erfasst: Grundstückswahl, Baugrund, Bauzeit, Baumaterialien, Baumethoden, technische Ausstattungen und Kostenrelevanz. Vertiefend folgen dann eine Erarbeitung der Wechselwirkung zu den ursprünglichen Nutzungen und die Hinlenkung zur Erkenntnis der speziellen Korrelation zwischen Konstruktion und Funktion auch bei den historischen Bauten. Die zukünftigen Architekten müssen auch lernen, sich und ihren schöpferischen Ansatz selbst kritisch zu hinterfragen. Erst das umfassende Wissen um die geschichtlichen wie kon-struktiven Zusammenhänge ermöglicht ihnen eine eigene Positionierung. Beim Erhalt historischer Gebäude durch einen möglichst schonenden Umgang mit vorhandener Substanz können gleichermaßen wirtschaftliche Interessen der Investoren wie auch die Forderungen des Denkmalschutzes befriedigt werden. Anhand der ausgewählten Bauwerke in Berlin, die alle unter Denkmalschutz stehen, konnten die Architekturstudenten verschiedene Ansätze von erfolgten Umnutzungen und den daraus folgenden Umbauten studieren. Die Bauten bieten einen Abriss der Bau- und Kulturgeschichte Preußens über einen Zeitraum von 100 Jahren vom Ende des 18. bis zum Ende des 19. Jahrhunderts.
Entwicklung einer neuartigen Prüfanlage zur Prüfung von Bauelementen aus Formgedächtnisteilen
(2004)
Im Rahmen des Forschungsvorhabens, unterstützt durch das Förderprogramm des BMBF „Anwendungsorientierte Forschung und Entwicklung an Fachhochschulen“ (aFuE), soll eine voll automatisierte, universale Prüfanlage gebaut werden mit deren Hilfe es möglich ist, das Verhalten von Formgedächtnislegierungen (FGL) bei der Variation verschiedener Parameter zu ermitteln. Die Prüfanlage soll in erster Linie sehr genau die Phasenumwandlungstemperaturen der Formgedächtnislegierungen ermitteln, um damit einen tieferen Einblick in die metallkundlichen Hintergründe zu gewinnen. Aber es gibt auch weitere Anwendungen wie zum Beispiel das so genannte „Training“, indem man durch gezielte thermische und mechanische Belastungen den FGL verschiedene Formgedächtniseffekte trainiert. Ein weiteres Ziel des Forschungsvorhabens ist das Erstellen einer Prüfnorm für FGL die den gesamten Prüfablauf dokumentieren und ergänzen wird. Letztendlich soll die Prüfeinrichtung eine Plattform für die Weiterentwicklung der existierenden FG-Anwendungen sein, sowie die Einsatzmöglichkeiten dieser Werkstoffe zu erweitern. Da es derzeit keine Normung für Bauteile aus FGL gibt, soll in den erfolgten Tests ein Vorschlag für eine FG-Normung gemacht werden. Förderkennziffer 17 092 02
Forum - Ausgabe 2003/2004
(2004)
IAF Jahresbericht 2003
(2004)