Refine
Year of publication
Document Type
- Article (209) (remove)
Language
- German (209) (remove)
Keywords
- Adoption (1)
- Analytische Berechnung (1)
- Analytische Berechnung und Simulation (1)
- Anhaftung (1)
- Aquakultur (1)
- Architektur (3)
- Atmung (1)
- Auffangnorm UWG (1)
- Auslegung von Radsatzwellen (1)
- Ausnahmefälle (1)
Institute
- Fakultät Architektur und Gestaltung (4)
- Fakultät Bauingenieurwesen (14)
- Fakultät Informatik (2)
- Fakultät Maschinenbau (6)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (16)
- Institut für Strategische Innovation und Technologiemanagement - IST (8)
- Institut für Werkstoffsystemtechnik Konstanz - WIK (2)
- Institut für Werkstoffsystemtechnik Thurgau - WITg (10)
- Institut für professionelles Schreiben - IPS (4)
- Konstanz Institut für Corporate Governance - KICG (22)
Infolge des Klimawandels sind entlang der Gewässer Baden-Württembergs verschärfte Niedrigwassersituationen zu erwarten, die unter Umständen zu Wassernutzungskonflikten der lokalen Akteure führen. Anhand des Kochers und der Murg wurden mit Hilfe einer Stakeholder-Analyse solche Konflikte identifiziert sowie erste Handlungsoptionen für eine Niedrigwasservorsorge bzw. ein Niedrigwassermanagement erarbeitet. Den Erhebungen zufolge treten Wassernutzungskonkurrenzen in fast allen Nutzergruppen auf, jedoch mit unterschiedlicher Ausprägung. Hierbei stehen bestimmte Sektoren teilweise mit mehreren Stakeholder-Gruppen im Widerstreit, andere Gruppen haben dagegen keine Erfahrung mit Konkurrenzsituationen. Weiterhin ist auffällig, dass Niedrigwasserereignisse an beiden Flüssen lediglich einen Teil der Nutzungskonflikte auslösen. Ein Großteil der Streitfragen wird durch anthropogene Einflüsse verursacht.
Im vorliegenden Aufsatz werden die rechnerischen Rissbreiten bei frühem und bei spätem Zwang verglichen. Insbesondere wird der Fall betrachtet, dass nach einer frühen Rissbildung infolge Abfließens der Hydratationswärme im fortgeschrittenen Betonalter Zwängungen durch Schwinden und/oder Temperatureinflüsse entstehen. Es wird gezeigt, dass die im jungen Betonalter entstandenen Risse zunächst breiter werden, bevor neue Risse infolge späten Zwangs entstehen können, und dass die resultierende Rissbreite dann größer ist, als wenn die Risse ausschließlich durch späten Zwang entstehen. Für die rechnerische Behandlung dieser Problematik wird ein einfaches Rechenverfahren aufgezeigt. Des Weiteren wird auf die Konzentration von zwangsbedingten Rissen in Schwachstellen, z. B. bei Bodenplatten und Decken mit großen Aussparungen, eingegangen und es wird dargestellt, wie für solche Bauteilgeometrien die rechnerische Begrenzung der Rissbreite erfolgen kann.
Üblicherweise wird bei der Erdbebenbemessung von durch Stahlbetonwände ausgesteiften Gebäuden entweder die ungerissene Biegesteifigkeit oder ein von dieser durch einen Abminderungsfaktor abgeleiteter Wert zur Berücksichtigung des Zustands II verwendet. Tatsächlich ist die Biegesteifigkeit von Stahlbetonquerschnitten jedoch vom Bewehrungsgrad und von der Normalkraft abhängig. Die Fließverschiebung, bei der sich am Fuß einer Stahlbetonwand ein plastisches Gelenk bildet, ist hingegen fast ausschließlich von ihrer Länge im Grundriss abhängig. Torsionswirkungen infolge Exzentrizität zwischen Massen- und Steifigkeitsmittelpunkt werden üblicherweise durch Vergrößerung der Bemessungskräfte der einzelnen Wände berücksichtigt. Den durch die Torsionswirkung vergrößerten Verschiebungen einzelner Wände wird dabei keine Beachtung geschenkt. Da die durch die Verhaltensbeiwerte der Normen implizit vorausgesetzte ertragbare Verformung des Tragsystems zusätzliche Verschiebungen infolge Torsion nicht explizit berücksichtigt, kann es so unter Umständen wegen Überschreitung der maximal möglichen Verformung einzelner Wände zu einem vorzeitigen Versagen kommen. Im vorliegenden Aufsatz wird ein quasi-händisches Nachweisverfahren vorgestellt, mit dem die explizite Berücksichtigung von torsionsbedingten Verschiebungen möglich ist und bei dem realistische Biegesteifigkeiten für die Wände verwendet werden.
In [Zahn, F., Köber, D., Verfahren zum Erdbebennachweis von durch Stahlbetonwände ausgesteiften Gebäuden mit explizitem Nachweis der Verformungen. Beton- und Stahlbetonbau 110 (2015) Heft 4, S. 293–302] wird ein Bemessungsverfahren für durch Erdbeben beanspruchte Tragwerke vorgestellt, mit dem die explizite Berücksichtigung von torsionsbedingten Verschiebungen möglich ist und bei dem realistische Biegesteifigkeiten für die Wände verwendet werden. Da mit diesem vereinfachten Verfahren mit vertretbarem Aufwand nur der getrennte Tragsicherheitsnachweis für Erdbebenbeanspruchungen in den Gebäudehauptrichtungen möglich ist, wird in diesem Aufsatz der Frage nachgegangen, ob ein Gebäude, für welches der Nachweis in beiden Hauptrichtungen erbracht wird, auch für Erdbebenbeanspruchung unter 45° zu den Hauptrichtungen ausreichende Standsicherheit besitzt. Zu diesem Zwecke werden zwei Beispielgebäude zunächst mit dem in [1] beschriebenen Verfahren auf ihre Standsicherheit in den Hauptrichtungen untersucht und anschließend mit dem Programm ETABS nachgerechnet, und zwar zunächst jeweils in einer Gebäudehauptrichtung und danach für eine Beanspruchung unter 45° zu dieser.
Im vorliegenden Beitrag wird der Einfluss der Modellierung des Kellergeschosses auf die Querkraft und die Verformungen von im Kellergeschoss eingespannten Stahlbeton‐Aussteifungswänden untersucht. Der Querkraftverlauf der Wand und die Verschiebung am Kopf der Wand werden mit den entsprechenden, am vereinfachten Kragwandmodell ermittelten Werten verglichen, bei dem die Wand auf Höhe der Kellerdecke voll eingespannt ist und die Weiterleitung der Schnittkräfte im Kellergeschoss nicht näher betrachtet wird. Für die Berücksichtigung des Kellergeschosses wird zunächst eine gelenkige Festhaltung durch die Kellerdecke und die Bodenplatte betrachtet, wodurch sich eine unrealistisch große Wandquerkraft im Kellergeschoss ergibt. Danach wird ein verfeinertes Modell mit Teileinspannung in der Bodenplatte und nachgiebiger Halterung durch die Kellerdecke untersucht. Es werden Empfehlungswerte für die Federkonstante der Drehfeder auf Höhe der Bodenplatte und der horizontalen Translationsfeder auf Höhe der Kellerdecke angegeben, die in der Praxis Anwendung finden können. Es wird besonders der Frage nachgegangen, welche Einflüsse die Berücksichtigung des Kellergeschosses bei der Erdbebenbemessung der Aussteifungswände hat. Dabei wird einerseits die Systemsteifigkeit, von der die Erdbebenersatzlasten abhängen, und andererseits die mögliche Verschiebungsduktilität, von der der mögliche Verhaltensbeiwert q abhängt, betrachtet.
Sanktionen stellen Zwangsmaßnahmen dar, die bei der Bewältigung politischer Spannungen zwischen Nationen eine lange und wiederkehrende Stellung einnehmen. Sie werden sowohl einseitig als auch in Staatenbündnissen verhängt und besonders nach dem 2. Weltkrieg mit zunehmender Häufigkeit eingesetzt. Während im letzten Jahrhundert, insbesondere vor dem 2. Weltkrieg, Handelsbeschränkungen und umfassende Wirtschaftsblockaden die vorherrschenden Sanktionsinstrumente darstellten, werden heute in einer stärker integrierten und globalisierten Welt Sanktionen in verschiedenen weiteren Formen verhängt, einschließlich internationaler Finanzbeschränkungen, Reiseverbote, Handelseinschränkungen für bestimmte Gütergruppen, Aufhebung militärischer Hilfen und spezifische Einschränkungen, wie beispielsweise Flugverbote und Hafensperrungen.
Im vorliegenden Aufsatz wird das grundlegende Vorgehen zur Berechnung der Durchbiegung im gerissenen Zustand inklusive Berücksichtigung von Kriechen und Schwinden vorgestellt. Dabei werden aufbauend auf den Vorgaben des EC2 verschiedene Verfahren mit unterschiedlichen Genauigkeitsniveaus für Balken und einachsig gespannte Platten erläutert. Für einfache Systeme können diese Verfahren auch von Hand durchgeführt werden und bieten dabei ein hohes Maß an Kontrolle über den Rechenablauf. Anschließend wird die Ermittlung der Schwindverformungen genauer betrachtet, welche nur mit hohem Rechenaufwand durchgeführt werden kann. Für eine Auswahl von Systemen können Diagramme mit Multiplikationsfaktoren hergeleitet werden, welche die Berechnung stark vereinfachen. Des Weiteren wird auf die Verformungsberechnung im Zustand II für Plattentragwerke eingegangen. Dabei werden sowohl die Berechnung mit FE‐Plattenprogrammen, welche oftmals entsprechende Funktionen anbieten, als auch vereinfachte manuelle Verfahren vorgestellt. Die Grundlagen der Rissbildung lassen sich von Stabtragwerken auf Platten übertragen, allerdings entstehen dabei neue Fragestellungen, wie beispielsweise zum Vorgehen bei der Steifigkeitsabminderung oder zum Einfluss der Schnittgrößenumlagerung infolge Rissbildung. In diesem Bereich besteht daher noch Forschungsbedarf.
In Ganglaboren werden medizinische Gang- und Laufanalysen durchgeführt. Eine in eine Decke eingelassene Kraftmessplatte ermöglicht dabei die präzise Messung der vom Menschen auf den Boden übertragenen Kräfte. Die Beschleunigungen der Decke, in die die Kraftmessplatte eingelassen ist, müssen begrenzt werden, damit die Messgenauigkeit der Kraftmessplatte nicht beeinträchtigt wird.
Für das wissenschaftliche Ganglabor im Neubau des Medizinischen Trainings- und Rehabilitationszentrums an der Universitätsklinik Tübingen wurde untersucht, inwieweit die Messgenauigkeit einer Kraftmessplatte durch personeninduzierte Deckenschwingungen beeinflusst wird. Als Ergebnis kann der Messfehler in Abhängigkeit von der Masse des Probanden im Ganglabor bei unterschiedlichen Szenarien angegeben werden.
Das Software-Engineering sollte nicht nur über das Aufzählen von Aktivitäten charakterisiert, sondern zusätzlich auch über grundsätzliche Probleme motiviert werden. Die Beschäftigung mit dem Warum des Software-Engineerings erhält so mehr Gewicht gegenüber dem Wie. Mit der Betonung des Problembewusstseins nährt man auch weniger das Missverständnis, das Software-Engineering diene hauptsächlich der Disziplinierung von Software- Entwicklern. Es geht eben nicht in erster Linie darum, sich in ein Vorgehensmodell einzufügen und eine Aktivität nach der anderen regelkonform mit den vorgesehenen Werkzeugen abzuarbeiten. Vielmehr sind Spürsinn, Kreativität und Urteilsvermögen gefragt. Denn die genannten grundsätzlichen Probleme sind zwar in jedem Projekt allgegenwärtig, aber trotzdem nicht unbedingt auf den ersten Blick erkennbar, und sie müssen mangels echter Lösungen immer neu mit angemessenen Kompromissen bewältigt werden. Dabei ist Nützlichkeit der Maßstab, nicht Wahrheit. Das alles ist herausfordernd und Herausforderungen machen Spaß.
Für den deutschen bzw. europäischen Tourismus ist
Indien seit Jahrzehnten eine Destination, die kulturtouristisch,
aber auch zunehmend gesundheitstouristische
interessant ist. Sonderformen wie spiritueller
Tourismus, nachhaltiger Tourismus oder Tanztourismus
(Bollywood-Dance) haben sich in Nischen
etabliert oder beginnen diese zu verlassen. Indien
selbst unternahm mit seiner Kampagne „Incredible
India“ 2002 eine weltweit beachtete, selbstironische
Initiative, sich als „unglaubliche“ Destination in den
Auslandsmärkten zu positionieren. Demgegenüber
steht eine Realität in Indien, die einerseits Massenarmut,
Korruption, Sicherheitsprobleme, Bürokratie
und mangelnde Infrastruktur ebenso vorhält wie eine
beeindruckende Kultur- und Naturlandschaft, gut
ausgebildete englischsprachige Menschen, ethnische
Vielfalt sowie Mystik und Spiritualität. Indien definiert
sich – auch touristisch – durch Extreme (vgl. Freyer &
Thimm 2011: 261).
Während jeder Phase der touristischen Wertschöpfungskette spielen Wahrnehmungsprozesse eine relevante Rolle. Sofern es sich nicht um einen Wiederholungsbesucher handelt, kann der potenzielle Tourist zunächst nur auf das Image, das Fremdbild einer Destination, zurückgreifen, das nicht nur durch Tourismusmarketing, sondern auch durch andere Wahrnehmungsprozesse geformt wurde: immer wenn die Destination Gegenstand in einem Film, einer Nachrichtensendung oder einem Buch ist, trägt dies dazu bei, das Image zu formen. Somit ist nur ein Teil der touristischen Wahrnehmung vor der Reise eine durch Tourismusmarketing gesteuerte. Das Image oder Bild, das ein potenziell Reisender von einer Destination hat, kann somit über Jahre hinweg aufgebaut worden sein, durch Verbindung sämtlicher Eindrücke von ihr, die er im Laufe seines Lebens gesammelt hat. Diese inneren Bilder können individuell abweichen, weisen aber in vielen Fällen kollektive Gemeinsamkeiten auf (z. B. wird Paris mehrheitlich mit Romantik, mit der Südsee das Paradies und Berlin mit Party verbunden). Während und nach der Reise sucht der Tourist die Bestätigung dieser inneren Bilder – sie erweisen sich als persistent auch gegenüber der Realität. Diese Art der touristischen Wahrnehmung wird von Hennig (1997) treffend mit dem Begriff der „Imaginären Geographie“ beschrieben und soll daher zentraler Bezugspunkt dieses Beitrages sein. Angewendet wird dieses Konzept auf das Fallbeispiel Sevilla. Ziele des Beitrages sind daher:
- Aufzeigen des Erklärungspotenzialsdes Konzepts der „Imaginären Geographie“ von Christoph Hennig für touristische Wahrnehmungsprozesse
- Darstellung der Rolle der touristischen Intermediäre klassischer und neuer Reisemedienanhand des Fallbeispiels Sevilla
- Erläuterung des Bezugs der „Imaginäre Geographien“ (und verwandter Ansätze) zur Praxis (hier Fallbeispiel Sevilla)
Der Süden
(2018)
Dieser Beitrag untersucht, inwiefern die Sapir-Whorf-Hypothese, die die Abhängigkeit des Denkens von der Sprache postuliert, einen Erklärungsansatz zur raumsemantischen Konstruktion des touristischen Südens liefern kann. Sie dient als Analyseraster in Verbindung mit empirischen Befunden zu den touristischen Imageprofilen von Sevilla und Buenos Aires, die als Fallbeispiele touristischer Städte des Südens gewählt wurden.
In diesem Beitrag wird der finnische Tangotanztourismus
unter Berücksichtigung des Konzeptes des verkörperten Raumes (Low 2003) und des Raumverständnisses von Lefebvre (1991) auf den vielschichtig miteinander verbundenen Ebenen von Körper, Kultur und Raum analysiert. Die finnische „Kultur der Schweigsamkeit“ wird in diesem Zusammenhang im Besonderen
betrachtet. Methodisch werden hierbei sowohl Interviews mit Expertinnen und Experten, teilnehmende Beobachtung als auch die Auswertung von Filmmaterial herangezogen. Im Ergebnis zeigen sich vielfältige Wechselwirkungen von Körper, Kultur und Raum, die zusätzlich Potenziale für den finnischen Tangotanztourismus
aufzeigen.
Flamenco und Tango gehören zu den ersten Assoziationen, mit denen Sevilla und Buenos Aires in Verbindung gebracht werden. Seit der Entstehung beider Kunstformen im 19. Jahrhundert entwickelte sich kontinuierlich ein Tanztourismus, der bis heute zu ausdifferenzierten Geschäftsmodellen führte. Flamenco und Tango erlangten als immaterielles Weltkulturerbe außerdem erhebliche Bedeutung für das Destinationsimage der beiden Städte. Das Modell von Gereffi et al. (2005) zu «Governance of Global Value Chains» wird in adaptierter Form auf Flamenco- und Tangotanztourismus angewendet, um Bedeutungsdimensionen im Destinationsmanagement herauszuarbeiten.
Weder für moderne Recycling-Betone gemäß Regelwerk noch für Ziegelsplittbetone der Nachkriegsjahre bestehen prinzipielle Bedenken gegen deren Einsatz oder die Weiternutzung im Hochbau. Die Autoren wünschen sich mehr Akzeptanz und Vertrauen in Recyclingbaustoffe und dass sich für "Vintage" im Baubereich irgendwann ein ähnliches Interesse herausbildet wie für Vintage-Möbel oder Used-Look-Kleidung - und dies nicht nur hinsichtlich der Wiederverwendung gebrauchter Türen und Treppen, sondern auch für mineralische Massenbaustoffe wie Beton. Der Beitrag veranschaulicht anhand erfolgreich realisierter Objektbeispiele, wie Hochhäuser (z.B. das Studentenwohnheim Max-Kade-Haus in Stuttgart, 1953, aus Bauschuttbeton) oder Sakralgebäude (Fatima-Kirche in Kassel aus Sichtbeton mit Ziegelbruch, 60 Jahre alt) sowie auch Verwaltungsbauten (Technisches Rathaus in Tübingen aus den 1950er Jahren) erfolgreich und nachhaltig mit Recyclingmaterialien errichtet wurden.
Von wegen Bauschutt
(2020)
RC-Betone sind keine Neu-Entwicklungen, aber sie erleben seit circa 15 Jahren in Deutschland eine Renaissance mit Materialzusammensetzungen, die den heutigen Anforderungen an Normalbetone gerecht werden. Es gab immer wieder Abschnitte in der (Bau-)Geschichte, in denen Gebäude aus Ziegelsplitt-Betonen errichtet wurden, wie das Max-Kade-Studentenwohnheim in Stuttgart und das Technische Rathaus in Tübingen. Beide stammen aus der Nachkriegszeit und weisen einen guten Erhaltungszustand auf. Sie sind Beispiele für die Bewährung "historischer" Ziegelsplitt-Betone in der Baupraxis und ihre lange technische Lebensdauer.
Die Quadratur der Risse
(2015)
Lokale Ausbesserungen stellen bei Schadstellen an verputzten Fassaden in vielen Fällen eine technisch sichere und weniger zeit- und kostenaufwendige Alternative zum Putzabschlagen und Neuverputz oder zum vollflächigen Überputzen dar.
Die zum Teil damit verbundenen leichten Einschränkungen beim ästhetischen Gesamteindruck sind in den meisten Fällen tolerierbar. An die Auswahl eines geeigneten Putzes und die handwerkliche Ausführung der Ausbesserung werden hohe Anforderungen gestellt, um ein technisch und ästhetisch zufriedenstellendes Ergebnis zu erzielen.
Mit Injektionen Risse heilen
(2015)
Um Mauerwerksrisse mit einer Injektion erfolgreich zu schließen, sind bei der praktischen Durchführung des Injektionsverfahrens eine Reihe von Details zu beachten: Sie betreffen das Bohren und Setzen der Packer, das Mischen und Einbringen des Füllstoffs, das Schließen der Öffnungen und Fertigstellen der Sichtmauerwerksoberflächen sowie die Dokumentation und Kontrolle des Injektionserfolgs.
Die Putzstrukturen an Fassaden werden maßgeblich durch die Fachhandwerker geprägt. Deshalb wird ihre Ebenmäßigkeit auch nie mit der von industriell gefertigten Fassadenplatten und Ähnlichem vergleichbar sein – aber genau das macht einen Teil des Charmes von Putzfassaden aus. Dies ist auch bei der Bearbeitung von Schadstellen zu berücksichtigen.
Für mehr Qualität am Bau
(2018)
Die Datenschutz-Grundverordnung (DSGVO) sieht in Art. 82 DSGVO einen Anspruch auf Ersatz materieller und immaterieller Schäden vor, allerdings ohne Aussagen darüber, wie die Schadenshöhe zu bestimmen ist. Der Beitrag beleuchtet die bisherige Gerichtspraxis kritisch und zeigt auf, welche Kriterien speziell in data leakage-Fällen herangezogen werden können, um die Schadenshöhe zu bestimmen. Aus der Sicht von Betroffenen stellt sich die Frage nach effektiver Rechtsdurchsetzung, aus der Sicht von Unternehmen stellt sich die Frage nach Prävention und Abwehr von Ansprüchen.
Die Bedeutung immaterieller Rechtsgüter nimmt in der Unternehmensrealität ständig zu. Dieser Bedeutungszuwachs hat einen festen betriebswirtschaftlichen Hintergrund: Zunehmend bestimmen nicht mehr Sachanlagevermögen, Geschäftsbeziehungen oder die Mitarbeiter den Unternehmenswert, sondern überwiegend das Intellectual Property (kurz auch: IP).1 Der Begriff Intellectual Property meint im Folgenden das durch Schutzrechte kodifizierte Wissen, also Patente, Gebrauchsmuster, Marken, Geschmacksmuster und sonstige Schutzrechte (gewerbliche Schutzrechte) sowie Urheberrechte. Diese Schutzrechte vermitteln absolute Verwertungsrechte und damit Monopolrechte, die es den Inhabern ermöglicht, das geschützte IP für eine bestimmte Schutzdauer allein und unter Ausschluss unbefugter Dritter zu verwerten.
Auch die Bedeutung von IT nimmt in der Unternehmenspraxis ständig zu.
Dass sich Stoffe bei Temperaturänderungen zusammenziehen beziehungsweise ausdehnen, ist eine uralte Erkenntnis. Diesbezüglich stechen Formgedächtnislegierungen heraus, da diese die verblüffende Eigenschaft besitzen, sich bei Temperaturänderung ungewöhnlich rasch zusamenzuziehen beziehungsweise auszudehnen. Eine physikalische Besonderheit, die sich auf vielfältige Weise nutzen lässt.
Im modernen Automobilbau spielen Fussgängerschutzsysteme eine immer stärker werdende Rolle, um Verletzungen und Todesfälle bei Verkehrsunfällen mit Fussgängerbeteiligung zu reduzieren. Eines dieser Sicherheitssysteme ist die aktive Motorhaube. Durch die Verwendung von Formgedächtnislegierungen (FGL) als Aktoren können die bestehenden Systeme vereinfacht werden, wobei die gleiche Funktion durch neue Mechanismen bei reduzierter Grösse und Gewicht sowie verringerten Kosten ausgeführt werden kann. In diesem Beitrag werden nach einer Einleitung zu existierenden Systemen zur Motorhauben-Anhebung FG-Aktoren und deren potenzielle Einsatzmöglichkeiten in Automobilbau kurz vorgestellt.
Flash-Speicher wurden ursprünglich als Speichermedium für Digitalkameras entwickelt, finden inzwischen aber in vielen Bereichen Anwendung.
Die in Konstanz ansässige Firma Hyperstone GmbH ist ein führender Anbieter von Flashcontrollern für Anwendungen mit erhöhten Anforderungen an Zuverlässigkeit und Datenintegrität. Bereits seit April 2011 kooperiert die Firma Hyperstone mit der HTWG Konstanz bei der Entwicklung von Fehlerkorrekturverfahren für einen zuverlässigen Einsatz von Flash-Speichern. Aufgrund der rasanten Entwicklung bei Flashspeicherbausteinen ist auch eine stetige Weiterentwicklung der Korrekturverfahren notwendig. Im Rahmen dieser Kooperation wurde inzwischen zwei Flashcontroller mit sehr leistungsfähiger Fehlerkorrektur entwickelt. Der folgende Artikel gibt Einblick in den Einsatz von Flash-Speichern und erläutert die Notwendigkeit für eine leistungsfähige Fehlerkorrektur.
In beispielhafter Zusammenarbeit zwischen Industrie (Geobrugg AG, Romanshorn/Schweiz) und Wissenschaft (WITg Institut für Werkstoffsystemtechnik Thurgau an der Hochschule Konstanz, Tägerwilen/Schweiz) wurde mit Unterstützung der Schweizer staatlichen Innovationsförderung (KTI, hee Innosuisse) ein neues Werkstoff- und Fertigungskonzept für den Bau von Fischzuchtnetzen aus hochfesten nichtrostenden Stahldrähten entwickelt.
Diese Entwicklung wurde 2019 von Swiss Inox, der Schweizer Innovationspreis Prix Inox ausgezeichnet.
Forschungsfrage: Welche Rollen lassen sich in Corporate Entrepreneurship identifizieren? Wie unterscheiden sich diese anhand verschiedener Merkmale und welche Fähigkeiten scheinen besonders relevant für ihre erfolgreiche Ausführung?
Methodik: Explorative Studie mit 56 semi-strukturierten Interviews mit Corporate-Entrepreneurship-Aktivitäten im DACH-Raum
Praktische Implikationen: Ein genaues Verständnis über die jeweiligen Rollen, ihre Unterschiedlichkeiten und Anforderungen ist notwendig, um die verschiedenen Corporate-Entrepreneurship-Aktivitäten mit passendem Personal zu besetzen.
Know-how für die Weltmeere
(2016)
Know-how für die Weltmeere
(2016)
Das erfolgreiche Gestalten von Organisationen setzt die systematische Analyse ihrer Prozesse voraus. Das gilt auch und insbesondere für kleine und mittelgroße Unternehmen (KMU). Die praktische Durchführung solcher in KMU ist jedoch mit besonderen Herausforderungen verbunden, die in der vorhandenen Literatur bislang kaum reflektiert werden. In diesem Beitrag werden Erfahrungen aus 20 in KMU durchgeführten Prozessanalysen geteilt. Entlang der Prozessphasen werden unterschiedliche Gestaltungsmöglichkeiten vorgestellt und ihre spezifischen Vor- und Nachteile bei der praktischen Anwendung in KMU identifiziert. Der Beitrag unterstreicht die Relevanz von Prozessanalysen in KMU und befähigt zugleich zu ihrer Durchführung.
Der Kundenservice von morgen
(2023)
Die digitale Selbstbedienung im Einzelhandel und anderen Dienstleistungsbereichen verändert die Konsumwelt. Self-Services werden zunehmend von Konsumenten aller Altersklassen genutzt. Der Handel muss seine Servicekanäle hinterfragen und vermehrt auf Self-Service als Kundenkontaktpunkt setzen. Andere Branchen haben diesbezüglich bereits Lösungen umgesetzt. Vor diesem Hintergrund analysiert der Beitrag die Nutzung von Self-Service-Lösungen in Abhängigkeit von der Generationen-Zugehörigkeit und gibt Handlungsempfehlungen für KMU aus dem Einzelhandel.
Die durch KMU geprägte Investitionsgüterindustrie steht aufgrund der zunehmenden Internationalisierung im Servicegeschäft, Mitarbeiterengpässen, hohen Prozesskosten sowie fehlendem Wissensmanagment vor großen Herausforderungen. Durch die Digitalisierung entstehen große Nutzenpotenziale im Servicegeschäft. Vor diesem Hintergrund wurde ein auf den Methoden Intelligent Swarming und Knowledge Centered Service basierender, integrierter Ansatz entwickelt, der KMU aus der Investitionsgüterindustrie befähigt, Servicewissen effizient zu generieren, zu strukturieren und international zu vermarkten.
Im Investitionsgüterservice ist Wissen längst zu einem zentralen Erfolgshebel geworden, sowohl zur Steigerung der Prozesseffektivität und -effizienz als auch als Fundament für werthaltige Geschäftsmodelle. Das Management Service-relevanten Wissens ist für kleine und mittelständische Unternehmen der Investitionsgüterindustrie jedoch oftmals eine nicht zu unterschätzende Herausforderung, welche weit über IT-technische Aspekte hinausreicht. In dem vom BMBF sowie vom ESF (ko)finanzierten Projekt „SerWiss“ wurde vor diesem Hintergrund ein umfassender Lösungsansatz entwickelt und bei zwei Projektpartnern aus der Investitionsgüterindustrie prototypisch umgesetzt.
Die zum UNESCO Weltkulturerbe zaehlenden Meisterhaeuser des Dessauer Bauhauses wurden 1925/1926 nach Plaenen des Bauhaus-Gruenders Walter Gropius errichtet. Nach Umbauten waehrend des Nationalsozialismus wurden im Zweiten Weltkrieg zwei Gebaeude des Ensembles voellig zerstoert: das Direktorenhaus und die Doppelhaushaelfte von Laszlo Moholy-Nagy. 1956 erfolgte ein veraenderter Wiederaufbau des Hauses Gropius als Haus Emmer. Fuer einen adaequaten denkmalpflegerischen Umgang mit dem Ensemble nach der Wiedervereinigung wurden nach laengeren Vorueberlegungen 2008 und 2010 Wettbewerbe fuer eine staedtebauliche Reparatur durchgefuehrt. Auf dieser Grundlage wurde das Berliner Architektenbuero Bruno Fioretti Marquez mit dem Neubau des Direktorenhauses und des Hauses Moholy-Nagy beauftragt. Da die Quellenlage fuer eine Rekonstruktion nicht ausreichte, wurde ein anspruchsvolles architektonisches Konzept umgesetzt, das die Kubatur der verlorenen Bauten nachzeichnet. Die Detailausbildung wurde frei in gegenueber den erhaltenen Meisterhaeusern, die bereits zuvor saniert worden waren, stark reduzierten Formen gestaltet.
Moderne als Geschichte
(2015)
Bauen nach dem Bauhaus
(2018)
Noteninflation
(2014)
In einigen europäischen Nachbarländern herrschen weitaus schlechtere Voraussetzungen für die Binnen-schifffahrt als in Deutschland. Die wenigsten Länder verfügen über eine so effiziente Wasserstraße wie beispielsweise den Rhein. Dennoch forcieren nicht wenige die Verlagerung von Transporten von der Straße auf das Binnenschiff.
Der Bodensee und das in ihm gespeicherte Wasser dient vielen Zwecken: Neben seiner ökologischen Bedeutung für die Region ist er Trinkwasserquelle und Schifffahrtsweg, wird für Freizeit und Naherholung genutzt. Die Schifffahrt stellt eine der zentralen Attraktionen am Bodensee dar – sie zieht Tagesausflügler und Naherholungssuchende ebenso an wie Urlauber. Der Tourismus ist dabei eine der zentralen Einkommensquellen am Bodensee. Während der Niedrigwasserereignisse der letzten Jahre wurden jedoch die verschiedenen Schifffahrtstypen beeinträchtigt. Dies traf den Tourismus wie auch Berufspendler, Häfen, anliegende Gemeinden und den Gütertransport. Der Beitrag verdeutlicht die Bedeutung der Bodenseeschifffahrt und nennt einige Folgen der Niedrigwasserereignisse der letzten Jahre.
Schon die Römer nutzten die Binnenschifffahrt für den Transport ihrer Güter (SCHRöTER 2005). Noch heute stellt die Binnenschifffahrt auf dem Rhein einen wichtigen Standortfaktor dar, weshalb sich viele Unternehmen, die auf den Transport von Massengütern angewiesen sind, an seinen Ufern niedergelassen haben, um die Binnenschifffahrt als günstiges Transportmittel nutzen zu können (ROTHSTEIN et al. 2009, SCHOLTEN et al. 2009).
Im folgenden Artikel wird sowohl kurz die wirtschaftliche Bedeutung der Binnenschifffahrt auf dem Rhein angesprochen als auch deren rezente und zukünftige Entwicklung. Dabei werden auch die Auswirkungen niedriger Fahrrinnentiefen auf die Transportkapazität der Binnenschifffahrt betrachtet.
„Das Gedächtnis des Sees“
(2016)
Wie können archäologische Forschungsergebnisse einer breiten Öffentlichkeit möglichst eindrücklich und nachvollziehbar vermittelt werden? Am Beispiel der UNESCO-Welterbestätte Pfahlbausiedlung Hornstaad demonstrieren Studierende der Hochschule für Technik, Wirtschaft und Gestaltung Konstanz (HTWG) die Visualisierung komplexer wissenschaftlicher Inhalte mithilfe moderner Virtual-
Reality-Brillen-Technologie (VR-Brillen). Eine dreidimensionale digitale Rekonstruktion der Pfahlbausiedlung und Simulation von Tages- und Jahresverlauf in Verbindung mit der realen Bewegung im Ausstellungsraum ermöglichen dem Betrachter das hautnahe Erleben des Alltags in einer neolithischen Siedlung.
Das Ausstellungsprojekt „Das Gedächtnis des Sees“ wird im Rahmen der Großen Landesaustellung „4000 Jahre Pfahlbauten“ zu sehen sein.
Stadtbaukunst
(2021)
Notizen zur Stadtbaukunst
(2021)
Bedarf es heute einer institutionalisierten Stadtbaukunst? Als Gegenbewegung zur schematischen, mechanischen Stadterweiterungspraxis entwickelte sich Stadtbaukunst gegen Ende des 19. Jahrhunderts und fand in Praxis und Diskurs ihren Höhepunkt vor dem Ersten Weltkrieg. Seit einigen Jahren wird nun von verschiedenen Seiten deren Neuentdeckung und Neubewertung eingefordert. Doch die Lage heute ist eine andere als die vor über hundert Jahren. Was bedeutet das für die Idee einer Stadtbaukunst im Zusammenspiel mit Städtebau, Architektur und Stadtplanung?
Der hybride Baublock behauptet sich in Deutschland nach wie vor als erfolgreichster und beliebig kopierbarer Stadtbaustein der städtebaulichen Wettbewerbe, so der Autor in einer Analyse wichtiger Entscheidungen der letzten drei Jahre. Allerdings steht das Wohnhochhaus vor einem erstaunlichen Comeback.
Auslegung von Radsatzwellen unter Berücksichtigung des maximalen, dynamischen Torsionsmoments
(2021)
Der vorgestellte Bericht verdeutlicht denEinfluss des dynamischen Torsionsmomentsinfolge von selbsterregten Radsatz-Torsionsschwingungen auf den Festigkeitsnachweisvon Radsatzwellen. Durch dieanalytische Berechnung des maximalen,dynamischen Torsionsmoments werdenkausale Zusammenhänge erkennbar, diebei der Dimensionierung von Radsätzenhilfreich sind. So führt eine Vergröβerungdes Radsatzwellendurchmessers aufgrundder zunehmenden Torsionssteifigkeitzwar zu höheren Momenten, bewirktaber gleichzeitig eine deutlich niedrigereVergleichsspannung. Durch gröβereDurchmesser der Radsatzwelle ist, infolgegeringerer Fugendrücke, allerdings auchmit einer Schwächung der Pressverbändezu rechnen. In jedem Fall sind im Hinblickauf den Festigkeitsnachweis kleine Radradienvorteilhaft. Sollten Radradius undRadsatzwellendurchmesser nicht optimiertwerden können, kann zur weiteren Absicherungdes Festigkeitsnachweises derWerkstoff EA4T verwendet werden.
Die vorgestellte analytische Berechnungsmethode führt, unter Berücksichtigung desKraftschlusses, der Radsatzdimensionierungund der Dämpfungseigenschaft des Antriebssystems, zu einem konservativ berechnetendynamischen Torsionsmoment.Die ermittelten Abweichungen zeigenleicht gröβere Werte gegenüber der Messungund über einen breiten Parameterbereichtendenziell gröβere Werte gegenüber der Simulation. Demnach stellt die Methodeeinen pragmatischen Ansatz dar, dasmaximale, dynamische Torsionsmomentfür die Auslegung von Radsatzwelle ausreichendkonservativ zu berechnen.
Schwankende Fahrrinnentiefen stellen eine Herausforderung für die verladende Wirtschaft dar, die auf kostengünstigen Transport von Massengütern per Binnenschiff angewiesen ist. Basierend auf Unternehmensbefragungen wurde ein Modell entwickelt, das nicht nur die Verwundbarkeit von Unternehmen gegenüber schwankenden Fahrrinnentiefen für Vergangenheit, Gegenwart und Zukunft berechnen kann, sondern auch die positive Wirkung von Anpassungsmaßnahmen. Nachdem in einem früheren Artikel die Auswirkungen des Klimawandels quantifiziert wurden, wird nun hier die Wirksamkeit verschiedener Anpassungsmaßnahmen vergleichend für Unternehmen an Rhein und Elbe vorgestellt.
Bedingt durch den fortwährenden Ausbau erneuerbarer Energien steigt die Bedeutung von regelenergiebereitstellenden Technologien kontinuierlich an. Prinzipiell können bereits heute Laufwasserkraftwerke mittels einer Durchlaufspeicherung Regelenergie bereitstellen. Bislang gibt es jedoch keinen einheitlichen Kriterienkatalog, der die technische Durchführbarkeit einer Durchlaufspeicherung bewertet. Im vorliegenden Beitrag wird ein solcher Katalog vorgestellt und am Beispiel des Unteren Neckars angewandt. Unter rein technischen Gesichtspunkten ist eine Durchlaufspeicherung zwar prinzipiell denkbar, allerdings unterbinden schifffahrtsbedingte Restriktionen eine solche Bereitstellung von Regelenergie. Es wird daher empfohlen, eine Durchlaufspeicherung generell an Gewässern ohne strikte Auflagen durch die Schifffahrt zu betreiben. Außerdem ist der Zusammenschluss von mehreren Staustufen zu einem virtuellen Kraftwerk sinnvoll, um zusätzlich generierbare Strommengen gebündelt anbieten zu können.
Die Seewassernutzung weist ein beachtliches Potential zu Kühl- und Heizzwecken auf. Bereits seit längerem eingesetzte seewasserbetriebene Wärmepumpen in der Schweiz beweisen fortwährend ihre Praxistauglichkeit. In Deutschland wird diese Technik jedoch bislang kaum genutzt. Mit Hilfe eines interdisziplinären geowissenschaftlichen Ansatzes wird derzeit das bestehende Potential in Deutschland quantifiziert und dessen Nutzungshemmnisse identifiziert, um in einem weiteren Schritt Handlungsoptionen für einen verstärkten Einsatz dieser Technologie zu erarbeiten.
Die energetische Sanierung von Gebäuden ist von großer Relevanz, um die gesetzlichen Klimaziele zu erreichen. Die Methode des seriellen Sanierens spielt hierbei eine wichtige Rolle. Sie gilt als ganzheitliche Maßnahme zur energetischen Aufwertung von Bestandsgebäuden, durch die nicht nur die Gebäudehülle und die Anlagentechnik, wie etwa das Heizungssystem, effektiv verbessert werden, sondern auch eine Integration von Anlagen zur Strom- und Warmwasseraufbereitung erfolgt. Bei der seriellen Sanierung wird, in Anlehnung an die Industrie und an die modulare Bauweise, eine Vorfertigung der Fassaden-
und Dachelemente durchgeführt. Im Nachgang werden die einzelnen Bauelemente und Anlagen montiert bzw. installiert. Durch die Auslagerung der Produktion und durch die Vorfertigung der Elemente besteht das Potenzial, die Montagezeit und die damit verbundenen Einschränkungen vor Ort für die Bewohner deutlich zu reduzieren.
IT-Kosten machen heute einen immer größeren Anteil an den Gesamtkosten von Unternehmen aus. Die Verantwortlichen sind aufgefordert die IT-Kosten zu senken oder zumindest ein effizientes Management sicherzustellen. Oftmals fehlt es dafür an Transparenz und Verständnis für diese Ausgaben. Die Analyse der IT-Kostentreiber ermöglicht ein tieferes Verständnis der Ursachen und Auswirkungen strategischer Entscheidungen. Dieser Beitrag zielt darauf ab, die strategischen IT-Kostentreiber bezüglich des Wirkungshorizonts und des Entscheidungsortes zu analysieren. Die durchgeführte Delphi-Studie zeigt, dass Entscheidungen über diese Kostentreiber größtenteils mittel- bis langfristige Auswirkungen haben. Zudem wird deutlich, dass die IT-Abteilung zwar in den Entscheidungsprozess eingebunden ist, während die finalen Entscheidungen häufig stärker im Fachbereich liegen. Zusammenarbeit und effektive Kommunikation sind deshalb entscheidend und die Verantwortung für IT-Kosten sollte von allen EntscheidungsträgerInnen getragen werden. Dieser Beitrag erweitert die Forschung im IT-Kostenmanagement und sensibilisiert PraktikerInnen für Kostenbeeinflussungshebel und die strategische Diskussion über IT-Kosten und das Wertversprechen der IT.
Digitalisierung im Bauwesen
(2015)
Technologiebasierte Startups leisten einen wesentlichen Beitrag zur wirtschaftlichen sowie gesellschaftlichen Entwicklung. Im Zuge ihrer Gründung benötigen sie Unterstützung in Form von Risikokapital, das in der Seed- und Early-Stage primär durch Business Angels (BAs) bereitgestellt wird. Die Abläufe und Bewertungskriterien des BA Investmentprozesses sind bisher jedoch unzureichend erforscht. Der vorliegende Beitrag nutzt Experteninterviews im Rahmen einer Fallstudie des baden-württembergischen entrepreneurialen Ökosystems zur Identifikation des Vorgehens von BAs bei der Bewertung und Auswahl technologiebasierter Startups. Zudem werden die Kriterien, nach denen BAs vielversprechende von scheiternden Startups unterscheiden abgeleitet. Somit trägt der Beitrag zur Öffnung der „Black Box” von Investmentaktivitäten in den frühsten Gründungsphasen bei.
Nach heutigem Stand der Technik kommen für die Dekontamination von Störstellen wie z.B. Ecken und Innenkanten, weitestgehend Technik aus dem konventionellen Sanierungsbereich zum Einsatz. Maschinen wie Nadelpistolen und Stockgeräte belasten das Arbeitspersonal mit starken Vibrationen und hohen Rückstellkräften. Daher sind entsprechend lange Pausenzeiten erforderlich, wodurch die ohnehin schon geringe Abtragleistung weiter gesenkt wird. Neben dem zusätzlichen Mehraufwand kann die Technik, aufgrund fehlender Absaugungseinrichtungen, unter Umständen zu einer Kontaminationsverschleppung führen. Hierbei werden in bereits dekontaminierten Bereichen kontaminierte Partikel verteilt, wodurch die erzielten Bearbeitungsfortschritte teilweise rückgängig gemacht werden.
Aufgrund der Vielzahl von Nachteilen, die bei den bisher eingesetzten Geräten auftreten, wurde das Forschungsprojekt EKONT-1 zur „Entwicklung eines innovativen, teilautomatisierten Gerätes für eine trocken-mechanische Ecken-, Kanten- und Störstellendekontamination in kerntechnischen Anlagen“ angestoßen und durchgeführt. Im Rahmen dieses Projektes konnten viele neue Erkenntnisse gewonnen und mehrere funktionsfähige Prototypen entwickelt, gebaut und sowohl im Labor als auch im praktischen Einsatz getestet werden. Da im Laufe der Versuche noch einige Verbesserungspotenziale aufgetreten sind, wurde zum 01.07.23 das Folge Projekt EKONT-2 gestartet, was sich mit der Weiterentwicklung der existierenden Prototypen beschäftigt.
Das Thema Schatten-IT hat erst in den letzten Jahren in Wissenschaft und Praxis erheblich an Bedeutung gewonnen.1 Unter dem Begriff Schatten-IT werden dabei Systeme verstanden, welche die Fachbereiche in Eigenregie beschaffen oder erstellen und die nicht in das IT-Servicemanagement des Unternehmens eingebunden sind.2 Das Thema Schatten-IT ist dabei weder neu noch selten. Trotz dieser langen Geschichte war über die Verbreitung der Schatten-IT wenig Genaues bekannt. Im einem Beitrag in dieser Zeitschrift im Jahr 2011 haben wir die Risiken der Schatten-IT beschrieben und damit die Notwendigkeit für die Auseinandersetzung mit dem Thema Schatten-IT hergeleitet.3 Im Forschungsprojekt Schatten-IT des Konstanzer Instituts für Prozesssteuerung wurde dann in den vergangenen Jahren eine Methode zum Management der Schatten-IT entwickelt und in verschiedenen Fallstudien evaluiert. Ziel dieses Beitrages ist es, die empirischen Ergebnisse aus den Fallstudien vorzustellen.4 Die Datenbasis bilden dabei die Fallstudien in vier Unternehmen, in denen insgesamt 386 Schatten-IT Systeme gefunden wurden. Zwei der Unternehmen stammen aus der Finanz- und Versicherungsbranche, die beiden anderen aus der Fertigungsindustrie. Je ein Abteilungsbereich wurde für die Untersuchung herangezogen. Aus diesen Fallstudien stellt der Beitrag im zweiten Kapitel die Ausprägungen der aufgedeckten Schatten-IT vor. Im dritten Kapitel folgt dann die Beschreibung der geschäftlichen Relevanz der Schatten-IT. Im vierten Abschnitt gehen wir auf die Qualität der Schatten-IT Systeme ein. In der Fortsetzung des Artikels werden in einem weiteren Beitrag die möglichen Prüfungsansätze beschrieben.
Schatten-IT (Teil 2)
(2017)
Schatten-IT
(2015)
Low-Code Development Plattformen (LCDPs) fördern die digitale Transformation von Organisationen, indem sie die Applikationsentwicklung durch FachbereichsmitarbeiterInnen ohne tiefgreifende Programmierkenntnisse – sogenannte Citizen Developer – ermöglichen. Marktforschungsinstitute prognostizieren, dass in den nächsten Jahren mehr als die Hälfte aller Applikationen mit LCDPs entwickelt werden. Nichtsdestotrotz stehen Organisationen vor der Herausforderung, sich für die richtigen Implementierungs- und Anwendungsansätze von LCDPs zu entscheiden. Dieser Artikel liefert daher ein umfassendes Bild über das praktische Verständnis und aktuelle Ansätze in verschiedenen Organisationen und leitet daraus Handlungsempfehlungen ab. Dafür wurden 16 Experteninterviews durchgeführt und wissenschaftlich analysiert. Die Ergebnisse zeigen, dass die Praxis grundsätzlich ein ähnliches Verständnis des Begriffs LCDP hat. Die Initiative für die Einführung kommt meist aus den Fachbereichen, die Entscheidung für oder gegen die LCDP-Implementierung wird jedoch meist von der Geschäftsführung in Kooperation mit der IT-Abteilung getroffen. Dabei unterscheiden sich die aktuellen Anwendungsansätze: Unternehmen nutzen entweder einen Self-Service-Ansatz durch die Fachbereiche oder integrieren die Entscheidung über eine potenzielle LCDP-Entwicklung durch die Citizen Developer in das bestehende Demand-Management der IT-Abteilung. Eine etablierte und adaptive Governance ist für beide Ansätze eine wichtige Voraussetzung. Die Erkenntnisse des Beitrags tragen zur wissenschaftlichen Diskussion bei, da dieser Artikel eine der ersten umfassenden und wissenschaftlich fundierten qualitativen Analysen über aktuelle praktische Adoptionsansätze der Praxis liefert. PraktikerInnen erfahren zudem, wie andere Unternehmen mit aktuellen Herausforderungen umgehen und welche Ansätze erfolgversprechend sind.
Schreibberater an den Universitäten und Hochschulen und Verfasser von Ratgeberliteratur zum wissenschaftlichen Schreiben haben vermutlich zum überwiegenden Teil einen geistes- und kulturwissenschaftlichen Hintergrund. Die Fachkulturen, in denen sie das Handwerk des Zitierens erlernt haben, sind jedoch grundverschieden von jenen der nicht-textbasierten Wissenschaften: der Ingenieurfächer, der (nicht rein theoretischen) Naturwissenschaften, der Medizin und auch der empirischen Wirtschafts- und Sozialwissenschaften und der empirischen Psychologie. Die Unterschiede sind besonders augenfällig bei der Frage nach der Belegpflicht einer übernommenen Information, also bei der jeweiligen Entscheidung darüber, ob eine Quelle angegeben werden muss oder nicht.
Ignorantia doctorum
(2022)
Since the turn of the millennium, many writing centers have been established at universities in the German-speaking world, in order to support students in academic writing. This essay argues for offering subject-anchored directive guidance and using scientific texts as a basis for model learning. It states that the rhetorical tradition is hardly taken into account in the writing centers. Five arguments for this ignorance are discussed and, if possible, dispelled: the antiquity argument, which considers rhetoric outdated; the orality argument, which understands rhetoric as irrelevant to writing; the moral argument, which condemns rhetoric as a tool for demagogues; the positivist argument, which criticizes rhetoric as unempirical; and the didactic argument, which rejects rhetoric as a rigid doctrine. The discussion shows, however, that the rhetorical tradition, with its normative power and centuries of teaching practice, is a treasure trove of writing didactics that holds many resources, such as well-founded assessment criteria for the quality, appropriateness, and usefulness of texts.
Die GIGA-Adaptionsmethode
(2022)
Der Aufsatz stellt eine schreibdidaktische Lehrmethode vor, die auf einem Cicero-Zitat über das Aptum, die Angemessenheit des Stils, basiert. Nach einigen psychologischen Vorüberlegungen zur Differenz von Sprech- und Schreibsituation wird das Zitat im Hochschulschreibunterricht in Hinblick auf die darin genannten Stilfaktoren analysiert. Die Ergebnisliste dient als Grundlage einer Methode, mit der sich die stilistische Passgenauigkeit von Texten aller Art stark verbessern lässt. Ziel ist es, eine möglicherweise schreibferne Klientel dazu zu motivieren, zu einem musterhaften, zweckdienlichen, sachgerechten und zielgruppenorientierten Schreiben zu finden.
Als Grundlage für die im Zuge der Verkehrswende anfallenden Planungs- und Entscheidungsprozesse werden aktuelle und digitale Daten des Straßenraums benötigt. Mobile-Mapping-Systeme sind in der Lage, solche raumbezogenen Daten schnell, genau und flächendeckend zu erfassen. Die anfallenden Datenmengen sind dabei jedoch erheblich und der Zeitaufwand für eine manuelle Analyse durch Personen mit entsprechender Expertise immens. Daher ist eine Automatisierung wünschenswert. Der vorliegende Beitrag gibt einen praxisbezogenen Überblick über Anwendungsmöglichkeiten für Künstliche Intelligenz (KI) im Themenbereich Straßenraumerfassung. Aufbauend auf einer thematischen Einführung in Mobile Mapping und KI werden ausgewählte Anwendungen vorgestellt, bei denen KI-Ansätze typische Prozesse der Straßenraumdatenverarbeitung unterstützen und beschleunigen können.
Einsatz von Bankettbeton bei schmalen und stark beanspruchten Ortsverbindungs- und Kreisstraßen
(2021)
Der Einsatz von Keramiken erfolgt oft bei hohen Temperaturen oder großen Temperaturgradienten. Deshalb ist die thermo-mechanische Beständigkeit von keramischen und feuerfesten Werkstoffen wichtig für die Materialauswahl und das Bauteildesign. Das Werkstoffverhalten wird durch die Thermoschock- bzw. Temperaturwechselbeständigkeit beschrieben. Etablierte Werkstoffprüfungen zu ihrer Ermittlung sind komplex und aufwendig. Das Potenzial von anwendungsnaher Werkstoffprüfung in Kombination mit modellbildender Simulation wird beschrieben.
Leichtbauwerkstoffe bewegen sich im Spannungsfeld neuer Werkstoffkombinationen, Herstellungs- und Fügetechnologien sowie von Lebensdauer und Nachhaltigkeit. Besondere Aufmerksamkeit sollte daher hybriden CFK-Metallverbunden gelten. Gefördert von der Internationalen Bodensee Hochschule IBH untersucht etwa das Werkstoffprüflabor der Hochschule Konstanz (HTWG) in einem internationalen Forschungsprojekt die Festigkeit von Sandwich-Verbunden aus Aluminium und CFK.
Excubation
(2015)
Mit Eis erneuerbar Heizen
(2023)
Die richtige Balance zwischen Flexibilität und Stabilität von Geschäftsprozessen ist ein essenzieller Faktor für Unternehmen, um den Anforderungen zunehmend dynamisch werdender Märkte gerecht zu werden.
Die durch die digitale Revolution stetig steigende IT-Durchdringung fordert eine noch besser abgestimmte Zusammenarbeit zwischen den IT- und Fachabteilungen.
Müssen Organisationen schwergewichtige IT- und Prozessarchitekturen pflegen, können diese Anforderungen in vielen Fällen nicht adäquat erfüllt werden. Zu lange Zeitfenster der Aktualisierungszyklen führen zu signifikanten Differenzen zwischen den modellierten und den gelebten Geschäftsprozessen. Die Autoren dieses Beitrags propagieren eine Lösung durch innovative agile Methoden, mit deren Hilfe es möglich wird schlanke, maßgeschneiderte Architekturen unmittelbar zu implementieren und kontinuierlich zu pflegen.
Arbeit an der Zukunft
(2016)
Die Digitalisierung beeinflusst nahezu alle Lebensbereiche. Welche der durch sie möglichen »Zukünfte« eintreten wird, ist heute schwer zu erkennen. Klar ist aber: Die HTWG muss ihre Studierenden darauf vorbereiten. Und sie will die Zukunft selbst mitgestalten. Ein Weg dahin ist die Modellfabrik 4.0, die fakultätsübergreifend Lehr- und Forschungsansätze bietet.
Die Digitalisierung und Flexibilisierung der Fertigung wird die Arbeitsbedingungen und Prozesse genauso wie Geschäftsmodelle stark verändern. In der Praxis ist gegenwärtig eine wachsende Diskrepanz zwischen Großunternehmen und KMUs erkennbar. Die Lernfabrik an der HTWG Konstanz will genau dies überbrücken.
Botenstoffe für Innovationen
(2022)