Refine
Year of publication
Document Type
- Report (103)
- Working Paper (88)
- Journal (Complete Issue of a Journal) (84)
- Master's Thesis (75)
- Article (71)
- Book (49)
- Bachelor Thesis (44)
- Conference Proceeding (34)
- Study Thesis (8)
- Other Publications (7)
Language
- German (445)
- English (137)
- Multiple languages (1)
Has Fulltext
- yes (583) (remove)
Keywords
- .NET Remoting (1)
- .NET-Plattform (1)
- 1D-CNN (1)
- 2 D environment Laser data (1)
- 3D Extended Object Tracking (1)
- 3D shape tracking (1)
- 3D-Druck (1)
- 5-10-40-Bedingung (1)
- ADO.NET (1)
- ASP.NET (1)
Institute
- Fakultät Architektur und Gestaltung (27)
- Fakultät Bauingenieurwesen (77)
- Fakultät Elektrotechnik und Informationstechnik (22)
- Fakultät Informatik (59)
- Fakultät Maschinenbau (33)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (40)
- Institut für Angewandte Forschung - IAF (44)
- Institut für Naturwissenschaften und Mathematik - INM (2)
- Institut für Optische Systeme - IOS (13)
- Institut für Strategische Innovation und Technologiemanagement - IST (2)
Heute vergeht keine Woche, in der nicht in der Presse über neue Unternehmenskrisen berichtet wird. Dabei überrascht, dass scheinbar auch größere Unternehmen weitgehend auf die Anwendung präventiver Maßnahmen des Krisenmanagements verzichten. Krisen entstehen meist nicht kurzfristig, sondern kündigen sich bereits im Vorfeld an. Diese schwachen Signale gilt es frühzeitig zu erfassen, um rechtzeitig und konsequent gegensteuern zu können. Hierzu steht ein umfangreiches Set von Methoden zur Verfügung. Viele Beispiele aus der aktuellen Wirtschaftspraxis zeigen, dass auch im Bereich des reaktiven Krisenmanagements Schwächen bestehen, Manager also vielfach zögern, die erforderlichen Gegenmaßnahmen umzusetzen. In der Managementausbildung wird zunehmend das theoretisch vermittelte Wissen anhand von Fallstudien aus der Unternehmenspraxis vertieft. Die Studierenden erhalten somit die Möglichkeit, in Kleingruppen das Erlernte anzuwenden und zu diskutieren. Die hierzu erforderlichen Fallstudien stehen im deutschsprachigen Raum allerdings in vielen Bereichen erst begrenzt zur Verfügung. Die vorliegende Sammlung von Fallstudien zum Krisenmanagement basiert auf Beiträgen, die angehende Wirtschaftsingenieurinnen und Wirtschaftsingenieure kurz vor ihrem Bachelorabschluss an der Hochschule Konstanz Technik, Wirtschaft und Gestaltung unter Anleitung des Herausgebers erstellt haben. Hierbei werden Unternehmen aus verschiedenen Branchen betrachtet, die alle mit einer Unternehmenskrise konfrontiert waren. Die Autoren zeigen auf, wie die jeweilige Krise entstanden ist und welche Maßnahmen vom Management ergriffen wurden, um diese zu bewältigen. Die vorbereiteten Fragen ermöglichen es, die Fallstudien während oder nach der Vorlesung in Kleingruppenform zu bearbeiten. Diese Fallstudiensammlung ist darüber hinaus auch für Praktiker von Interesse, die sich mit dem Thema Krisenmanagement näher auseinandersetzen möchten.
This thesis investigates methods for the recognition of facial expressions using support vector machines. Rather than trying to recognize facial actions in the face such as raised eyebrow, mouth open and frowns. These facial actions are described in the Facial Action Coding System (FACS) and are essential facial components, which can be combined to form facial expressions. We perform independent recognition of 6 upper and 10 lower action units in the face, which may occur either individually or in combination. Based on a feature extraction from grey-level values, the system is expected to recognize under real-time conditions. Results are presented with different image resolutions, SVM kernels and variations of low-level features.
Many countries offer state credit guarantees to support credit-constrained exporters. The policy instrument is commonly justified by governments as a means to mitigating adverse outcomes of financial market frictions for exporting firms. Accumulated returns to the German state credit guarantee scheme deriving from risk-compensating premia have outweighed accumulated losses over the past 60 years. Why do private financial agents not step in and provide insurance given that the state-run program yields positive returns? We argue that costs of risk diversification, liquidity management, and coordination among creditors limit the ability of private financial agents to offer comparable insurance products. Moreover, we suggest that the government’s greater effectiveness in recovering claims in foreign countries endows the state with a cost advantage in dealing with the risks involved in large export projects. We test these hypotheses using monthly firm-level data combined with official transaction-level data on covered exports of German firms and find suggestive evidence that positive effects on trade are due to mitigated financial constraints: State credit guarantees benefit firms that are dependent on external finance, if the value at risk which they seek to cover is large, and at times when refinancing conditions on the private financial market are tight.
Diese Masterarbeit erforscht das Potenzial großer Sprachmodelle in der Bauindustrie mit einem Fokus auf digitale Transformation, Effizienzsteigerung und Nachhaltigkeit. Durch eine umfassende Literaturanalyse und qualitative Experteninterviews werden spezifische Anwendungsfälle, Herausforderungen bei der Implementierung und ethische sowie datenschutzrechtliche Überlegungen untersucht.
Die Arbeit hebt hervor, wie große Sprachmodelle die Planungsprozesse optimieren, das Risikomanagement verbessern und maßgeschneiderte Lösungen entwickeln können, um ökonomische und ökologische Vorteile zu erzielen. Zudem werden praxisorientierte Empfehlungen für eine erfolgreiche Integration dieser Technik in das Bauwesen präsentiert, die sowohl die technologische Machbarkeit als auch soziale Akzeptanz berücksichtigen.
Abschließend werden zukünftige Forschungsrichtungen aufgezeigt, die darauf abzielen, die digitale Transformation im Bauwesen unter Einbeziehung ethischer Standards und Datenschutz zu beschleunigen.
Die Ergebnisse dieser Arbeit demonstrieren das Potenzial von großen Sprachmodellen, traditionelle Bauprozesse zu revolutionieren, und betonen die Notwendigkeit einer sorgfältigen Implementierung, um die Vorteile dieser Technologie vollständig auszuschöpfen.
Experimentelle Untersuchung einer Kontaktverbindung für die Anwendung im konstruktiven Holzbau
(2021)
Im Rahmen dieser Arbeit wurde eine Holz-Holz-Kontaktverbindung aus Brettschichtholz ohne mechanische Verbindungsmittel hinsichtlich ihrer Steifigkeit experimentell untersucht. Eine Druckstrebe wurde mit Hilfe eines versteckten Treppenversatzes unter einem Winkel von 30° bzw. 60° an einen Gurt angeschlossen. Insgesamt wurden in den zwei Prüfreihen 20 Prüfkörper untersucht.
Das für die Versuche verwendete Brettschichtholz wurde von vier verschiedenen Firmen und Ingenieurbüros in Deutschland zur Verfügung gestellt. Für die experimentellen Untersuchungen in dieser privatfinanzierten Masterthesis standen so immerhin ca. 50 Meter Brettschichtholz zur Verfügung.
Die Versuche wurden in der Öffentlichen Prüfstelle für Baustoffe und Geotechnik an der HTWG durchgeführt.
Die Auswertung der Versuchsergebnisse soll Aufschluss über die Steifigkeit, die Tragfähigkeit und das mechanische Verhalten eines solchen modifizierten Versatzes geben. Diese Erkenntnisse sollen eine Grundlage für die computergestützte Modellierung von Verbindungen schaffen, um lokale Effekte in Anschlussbereichen besser zu verstehen und möglichst realitätsnah implementieren zu können.
In the reverse engineering process one has to classify parts of point clouds with the correct type of geometric primitive. Features based on different geometric properties like point relations, normals, and curvature information can be used, to train classifiers like Support Vector Machines (SVM). These geometric features are estimated in the local neighborhood of a point of the point cloud. The multitude of different features makes an in-depth comparison necessary. In this work we evaluate 23 features for the classification of geometric primitives in point clouds. Their performance is evaluated on SVMs when used to classify geometric primitives in simulated and real laser scanned point clouds. We also introduce a normalization of point cloud density to improve classification generalization.
Contemporary empirical applications frequently require flexible regression models for complex response types and large tabular or non-tabular, including image or text, data. Classical regression models either break down under the computational load of processing such data or require additional manual feature extraction to make these problems tractable. Here, we present deeptrafo, a package for fitting flexible regression models for conditional distributions using a tensorflow backend with numerous additional processors, such as neural networks, penalties, and smoothing splines. Package deeptrafo implements deep conditional transformation models (DCTMs) for binary, ordinal, count, survival, continuous, and time series responses, potentially with uninformative censoring. Unlike other available methods, DCTMs do not assume a parametric family of distributions for the response. Further, the data analyst may trade off interpretability and flexibility by supplying custom neural network architectures and smoothers for each term in an intuitive formula interface. We demonstrate how to set up, fit, and work with DCTMs for several response types. We further showcase how to construct ensembles of these models, evaluate models using inbuilt cross-validation, and use other convenience functions for DCTMs in several applications. Lastly, we discuss DCTMs in light of other approaches to regression with non-tabular data.
Zum automatischen Testen der Endgeräte bei Nokia wird ein computergestütztes Systen namens Austere eingesetzt. Dieses System wurde vollständig innerhalb der Firma konzipiert und wird ständig weiterentwickelt. Der erste Teil der Diplomarbeit bestand darin, ein solches Austere Testsystem aus neuen Hardwarekomponenten aufzubauen und die schon vorhandene Testsoftware namens RAPT darauf anzupassen. Der Aufbau sowie der Zusammenhang der Soft- und Hardwarekomponenten untereinander und die Handhabung des Systems wird in Kapitel 3 beschrieben. Erst wenn man die Komplexität des Systems und den Zusammenhang der Komponenten untereinander verstanden hat, kann man sich den Erweiterungen widmen. Sie gehören zum zweiten Teil der Diplomarbeit. Diese Erweiterungen werden in den Folgekapiteln behandelt. In ihnen wird für das jeweilige Thema zunächst die Theorie beschrieben und anschließend soll eine Lösung der Erweiterung des Austere-Systems gegeben werden.
Die Anforderungen, die von Privatpersonen und Unternehmen an das Internet gestellt werden, sind im Laufe der letzten Jahre stark gewachsen. Längst dient das WWW nicht mehr nur für den Abruf von Informationen, sondern wird als universelle Plattform für Dienstleistungen aller Art verstanden. Im Zuge dieser Entwicklung hat es sich als neue Plattform für die Kommunikation zwischen Kunde und Anbieter etabliert und dient als Medium für die Ausführung komplexer Geschäftsprozesse. Für die Realisierung solcher Geschäftsprozesse werden Web-Anwendungen eingesetzt. Diese sind in ihrer Erstellung wesentlich aufwendiger, als eine Präsentation statischer Webseiten, und damit teurer und fehleranfälliger. Frameworks erlauben, durch die Standardisierung allgemeiner Vorgänge innerhalb von Web-Anwendungen, deren zeit- und damit kosteneffektivere Entwicklung. Zusätzlich kann, durch den Einsatz vorgefertigter Komponenten, der Grad der Wiederverwendung bereits gefundener Lösungen erhöht, und damit nochmals eine Zeitersparnis bei Entwurf und Erstellung einer Anwendung erreicht werden. Ein solches Framework namens "WACoF" wird an der FH Konstanz aktiv entwickelt, basierend auf den Forschungsergebnissen und unter der Leitung von Herrn Prof. Dr. Schmid. In diesem Zusammenhang sind bisher unter anderem Diplomarbeiten von Florian Falkenstein [Falk01] und Marc Nädele [Nädele02] angefertigt worden. Die Hauptaufgabe dieser Diplomarbeit bestand in der Abänderung des oben genanntes Frameworks, so dass sich damit Anwendungen nicht mehr in Programmcode, sondern über einen Anwendungsdeskriptor definieren lassen. Ein solcher Deskriptor enthält sämtliche Informationen, die den Aufbau der Anwendung aus Komponenten beschreiben. Um eine konkrete Anwendung zu erstellen, muss der Anwendungsentwickler lediglich diese Informationen, wie Customizing und die Verbindungen zwischen den Komponenten, in Form einer XML-Datei zur Verfügung stellen. Die Definition der Anwendung wird damit zum einen unabhängig von der konkreten Programmiersprache des Frameworks, zum anderen wird sie in einem einzigen Ort konzentriert und in einer klar definierten Form beschrieben, was ihre Bearbeitung durch entsprechende Tools - wie z.B. grafische Manipulation oder automatische Prüfung auf Korrektheit, und damit frühzeitige Erkennung von Fehlern - erheblich vereinfacht. Dazu war es zuerst notwendig, das Framework in Hinblick auf die Einführung des Deskriptors zu analysieren. Aufgrund dieser Analyse wurden allgemeine Bedingungen für den Zusammenbau von Komponenten aufgestellt, und anhand der bestehenden Anwendungskomponenten (siehe Diplomarbeit von Marc Nädele [Nädele02]) überprüft. Dann wurde das Framework um neue Elemente, wie eine Komponenten-Fabrik und einen Aktivitäts-Pool, erweitert und bestehende Elemente, wie die ComposedActivity und der Crosslink-Mechanismus, neu entworfen bzw. angepasst.
In der Nachhaltigkeits-Diskussion spielen anthropogene Treibhausgasemissionen durch den von ihnen hervorgerufenen Klimawandel eine entscheidende Rolle. Im Zuge dessen entscheidet sich die Hochschule Technik, Wirtschaft und Gestaltung in Konstanz (HTWG), eine jährliche Treibhausgasbilanzierung zu erstellen. Durch die jährliche Erfassung der hochschulbezogenen Emissionen erfolgt das Monitoring (dt.: Überwachung).
Die Bilanzierung und Überwachung der durch die Hochschule und ihren Betrieb verursachten Treibhausgasemissionen (THG-Emissionen) dienen als Ausgangspunkt für lokalen Klima-schutz. Die wesentlichen Handlungsfelder werden durch das Identifizieren der Hauptursachen für Treibhausgasemissionen ermittelt und setzen den Startpunkt für die Planung, Auswahl und Umsetzung von Klimaschutzaktivitäten. Durch eine langfristige und regelmäßige Überwachung der Emissionen trägt die HTWG auch über ihre lokalen Systemgrenzen hinaus zum gesellschaftlichen Umweltbewusstsein bei.
Um das Erreichen dieses Ziels zu unterstützen, wird im Rahmen der vorliegenden Abschlussarbeit ein Pflichtenheft erstellt. Dieses enthält eine Ausarbeitung über die erforderlichen Organisations- und Arbeitsstrukturen für das Monitoring der THG-Emissionen. Des Weiteren erfolgt mit der Status-Quo-Abschätzung der THG-Emissionen des festgelegten Basisjahres 2019 die erste exemplarische Praxisanwendung des Pflichtenheftes. Das Monitoring wird mit der Zielsetzung einer maßnahmen- und umsetzungsorientierten Anwendung konzeptioniert, dessen jährliche Erhebung mit einem vertretbaren Aufwand zu realisieren ist.
The growing error rates of triple-level cell (TLC) and quadruple-level cell (QLC) NAND flash memories have led to the application of error correction coding with soft-input decoding techniques in flash-based storage systems. Typically, flash memory is organized in pages where the individual bits per cell are assigned to different pages and different codewords of the error-correcting code. This page-wise encoding minimizes the read latency with hard-input decoding. To increase the decoding capability, soft-input decoding is used eventually due to the aging of the cells. This soft-decoding requires multiple read operations. Hence, the soft-read operations reduce the achievable throughput, and increase the read latency and power consumption. In this work, we investigate a different encoding and decoding approach that improves the error correction performance without increasing the number of reference voltages. We consider TLC and QLC flashes where all bits are jointly encoded using a Gray labeling. This cell-wise encoding improves the achievable channel capacity compared with independent page-wise encoding. Errors with cell-wise read operations typically result in a single erroneous bit per cell. We present a coding approach based on generalized concatenated codes that utilizes this property.
Das Forschungsprojekt betrifft ein Verfahren und eine Vorrichtung zur Ermittlung der Griffigkeit von Verkehrsoberflächen mittels Daten, die von einem Satelliten-Navigations-System in Verbindung mit Kfz-typischen Daten während eines Bremsvorganges erhalten werden. Die Bewegungsdaten des Fahrzeuges werden aus relativ genauen Navigationsinformationen in sehr kurzen Zeitintervallen per Funkübertragung oder direkt im Fahrzeug auf einem Datenträger abgelegt. Hieraus werden die ortsbezogenen Bremsverzögerungen ermittelt und ggf. mit denjenigen eines mitgeführten Beschleunigungsmeßgerätes verglichen. Aus den Bremsverzögerungen werden in Verbindung mit den Kfz-Kennwerten und der Straßengeometrie die jeweils ausnutzbaren Kraftschlussbeiwerte (sog. Reibwertmaxima) bzw. die örtliche Griffigkeit der Verkehrsoberfläche ermittelt.