Refine
Year of publication
Document Type
- Report (103)
- Working Paper (88)
- Journal (Complete Issue of a Journal) (84)
- Master's Thesis (76)
- Article (73)
- Book (49)
- Bachelor Thesis (44)
- Conference Proceeding (34)
- Study Thesis (8)
- Other Publications (7)
Language
- German (447)
- English (138)
- Multiple languages (1)
Has Fulltext
- yes (586) (remove)
Keywords
- .NET Remoting (1)
- .NET-Plattform (1)
- 1D-CNN (1)
- 2 D environment Laser data (1)
- 3D Extended Object Tracking (1)
- 3D shape tracking (1)
- 3D-Druck (1)
- 5-10-40-Bedingung (1)
- ADO.NET (1)
- ASP.NET (1)
Institute
- Fakultät Architektur und Gestaltung (27)
- Fakultät Bauingenieurwesen (77)
- Fakultät Elektrotechnik und Informationstechnik (23)
- Fakultät Informatik (59)
- Fakultät Maschinenbau (33)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (40)
- Institut für Angewandte Forschung - IAF (44)
- Institut für Naturwissenschaften und Mathematik - INM (2)
- Institut für Optische Systeme - IOS (14)
- Institut für Strategische Innovation und Technologiemanagement - IST (2)
Further applications of the Cauchon algorithm to rank determination and bidiagonal factorization
(2018)
For a class of matrices connected with Cauchon diagrams, Cauchon matrices, and the Cauchon algorithm, a method for determining the rank, and for checking a set of consecutive row (or column) vectors for linear independence is presented. Cauchon diagrams are also linked to the elementary bidiagonal factorization of a matrix and to certain types of rank conditions associated with submatrices called descending rank conditions.
The class of square matrices of order n having a negative determinant and all their minors up to order n-1 nonnegative is considered. A characterization of these matrices is presented which provides an easy test based on the Cauchon algorithm for their recognition. Furthermore, the maximum allowable perturbation of the entry in position (2,2) such that the perturbed matrix remains in this class is given. Finally, it is shown that all matrices lying between two matrices of this class with respect to the checkerboard ordering are contained in this class, too.
In 1970, B.A. Asner, Jr., proved that for a real quasi-stable polynomial, i.e., a polynomial whose zeros lie in the closed left half-plane of the complex plane, its finite Hurwitz matrix is totally nonnegative, i.e., all its minors are nonnegative, and that the converse statement is not true. In this work, we explain this phenomenon in detail, and provide necessary and sufficient conditions for a real polynomial to have a totally nonnegative finite Hurwitz matrix.
Entwicklung eines Software-Systems für die Qualitätssicherung von Oberflächen im Automobilbau
(2003)
Heutzutage nimmt die Qualitätssicherung der Produkte bei immer mehr Betrieben einen zunehmend hohen Stellenwert ein. Auch in der Automobilindustrie gelten mittlerweile hohe Qualitätsrichtlinien. Damit der Qualitätsstandard aber auch gewährleistet werden kann, muss die Qualität des Produkts ständig gemessen und beurteilt werden. Um die manuelle Prüfung der Pressteile zu unterstützen wurde in den letzten Jahren bei VW/Audi do Brasil – BUC das Oberflächen-Inspektions-System DSight eingesetzt. Leider haben jedoch zahlreiche Messungen mit DSight ergeben, dass die Ergebnisse unzuverlässig und nicht reproduzierbar sind. Aus diesem Grund wurde im Rahmen dieser Diplomarbeit ein neues Software-System zur Inspektion von Oberflächen im Automobilbau entwickelt, das die Anforderungen der Qualitätssicherung besser erfüllt. Das neue System, das den Namen VisionMaster trägt, basiert auf dem Prinzip der Retro-Reflexion. Mit Hilfe implementierter Auswertungsalgorithmen werden aufgenommene Grauwertbilder der gepressten Teile analysiert. Die Ergebnisse der Inspektion werden anschließend in übersichtlicher Form in einem Protokoll ausgegeben. Um die Reproduzierbarkeit der Messungen zu garantieren und die Messergebnisse archivieren zu können, wird zusätzlich eine Datenbank eingesetzt, auf die über die ADO-Technologie zugegriffen wird. Zur Beschleunigung der Inspektion wir das neue System VisionMaster direkt in die Produktionshalle verlagert, um dort vor Ort Messungen an den gepressten Teilen durchführen zu können.
Im Rahmen der Lehrveranstaltung "Nachhaltigkeit im industriellen Umfeld" im Masterstudiengang Umwelt- und Verfahrenstechnik der Hochschulen Konstanz und Ravensburg-Weingarten wurde 2015 eine studentische Fachkonferenz durchgeführt.
Die Studierenden entwickelten in Einzelarbeit oder als Zweierteam Konferenzbeiträge zu folgenden Themen:
- Innovationen und Spannendes aus dem Bereich der Energieerzeugung und -wandlung
- Aspekte der Schließung von Stoffkreisläufen und Vermeidung von Schadstoffeinträgen in die Umwelt
- Chancen und Herausforderungen Nachwachsender Rohstoffe bei verschiedenen Einsatzmöglichkeiten sowie Themen der Nachhaltigkeit in der Landwirtschaft
- verschiedene Blickwinkel auf das Thema Wasser (von der Abwasserreinigung bis zum Wasserkonsum der Konsumenten)
- die Betrachtung spezifischer Industrien und Unternehmen sowie deren Werkzeuge zur Umsetzung von Nachhaltigkeit
Die Ergebnisse der studentischen Fachkonferenz zur „Nachhaltigkeit im industriellen Umfeld“ werden in der vorliegenden Publikation präsentiert.
Positive systems play an important role in systems and control theory and have found applications in multiagent systems, neural networks, systems biology, and more. Positive systems map the nonnegative orthant to itself (and also the non-positive orthant to itself). In other words, they map the set of vectors with zero sign variation to itself. In this article, discrete-time linear systems that map the set of vectors with up to k-1 sign variations to itself are introduced. For the special case k = 1 these reduce to discrete-time positive linear systems. Properties of these systems are analyzed using tools from the theory of sign-regular matrices. In particular, it is shown that almost every solution of such systems converges to the set of vectors with up to k-1 sign variations. It is also shown that these systems induce a positive dynamics of k-dimensional parallelotopes.
Forecasting is crucial for both system planning and operations in the energy sector. With increasing penetration of renewable energy sources, increasing fluctuations in the power generation need to be taken into account. Probabilistic load forecasting is a young, but emerging research topic focusing on the prediction of future uncertainties. However, the majority of publications so far focus on techniques like quantile regression, ensemble, or scenario-based methods, which generate discrete quantiles or sets of possible load curves. The conditioned probability distribution remains unknown and can only be estimated when the output is post-processed using a statistical method like kernel density estimation.
Instead, the proposed probabilistic deep learning model uses a cascade of transformation functions, known as normalizing flow, to model the conditioned density function from a smart meter dataset containing electricity demand information for over 4,000 buildings in Ireland. Since the whole probability density function is tractable, the parameters of the model can be obtained by minimizing the negative loglikelihood through the state of the art gradient descent. This leads to the model with the best representation of the data distribution.
Two different deep learning models have been compared, a simple three-layer fully connected neural network and a more advanced convolutional neural network for sequential data processing inspired by the WaveNet architecture. These models have been used to parametrize three different probabilistic models, a simple normal distribution, a Gaussian mixture model, and the normalizing flow model. The prediction horizon is set to one day with a resolution of 30 minutes, hence the models predict 48 conditioned probability distributions.
The normalizing flow model outperforms the two other variants for both architectures and proves its ability to capture the complex structures and dependencies causing the variations in the data. Understanding the stochastic nature of the task in such detail makes the methodology applicable for other use cases apart from forecasting. It is shown how it can be used to detect anomalies in the power grid or generate synthetic scenarios for grid planning.
Probabilistic Short-Term Low-Voltage Load Forecasting using Bernstein-Polynomial Normalizing Flows
(2021)
The transition to a fully renewable energy grid requires better forecasting of demand at the low-voltage level. However, high fluctuations and increasing electrification cause huge forecast errors with traditional point estimates. Probabilistic load forecasts take future uncertainties into account and thus enables various applications in low-carbon energy systems. We propose an approach for flexible conditional density forecasting of short-term load based on Bernstein-Polynomial Normalizing Flows where a neural network controls the parameters of the flow. In an empirical study with 363 smart meter customers, our density predictions compare favorably against Gaussian and Gaussian mixture densities and also outperform a non-parametric approach based on the pinball loss for 24h-ahead load forecasting for two different neural network architectures.
Der Inhalt dieser Arbeit befasst sich mit der Verwendung von regionalen Ressourcen in Form von Erde. Diese soll als Baumaterial unter Anwendung der Stampflehmbauweise für
ökologischeres Bauen dienen. Damit der Baustoff den Ansprüchen heutiger Bauaufgaben gerecht wird, wird untersucht, mit welchen nachhaltigen Methoden die Erde stabilisiert werden kann. Darüber hinaus wird nach einem zukunftsweisenden Fertigungsverfahren
für den Stampflehmbau gesucht. Die Nutzung und Kombination dieser Aspekte bezeichnen wir als Erdbau 4.0, welcher unter anderem für das Maun Sciene Park Projekt in Botswana infrage kommen könnte.
Creatio ex nihilo
(2015)
Von Kommunikationsdesignern wird erwartet, dass sie kreativ sind. Es wird von ihnen gefordert, dass sie Ideen haben, die innovativ, neu und originell wirken. Diese Anforderung bekommen Gestalter schon früh in ihrer Ausbildung zu spüren. Die Frage, die sich diese Arbeit stellt, ist: Kann dieses Ziel überhaupt erreicht werden? Oder ist das Verfolgen von Originalität nur eine Illusion? Oder gar ein Mythos? Wie schon Picasso anmerkte: »Kunst ist Diebstahl.« Wenn nichts Neues geschaffen werden kann, müssen wir einen Weg finden, Bestehendes so zu verändern, dass das Ergebnis mehr ist als die Summe der Einzelteile. Der Diebstahl bestehender kreativer Leistung wäre somit Teil unseres Berufsfelds und sollte auch in der Designerausbildung eine wichtige Rolle spielen. Ich stelle mich mit dieser Arbeit dem Mythos der Originalität, dem Glauben an eine »creatio ex nihilo«, und beschäftige mich mit dessen Einfluss auf den Designprozess und den möglichen Auswirkungen auf die Ausbildung junger Gestalter.
Der Begriff der Originalität wird heute sehr unkontrolliert verwendet. Mittels einer quantitativen Inhaltsanalyse, Experteninterviews sowie Telefongesprächen wurde der Begriff deshalb hinterfragt und anders definiert. Die Auswirkungen auf den Designprozess wurden mittels eines Experiments mit Studierenden der Studiengänge
Kommunikationsdesign ermittelt. Dabei mussten die Probanden unter dem Druck einer originellen Idee gestalten. Die Lösungen wurden anschließend in einer Online-Umfrage von mehreren Personen subjektiv bewertet. Alle gesammelten Inhalte finden sich wieder in sechs Kapiteln zum Mythos der Originalität im Kommunikationsdesign (Teil A) und einer Forschungsdokumentation (Teil B).
Die Frage „Wozu braucht man das?“ vonseiten der Studierenden oder Aussagen wie „Das habe ich im Beruf später nie mehr benötigt.“ von ehemaligen Studierenden ist den meisten Mathematikdozierenden sehr vertraut. Im Projekt BiLeSA wird dem Wunsch nach Integration von Praxisnähe im Mathematikunterricht mithilfe einer Smartphone-App, welche ausgewählte Themen in der Mathematik anhand von digitalen Bildern sichtbar macht, umgesetzt. Bei den ausgewählten Themen handelt es sich um (affin) lineare Abbildungen, Ableitungen in höheren Raumdimensionen und Potenzen von Komplexen Zahlen. Die Konzeptionierung des Lernobjekts erfolgte mit dem Design Based Research (DBR) Ansatz, welches im Basisprojekt des IBH-Labs „Seamless Learning“ konzipiert und entwickelt wurde.
Wer schon einmal dicht gedrängt vor der Konzertbühne stand kann sich die aussichtslose Lage, wenn die Stimmung kippt und Panik aufkommt, gut vorstellen. Es ist sehr wichtig, Räume und Events, die zeitweise von sehr vielen Menschen aufgesucht werden, so zu gestalten und zu planen, dass maximale Sicherheit gewährleistet ist. Damit eine öffentliche Veranstaltung reibungslos verläuft ist eine gründliche Planung, also ein qualitativ hochwertiges Crowd Management unabdingbar.
Im diesem Beitrag geht es darum zu zeigen, dass die spezifisch ethische Dimension der Go-vernanceethik als kohärentistische Ethikauffassung gedeutet - und begründungstheoretisch unterfüttert - werden kann. Mein Blick richtet sich also vor allem auf die Frage, wie ethisches Nachdenken kohärentistisch konzeptualisiert werden kann und, im zweiten Schritt, in welchem Sinne es m.E. eine strukturelle Parallele bzw. Anschlussfähigkeit von Kohärentismus und Governanceethik gibt. Es geht also im Folgenden weder darum, die Governanceethik als bereichsspezifische wirtschafts- und unternehmensethische Theorie zu untersuchen noch darum, bestimmte Referenzpunkte des Wielandschen Governanceethik-Modells1 wie z.B. ihre systemtheoretischen Prämissen zu diskutieren. Beginnen werde ich mit einer Bestimmung ethischen Nachdenkens als einer Orientierungsreflexion, die nicht letzte Prinzipien begründen, sondern vernünftige Selbstorientierung moralischer Akteure ermöglichen soll. Vor diesem Hintergrund wird das Theoriemodell des ethischen Kohärentismus entfaltet, um abschließend zu zeigen, dass dieses wesentliche Prämissen hinsichtlich der Auffassung über die Funktion ethischen Nachdenkens mit der Governanceethik teilt.
Non-volatile NAND flash memories store information as an electrical charge. Different read reference voltages are applied to read the data. However, the threshold voltage distributions vary due to aging effects like program erase cycling and data retention time. It is necessary to adapt the read reference voltages for different life-cycle conditions to minimize the error probability during readout. In the past, methods based on pilot data or high-resolution threshold voltage histograms were proposed to estimate the changes in voltage distributions. In this work, we propose a machine learning approach with neural networks to estimate the read reference voltages. The proposed method utilizes sparse histogram data for the threshold voltage distributions. For reading the information from triple-level cell (TLC) memories, several read reference voltages are applied in sequence. We consider two histogram resolutions. The simplest histogram consists of the zero-and-one ratios for the hard decision read operation, whereas a higher resolution is obtained by considering the quantization levels for soft-input decoding. This approach does not require pilot data for the voltage adaptation. Furthermore, only a few measurements of extreme points of the threshold voltage distributions are required as training data. Measurements with different conditions verify the proposed approach. The resulting neural networks perform well under other life-cycle conditions.