Refine
Year of publication
Document Type
- Conference Proceeding (642)
- Article (426)
- Other Publications (143)
- Part of a Book (141)
- Working Paper (128)
- Book (118)
- Report (115)
- Journal (Complete Issue of a Journal) (85)
- Master's Thesis (77)
- Doctoral Thesis (58)
Language
- German (1113)
- English (882)
- Multiple languages (8)
Keywords
Institute
- Fakultät Architektur und Gestaltung (41)
- Fakultät Bauingenieurwesen (104)
- Fakultät Elektrotechnik und Informationstechnik (34)
- Fakultät Informatik (121)
- Fakultät Maschinenbau (60)
- Fakultät Wirtschafts-, Kultur- und Rechtswissenschaften (106)
- Institut für Angewandte Forschung - IAF (115)
- Institut für Naturwissenschaften und Mathematik - INM (3)
- Institut für Optische Systeme - IOS (39)
- Institut für Strategische Innovation und Technologiemanagement - IST (60)
Durch die Banken- und Finanzkrise, welche 2007 in den USA begann und sich 2008 auf die Weltwirtschaft ausweitete, sehen sich Unternehmen mit Einsparungen und Insolvenzen konfrontiert. Deutsche Unternehmen stehen somit weiterhin einem enormen Innovationsdruck gegenüber und müssen Deutschland als Technologie- und Wissensstandort gerecht werden. Ein starker Zusammenhalt wird hierbei durch Entwicklungskooperationen gefördert und stellt deren Wichtigkeit in den Mittelpunkt. Es stellt sich schnell die Frage nach der praktischen Umsetzung von Kooperationen in Forschung und Entwicklung. Die vorliegende Arbeit soll einen umfassenden, aktuellen Überblick über die Grundlagen einer Unternehmenskooperation geben und mit Hilfe einer empirischen Studie die gängige Praxis darstellen. Dabei werden sowohl Gründe, Ziele, rechtliche Aspekte als auch die eigentliche Durchführung und spätere Beendigung der Zusammenarbeit beleuchtet. Wichtige Kernpunkte dieser Studie sind die unternehmensinternen Kernkompetenzen, der Schutz des Know-hows und die Kategorisierung von Entwicklungskooperationen. Gleichzeitig werden aktuelle Daten, die Situation der Forschung und Entwicklung in Deutschland und das Thema Förderung zusammengefasst, um ein ganzheitliches Bild zu generieren.
We have analyzed a pool of 37,839 articles published in 4,404 business-related journals in the entrepreneurship research field using a novel literature review approach that is based on machine learning and text data mining. Most papers have been published in the journals ‘Small Business Economics’, ‘International Journal of Entrepreneurship and Small Business’, and ‘Sustainability’ (Switzerland), while the sum of citations is highest in the ‘Journal of Business Venturing’, ‘Entrepreneurship Theory and Practice’, and ‘Small Business Economics’. We derived 29 overarching themes based on 52 identified clusters. The social entrepreneurship, development, innovation, capital, and economy clusters represent the largest ones among those with high thematic clarity. The most discussed clusters measured by the average number of citations per assigned paper are research, orientation, capital, gender, and growth. Clusters with the highest average growth in publications per year are social entrepreneurship, innovation, development, entrepreneurship education, and (business-) models. Measured by the average yearly citation rate per paper, the thematic cluster ‘research’, mostly containing literature studies, received most attention. The MLR allows for an inclusion of a significantly higher number of publications compared to traditional reviews thus providing a comprehensive, descriptive overview of the whole research field.
The use of deep learning models with medical data is becoming more widespread. However, although numerous models have shown high accuracy in medical-related tasks, such as medical image recognition (e.g. radiographs), there are still many problems with seeing these models operating in a real healthcare environment. This article presents a series of basic requirements that must be taken into account when developing deep learning models for biomedical time series classification tasks, with the aim of facilitating the subsequent production of the models in healthcare. These requirements range from the correct collection of data, to the existing techniques for a correct explanation of the results obtained by the models. This is due to the fact that one of the main reasons why the use of deep learning models is not more widespread in healthcare settings is their lack of clarity when it comes to explaining decision making.
Magnetic effects on austenitic stainless steels, formed during a low temperature carburizing depending on the alloy composition are discussed in this paper. Samples of different austenitic stainless steel alloys have been subjected to a multiple low-temperature carburization. Layer characteriszation with light microscope and hardness profiles show a growth of the layer thickness. The formation of an expanded austenite layer (lattice expansion) could be detected by X-ray diffraction (XRD). Feritscope was used to determine the magnetizability, whereby not all austenitic alloys form a magnetizability after treatment. Furthermore, test procedures were developed to visualize the magnetizability. For this purpose, magnetic force microscope measurements and investigations with ferrofluid were carried out and a fir tree ferromagnetic layer strucure could be proven.
Fachvortrag auf der 10th International European Stainless Steel Conference and 6th European Duplex Stainless Steel Conference (ESSC & DUPLEX 2019), 30.09. – 02.10.2019, Vienna, Austria
Pascal Laube presents machine learning approaches for three key problems of reverse engineering of defective structured surfaces: parametrization of curves and surfaces, geometric primitive classification and inpainting of high-resolution textures. The proposed methods aim to improve the reconstruction quality while further automating the process. The contributions demonstrate that machine learning can be a viable part of the CAD reverse engineering pipeline.
The evaluation of the effectiveness of different machine learning algorithms on a publicly available database of signals derived from wearable devices is presented with the goal of optimizing human activity recognition and classification. Among the wide number of body signals we choose a couple of signals, namely photoplethysmographic (optically detected subcutaneous blood volume) and tri-axis acceleration signals that are easy to be simultaneously acquired using commercial widespread devices (e.g. smartwatches) as well as custom wearable wireless devices designed for sport, healthcare, or clinical purposes. To this end, two widely used algorithms (decision tree and k-nearest neighbor) were tested, and their performance were compared to two new recent algorithms (particle Bernstein and a Monte Carlo-based regression) both in terms of accuracy and processing time. A data preprocessing phase was also considered to improve the performance of the machine learning procedures, in order to reduce the problem size and a detailed analysis of the compression strategy and results is also presented.
Die Grundlagenbände enthalten die Überschreitungspunkte für Stickstoffdioxid bzw. Feinstaub PM10 in den einzelnen Städten und Gemeinden, die Ergebnisse der Messungen nach der 39. BImSchV, die Ursachenanalyse sowie die Schutzziele an den Überschreitungspunkten der entsprechenden Jahre. Abschließend sind die Messergebnisse für alle Überschreitungsbereiche seit 2003 zusammengestellt.
Algorithms for calculating the string edit distance are used in e.g. information retrieval and document analysis systems or for evaluation of text recognizers. Text recognition based on CTC-trained LSTM networks includes a decoding step to produce a string, possibly using a language model, and evaluation using the string edit distance. The decoded string can further be used as a query for database search, e.g. in document retrieval. We propose to closely integrate dictionary search with text recognition to train both combined in a continuous fashion. This work shows that LSTM networks are capable of calculating the string edit distance while allowing for an exchangeable dictionary to separate learned algorithm from data. This could be a step towards integrating text recognition and dictionary search in one deep network.
Production and marketing of cereal grains are some of the main activities in developing countries to ensure food security. However, the food gap is complicated further by high postharvest loss of grains during storage. This study aimed to compare low‐cost modified‐atmosphere hermetic storage structures with traditional practice to minimize quantitative and qualitative losses of grains during storage. The study was conducted in two phases: in the first phase, seven hermetic storage structures with or without smoke infusion were compared, and one selected structure was further validated at scaled‐up capacity in the second phase.
Thermochemical surface hardening is used to overcome the weak mechanical performance of austenitic and duplex stainless steels. Both low-temperature carburizing and nitrocarburizing can improve the hardness, wear, galling, and cavitation resistance, while maintaining their good corrosion resistance. Therefore, it is crucial to not form chromium-rich precipitates during hardening as these can deteriorate the passivity of the alloy. The hardening parameters, the chemical composition of the steel, and the manufacturing route of a component determine whether precipitates are formed. This article gives an overview of suitable alloys for low-temperature surface hardening and the performance under corrosive loading.
This work proposes a construction for low-density parity-check (LDPC) codes over finite Gaussian integer fields. Furthermore, a new channel model for codes over Gaussian integers is introduced and its channel capacity is derived. This channel can be considered as a first order approximation of the additive white Gaussian noise channel with hard decision detection where only errors to nearest neighbors in the signal constellation are considered. For this channel, the proposed LDPC codes can be decoded with a simple non-probabilistic iterative decoding algorithm similar to Gallager's decoding algorithm A.
The computational complexity of the optimal maximum likelihood (ML) detector for spatial modulation increases rapidly as more transmit antennas or larger modulation orders are employed. Hence, ML detection may be infeasible for higher bit rates. This work proposes an improved suboptimal detection algorithm based on the Gaussian approximation method. It is demonstrated that the new method is closely related to the previously published signal vector based detection and the modified maximum ratio combiner, but can improve the detection performance compared to these methods. Furthermore, the performance of different signal constellations with suboptimal detection is investigated. Simulation results indicate that the performance loss compared to ML detection depends heavily on the signal constellation, where the recently proposed Eisenstein integer constellations are beneficial compared to classical QAM or PSK constellations.
Multi-dimensional spatial modulation is a multipleinput/ multiple-output wireless transmission technique, that uses only a few active antennas simultaneously. The computational complexity of the optimal maximum-likelihood (ML) detector at the receiver increases rapidly as more transmit antennas or larger modulation orders are employed. ML detection may be infeasible for higher bit rates. Many suboptimal detection algorithms for spatial modulation use two-stage detection schemes where the set of active antennas is detected in the first stage and the transmitted symbols in the second stage. Typically, these detection schemes use the ML strategy for the symbol detection. In this work, we consider a suboptimal detection algorithm for the second detection stage. This approach combines equalization and list decoding. We propose an algorithm for multi-dimensional signal constellations with a reduced search space in the second detection stage through set partitioning. In particular, we derive a set partitioning from the properties of Hurwitz integers. Simulation results demonstrate that the new algorithm achieves near-ML performance. It significantly reduces the complexity when compared with conventional two-stage detection schemes. Multi-dimensional constellations in combination with suboptimal detection can even outperform conventional signal constellations in combination with ML detection.
This work proposes a suboptimal detection algorithm for generalized multistream spatial modulation. Many suboptimal detection algorithms for spatial modulation use two-stage detection schemes where the set of active antennas is detected in the first stage and the transmitted symbols in the second stage. For multistream spatial modulation with large signal constellations the second detection step typically dominates the detection complexity. With the proposed detection scheme, the modified Gaussian approximation method is used for detecting the antenna pattern. In order to reduce the complexity for detecting the signal points, we propose a combined equalization and list decoding approach. Simulation results demonstrate that the new algorithm achieves near-maximum-likelihood performance with small list sizes. It significantly reduces the complexity when compared with conventional two-stage detection schemes.
Market research institutes forecast a growing relevance of Low-Code Development Platforms (LCDPs) for organizations. Moreover, the rising number of scientific publications in recent years shows the increasing interest of the academic community. However, an overview of current research focuses and fruitful future research topics is missing. This paper conducts a first scientific literature review on LCDPs to close this gap. The socio-technical system (STS) model, which categorizes information systems into a social and a technical system, serves to analyze the identified 32 publications. Most of current research focuses on the technical system (technology or task). In contrast, only three publications explicitly target the social system (structure or people). Hence, this paper enables future research to address the identified research gaps. Additionally, practitioners gain awareness of technical and social aspects involved in the development, implementation, and application of LCDPs.
In automotive a lot of electromagnetically, pyrotechnically or mechanically driven actuators are integrated to run comfort systems and to control safety systems in modern passenger cars. Using shape memory alloys (SMA) the existing systems could be simplified, performing the same function through new mechanisms with reduced size, weight, and costs. A drawback for the use of SMA in safety systems is the lack of materials knowledge concerning the durability of the switching function (long-time stability of the shape memory effect). Pedestrian safety systems play a significant role to reduce injuries and fatal casualties caused by accidents. One automotive safety system for pedestrian protection is the bonnet lifting system. Based on such an application, this article gives an introduction to existing bonnet lifting systems for pedestrian protection, describes the use of quick changing shape memory actuators and the results of the study concerning the long-time stability of the tested NiTi-wires. These wires were trained, exposed up to 4years at elevated temperatures (up to 140°C) and tested regarding their phase change temperatures, times, and strokes. For example, it was found that A P-temperature is shifted toward higher temperatures with longer exposing periods and higher temperatures. However, in the functional testing plant a delay in the switching time could not be detected. This article gives some answers concerning the long-time stability of NiTi-wires that were missing till now. With this knowledge, the number of future automotive applications using SMA can be increased. It can be concluded, that the use of quick changing shape memory actuators in safety systems could simplify the mechanism, reduce maintenance and manufacturing costs and should be insertable also for other automotive applications.
Die Arbeit stellt das Wesen und die Grundzüge der Lohnsteuer, einschließlich einem kurzen Abriß der Entwicklung des Lohnsteuerverfahrens, dar. Sie ist weder als Anleitung zur Ausfüllung eines Antrags auf Lohnsteuerjahresausgleich, noch als Nachschlagwerk gedacht. Der Leser dieser Ausarbeitung kennt die wesentlichen Grundzüge der Einkommensteuer, sowie deren besonderen Merkmale, wie z.B. der "Steuerprogression". Deshalb wurde hier auf die Darstellung der Einkommensteuer verzichtet; aus diesem Grunde wurde auch nicht die Veranlagung von Arbeitnehmern zur Einkommensteuer in die Ausarbeitung aufgenommen.
Logopädische Lernsoftware
(2003)
In den letzen Jahren konnte ein wachsendes Interesse an Lernsoftware im logopä-dischen Einsatzbereich verzeichnet werden. Dieses Interesse zeigte sich nicht nur auf Seite der logopädischen Fachpraxen sondern auch in den Grundschulen. Auf Grund dessen ist die Lernsoftware auf dem besten Wege, sich neben den traditionellen Lern- und Übungsmaterialien am Markt zu etablieren. Auf Grund der Vielfalt an Sprachstörungen wird ein System benötigt, das indivi-duell, je nach Bedürfnis des Klienten, konfiguriert werden kann. Die vorliegende Arbeit beschäftigt sich mit dem Entwurf und der Weiterentwick-lung der logopädischen Lernsoftware Detektiv Langohr, damit dieses Produkt den Anforderungen und Wünschen des Klientel so gerecht wie möglich wird. Auf Basis einer durchgeführten Marktanalyse wurden konkrete Anforderungen an ein solches System spezifiziert und im Anschluss in ein Projekt umgesetzt. Um dem Leser einen besseren Einblick in die Welt der Logopädie verschaffen zu können, wurde eine allgemeine Einführung in die Sprachtherapie dem Analyse- und Um-setzungsteil vorangestellt.
Loch im Putz = alles neu?
(2016)
List decoding for concatenated codes based on the Plotkin construction with BCH component codes
(2021)
Reed-Muller codes are a popular code family based on the Plotkin construction. Recently, these codes have regained some interest due to their close relation to polar codes and their low-complexity decoding. We consider a similar code family, i.e., the Plotkin concatenation with binary BCH component codes. This construction is more flexible regarding the attainable code parameters. In this work, we consider a list-based decoding algorithm for the Plotkin concatenation with BCH component codes. The proposed list decoding leads to a significant coding gain with only a small increase in computational complexity. Simulation results demonstrate that the Plotkin concatenation with the proposed decoding achieves near maximum likelihood decoding performance. This coding scheme can outperform polar codes for moderate code lengths.
CO2 compensation measures, in particular the compensation of flights, are becoming more and more popular. Carbon offsetting is defined as measures financed by donations that save greenhouse gases previously emitted elsewhere through climate protection projects.
CO2 abatement costs are often low in developing countries. This is why most offset projects are implemented there. Nevertheless, this does not mean that the holiday resort and the project country are in any way related to each other.
By linking carbon offset projects with the destination country, the tourist is able to get an impression of the co-financed project. In case such projects are realized in cooperation with the hotel, the hotel operator obtains a new tourist attraction and can demonstrate its efforts to climate protection in a PR-effective way.
Die Globalisierung hat insbesondere auf Kapital- und Informationsmärkten starke Veränderungen bewirkt. Der Anteil der Bevölkerung mit Aktienbesitz stieg in den letzten Jahren stetig an. Immer häufiger lösen sich Investoren von den institutionellen Anlageempfehlungen und bilden sich ihre eigene Meinung zur Entwicklung auf den Kapitalmärkten. Für die Kaufentscheidung einzelner Assets stehen Investoren neben den Fundamentaldaten aus Presse, Rundfunk und Internet auch Chartanalyse-Programme zur Entscheidungsunterstützung zur Verfügung. Die Gewichtung einzelner Aktien im Portfolio ist dabei eher willkürlich oder naiv. Die quantitative Optimierung des Portfolios ist heute noch institutionellen Einrichtungen bzw. Fonds-Managern vorbehalten, obgleich die informationstechnischen Voraussetzungen bereits für viele Investoren gegeben sind. Im Vergleich mit der klassischen Portfoliooptimierung, die der quadratischen Optimierung zuzurechnen ist, können lineare Modelle der Portfoliooptimierung diverse Vorteile bieten. Mit dem Risikomaß der sog. Tar-get-Shortfall-Probability können z.B. auch bei schiefen Renditeverteilungen effiziente Portfolios bestimmt werden. Darüberhinaus ist dieses Risikomaß, z.B. in der Form der Verlustwahrscheinlichkeit, für jeden Investor intuitiv verständlich. Im Folgenden werden einleitend knapp die klassische Portfoliooptimierung und Wege zur Auswahl effizienter Entscheidungen dargestellt. Nach einem Überblick zu den Risikokriterien der Portfoliooptimierung und zu den entsprechenden linearen Portfoliooptimierungsmodellen, werden Vorteile und Nachteile linearer Modelle diskutiert. Das letzte Kapitel ist dem Mean-Target-Shortfall-Probability-Vektor-Modell gewidmet. Abschließend werden die Ergebnisse eines empirischen Tests vorgestellt.
Liken und Sinn machen
(2016)
Digitization and sustainability are the two big topics of our current time. As the usage of digital products like IoT devices continues to grow, it affects the energy consumption caused by the Internet. At the same time, more and more companies feel the need to become carbon neutral and sustainable. Determining the environmental impact of an IoT device is challenging, as the production of the hardware components should be considered and the electricity consumption of the Internet since this is the primary communication medium of an IoT device. Estimating the electricity consumption of the Internet itself is a complex task. We performed a life cycle assessment (LCA) to determine the environmental impact of an intelligent smoke detector sold in Germany, taking its whole life-cycle from cradle-to-grave into account. We applied the impact assessment method ReCiPe 2016 Midpoint and compared its results with ILCD 2011 Midpoint+ to check the robustness of our results. The LCA results showed that electricity consumption during the use phase is the main contributor to environmental impacts. The mining of coal causes this contribution, which is a part of the German electricity mix. Consequently, the smoke detector mainly contributes to the impact categories of freshwater and marine ecotoxicity, but only marginally to global warming.
Das Potential der Offshore-Windenergie, welches hauptsächlich auf hohe mittlere Windgeschwindigkeiten zurückzuführen ist, kann nicht ignoriert werden. Trotzdem zeigt die Betrachtung der aktuell installierten Leistung und der Stromgestehungskosten, dass zusätzliche Risiko- und Kostenfaktoren existieren. Diese sind vor allem auf die Installation, die Energiewandlersysteme und die Netzanbindung zurückzuführen. Getriebeschäden sind einer dieser großen Kostenfaktoren. Aus diesem Grund gewinnen getriebelosen Windkraftanlagen mit permanentmagneterregten Synchrongeneratoren immer mehr an Relevanz. In der Netzanbindung von ganzen Offshore-Windparks überwiegt die Hochspannungs-Gleichstrom-Übertragung (HGÜ) ab einer Übertragungsdistanz von 80 km. Diese Tendenz ist sinkend. Steigende windparkinterne Spannungen auf 66 kV fördern zusätzlich den Verzicht auf Umspannplattformen, welche für die HGÜ-Technik aktuell sinnvoll sind. Diese und weitere bereits in Aussicht stehenden Entwicklungen führen zu einer Einschränkung der Risiko- und Kostenfaktoren. Es wird demnach davon ausgegangen, dass die Offshore-Windenergie, als Ergänzung zur Onshore-Windenergie, eine wichtige Rolle im Rahmen der Energiewende einnimmt.
Leveraging differences
(2022)
Lernfabrik
(2016)
Die Einführung von cyberphysischen Systemen in der Fertigung wird die Arbeitsbedingungen und Prozesse genauso wie Geschäftsmodelle stark verändern. In der Praxis kann eine wachsende Diskrepanz zwischen Großunternehmen und KMU beobachtet werden. Genau diese Diskrepanz soll die im Folgenden präsentierte Lernfabrik überbrücken, die Unternehmen eine Plattform zum Probieren bietet, die Möglichkeit zur Ausbildung von Studenten und Mitarbeitern schafft und Beratungsangebote bereithält. Zur Umsetzung wird ein integriertes, offenes und standardisiertes Automatisierungskonzept vorgestellt, das einzelne Geräte, ganze Produktionslinien bis hin zu höheren Automatisierungssystemen umfasst und auch eine Community bereitstellt sowie zur Umsetzung neuer Geschäftsmodelle dient.
Mit Effizienz- und Konsistenzlösungen lässt sich sowohl der Energiebedarf vermindern, als auch mit einer besseren ökologischen und strukturellen Passung im
Sinne der Bioökonomie versehen. Dieser Beitrag stellt die Möglichkeiten zur Steigerung der industriellen Energieeffizienz mittels lernenden Energieeffizienz-Netzwerken vor. Thematisiert werden Konzepte zur Überwindung von Hemmnissen durch Lernerfahrungen, insbesondere mittels des Synergiekonzeptes als innovativer Lernplattform sowie die systemischen Wechselwirkungen in diesem Kontext. Darüber hinaus werden hierzu korrespondierende innovationsorientierte Organisationsvarianten für das betriebliche Energiemanagement erläutert. Abschließend beleuchtet der Beitrag Konzepte von betrieblichen und überbetrieblichen Energieverbünden, insbesondere der gekoppelten Energieerzeugung und -nutzung, z. B. im Bereich der Wärmenutzung.
Leitsysteme retten Leben. Sind wir auf der Flucht, leiten sie uns auf einem Weg in die Sicherheit. Dabei nimmt uns das Leitsystem die Entscheidung ab, wohin es geht. Und wenn wir uns nicht mehr entscheiden müssen, dann benötigen wir weniger Zeit. Wir sind schneller. Ein gutes Leitsystem beschleunigt die Flucht. Wichtig ist, dass wir die Zeichen um uns herum eindeutig einordnen können. Aber sind die Zeichen des Leitsystems immer leicht zu finden? Und wie leicht sind sie zu verstehen? Es darf zu keinen Verwechslungen kommen. Es gilt sich zurechtzufinden. Dafür benötigen wir Orientierung. Wir benötigen also auch Orientierungssysteme. Aus diesen Orientierungssystemen und dem Leitsystem für Fluchtwege wird ein Sicherheitssystem. Damit ein Sicherheitssystem seinen Zweck erfüllen kann, muss es eindeutig sein. Es darf keinen Interpretationsspielraum bieten. Jeder muss es verstehen können. In dieser Arbeit soll gezeigt werden, dass ein gutes Sicherheitssystem nur durch eindeutige Gestaltung möglich ist. Egal wie schnell man flüchtet – ist es die falsche Richtung, rennt man in den Tod.
LEGIC Identsystems Ltd
(2017)
Zwischen den Herstellern und Nutzern von Investitionsgütern zeichnet sich ein Paradigmenwechsel in der Geschäftsbeziehung ab. Die Betrachtung der gesamten Lebenszykluskosten, der Total Cost of Ownership, wird zum wesentlichen Wettbewerbsfaktor der anbieterseitigen Servicestrategie sowie zum relevanten Bestandteil jedes intelligenten Beschaffungsmanagements.
Fundierte Fachbeiträge beleuchten das Konzept und seine Auswirkungen auf Anbieter, Nutzer und IT-Dienstleister. Führungskräfte, Service-, Instandhaltungs- und Beschaffungsverantwortliche sowie Entwickler erhalten einen praxisnahen Einblick in die beste Vorgehensweise bei der Ermittlung von TCO-Kennwerten, bei der Vertragsgestaltung, aber auch für die Risikobetrachtung und den richtigen Umgang mit Umsetzungshindernissen. Business Cases, vor allem aus dem Maschinen- und Anlagenbau, schildern die Dynamik und Innovationskraft dieses an Bedeutung zunehmenden Themenfeldes.
Anthropologists’ arrival stories have long served to justify, naturalize, and domesticate—often through humor—the fraught moment of entering unasked into other people's lives. This textual convention has been thoroughly critiqued, but no comparable attention has been paid to the analogous moment of departure from the field. The digital age enables both sides to maintain contact, a shift that negates the finality of earlier departures. This article engages the changes wrought by digital media that allow us to remain connected to the field. While this seems a humane affordance, it also means that it is no longer feasible to cleanly sever ties established ‘there’. When anthropologists leave the field, the field will likely follow them—on Facebook or Instagram.
Knot placement for curve approximation is a well known and yet open problem in geometric modeling. Selecting knot values that yield good approximations is a challenging task, based largely on heuristics and user experience. More advanced approaches range from parametric averaging to genetic algorithms.
In this paper, we propose to use Support Vector Machines (SVMs) to determine suitable knot vectors for B-spline curve approximation. The SVMs are trained to identify locations in a sequential point cloud where knot placement will improve the approximation error. After the training phase, the SVM can assign, to each point set location, a so-called score. This score is based on geometric and differential geometric features of points. It measures the quality of each location to be used as knots in the subsequent approximation. From these scores, the final knot vector can be constructed exploring the topography of the score-vector without the need for iteration or optimization in the approximation process. Knot vectors computed with our approach outperform state of the art methods and yield tighter approximations.
We propose a novel end-to-end neural network architecture that, once trained, directly outputs a probabilistic clustering of a batch of input examples in one pass. It estimates a distribution over the number of clusters k, and for each 1≤k≤kmax, a distribution over the individual cluster assignment for each data point. The network is trained in advance in a supervised fashion on separate data to learn grouping by any perceptual similarity criterion based on pairwise labels (same/different group). It can then be applied to different data containing different groups. We demonstrate promising performance on high-dimensional data like images (COIL-100) and speech (TIMIT). We call this “learning to cluster” and show its conceptual difference to deep metric learning, semi-supervise clustering and other related approaches while having the advantage of performing learnable clustering fully end-to-end.
Lean Digitalization
(2020)
Leadership in a global world
(2017)
Die vorliegende Arbeit befasst sich mit der Frage, ob aus der auditiven Wahrnehmung allgemeingültige Gestaltungsparameter abgeleitet werden können. Hierzu wurde sowohl eine Grundlagenrecherche betrieben als auch eigene Experimente durchgeführt um sich einer Antwort auf die Frage qualitativ anzunähern.
Die Ergebnisse, die im Rahmen dieser Arbeit erbracht werden konnten, legen nahe, dass die Transformation von auditiven in gestalterische Parameter möglich ist, jedoch zum Teil auf subjektiven Empfindungen beruht, die von verschiedenen Person in individuell wahrgenommen werden können. Dennoch zeigen sich klare Tendenzen, die durch Analyse der Forschungsergebnisse und Befragung der Probanden Rückschlüsse auf Gemeinsamkeiten bei der Assoziation auditiver Variablen zulassen. Durch eine schrittweise Reduzierung der audiobezogenen Faktoren, wie Tonhöhe, Schalldruck oder Balance, kann gezeigt werden, dass beim Erfassen von auditiven Reizen, bildliche Ableitungen vorgenommen werden können und diese formspezifischer werden, je qualitativer die Klänge bewertet werden können.
Klangmuster mit vielen sich verändernden Variablen hingegen, werden im überwiegenden Maße rational und stark technisiert in Zeichenform wiedergegeben, da die Probanden offenbar versuchen, die für sie wahrnehmbaren Klangparameter auf dem Papier abzubilden. Da sich diese Parameter im Laufe der Untersuchung und Befragung als trivial herausgestellt haben, war die weitere Forschung auf die intuitive Formgebung gerichtet.
We are interested in computing a mini-batch-capable end-to-end algorithm to identify statistically independent components (ICA) in large scale and high-dimensional datasets. Current algorithms typically rely on pre-whitened data and do not integrate the two procedures of whitening and ICA estimation. Our online approach estimates a whitening and a rotation matrix with stochastic gradient descent on centered or uncentered data. We show that this can be done efficiently by combining Batch Karhunen-Löwe-Transformation [1] with Lie group techniques. Our algorithm is recursion-free and can be organized as feed-forward neural network which makes the use of GPU acceleration straight-forward. Because of the very fast convergence of Batch KLT, the gradient descent in the Lie group of orthogonal matrices stabilizes quickly. The optimization is further enhanced by integrating ADAM [2], an improved stochastic gradient descent (SGD) technique from the field of deep learning. We test the scaling capabilities by computing the independent components of the well-known ImageNet challenge (144 GB). Due to its robustness with respect to batch and step size, our approach can be used as a drop-in replacement for standard ICA algorithms where memory is a limiting factor.
The Lake Constance region is due to its scenic attractiveness one of the most visited destinations in German-speaking countries. Scenic attractiveness as well as so-called landscape stereotypes also play a decisive role in tourism marketing. Tour operators reproduce supra-individual landscape concepts and establish mental geographies that ultimately influence the choice of destinations. A growing trend in tourism is the emergence of creative narratives in tourism marketing and tourism offers induced by creative companies. By means of a discourse-analytical investigation, whose theoretical and conceptual frame of reference is the hegemony and discourse theory of Laclau and Mouffe (1985), recurring landscape stereotypes are identified in tourist promotional material for the destination Bodensee. Based on these results as well as expert interviews with regional tourism stakeholders, a discussion of the creative economic potential for regional tourism marketing will take place. The investigation shows that these potentials are currently not being exhausted. At the same time, creative tourism can help a rural region, such as Lake Constance, to position itself as an alternative to city tourism, while at the same time addressing the lucrative target group 60plus.
Land schafft Landschaft
(2015)
A physics lab-setup has been developed for engineering students in their first year at university. The so-called LabTeamCoaching helps to improve general lab skills, such as preparing an experiment, writing a documentation, using graphs and drawing conclusions. By using a flipped classroom approach, students get better involved than in our former physics labs when we applied classical methods. This approach will be described and an overview of our 10 years of experience using this method will be given.
Als Grundlage für die im Zuge der Verkehrswende anfallenden Planungs- und Entscheidungsprozesse werden aktuelle und digitale Daten des Straßenraums benötigt. Mobile-Mapping-Systeme sind in der Lage, solche raumbezogenen Daten schnell, genau und flächendeckend zu erfassen. Die anfallenden Datenmengen sind dabei jedoch erheblich und der Zeitaufwand für eine manuelle Analyse durch Personen mit entsprechender Expertise immens. Daher ist eine Automatisierung wünschenswert. Der vorliegende Beitrag gibt einen praxisbezogenen Überblick über Anwendungsmöglichkeiten für Künstliche Intelligenz (KI) im Themenbereich Straßenraumerfassung. Aufbauend auf einer thematischen Einführung in Mobile Mapping und KI werden ausgewählte Anwendungen vorgestellt, bei denen KI-Ansätze typische Prozesse der Straßenraumdatenverarbeitung unterstützen und beschleunigen können.