To see the other types of publications on this topic, follow the link: Künstliche Intelligenz.

Dissertations / Theses on the topic 'Künstliche Intelligenz'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Künstliche Intelligenz.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Nikolaiev, Y., Інна Олексіївна Зайцева, Инна Алексеевна Зайцева, and Inna Oleksiivna Zaitseva. "Künstliche intelligenz." Thesis, Sumy State University, 2020. https://essuir.sumdu.edu.ua/handle/123456789/77844.

Full text
Abstract:
Künstliche Intelligenz hat sich im letzten Jahrzehnt von einem Science-Fiction-Traum zu einem kritischen Teil unseres Alltags entwickelt. Wir verwenden Künstliche-Intelligenz -Systeme, um mit unseren Handys über Siri zu interagieren, Autos wie Teslas zu interpretieren. Künstlich intelligente Algorithmen sind hier, sie haben unser Leben bereits zum Besseren oder Schlechteren verändert. Aber das ist nur der Anfang, und eines Tages werden wir 2019 auf Künstliche Intelligenz zurückblicken und darüber lachen, wie primitiv es war. In erster Linie sind KI-Systeme bereits darauf vorbereitet, Millionen von Jobs zu übernehmen. Jeder Job, bei dem ein Mensch Informationen von anderen Menschen herunternimmt und in ein System eingibt, wird wahrscheinlich veraltet. So sind Kassierer, Rezeptionisten, Telemarketer und Bankangestellte auf dem Weg. Da selbstfahrende Autos, selbstfahrende Drohnen und andere Förderer von A nach B komplexer werden, verlieren wir auch Jobs wie Lastwagenfahrer, Postangestellte, Kurierdienste und sogar die Lieferung von Pizza. Fabriken werden auch voll automatisiert, ebenso Autowaschanlagen und Kinos. Sogar ein Job als Journalist ist durch die schnelle Verbesserung von Nachrichtenalgorithmen bedroht, die Informationen sammeln und schneller und genauer liefern können.
APA, Harvard, Vancouver, ISO, and other styles
2

Hoidn, Florian. "Künstliche Intelligenz und Kommunikation in Koordinierungsproblemen." Doctoral thesis, Humboldt-Universität zu Berlin, 2021. http://edoc.hu-berlin.de/18452/23631.

Full text
Abstract:
Kommunikation entsteht, ohne dass hierfür notwendigerweise semantische oder syntaktische Regeln definiert werden müssen: Irgendwann haben unsere Vorfahren erlernt, miteinander zu kommunizieren, ohne dass ihnen jemand erklärte, wie das geht. In dieser Arbeit wird der philosophischen Frage nachgegangen, wie das möglich ist. Es soll geklärt werden, welche Bedingungen im Abstrakten dafür hinreichend sind, dass Wesen miteinander zu kommunizieren erlernen, und zwar insbesondere, ohne dass man ihnen hierfür eine konkrete Sprache vorgibt. Die Arbeit baut auf neuen Modellen und Erkenntnissen aus der Signalspieltheorie auf. Diese belegen, dass selbst einfache verstärkungsbasierte Lernverfahren in bestimmten Koordinierungsproblemen selbständig erlernen können, Information miteinander auszutauschen. Diese Erkenntnisse werden in dieser Arbeit mit Techniken aus dem maschinellen Lernen, insbesondere aus dem Bereich des deep reinforcement learning, kombiniert. Hiermit soll demonstriert werden, dass rudimentär intelligente Akteure selbstständig in relativ komplexen Sprachen miteinander kommunizieren können, wenn dies einer effizienteren Lösung nicht-trivialer Koordinierungsprobleme dient. Anders als in vergleichbaren Ansätzen, werden die lernfähigen Algorithmen, die in dieser Arbeit zum Einsatz kommen, weder dazu trainiert, real existierende Sprachen zu benutzen, noch werden sie dazu programmiert, künstliche Protokollsprachen zu verwenden. Vielmehr wird ihnen lediglich eine Menge von Signalen vorgegeben. Sowohl die syntaktischen Regeln, wie diese Signale aneinandergereiht werden dürfen, als auch die Semantik der Signale entstehen von alleine.
Communication emerges without the need for explicit definitions of semantic or syntactic rules: At some point, our ancestors learned to communicate with one another without anyone explaining to them how to do that. In this work, I'll try to answer the philosophical question of how that is possible. The goal is to find abstract conditions that are sufficient for the emergence of communication between creatures that do not have any predefined language available to them. This work builds on recent models and insights from the theory of signaling games. There, it is shown that simple reinforcement learning agents are able to learn to exchange meaningful information in suitable coordination problems autonomously. These insights will be combined with more powerful deep reinforcement learning techniques. Thus, it shall be demonstrated that moderately intelligent agents can learn to communicate in relatively complex languages, if this is useful to them in sufficiently non-trivial coordination problems. In contrast to existing work on communication based on artificial intelligence, the learning algorithms that will be applied here, will neither be trained to communicate in an existing natural language, nor will they be hard coded to use a predefined protocol. Instead, they will construct their messages freely from arbitrary sets of signals. The syntactic rules according to which these elementary signals can be chained together, as well as their semantics, will emerge autonomously.
APA, Harvard, Vancouver, ISO, and other styles
3

Hoidn, Florian [Verfasser]. "Künstliche Intelligenz und Kommunikation in Koordinierungsproblemen / Florian Hoidn." Berlin : Humboldt-Universität zu Berlin, 2021. http://d-nb.info/1235399206/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Steinmüller, Johannes, Holger Langner, Marc Ritter, and Jens Zeidler. "15 Jahre Künstliche Intelligenz an der TU Chemnitz." Universitätsbibliothek Chemnitz, 2008. http://nbn-resolving.de/urn:nbn:de:bsz:ch1-200800898.

Full text
Abstract:
Der vorliegende Band der Informatikberichte ist dem wissenschaftlichen Lebenswerk von Prof. Werner Dilger gewidmet. Seit Oktober 1993 hat er an der Fakultät für Informatik der TU Chemnitz hervorragende Arbeit in Forschung und Lehre geleistet. Dank der Mitarbeit zahlreicher Autoren beleuchtet der vorliegende Band eine große Vielfalt unterschiedlicher Aspekte der Künstlichen Intelligenz.
APA, Harvard, Vancouver, ISO, and other styles
5

Ellmauthaler, Stefan, and Jörg Pührer. "Proceedings of the International Workshop on Reactive Concepts in Knowledge Representation 2014." Universitätsbibliothek Leipzig, 2014. http://nbn-resolving.de/urn:nbn:de:bsz:15-qucosa-150562.

Full text
Abstract:
These are the proceedings of the International Workshop on Reactive Concepts in Knowledge Representation (ReactKnow 2014), which took place on August 19th, 2014 in Prague, co-located with the 21st European Conference on Artificial Intelligence (ECAI 2014).
APA, Harvard, Vancouver, ISO, and other styles
6

Rotermund, Richard [Verfasser]. "Künstliche Intelligenz aus staatlicher Perspektive : Rechtliche Herausforderungen und Chancen / Richard Rotermund." Frankfurt a.M. : Peter Lang GmbH, Internationaler Verlag der Wissenschaften, 2020. http://d-nb.info/122483223X/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Gründer, Willi, and Denis Polyakov. "Konstruktionslösungen mit Hilfe von Künstlicher Intelligenz." Thelem Universitätsverlag & Buchhandlung GmbH & Co. KG, 2019. https://tud.qucosa.de/id/qucosa%3A36932.

Full text
Abstract:
Im Rahmen des Artikels wird ein Ansatz für einen 'intellektuellen Konstruktionsassistenten' auf der Basis digitalisierter Erfahrung vorgeschlagen. Diese an die analytischen und numerischen Verfahren anknüpfenden Assistenten werden unter Verwendung von Methoden der Künstlichen Intelligenz erzeugt. Sie sollen bereits bekannte Wissenselemente und Erfahrungen aufnehmen und durch eine fortgesetzte Spiegelung an der Realität fortschreiben, ohne dass eine aufwendige Algorithmenbildung und zeitraubende Numerik den Transfer neuer, oftmals inhärenter Erkenntnisse in die tägliche Praxis und damit das Qualitätsmanagement behindert. Wissensunterschiede zwischen Abteilungen können auf diese Weise schnell beseitigt und Bildungsunterschiede zwischen Mitarbeitern ausgeglichen werden. Andererseits kann hiermit in den Unternehmen aber auch die Abbildung besonderer Stärken durch einen automatischen Abgleich gleichgelagerter Konstruktionen vorangetrieben werden. [... aus der Einleitung]
APA, Harvard, Vancouver, ISO, and other styles
8

Fent, Thomas. "Wissen gewinnen und gewinnen durch Wissen." SFB Adaptive Information Systems and Modelling in Economics and Management Science, WU Vienna University of Economics and Business, 2000. http://epub.wu.ac.at/1170/1/document.pdf.

Full text
Abstract:
Gemäß Alfred Korzybski (1921) unterscheidet sich der Mensch von Pflanzen und Tieren unter anderem durch seine Eigenschaft als "Zeit-Binder". Diese befähigt ihn, Erfahrung durch die Zeit zu transportieren. Menschen können Wissen aus der Vergangenheit ansammeln und das, was sie wissen, der Zukunft mitteilen. In der vorliegenden Arbeit werden die Möglichkeiten und Grenzen untersucht, diese Fähigkeit durch Algorithmen zu beschreiben, und in künstlichen lernenden Systemen zu implementieren. Zur Illustration wird abschließend aufgezeigt, wie ein künstlicher Agent und seine Umgebung beschaffen sein können, um ihm das Erlernen einer erfolgreichen Strategie in einem einfachen Nimm-Spiel zu ermöglichen. (Autorenreferat)
Series: Working Papers SFB "Adaptive Information Systems and Modelling in Economics and Management Science"
APA, Harvard, Vancouver, ISO, and other styles
9

Geißler, Holger. "Online-Debatten mit Künstlicher Intelligenz verbessern." TUDpress, 2019. https://tud.qucosa.de/id/qucosa%3A36546.

Full text
Abstract:
Die zugrundeliegende Kommunikationsform bei Online-Debatten wie Chats und Forendiskussionen ist die computervermittelte Kommunikation. Der Begriff bezeichnet vielfältige Kommunikationsformen, denen gemein ist, dass jeweils ein Computer als medialer Bedeutungsvermittler in die Kommunikation eingebunden ist. Die Informationsvermittlung durch computervermittelte Kommunikation ist damit im Vergleich zu anderen Kommunikationsformen wie der persönlichen Kommunikation stark eingeschränkt (Taddicken, 2008, 30ff.). Dies hat den Effekt, dass Online-Diskussionen im Vergleich zu persönlichen Diskussionen mit etlichen Schwierigkeiten zu kämpfen haben: Online-Diskussionen werden schnell unübersichtlich, sie drehen sich im Kreis, Argumente wiederholen sich, man redet aneinander vorbei, und gemeinsame Entscheidungen oder Kompromisse werden selten ausgehandelt. Soziale Normen rücken in den Hintergrund, Beleidigungen in den Vordergrund – vor allem bei Teilnehmern, die sich nicht persönlich kennen. Diese Schwierigkeiten und die vom Gesetzgeber auferlegte Haftung für Betreiber von Websites haben dazu geführt, dass viele Kommentarfunktionen auf Seiten wie z. B. der Tagesschau, der Deutsche Welle oder des Sterns ganz oder teilweise abgeschaltet wurden (u. a. Pohl, 2018). [... aus Punkt 1]
APA, Harvard, Vancouver, ISO, and other styles
10

Kippenhan, Jürgen [Verfasser], and Dieter [Akademischer Betreuer] Wandschneider. "Künstliche Intelligenz und die Rationalität gesellschaftlichen Handelns / Jürgen Kippenhan ; Betreuer: Dieter Wandschneider." Aachen : Universitätsbibliothek der RWTH Aachen, 2001. http://d-nb.info/1126267244/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Ben, Amor Heni. "Imitation Learning of Motor Skills for Synthetic Humanoids." Doctoral thesis, Technische Universitaet Bergakademie Freiberg Universitaetsbibliothek "Georgius Agricola", 2010. http://nbn-resolving.de/urn:nbn:de:bsz:105-qucosa-62877.

Full text
Abstract:
This thesis addresses the question of how to teach dynamic motor skills to synthetic humanoids. A general approach based on imitation learning is presented and evaluated on a number of synthetic humanoids, as well as a number of different motor skills. The approach allows for intuitive and natural specification of motor skills without the need for expert knowledge. Using this approach we show that various important problems in robotics and computer animation can be tackled, including the synthesis of natural grasping, the synthesis of locomotion behavior or the physical interaction between humans and robots.
APA, Harvard, Vancouver, ISO, and other styles
12

Seifert, Christin. "Ein Simulator für das Immunsystem." Master's thesis, Universitätsbibliothek Chemnitz, 2004. http://nbn-resolving.de/urn:nbn:de:swb:ch1-200400128.

Full text
Abstract:
In this thesis a Simulator of the Immune System (IS) is developed. The implemented models of the IS refines and extends models of existing Artificial IS
In der Arbeit wird der Prototyp eines Immunsystem-Simulators erstellt, der die vorhandenen Modelle Künstlicher Immunsystem verfeinert und die Untersuchung der Einflüsse verschiedener Parameter erlaubt
APA, Harvard, Vancouver, ISO, and other styles
13

Haagen, Christian [Verfasser]. "Verantwortung für Künstliche Intelligenz : Ethische Aspekte und zivilrechtliche Anforderungen bei der Herstellung von KI-Systemen / Christian Haagen." Baden-Baden : Nomos Verlagsgesellschaft mbH & Co. KG, 2021. http://d-nb.info/1233108832/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Keil, Heinz Simon. "Quo vadis "Additive Manufacturing"." Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2016. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-214719.

Full text
Abstract:
Aus der Einführung: "Stehen wir am Rande einer bio-nanotechnologischen getriebenen Revolution, die unsere Art zu leben, zu arbeiten und miteinander umzugehen grundlegend verändern wird? Welchem gesellschaftspolitischen, wirtschaftlichen und technologischen Wandel haben wir uns zu stellen? Langfristige Entwicklungszyklen (Kondratieff, Schumpeter) führen zur nachhaltigen Weiterentwicklung der Zivilisation. Mittelfristige Entwicklungen wie die Trends Globalisierung, Urbanisierung, Digitalisierung (Miniaturisierung) und Humanisierung (Individualisierung), die immer stärker unser Umfeld und Handeln beeinflussen führen zu ganzheitlichen, weltumspannenden Grundtendenzen der gesellschaftlichen Weiterentwicklung. Die technologischen "Enabler" Computing, Biotechnology, Artifical Intelligence, Robotik, Nanotechnology, Additive Manufacturing und Design Thinking wirken beschleunigend auf die gesellschaftlichen Entwicklungen ein. Die technologischen Möglichkeiten beschleunigen sowohl gesellschaftspolitische Zyklen und zivilisatorische Anpassungen. Durch rasanten technologischen, wissenschaftlichen Fortschritt, zunehmende Globalisierungswirkungen, beschleunigte Urbanisierung und aber auch politischer Interferenzen sind die Veränderungsparameter eines dynamischen Geschäftsumfelds immer schnellere Transformationen ausgesetzt. Alle diese Richtungen zeigen das unsere gesellschaftliche Entwicklung inzwischen stark durch die Technik getrieben ist. Ob dies auch heißt, dass wir den Punkt der Singularität (Kurzweil) absehbar erreichen ist dennoch noch offen. ..."
APA, Harvard, Vancouver, ISO, and other styles
15

Eraßme, Rolf. "Der Mensch und die 'Künstliche Intelligenz': Eine Profilierung und kritische Bewertung der unterschiedlichen Grundauffassungen vom Standpunkt des gemäßigten Realismus." Diss., RWTH Aachen, 2002. http://hdl.handle.net/10919/71556.

Full text
Abstract:
After a short introduction concerning the problem of "Artificial Intelligence" (AI) the work continues with a summary of the state of the art.Thereafter, it goes on to profile four different basic scientific views of human beings and AI: symbolism, connectionism, biologism and physicalism. The emphasis is on the elucidation of anthropologically relevant statements to intelligence, spirit, thinking, perception, will, consciousness, self-consciousness, feelings and life.It is demonstrated that the basic views referred to represent greatly abbreviated and distorted pictures of human beings. Theories that do not go beyond the quantifiable level cannot adequately encompass the nature of relevant concepts and capabilities. That is above all because of the fact that generally a philosophical materialism is advocated, which considers the existence of intellectual substances impossible. For this reason a philosophical critique is necessary. The position of moderate and critical realism is advocated, whose anthropological statements are secured by epistemological and metaphysical investigations.The work comes to the conclusion that human beings cannot be understood symbolistically, connectionistically, biologistically or physicalistically. Man is a physical-intellectual entity, endowed with reason, a living social being. He is formed and led by his intellectual and therefore immortal soul, which gives him uniqueness, irreplaceability and the value of personhood. He is capable of thinking and thus of objective, abstract perception, and therefore is intelligent. Humans have an unfettered will, which, led by mental perception, is to be directed toward the good. They are moreover, through reflection, self-conscious. Humans live an intellectually determined life, which essentially differs, despite biological similarity, from that of animals and cannot possibly, due to its substantial superiority, have developed from animal life.All substantial anthropological abilities (such as intelligence, will, consciousness etc.) presuppose spirit. Because it is not within the power of human beings to create a simple substance such as spirit, a thinking, perceptive, intelligent, willing, self-conscious, sentient living being can at best be only technically imitated, modelled or simulated but never be reproduced, copied or created. The relationship of humans to AI is thus determined by an insuperable difference between their natures.
APA, Harvard, Vancouver, ISO, and other styles
16

Müller, Mario [Verfasser], Mathias [Akademischer Betreuer] Hüsing, Burkhard [Akademischer Betreuer] Corves, and Karl-Heinz [Akademischer Betreuer] Modler. "Künstliche Intelligenz zur Struktur- und Maßsynthese ebener Führungs- und Übertragungsgetriebe / Mario Müller ; Mathias Hüsing, Burkhard Corves, Karl-Heinz Modler." Aachen : Universitätsbibliothek der RWTH Aachen, 2020. http://d-nb.info/1217503617/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Gelbke, Stefan. "Analyse und Neuimplementierung eines agentenbasierten Fertigungsmanagementsystems." Master's thesis, [S.l. : s.n.], 2006. http://nbn-resolving.de/urn:nbn:de:swb:ch1-200602089.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Schierwagen, Andreas. "Blickkontrolle in neuraler Architektur für Aktive Sehsysteme." Universität Leipzig, 1995. https://ul.qucosa.de/id/qucosa%3A34487.

Full text
Abstract:
Im Unterschied zu traditionellen Methodologien in der Künstlichen Intelligenz wird das Sehen im Rahmen des neuen Paradigmas 'Aktives Sehen' im Verhaltenskontext des Systems untersucht. Aktive Sehsysteme (ASS) weisen Merkmale auf, die der Biologie entstammen (Binokularität, Foveae, Blickkontrolle mit hoher Geschwindigkeit). Dieser Bericht analysiert Berechnungsstrategien der visuomotorischen Kontrolle, die von biologischen Sehsystemen verwendet werden, um sie für künstliche ASS nutzbar zu machen. Neurale Karten, Populationskodierung und Informationsverarbeitung in geschichteten Strukturen werden als universelle Prinzipien analoger neuraler Berechnungen gekennzeichnet, die auch der Blickkontrolle zugrunde liegen. Auf der Basis dieser Prinzipien schlagen wir ein Modell vor, das kartierte neurale Felder verwendet, um die raum-zeitliche Dynamik in der Motorkarte des Colliculus superior der Säugetiere darzustellen, eines sensomotorischen Transformationszentrums im Mittelhirn, das entscheidend an der Blickkontrolle beteiligt ist.
APA, Harvard, Vancouver, ISO, and other styles
19

Riedel, Marion. "Thinking Machines: Approaches, Achievements and Consequences." Thesis, Universitätsbibliothek Chemnitz, 2002. http://nbn-resolving.de/urn:nbn:de:bsz:ch1-200200425.

Full text
Abstract:
The paper discusses the basics of Cognitive Science and describes the achievements of research at the field of Artificial Intelligence
Die im Rahmen des Seminars "Language - Mind - Brain: An Introduction to Psycholinguistics" der englischen Sprachwissenschaft entstandene Arbeit befasst sich mit den Grundlagen der Kognition und diskutiert die Ergebnisse der Forschung auf dem Gebiet der Künstlichen Intelligenz
APA, Harvard, Vancouver, ISO, and other styles
20

Eggerl, Anja. "Optimization of combine processes using expert knowledge and methods of artificial intelligence." Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2018. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-230087.

Full text
Abstract:
Combine harvesters are used to gather plants from the field and separate them into the components of value, the grain and the straw. The optimal utilization of existing combine potential is an inevitable task to maximize harvest efficiency and hence to maximize profit. The only way to optimize the threshing and separation processes during harvest is to adjust the combine settings to existing conditions. Operating permanently at optimal harvest efficiency can only be achieved by an automatic control system. However, for reasons of transparency and due to lack of sensors, the approach in this thesis is a combined development of an interactive and an automatic control system for combine process optimization. The optimization of combine processes is a multi-dimensional and multi-objective optimization problem. The objectives of optimization are the harvest quality parameters. The decision variables, the parameters that can be modified, are the combine settings. Analytical optimization methods require the existence of a model that provides function values in dependence of defined input parameters. A comprehensive quantitative model for the input-output-behavior of the combine does not exist. Alternative optimization methods that handle multi-dimensional and multi-objective optimization problems can be found in the domain of Artificial Intelligence. In this work, knowledge acquisition was performed in order to obtain expert knowledge on combine process optimization. The result is a knowledge base with six adjustment matrices for different crop and combine types. The adjustment matrices contain problem oriented setting adjustment recommendations in order to solve single issues with quality parameters. A control algorithm has been developed that is also capable of solving multiple issues at the same time, utilizing the acquired expert knowledge. The basic principle to solve the given multi-objective optimization problem is a transformation into one-dimensional single-objective optimization problems which are solved iteratively. Several methods have been developed that are applied sequentially. In simulation, the average improvement from initial settings to optimized settings, achieved by the control algorithm, is between 34.5 % and 67.6 %. This demonstrates the good performance of the control algorithm.
APA, Harvard, Vancouver, ISO, and other styles
21

Riedel, Marion. "Machine Translation: A Theoretical and Practical Introduction." Thesis, Universitätsbibliothek Chemnitz, 2002. http://nbn-resolving.de/urn:nbn:de:bsz:ch1-200200447.

Full text
Abstract:
The paper presents the basics and the development of Machine Translation and explains different methods for evaluating translation machines on the base of a detailed example
Die im Rahmen des Seminars "Language and Computers" der englischen Sprachwissenschaft entstandene Arbeit behandelt die Grundlagen und die Entwicklung der Maschinellen Übersetzung und gibt anhand eines ausführlichen Beispiels Einblick in Methoden zur Evaluation von Übersetzungsmaschinen
APA, Harvard, Vancouver, ISO, and other styles
22

Göhring, Daniel. "Constraint based world modeling for multi agent systems in dynamic environments." Doctoral thesis, Humboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät II, 2009. http://dx.doi.org/10.18452/16040.

Full text
Abstract:
Die mobile Robotik stellt ein sehr junges und komplexes Forschungsfelder unserer Zeit dar. Innerhalb der letzten Jahrzehnte wurde es Robotern möglich, sich innerhalb ihrer Umgebung zu bewegen, zu navigieren und mit ihrer Umwelt zu interagieren. Aufgrund der Tatsache, dass die Welt von Unsicherheit geprägt ist und ein Roboter immer nur partielle Information über sie erhalten kann, wurden probabilistische Navigationsverfahren entwickelt, mit denen sich Roboter lokalisieren und Objekte ihrer Umgebung modellieren können. Weiterhin wurden in letzter Zeit Verfahren untersucht, die die kooperative Exploration der Umgebung durch eine Gruppe von Robotern zum Ziel haben. In der vorliegenden Arbeit wird ein neuartiges Konzept, welches sich Perzeptrelationen für die kooperative Umweltmodellierung zu Nutze macht, vorgestellt und evaluiert. Einen zweiten Beitrag der Arbeit stellen constraintbasierte Lokalisierungstechniken dar, die es einem oder mehreren Robotern auf effiziente Art und Weise ermöglichen, sich zu lokalisieren und ihre Umwelt zu modellieren.
Mobile autonomous robotics is a very young and complex field of research. Only in recent decades have robots become able to explore, to move, navigate and to interact with their environment. Since the world is uncertain and since robots can only gain partial information about it, probabilistic navigation algorithms have become very popular whenever a robot has to localize itself or surrounding objects. Furthermore, cooperative exploration and localization approaches have become very relevant lately, as robots begin to act not just alone but in groups. Within this thesis a new approach using the concept of spatial percept-relations for cooperative environment modeling is presented and evaluated. As a second contribution, constraint based localization techniques will be introduced for having a robot or a group of robots efficiently localized and to model their environment.
APA, Harvard, Vancouver, ISO, and other styles
23

Loetzsch, Martin. "Lexicon formation in autonomous robots." Doctoral thesis, Humboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät II, 2015. http://dx.doi.org/10.18452/17121.

Full text
Abstract:
"Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache". Ludwig Wittgenstein führte diese Idee in der ersten Hälfte des 20. Jahrhunderts in die Philosophie ein und in verwandten Disziplinen wie der Psychologie und Linguistik setzte sich vor allem in den letzten Jahrzehnten die Ansicht durch, dass natürliche Sprache ein dynamisches System arbiträrer und kulturell gelernter Konventionen ist. Forscher um Luc Steels übertrugen diesen Sprachbegriff seit Ende der 90er Jahre auf das Gebiet der Künstlichen Intelligenz, indem sie zunächst Software-Agenten und später Robotern mittels sogenannter Sprachspiele gemeinsame Kommunikationssysteme bilden liessen, ohne dass Agenten im Voraus mit linguistischem und konzeptionellen Wissen ausgestattet werden. Die vorliegende Arbeit knüpft an diese Forschung an und untersucht vertiefend die Selbstorganisation von geteiltem lexikalischen Wissen in humanoiden Robotern. Zentral ist dabei das Konzept der "referential uncertainty", d.h. die Schwierigkeit, die Bedeutung eines bisher unbekannten Wortes aus dem Kontext zu erschliessen. Ausgehend von sehr einfachen Modellen der Lexikonbildung untersucht die Arbeit zunächst in einer simulierten Umgebung und später mit physikalischen Robotern systematisch, wie zunehmende Komplexität kommunikativer Interaktionen komplexere Lernmodelle und Repräsentationen erfordert. Ein Ergebnis der Evaluierung der Modelle hinsichtlich Robustheit und Übertragbarkeit auf Interaktionszenarien mit Robotern ist, dass die in der Literatur vorwiegenden selektionistischen Ansätze schlecht skalieren und mit der zusätzlichen Herausforderung einer Verankerung in visuellen Perzeptionen echter Roboter nicht zurecht kommen. Davon ausgehend wird ein alternatives Modell vorgestellt.
"The meaning of a word is its use in the language". In the first half of the 20th century Ludwig Wittgenstein introduced this idea into philosophy and especially in the last few decades, related disciplines such as psychology and linguistics started embracing the view that that natural language is a dynamic system of arbitrary and culturally learnt conventions. From the end of the nineties on, researchers around Luc Steels transferred this notion of communication to the field of artificial intelligence by letting software agents and later robots play so-called language games in order to self-organize communication systems without requiring prior linguistic or conceptual knowledge. Continuing and advancing that research, the work presented in this thesis investigates lexicon formation in humanoid robots, i.e. the emergence of shared lexical knowledge in populations of robotic agents. Central to this is the concept of referential uncertainty, which is the difficulty of guessing a previously unknown word from the context. First in a simulated environments and later with physical robots, this work starts from very simple lexicon formation models and then systematically analyzes how an increasing complexity in communicative interactions leads to an increasing complexity of representations and learning mechanisms. We evaluate lexicon formation models with respect to their robustness, scaling and their applicability to robotic interaction scenarios and one result of this work is that the predominating approaches in the literature do not scale well and are not able to cope with the challenges stemming from grounding words in the real-world perceptions of physical robots. In order to overcome these limitations, we present an alternative lexicon formation model and evaluate its performance.
APA, Harvard, Vancouver, ISO, and other styles
24

Fritsche, Lutz. "Methoden zur Unterstützung der klinischen Entscheidungsfindung in der Nierentransplantation." Doctoral thesis, Humboldt-Universität zu Berlin, Medizinische Fakultät - Universitätsklinikum Charité, 2004. http://dx.doi.org/10.18452/13933.

Full text
Abstract:
In dieser Arbeit sollen die Vermittelbarkeit der notwendigen methodischen Fähigkeiten zur Anwendung der EbM in der klinischen Entscheidungsfindung sowie die Qualität der dazu unverzichtbaren Publikationen klinischer Studien für das Gebiet der Nierentransplantation untersucht werden. Des Weiteren sollen angesichts der für viele Fragen nicht vorhandenen Studienergebnisse alternative Verfahren der Gewinnung von klinisch entscheidungsrelevanten Erkenntnissen in der Nierentransplantationsmedizin untersucht werden. Liegen in einer Entscheidungssituation relevante Ergebnisse qualitativ adäquater randomisierter Studien vor, sollte die Entscheidung auf diese Ergebnisse gestützt werden. Die klinische Entscheidungsfindung kann auf verschiedenen Wegen unterstützt werden. Der Königsweg ist die auf Erkenntnissen der Grundlagenforschung fußende randomisierte Studie. Deren Nutzung erfordert jedoch eine leitliniengemäße Publikation und auf Seiten des Lesers entsprechendes Methodenwissen zur Interpretation der Ergebnisse. Komplementäre Methoden, insbesondere Analysen klinischer Datenbanken können die aus randomisierten Studien stammenden Entscheidungsgrundlagen sinnvoll ergänzen und die Durchführung weiterer randomisierter Studien vorbereiten. Auf diesem Hintergrund erscheint es auch für den Bereich der Nierentransplantation sinnvoll, die bestehende Datenbasis konsequent weiter auszubauen.
This work aims to investigate the communicability of the necessary skills for the application of Evidence-based Medicine in everyday clinical decision making. In addition the publication quality and design of clinical trials in the field of kidney transplantation are observed. In this context and on the background of the lack of clinically relevant study data for many important aspects of transplantation medicine alternative methods of knowledge generation to support clinical decision making are assessed. Whenever results of adequate prospective randomized trials are available clinical decision making should take these into account. But clinical decision making can be supported in various ways. The best way is the conduction of randomized clinical trials based on the results of basic science investigations. Use of randomized trial results requires their guideline-conforming publication and on the reader’s side the corresponding methodological skills for the critical interpretation and assessment of the scientific medical literature. Complementary methods - especially analyses of clinical databases can achieve substantial enhancement of the foundation for clinical decision making. They can also help to prepare the conduct of further randomized studies. Thus, as in other fields it seems worthwile to expand the existing databases in the field of kidney transplantation.
APA, Harvard, Vancouver, ISO, and other styles
25

Konczak, Kathrin. "Preferences in answer set programming." Phd thesis, Universität Potsdam, 2007. http://opus.kobv.de/ubp/volltexte/2007/1205/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Jin, Yi. "Belief Change in Reasoning Agents." Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2007. http://nbn-resolving.de/urn:nbn:de:swb:14-1169591206666-14311.

Full text
Abstract:
The capability of changing beliefs upon new information in a rational and efficient way is crucial for an intelligent agent. Belief change therefore is one of the central research fields in Artificial Intelligence (AI) for over two decades. In the AI literature, two different kinds of belief change operations have been intensively investigated: belief update, which deal with situations where the new information describes changes of the world; and belief revision, which assumes the world is static. As another important research area in AI, reasoning about actions mainly studies the problem of representing and reasoning about effects of actions. These two research fields are closely related and apply a common underlying principle, that is, an agent should change its beliefs (knowledge) as little as possible whenever an adjustment is necessary. This lays down the possibility of reusing the ideas and results of one field in the other, and vice verse. This thesis aims to develop a general framework and devise computational models that are applicable in reasoning about actions. Firstly, I shall propose a new framework for iterated belief revision by introducing a new postulate to the existing AGM/DP postulates, which provides general criteria for the design of iterated revision operators. Secondly, based on the new framework, a concrete iterated revision operator is devised. The semantic model of the operator gives nice intuitions and helps to show its satisfiability of desirable postulates. I also show that the computational model of the operator is almost optimal in time and space-complexity. In order to deal with the belief change problem in multi-agent systems, I introduce a concept of mutual belief revision which is concerned with information exchange among agents. A concrete mutual revision operator is devised by generalizing the iterated revision operator. Likewise, a semantic model is used to show the intuition and many nice properties of the mutual revision operator, and the complexity of its computational model is formally analyzed. Finally, I present a belief update operator, which takes into account two important problems of reasoning about action, i.e., disjunctive updates and domain constraints. Again, the updated operator is presented with both a semantic model and a computational model.
APA, Harvard, Vancouver, ISO, and other styles
27

Manthey, Norbert. "Towards Next Generation Sequential and Parallel SAT Solvers." Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2015. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-158672.

Full text
Abstract:
This thesis focuses on improving the SAT solving technology. The improvements focus on two major subjects: sequential SAT solving and parallel SAT solving. To better understand sequential SAT algorithms, the abstract reduction system Generic CDCL is introduced. With Generic CDCL, the soundness of solving techniques can be modeled. Next, the conflict driven clause learning algorithm is extended with the three techniques local look-ahead, local probing and all UIP learning that allow more global reasoning during search. These techniques improve the performance of the sequential SAT solver Riss. Then, the formula simplification techniques bounded variable addition, covered literal elimination and an advanced cardinality constraint extraction are introduced. By using these techniques, the reasoning of the overall SAT solving tool chain becomes stronger than plain resolution. When using these three techniques in the formula simplification tool Coprocessor before using Riss to solve a formula, the performance can be improved further. Due to the increasing number of cores in CPUs, the scalable parallel SAT solving approach iterative partitioning has been implemented in Pcasso for the multi-core architecture. Related work on parallel SAT solving has been studied to extract main ideas that can improve Pcasso. Besides parallel formula simplification with bounded variable elimination, the major extension is the extended clause sharing level based clause tagging, which builds the basis for conflict driven node killing. The latter allows to better identify unsatisfiable search space partitions. Another improvement is to combine scattering and look-ahead as a superior search space partitioning function. In combination with Coprocessor, the introduced extensions increase the performance of the parallel solver Pcasso. The implemented system turns out to be scalable for the multi-core architecture. Hence iterative partitioning is interesting for future parallel SAT solvers. The implemented solvers participated in international SAT competitions. In 2013 and 2014 Pcasso showed a good performance. Riss in combination with Copro- cessor won several first, second and third prices, including two Kurt-Gödel-Medals. Hence, the introduced algorithms improved modern SAT solving technology.
APA, Harvard, Vancouver, ISO, and other styles
28

Krauße, Thomas. "Development of a Class Framework for Flood Forecasting." Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2013. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-103439.

Full text
Abstract:
Aus der Einleitung: The calculation and prediction of river flow is a very old problem. Especially extremely high values of the runoff can cause enormous economic damage. A system which precisely predicts the runoff and warns in case of a flood event can prevent a high amount of the damages. On the basis of a good flood forecast, one can take action by preventive methods and warnings. An efficient constructional flood retention can reduce the effects of a flood event enormously.With a precise runoff prediction with longer lead times (>48h), the dam administration is enabled to give order to their gatekeepers to empty dams and reservoirs very fast, following a smart strategy. With a good timing, that enables the dams later to store and retain the peak of the flood and to reduce all effects of damage in the downstream. A warning of people in possible flooded areas with greater lead time, enables them to evacuate not fixed things like cars, computers, important documents and so on. Additionally it is possible to use the underlying rainfall-runoff model to perform runoff simulations to find out which areas are threatened at which precipitation events and associated runoff in the river. Altogether these methods can avoid a huge amount of economic damage.
APA, Harvard, Vancouver, ISO, and other styles
29

Poller, Andreas. "Merkmalsextraktion für die Klassifikation von Bestandteilen in Dokument-Bildern." Thesis, Universitätsbibliothek Chemnitz, 2005. http://nbn-resolving.de/urn:nbn:de:swb:ch1-200501550.

Full text
Abstract:
Am Institut für Print- und Medientechnik an der TU Chemnitz wird ein System entwickelt, welches gescannte Dokumente archivieren soll. Im Gegensatz zu bereits existierenden OCR-Systemen, sollen diese Dokumente hier jedoch nicht mittels einer Schrifterkennung verarbeitet werden. Vielmehr sind Textbereiche in den gescannten Vorlagen zu vektorisieren. Bereiche mit Grafiken und Illustrationen werden bei diesem Verfahren als ein Bildvektor gespeichert. Diese Vorgehensweise soll es ermöglichen, auch Dokumente mit Schriftsymbolen effizient zu archivieren, die keinen "herkömmlichen" Schriftsätzen zugehörig sind. Diese Studienarbeit stellt Merkmalsextraktionsverfahren vor, die aus einem gegebenen Teil (Segment) eines Dokumentenscans Merkmale extrahieren, die es ermöglichen sollen, diesen mittels eines Klassifikationsverfahrens einer Klasse Textblock oder einer Klasse Grafikblock zuzuordnen. Zusätzlich werden zwei Klassifikationsverfahren, ein Entscheidungsbaum und eine Fuzzy-Logik, auf die Nutzbarkeit für einen solchen Mustererkennungsprozess überprüft. Als Textblöcke erkannte Bereiche werden im zu entwickelnden Gesamtverfahren dann in nachfolgenden Verarbeitungsschritten einer Vektorisierung zugeführt.
APA, Harvard, Vancouver, ISO, and other styles
30

Schade, Markus. "Using Case-based Reasoning to Control Traffic Consumption." Master's thesis, Universitätsbibliothek Chemnitz, 2007. http://nbn-resolving.de/urn:nbn:de:bsz:ch1-200701572.

Full text
Abstract:
Quality of service is commonly used to shape network traffic to meet specified criteria. The various scenarios include limiting and reserving bandwidth for a particular application, host or user, prioritizing latency sensitive traffic or equal distribution of unreserved bandwidth. The DynShaper software distributes and controls a traffic quota by more sophisticated means than fixed per user limits and simple disconnection after the user reaches the limit. It distributes the quota on a daily basis, where each day receives the same share. The users are sorted into predefined groups with different bandwidths depending on their recent consumption. This classification is periodically updated to ensure the sorting order is maintained. The bandwidths of these groups is dynamically adjusted depending on the actual consumption to provide an efficient utilization. This thesis presents another distribution model using a case-based reasoning approach, a method for machine learning which is classified as conventional artificial intelligence. Case-based reasoning tries to solve new problems based on the solutions of similar problems from the past. Controlling the network traffic to remain within a fixed quota can be modeled as such a problem if the traffic patterns are recurring. Possible solutions can be derived from statistical data and altered to suit the new problems. When an untested solution is applied, the software supervises the execution and revises the solution accordingly, if the actual results deviate from the precalculated schedule.
APA, Harvard, Vancouver, ISO, and other styles
31

Jin, Yi. "Belief Change in Reasoning Agents: Axiomatizations, Semantics and Computations." Doctoral thesis, Technische Universität Dresden, 2006. https://tud.qucosa.de/id/qucosa%3A24983.

Full text
Abstract:
The capability of changing beliefs upon new information in a rational and efficient way is crucial for an intelligent agent. Belief change therefore is one of the central research fields in Artificial Intelligence (AI) for over two decades. In the AI literature, two different kinds of belief change operations have been intensively investigated: belief update, which deal with situations where the new information describes changes of the world; and belief revision, which assumes the world is static. As another important research area in AI, reasoning about actions mainly studies the problem of representing and reasoning about effects of actions. These two research fields are closely related and apply a common underlying principle, that is, an agent should change its beliefs (knowledge) as little as possible whenever an adjustment is necessary. This lays down the possibility of reusing the ideas and results of one field in the other, and vice verse. This thesis aims to develop a general framework and devise computational models that are applicable in reasoning about actions. Firstly, I shall propose a new framework for iterated belief revision by introducing a new postulate to the existing AGM/DP postulates, which provides general criteria for the design of iterated revision operators. Secondly, based on the new framework, a concrete iterated revision operator is devised. The semantic model of the operator gives nice intuitions and helps to show its satisfiability of desirable postulates. I also show that the computational model of the operator is almost optimal in time and space-complexity. In order to deal with the belief change problem in multi-agent systems, I introduce a concept of mutual belief revision which is concerned with information exchange among agents. A concrete mutual revision operator is devised by generalizing the iterated revision operator. Likewise, a semantic model is used to show the intuition and many nice properties of the mutual revision operator, and the complexity of its computational model is formally analyzed. Finally, I present a belief update operator, which takes into account two important problems of reasoning about action, i.e., disjunctive updates and domain constraints. Again, the updated operator is presented with both a semantic model and a computational model.
APA, Harvard, Vancouver, ISO, and other styles
32

Püschel, Georg, and Frank J. Furrer. "Cognitive Computing: Collected Papers." Technische Universität Dresden, 2015. https://tud.qucosa.de/id/qucosa%3A28990.

Full text
Abstract:
Cognitive Computing' has initiated a new era in computer science. Cognitive computers are not rigidly programmed computers anymore, but they learn from their interactions with humans, from the environment and from information. They are thus able to perform amazing tasks on their own, such as driving a car in dense traffic, piloting an aircraft in difficult conditions, taking complex financial investment decisions, analysing medical-imaging data, and assist medical doctors in diagnosis and therapy. Cognitive computing is based on artificial intelligence, image processing, pattern recognition, robotics, adaptive software, networks and other modern computer science areas, but also includes sensors and actuators to interact with the physical world. Cognitive computers – also called 'intelligent machines' – are emulating the human cognitive, mental and intellectual capabilities. They aim to do for human mental power (the ability to use our brain in understanding and influencing our physical and information environment) what the steam engine and combustion motor did for muscle power. We can expect a massive impact of cognitive computing on life and work. Many modern complex infrastructures, such as the electricity distribution grid, railway networks, the road traffic structure, information analysis (big data), the health care system, and many more will rely on intelligent decisions taken by cognitive computers. A drawback of cognitive computers will be a shift in employment opportunities: A raising number of tasks will be taken over by intelligent machines, thus erasing entire job categories (such as cashiers, mail clerks, call and customer assistance centres, taxi and bus drivers, pilots, grid operators, air traffic controllers, …). A possibly dangerous risk of cognitive computing is the threat by “super intelligent machines” to mankind. As soon as they are sufficiently intelligent, deeply networked and have access to the physical world they may endanger many areas of human supremacy, even possibly eliminate humans. Cognitive computing technology is based on new software architectures – the “cognitive computing architectures”. Cognitive architectures enable the development of systems that exhibit intelligent behaviour.:Introduction 5 1. Applying the Subsumption Architecture to the Genesis Story Understanding System – A Notion and Nexus of Cognition Hypotheses (Felix Mai) 9 2. Benefits and Drawbacks of Hardware Architectures Developed Specifically for Cognitive Computing (Philipp Schröppe)l 19 3. Language Workbench Technology For Cognitive Systems (Tobias Nett) 29 4. Networked Brain-based Architectures for more Efficient Learning (Tyler Butler) 41 5. Developing Better Pharmaceuticals – Using the Virtual Physiological Human (Ben Blau) 51 6. Management of existential Risks of Applications leveraged through Cognitive Computing (Robert Richter) 61
APA, Harvard, Vancouver, ISO, and other styles
33

Krauße, Thomas. "Development of a Class Framework for Flood Forecasting." Technische Universität Dresden, 2007. https://tud.qucosa.de/id/qucosa%3A26441.

Full text
Abstract:
Aus der Einleitung: The calculation and prediction of river flow is a very old problem. Especially extremely high values of the runoff can cause enormous economic damage. A system which precisely predicts the runoff and warns in case of a flood event can prevent a high amount of the damages. On the basis of a good flood forecast, one can take action by preventive methods and warnings. An efficient constructional flood retention can reduce the effects of a flood event enormously.With a precise runoff prediction with longer lead times (>48h), the dam administration is enabled to give order to their gatekeepers to empty dams and reservoirs very fast, following a smart strategy. With a good timing, that enables the dams later to store and retain the peak of the flood and to reduce all effects of damage in the downstream. A warning of people in possible flooded areas with greater lead time, enables them to evacuate not fixed things like cars, computers, important documents and so on. Additionally it is possible to use the underlying rainfall-runoff model to perform runoff simulations to find out which areas are threatened at which precipitation events and associated runoff in the river. Altogether these methods can avoid a huge amount of economic damage.:List of Symbols and Abbreviations S. III 1 Introduction S. 1 2 Process based Rainfall-Runoff Modelling S. 5 2.1 Basics of runoff processes S. 5 2.2 Physically based rainfall-runoff and hydrodynamic river models S. 15 3 Portraying Rainfall-Runoff Processes with Neural Networks S. 21 3.1 The Challenge in General S. 22 3.2 State-of-the-art Approaches S. 24 3.3 Architectures of neural networks for time series prediction S. 26 4 Requirements specification S. 33 5 The PAI-OFF approach as the base of the system S. 35 5.1 Pre-Processing of the Input Data S. 37 5.2 Operating and training the PoNN S. 47 5.3 The PAI-OFF approach - an Intelligent System S. 52 6 Design and Implementation S. 55 6.1 Design S. 55 6.2 Implementation S. 58 6.3 Exported interface definition S. 62 6.4 Displaying output data with involvement of uncertainty S. 64 7 Results and Discussion S. 69 7.1 Evaluation of the Results S. 69 7.2 Discussion of the achieved state S. 75 8 Conclusion and FutureWork S. 77 8.1 Access to real-time meteorological input data S. 77 8.2 Using further developed prediction methods S. 79 8.3 Development of a graphical user interface S. 80 Bibliography S. 83
APA, Harvard, Vancouver, ISO, and other styles
34

Möller, Manuel. "Spamerkennung mit Support Vector Machines." Thesis, Universitätsbibliothek Chemnitz, 2005. http://nbn-resolving.de/urn:nbn:de:swb:ch1-200500580.

Full text
Abstract:
Diese Arbeit zeigt ausgehend von einer Darstellung der theoretischen Grundlagen automatischer Textklassifikation, dass die aus der Statistical Learning Theory stammenden Support Vector Machines geeignet sind, zu einer präziseren Erkennung unerwünschter E-Mail-Werbung beizutragen. In einer Testumgebung mit einem Corpus von 20 000 E-Mails wurden Testläufe verschiedene Parameter der Vorverarbeitung und der Support Vector Machine automatisch evaluiert und grafisch visualisiert. Aufbauend darauf wird eine Erweiterung für die Open-Source-Software SpamAssassin beschrieben, die die vorhandenen Klassifikationsmechanismen um eine Klassifikation per Support Vector Machine erweitert.
APA, Harvard, Vancouver, ISO, and other styles
35

Klement, Sebastian, Bernhard Saske, Stephan Arndt, and Ralph Stelzer. "Das Analysekompetenz-Marktpriorität-Portfolio zum Vergleich von Datenanalyseprojekten in der Produktentwicklung." Thelem Universitätsverlag & Buchhandlung GmbH & Co. KG, 2019. https://tud.qucosa.de/id/qucosa%3A36936.

Full text
Abstract:
Die Künstliche Intelligenz (KI) mit ihren untergeordneten Forschungsgebieten wie maschinelles Lernen (ML), Spracherkennung oder Robotik ist in aller Munde. Die Leistungsfähigkeit und Stabilität von Anwendungen, die im weiteren Sinne KI zur Aufgabenbearbeitung einsetzen, sind gestiegen und durchdringen die Gesellschaft immer mehr. Weltweit wird die KI als eine Schlüsseltechnologie wahrgenommen, die in den nächsten Jahren weiter an Bedeutung gewinnt (Bitkom, DFKI 2017). So zielt auch die Ausschreibung des Bundesministeriums für Wirtschaft und Energie von 02/2019 darauf ab, KI als Schrittmachertechnologie für „[…] volkswirtschaftlich relevante Ökosysteme“ zu fördern (BMWi 2019). Mit der zunehmenden Ausstattung der Produktionsmittel mit Sensoren und der gleichzeitig steigenden Vernetzung dieser, steigt auch die Menge verfügbarer Daten, die für die Generierung von Wissen genutzt werden können (Fraunhofer 2018). Davon profitiert besonders das ML als Teilgebiet der KI. So unterschiedlich die gewonnenen Daten sind, so unterschiedlich sind die Aufgaben, die innerhalb des Maschinenbaus mit diesen bewältigt werden können. Ziele, die mit dem Einsatz von ML verbunden werden, sind beispielsweise selbst optimierende Produktionssysteme oder die bedarfsgerechte Instandhaltung von Anlagen auf Grund einer möglichst genauen Prognose des Ausfallzeitpunktes der Komponenten. Ebenso wie jede andere Technologie bedarf der Einsatz von ML Ressourcen, die in den Unternehmen nur begrenzt vorhanden sind. Die Entscheidung für oder gegen einen Einsatz von ML in Maschinenbauprodukten ist derzeit ganz klar eine strategische und bedingt die Einbeziehung verschiedener Fachbereiche bis hin zum Management des Unternehmens (Saltz et al. 2017). Daher wird ein strategisches Diskussions- und Entscheidungswerkzeug benötigt, welches ein Projekt aus technologischer und wirtschaftlicher Sicht darstellen und fachübergreifend genutzt werden kann sowie ein strukturiertes Vorgehen ermöglicht. Die Autoren schlagen zur Entscheidungsfindung die Nutzung des hier eingeführten Analysekompetenz-Marktpriorität-Portfolios vor, welches speziell auf die Fragestellung des ML Einsatzes im Maschinenbau zugeschnitten ist. Es werden Bewertungstabellen vorgestellt und deren Nutzung erläutert, welche sich an den zu bearbeitenden Prozessschritten für komplexe Datenanalysen (Shearer 2000, Klement et al. 2018) orientiert. Die Ableitung von Normstrategien wird anhand der finalen Darstellung des Portfolios diskutiert. [... aus der Einleitung]
APA, Harvard, Vancouver, ISO, and other styles
36

Haufe, Sebastian. "Automated Theorem Proving for General Game Playing." Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2012. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-89998.

Full text
Abstract:
While automated game playing systems like Deep Blue perform excellent within their domain, handling a different game or even a slight change of rules is impossible without intervention of the programmer. Considered a great challenge for Artificial Intelligence, General Game Playing is concerned with the development of techniques that enable computer programs to play arbitrary, possibly unknown n-player games given nothing but the game rules in a tailor-made description language. A key to success in this endeavour is the ability to reliably extract hidden game-specific features from a given game description automatically. An informed general game player can efficiently play a game by exploiting structural game properties to choose the currently most appropriate algorithm, to construct a suited heuristic, or to apply techniques that reduce the search space. In addition, an automated method for property extraction can provide valuable assistance for the discovery of specification bugs during game design by providing information about the mechanics of the currently specified game description. The recent extension of the description language to games with incomplete information and elements of chance further induces the need for the detection of game properties involving player knowledge in several stages of the game. In this thesis, we develop a formal proof method for the automatic acquisition of rich game-specific invariance properties. To this end, we first introduce a simple yet expressive property description language to address knowledge-free game properties which may involve arbitrary finite sequences of successive game states. We specify a semantic based on state transition systems over the Game Description Language, and develop a provably correct formal theory which allows to show the validity of game properties with respect to their semantic across all reachable game states. Our proof theory does not require to visit every single reachable state. Instead, it applies an induction principle on the game rules based on the generation of answer set programs, allowing to apply any off-the-shelf answer set solver to practically verify invariance properties even in complex games whose state space cannot totally be explored. To account for the recent extension of the description language to games with incomplete information and elements of chance, we correctly extend our induction method to properties involving player knowledge. With an extensive evaluation we show its practical applicability even in complex games.
APA, Harvard, Vancouver, ISO, and other styles
37

Möller, Manuel. "Konstruktivismus und Nativismus. Die Debatte zwischen Jean Piaget und Noam Chomsky." Master's thesis, Universitätsbibliothek Chemnitz, 2006. http://nbn-resolving.de/urn:nbn:de:swb:ch1-200600367.

Full text
Abstract:
Diese Arbeit befasst sich mit zwei ebenso alten wie bis in die Gegenwart bedeutsamen kontroversen Positionen in der Philosophie- und Wissenschaftsgeschichte: Einerseits dem Nativismus, der davon ausgeht, dass (wesentliche) Ideen in den Menschen eingeboren sind, hier vertreten durch die Position Noam Chomskys, dessen Arbeiten über universelle Grammatik die Linguistik im 20. Jahrhundert revolutionierten und weitreichende Auswirkungen auf Philosophie und Kognitionswissenschaften hatten. Dem gegenübergestellt wird die Position von Jean Piaget, der als Entwicklungspsychologe aus seiner Arbeit mit Kindern ein radikal konstruktivistisches Stufenmodell der Erkenntnisentwicklung vom Baby bis zum wissenschaftsfähigen Erwachsenen entwickelt hat, das auf angeborene Ideen verzichtet. Dargestellt werden historische und erkenntnistheoretische Hintergründe dieser interdisziplinären Streitfrage und die Argumente beider Positionen.
APA, Harvard, Vancouver, ISO, and other styles
38

Schiffel, Stephan. "Knowledge-Based General Game Playing." Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2012. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-88742.

Full text
Abstract:
The goal of General Game Playing (GGP) is to develop a system, that is able to automatically play previously unseen games well, solely by being given the rules of the game. In contrast to traditional game playing programs, a general game player cannot be given game specific knowledge. Instead, the program has to discover this knowledge and use it for effectively playing the game well without human intervention. In this thesis, we present a such a program and general methods that solve a variety of knowledge discovery problems in GGP. Our main contributions are methods for the automatic construction of heuristic evaluation functions, the automated discovery of game structures, a system for proving properties of games, and symmetry detection and exploitation for general games.
APA, Harvard, Vancouver, ISO, and other styles
39

Fichtner, Matthias. "Anchoring Symbols to Percepts in the Fluent Calculus." Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2010. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-25900.

Full text
Abstract:
An abstract knowledge representation of cognitive robots - as used for reasoning and planning - typically relies on symbols denoting objects of the world and states of affairs. The process of creating and maintaining the correct connection between a symbol denoting an object and its corresponding perceptual image (called percept), both referring to the same physical object, is called symbol anchoring. Most current cognitive systems implement an ad hoc solution which may work for the specific, intended application under certain conditions. Conversely, we suggest a formal and general approach to the symbol anchoring problem, which enhances previous approaches in terms of flexibility, applicability and expressiveness, and which completely automates the process of determining and maintaining all plausible hypotheses of correspondences between object symbols and perceptual images of physical objects. Based on the first-order logical Fluent Calculus, our approach inherits its rich expressiveness with respect to knowledge representation and reasoning. Implementing all required symbol anchoring functionalities, our approach also complies with fundamental concepts of phenomenalism, representationalism and the sense-data theory of philosophy of cognition.
APA, Harvard, Vancouver, ISO, and other styles
40

Miranda, Trujillo Luis Carlos. "Artificial Neural Networks in Greenhouse Modelling." Doctoral thesis, Humboldt-Universität zu Berlin, 2018. http://dx.doi.org/10.18452/19354.

Full text
Abstract:
Moderne Präzisionsgartenbaulicheproduktion schließt hoch technifizierte Gewächshäuser, deren Einsatz in großem Maße von der Qualität der Sensorik- und Regelungstechnik abhängt, mit ein. Zu den Regelungsstrategien gehören unter anderem Methoden der Künstlichen Intelligenz, wie z.B. Künstliche Neuronale Netze (KNN, aus dem Englischen). Die vorliegende Arbeit befasst sich mit der Eignung KNN-basierter Modelle als Bauelemente von Klimaregelungstrategien in Gewächshäusern. Es werden zwei Modelle vorgestellt: Ein Modell zur kurzzeitigen Voraussage des Gewächshausklimas (Lufttemperatur und relative Feuchtigkeit, in Minuten-Zeiträumen), und Modell zur Einschätzung von phytometrischen Signalen (Blatttemperatur, Transpirationsrate und Photosyntheserate). Eine Datenbank, die drei Kulturjahre umfasste (Kultur: Tomato), wurde zur Modellbildung bzw. -test benutzt. Es wurde festgestellt, dass die ANN-basierte Modelle sehr stark auf die Auswahl der Metaparameter und Netzarchitektur reagieren, und dass sie auch mit derselben Architektur verschiedene Kalkulationsergebnisse liefern können. Nichtsdestotrotz, hat sich diese Art von Modellen als geeignet zur Einschätzung komplexer Pflanzensignalen sowie zur Mikroklimavoraussage erwiesen. Zwei zusätzliche Möglichkeiten zur Erstellung von komplexen Simulationen sind in der Arbeit enthalten, und zwar zur Klimavoraussage in längerer Perioden und zur Voraussage der Photosyntheserate. Die Arbeit kommt zum Ergebnis, dass die Verwendung von KNN-Modellen für neue Gewächshaussteuerungstrategien geeignet ist, da sie robust sind und mit der Systemskomplexität gut zurechtkommen. Allerdings muss beachtet werden, dass Probleme und Schwierigkeiten auftreten können. Diese Arbeit weist auf die Relevanz der Netzarchitektur, die erforderlichen großen Datenmengen zur Modellbildung und Probleme mit verschiedenen Zeitkonstanten im Gewächshaus hin.
One facet of the current developments in precision horticulture is the highly technified production under cover. The intensive production in modern greenhouses heavily relies on instrumentation and control techniques to automate many tasks. Among these techniques are control strategies, which can also include some methods developed within the field of Artificial Intelligence. This document presents research on Artificial Neural Networks (ANN), a technique derived from Artificial Intelligence, and aims to shed light on their applicability in greenhouse vegetable production. In particular, this work focuses on the suitability of ANN-based models for greenhouse environmental control. To this end, two models were built: A short-term climate prediction model (air temperature and relative humidity in time scale of minutes), and a model of the plant response to the climate, the latter regarding phytometric measurements of leaf temperature, transpiration rate and photosynthesis rate. A dataset comprising three years of tomato cultivation was used to build and test the models. It was found that this kind of models is very sensitive to the fine-tuning of the metaparameters and that they can produce different results even with the same architecture. Nevertheless, it was shown that ANN are useful to simulate complex biological signals and to estimate future microclimate trends. Furthermore, two connection schemes are proposed to assemble several models in order to generate more complex simulations, like long-term prediction chains and photosynthesis forecasts. It was concluded that ANN could be used in greenhouse automation systems as part of the control strategy, as they are robust and can cope with the complexity of the system. However, a number of problems and difficulties are pointed out, including the importance of the architecture, the need for large datasets to build the models and problems arising from different time constants in the whole greenhouse system.
APA, Harvard, Vancouver, ISO, and other styles
41

Jüngel, Matthias. "The memory-based paradigm for vision-based robot localization." Doctoral thesis, Humboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät II, 2012. http://dx.doi.org/10.18452/16593.

Full text
Abstract:
Für mobile autonome Roboter ist ein solides Modell der Umwelt eine wichtige Voraussetzung um die richtigen Entscheidungen zu treffen. Die gängigen existierenden Verfahren zur Weltmodellierung basieren auf dem Bayes-Filter und verarbeiten Informationen mit Hidden Markov Modellen. Dabei wird der geschätzte Zustand der Welt (Belief) iterativ aktualisiert, indem abwechselnd Sensordaten und das Wissen über die ausgeführten Aktionen des Roboters integriert werden; alle Informationen aus der Vergangenheit sind im Belief integriert. Wenn Sensordaten nur einen geringen Informationsgehalt haben, wie zum Beispiel Peilungsmessungen, kommen sowohl parametrische Filter (z.B. Kalman-Filter) als auch nicht-parametrische Filter (z.B. Partikel-Filter) schnell an ihre Grenzen. Das Problem ist dabei die Repräsentation des Beliefs. Es kann zum Beispiel sein, dass die gaußschen Modelle beim Kalman-Filter nicht ausreichen oder Partikel-Filter so viele Partikel benötigen, dass die Rechendauer zu groß wird. In dieser Dissertation stelle ich ein neues Verfahren zur Weltmodellierung vor, das Informationen nicht sofort integriert, sondern erst bei Bedarf kombiniert. Das Verfahren wird exemplarisch auf verschiedene Anwendungsfälle aus dem RoboCup (autonome Roboter spielen Fußball) angewendet. Es wird gezeigt, wie vierbeinige und humanoide Roboter ihre Position und Ausrichtung auf einem Spielfeld sehr präzise bestimmen können. Grundlage für die Lokalisierung sind bildbasierte Peilungsmessungen zu Objekten. Für die Roboter-Ausrichtung sind dabei Feldlinien eine wichtige Informationsquelle. In dieser Dissertation wird ein Verfahren zur Erkennung von Feldlinien in Kamerabildern vorgestellt, das ohne Kalibrierung auskommt und sehr gute Resultate liefert, auch wenn es starke Schatten und Verdeckungen im Bild gibt.
For autonomous mobile robots, a solid world model is an important prerequisite for decision making. Current state estimation techniques are based on Hidden Markov Models and Bayesian filtering. These methods estimate the state of the world (belief) in an iterative manner. Data obtained from perceptions and actions is accumulated in the belief which can be represented parametrically (like in Kalman filters) or non-parametrically (like in particle filters). When the sensor''s information gain is low, as in the case of bearing-only measurements, the representation of the belief can be challenging. For instance, a Kalman filter''s Gaussian models might not be sufficient or a particle filter might need an unreasonable number of particles. In this thesis, I introduce a new state estimation method which doesn''t accumulate information in a belief. Instead, perceptions and actions are stored in a memory. Based on this, the state is calculated when needed. The system has a particular advantage when processing sparse information. This thesis presents how the memory-based technique can be applied to examples from RoboCup (autonomous robots play soccer). In experiments, it is shown how four-legged and humanoid robots can localize themselves very precisely on a soccer field. The localization is based on bearings to objects obtained from digital images. This thesis presents a new technique to recognize field lines which doesn''t need any pre-run calibration and also works when the field lines are partly concealed and affected by shadows.
APA, Harvard, Vancouver, ISO, and other styles
42

Tagiew, Rustam. "Strategische Interaktion realer Agenten." Doctoral thesis, Technische Universitaet Bergakademie Freiberg Universitaetsbibliothek "Georgius Agricola", 2011. http://nbn-resolving.de/urn:nbn:de:bsz:105-qucosa-65577.

Full text
Abstract:
Zum Verständnis menschlichen sozialen, administrativen und wirtschaftlichen Verhaltens, das als Spiel bzw. strategische Interaktion aufgefasst werden kann, reichen die rein analytischen Methoden nicht aus. Es ist nötig, Daten menschlichen strategischen Verhaltens zu sammeln. Basierend auf Daten lässt sich solches Verhalten modellieren, simulieren bzw. vorhersagen. Der theoretische Teil der Zielsetzung wird über praxisorientierte Konzeptualisierung strategischer Interaktion realer Agenten - Menschen und Maschinen - und gegenseitige Integration der Konzepte aus Spieltheorie und Multiagentensysteme erreicht, die über die bisherigen Ansätze hinausgehen. Der praktische Teil besteht darin, ein allgemein verwendbares System zu entwerfen, das strategische Interaktionen zwischen realen Agenten mit maximalen wissenschaftlichen Nutzen durchführen kann. Die tatsächliche Implementation ist eines der Ergebnisse der Arbeit. Ähnliche vorhandene Systeme sind GDL-Server (für Maschinen) [Genesereth u.a., 2005] und z-Tree (für Menschen) [Fischbacher, 2007]. Die Arbeit ist in drei Bereiche unterteilt - (1) Entwicklung von Sprachen für die Beschreibung eines Spiels, (2) ein auf diesen Sprachen basierendes Softwaresystem und (3) eine Offline-Analyse der u.a. mit dem System bereits gesammelten Daten als Beitrag zur Möglichkeiten der Verhaltensbeschreibung. Die Innovation dieser Arbeit besteht nicht nur darin ,einzelne Bereiche mit einander zu kombinieren, sondern auch Fortschritte auf jedem Bereich für sich allein zu erreichen. Im Bereich der Spielbeschreibungssprachen, werden zwei Sprachen - PNSI und SIDL - vorgeschlagen, die beide Spiele bei imperfekter Information in diskreter Zeit definieren können. Dies ist ein Fortschritt gegenüber der bisherigen Sprachen wie Gala und GDL. Speziell die auf Petrinetzen basierende Sprache PNSI kann gleichermaßen für Gameserver und für spieltheoretische Algorithmen von z.B. GAMBIT verwendet werden. Das entwickelte System FRAMASI basiert auf JADE [Bellifemine u.a., 2001] und ist den bisherigen Client-Server-Lösungen durch Vorteile der Multiagentensysteme voraus. Mit dem entstandenen System wurde bereits ein Experiment entsprechend den Standards der experimentellen Spieltheorie durchgeführt und somit die Praxistauglichkeit nachgewiesen. Das Experiment hatte als Ziel, Daten zur menschlichen Unvorhersagbarkeit und zur Vorhersagefähigkeit anderer zu liefen. Dafür wurden Varianten von \"Knobeln\" verwendet. Die Daten dieses Experiments sowie eines Experiments einer externen Arbeitsgruppe mit ähnlicher Motivation wurden mit Hilfe von Datamining analysiert. Dabei wurden die in der Literatur berichteten Gesetzmäßigkeiten des Verhaltens nachgewiesen und weitere Gesetzmäßigkeiten entdeckt
To understand human social, administrative and economic behavior, which can be considered as a game or strategic interaction, the purely analytical methods do not suffice. It is necessary to gather data of human strategic behavior. Based on data, one can model, simulate and predict such behavior. The theoretical part of the objective is achieved using a practice oriented conceptualization of the real agents\' - humans and machines - strategic interaction and mutual integration of the concepts from game theory and multi-agent systems, which go beyond the related work. The practical part is the design of an universally usable system that can perform the strategic interactions between real agents with maximum scientific benefit. The current implementation is one of the results of the work. Similar existing systems are GDL-server (for machines) [Genesereth et al., 2005] and z-Tree (for humans) [Fischbacher, 2007]. The work is divided in three fields - (1) development of languages for the description of a game, (2) a software system based on these languages and (3) an offline analysis of the data already gathered among other things using the system as a contribution to behavior definition facilities. The innovation of this work does not consist only in combining of the several fields to each other, but also in achieving of improvements in every field on its own. In the field of game definition languages, two languages are proposed - PNSI and SIDL, which both can define games of imperfect information in discrete time. It is an improvement comparing with hitherto languages as Gala and GDL. Especially, the Petri net based language PNSI can likewise be used for game servers and game theoretic algorithms like GAMBIT. The developed system FRAMASI is based on JADE [Bellifemine et al., 2001] and is ahead of the hitherto client-server solutions through the advantages of the multi-agent systems. Using the originated system, an experiment has been conducted according to the standards from the experimental game theory, and thus demonstrated the practicability. The experiment had the objective to provide data on the human unpredictability and the ability to predict others. Therefore, variants of Roshambo were used. The data from this experiment and from an experiment of an external workgroup with a similar motivation were analyzed using data mining. As results, the regularities of the behavior reported in literature have been demonstrated and further regularities have been discovered
APA, Harvard, Vancouver, ISO, and other styles
43

Schroth, Moritz. "opticSAM: Entwicklung einer optischen, selbstlernenden Störungsdiagnose in Verarbeitungsmaschinen." Fraunhofer-Institut für Verfahrenstechnik und Verpackung IVV, Institutsteil Verarbeitungstechnik, 2019. https://slub.qucosa.de/id/qucosa%3A36508.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Meyer, Alexander [Verfasser]. "Optimierung der herzchirurgischen Forschung und Versorgung durch intelligente Automatisierung der Datenprozessierung : von reproduzierbarer Forschung bis zur künstlichen Intelligenz / Alexander Meyer." Berlin : Medizinische Fakultät Charité - Universitätsmedizin Berlin, 2020. http://d-nb.info/1209130807/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Daum, Michael. "Chancen und Risiken der systemischen Kontingenz Künstlicher Intelligenz in einer postindustriellen Weltgesellschaft." Diss., lmu, 2008. http://nbn-resolving.de/urn:nbn:de:bvb:19-90799.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Prüfer, Hans-Peter [Verfasser]. "Methoden der Künstlichen Intelligenz in einem Konzept des rechnerintegrierten Konstruierens / Hans-Peter Prüfer." Göttingen : Cuvillier Verlag, 2016. http://d-nb.info/1106573110/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Sabel, Bastian [Verfasser]. "Anwendung von Künstlicher Intelligenz und Strukturierter Befundung in der Radiologischen Diagnostik / Bastian Sabel." München : Universitätsbibliothek der Ludwig-Maximilians-Universität, 2021. http://d-nb.info/123650237X/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Grapentin, Justin [Verfasser]. "Vertragsschluss und vertragliches Verschulden beim Einsatz von Künstlicher Intelligenz und Softwareagenten / Justin Grapentin." Baden-Baden : Nomos Verlagsgesellschaft mbH & Co. KG, 2018. http://d-nb.info/1163025739/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

Michulke, Daniel. "Evaluation Functions in General Game Playing." Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2012. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-90566.

Full text
Abstract:
While in traditional computer game playing agents were designed solely for the purpose of playing one single game, General Game Playing is concerned with agents capable of playing classes of games. Given the game's rules and a few minutes time, the agent is supposed to play any game of the class and eventually win it. Since the game is unknown beforehand, previously optimized data structures or human-provided features are not applicable. Instead, the agent must derive a strategy on its own. One approach to obtain such a strategy is to analyze the game rules and create a state evaluation function that can be subsequently used to direct the agent to promising states in the match. In this thesis we will discuss existing methods and present a general approach on how to construct such an evaluation function. Each topic is discussed in a modular fashion and evaluated along the lines of quality and efficiency, resulting in a strong agent.
APA, Harvard, Vancouver, ISO, and other styles
50

Wieners, Jan Gerrit [Verfasser], Manfred [Akademischer Betreuer] Thaller, and Reinhard [Akademischer Betreuer] Förtsch. "SpoookyJS. Ein multiagentenbasiertes JavaScript-Framework zur flexiblen Implementation digitaler browserbasierter Brettspiele und spielübergreifender künstlicher Intelligenz / Jan Gerrit Wieners. Gutachter: Manfred Thaller ; Reinhard Förtsch." Köln : Universitäts- und Stadtbibliothek Köln, 2015. http://d-nb.info/106755307X/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography