Ki 17 30
Ki 17 30
Die Versuche, Intelligenz zu beschreiben und nachzubilden, lassen sich grob in vier
Ansätze unterteilen, die sich mit menschlichem Denken, menschlichem Handeln,
rationalem Denken und rationalem Handeln befassen (Russell et al. 2010). So gehört
beispielsweise der berühmte Turing-Test (TURING 1950) in den Bereich menschliches
Handeln, da bei diesem eine KI menschliches Handeln perfekt reproduziert, während
moderne Programme zur Bilderkennung und damit verbundenen Entscheidungen
eher im Bereich des rationalen Handelns verortet werden können. Neben den defini-
torischen Schwierigkeiten befasst sich ein Teil dieser philosophischen Debatte zur KI
mit den Unterschieden und Konsequenzen zwischen erstens einer schwachen oder
eingeschränkten KI (weak or narrow AI), welche spezielle Probleme intelligent lösen
kann, zweitens einer starken oder generellen KI (strong/general AI), welche allge-
meine Probleme ebenso gut wie Menschen lösen kann und drittens einer künstlichen
Superintelligenz, welche die menschlichen Fähigkeiten weit übertrifft (Kurzweil
2001, Bostrom 2014).
Trotz dieser Vielzahl von Ansätzen und Definitionen lässt sich jedoch ein zentraler
Aspekt benennen, den alle als KI bezeichnete Systeme aufweisen: Es ist der Versuch,
ein System zu entwickeln, das eigenständig komplexe Probleme bearbeiten kann. Es
gibt viele Möglichkeiten, das sehr heterogene Forschungsgebiet der KI und seiner
vielen Unterkategorien zu beschreiben. Manche Ansätze befassen sich mit den Prob-
lemen, die auf dem Weg zur Intelligenz von Computersystemen auftreten, andere
mit den Lösungsansätzen für diese Probleme und wiederum andere mit den Verglei-
chen zur menschlichen Intelligenz. Um die vielen Teilgebiete soll es hier nicht im
Einzelnen gehen.2 Vielmehr sollen die wichtigsten Grundlagen der KI ohne den
Anspruch auf Vollständigkeit erläutert werden (Abbildung A.1).
Die Anfänge
Am Anfang befasste sich die Entwicklung der KI häufig mit Spielen und mathemati-
schen Repräsentationssystemen von Wissen und Entscheidungen, während seit dem
Ende des 20. Jahrhunderts die Technik des maschinellen Lernens (Machine Learning,
2
Ausführliche Darstellungen zu Teilgebieten wie Verarbeitung natürlicher Sprache,
Wissensrepräsentation, automatisches logisches Schließen, Planung und Wahrnehmung,
Robotik und viele mehr finden sich in Russell et al. (2010) und Luger (2003).
iit-Themenband – Künstliche Intelligenz 23
ML) und in jüngster Zeit das tiefe Lernen (Deep Learning, DL) große Erfolge verzeich-
nen konnten und letztlich das aktuell starke Interesse an KI verursachen.
Ein beliebtes Anwendungsgebiet der KI war und ist das Gebiet der menschlichen
Spiele (Samuel 1959). Dieser Ansatz ist naheliegend, denn die Fähigkeiten der KI las-
sen sich gut und vergleichbar daran messen, wie gut sie gegen den Menschen spielen
oder diesen übertreffen. Der Vorteil dieser Spiele als Messlatte besteht in ihrem übli-
cherweise einfachen Regelsystem und einfach beschreibbaren Handlungsmöglichkei-
ten bei gleichzeitig, je nach Spiel, fast unbegrenzten Variationen. Schach beispiels-
weise hat sehr einfache Regeln, aber geschätzte 10120 Zugmöglichkeiten. Diese sehr
große Zahl liegt außerhalb der menschlichen Vorstellungskraft und es ist bei einer
derart hohen Anzahl zunächst unmöglich, dass ein Programm alle Möglichkeiten
durchrechnet, um daraus die perfekte Spielstrategie zu entwickeln. Diese hohe Anzahl
von Zugmöglichkeiten entsteht dadurch, dass jede Entscheidung, das heißt jeder
mögliche Zug im Schach, wieder neue Entscheidungsalternativen und neue Züge,
aber mit jeweils anderen Ausgangssituationen und immer so weiter hervorruft. Diese
Entscheidungsvarianten können als Baum oder sogenannter Graph beschrieben wer-
den, bei dem jedes Blatt beziehungsweise Knoten eine Möglichkeit – im Spiel ist das
ein Spielzug – darstellt, aus der sich dann immer neue und andere bis ins Unendliche
ergeben. So wie ein Baum wächst, so entfalten sich die möglichen Spielzüge in immer
wieder neue Verzweigungen und Verästelungen bis ins quasi Unendliche aller mögli-
chen Spielzüge. Einen solchen Baum nennt man Entscheidungsbaum (Decision Tree),
und ganze Bereiche der Mathematik und Informatik beschäftigen sich mit der mög-
lichst effizienten Suche in solchen verzweigten Graphen.
chenden Graphen für jeden Punkt immer wieder die Sinnhaftigkeit einer weiteren
vertieften Suche bestimmt und auf diese Weise verhindert, dass nach der besten
Strategie lange – im schlimmsten Falle unendlich lange – gesucht wird. Beim Schach
bedeutet dies, dass die möglichen Züge nach bestimmten Kriterien bewertet werden
und die Möglichkeiten, die sich aus offensichtlich schlechten Zügen ergeben, nicht
mehr weiter in Betracht kommen. Demnach führt die Heuristik dazu, dass ein Ent-
scheidungsbaum ganz gezielt durchsucht wird, bis ein zufriedenstellendes Ergebnis
herauskommt, das nicht unbedingt das bestmögliche Resultat sein muss. Entschei-
dungsbäume und die damit verbunden Heuristiken sind in der KI ein sehr effektives
Verfahren für Problemstellungen, die durch ein klares und unveränderliches Regelsys-
tem beschrieben werden können.
Auf die ersten Erfolge der KI im Bereich der Logik und Spiele folgten Versuche, die
Verfahren auf allgemeinere Anwendungsfälle zu erweitern. In den 1970er Jahren
entstanden Expertensysteme, die über Wenn-Dann-Beziehungen probieren, eine
menschliche Wissensbasis in für Computer lesbare Informationen zu verwandeln.
Mit den Möglichkeiten zu logischen Schlussfolgerungen und dem effektiven Suchen
in diesen Wissensbasen mit Hilfe von Heuristiken konnten die Systeme zunächst
einige Erfolge aufweisen und weckten in den 1980er Jahren große Erwartungen an
die Möglichkeiten der KI. Ein wesentlicher Nachteil dieser Systeme ist jedoch der
immense Aufwand bei der Erfassung menschlichen Wissens und der Umwandlung in
die für das Expertensystem notwendige Wissensbasis. Anfang der 1990er Jahre wur-
den die großen Erwartungen an die KI enttäuscht: Viele Firmen, die zuvor für viel
Geld Expertensysteme gekauft hatten, schafften diese wieder ab. Eine große Anzahl
von Unternehmen, die solche Systeme angeboten hatten, verschwanden vom Markt.
Diese Misserfolge führten gemeinsam mit einer signifikanten Reduktion von For-
schungsgeldern im Bereich der KI ab Ende der 1970er Jahre zur ersten und zweiten
Phase des sogenannten AI Winters (Crevier 1995).
Maschinelles Lernen
Trotz der genannten Rückschläge für die Forschung wurden in den 1980er Jahren die
Grundlagen für den heute so zentralen Ansatz des ML gelegt. Die Grundidee ist ein-
fach: Wie bringt man ein Computerprogramm, das eine bestimmte Aufgabe hat,
dazu, aus Erfahrungen zu lernen und mit diesen Erfahrungen die Aufgabe in Zukunft
besser zu erfüllen (Mitchell 2010)? Der Unterschied zu einem statischen Programm
liegt darin, dass sich die Entscheidungsregeln über eine Rückkoppelung an das
Erlernte anpassen (Abbildung A.2). ML unterteilt sich in die drei Hauptkategorien
überwachtes Lernen (Supervised Machine Learning), unüberwachtes Lernen (Unsu-
pervised Machine Learning) und verstärktes Lernen (Reinforcement Machine Lear-
ning), auf die im Folgenden näher eingegangen werden soll. Zusätzlich unterscheidet
iit-Themenband – Künstliche Intelligenz 25
man zwischen Offline- und Online-Lernsystemen. Bei dem ersten System findet das
Lernen von Verhalten zunächst offline, also getrennt vom Anwendungsszenario,
statt. Erst dann wird das Gelernte angewendet und nicht mehr verändert. Die Online-
Lernsysteme hingegen lernen und verändern ihr Verhalten stets innerhalb des
Anwendungsszenarios und passen sich beständig an.
gelernt, und mit diesem gelernten Wissen lassen sich dann Vorhersagen über künf-
tige und bisher unbekannte Eingabe- und Ausgabedaten treffen. Es entsteht also
eine Art eigenständiges Verhalten des Computerprogramms. Das einfachste Verfah-
ren einer solchen Modellbildung ist das der Regression, welches sich an folgendem
Beispiel erläutern lässt. Zwischen der Körpergröße und der Schuhgröße eines Men-
schen gibt es den einfachen linearen Zusammenhang: je größer der Mensch, desto
größer auch der passende Schuh. Dieser Zusammenhang lässt sich als lineare Funk-
tion darstellen, mit einer unabhängigen Eingangsvariable (Körpergröße) und einer
abhängigen Ausgangsvariable (Schuhgröße). Durch das mathematische Verfahren
der Regression werden nun die Parameter der Funktion ermittelt, und man erhält ein
Modell, mit dem sich Schuhgrößen aus Körpergrößen vorhersagen lassen (siehe
Abbildung A.3).
Ein zweites wichtiges Verfahren des überwachten Lernens ist das der Klassifikation.
Dabei werden während des Lernprozesses jeweils mehrere Werte voneinander als
Klassen unterschieden und bei der späteren Vorhersage einzelne Werte einer
bestimmten Klasse zugeordnet. Beispielsweise könnte man mittels Klassifikation
linke und rechte Füße unterscheiden, indem man alle Richtungen eines Fußes genau
vermisst (Abbildung A.3). Oder man könnte ein einfaches Modell zur Kreditwürdig-
keit erstellen, das auf den beiden Eingabewerten Einkommen und Ersparnisse beruht.
Personen unterhalb einer bestimmten Einkommens- und Ersparnisgrenze wären
demnach in der einen Klasse, nämlich der nicht kreditwürdigen, und oberhalb einer
solchen Grenze in der anderen Klasse, der kreditwürdigen. Der Vorteil der Klassifika-
tion besteht darin, dass immer aufgrund des Zusammenspiels mehrerer Werte beur-
teilt wird. Demzufolge würde eine Person mit zwar niedrigen Ersparnissen, dafür
aber hohem Einkommen in der Klasse kreditwürdig eingeordnet werden.
Abbildung A.3: Bei der linearen Regression (oben links) wird zwischen einer Eingangsvariable
x (hier die Körpergröße) und einer Ausgangsvariable y (hier die Schuhgröße) ein linearer
Zusammenhang hergestellt. Mit dem Modell lassen sich im Anschluss bisher noch unbe-
kannte Werte vorhersagen. Dasselbe ist auch für einen komplizierteren nicht-linearen
Zusammenhang möglich (oben rechts). Bei der Klassifikation (unten) werden die Eingangsva-
riablen für eine Unterteilung in verschiedene Klassen genutzt. In diesem Beispiel wird anhand
von zwei Eingabewerten (x1 und x2) unterschieden, ob es sich um linke (grau) oder rechte
(rot) Füße handelt. Auch bei der Klassifikation gibt es lineare (links) und nicht-lineare
Verfahren (rechts).
28 A Technologie
Abbildung A.4: Beim Clustering werden Eingabedaten durch Algorithmen (wie z. B. der
bekannte k-means-Algorithmus) in Gruppen zusammengefasst. Alle Mitglieder dieser
Gruppen haben ähnliche Merkmale – hier sind es Hände, Füße oder Münder. Auf diese
Weise entsteht eine geordnete Struktur in den Daten und das zugehörige Modell kann für
eine Interpretation genutzt werden.
iit-Themenband – Künstliche Intelligenz 29
erst dadurch entstehen, dass Ähnlichkeiten in den Daten erkannt und zu Gruppen
zusammengefasst werden (Abbildung A.4). Weitere weniger anschauliche Verfahren
sind Dimensionsreduktion und Hauptkomponentenanalyse sowie Dichteermittlung.
Methoden des unüberwachten Lernens kommen in vielen alltäglichen Anwendun-
gen zum Einsatz. So können Kaufverhalten und Nutzerverhalten im Onlinehandel
vorhergesagt sowie Empfehlungssysteme beispielsweise für Filme erstellt werden
(Netflix Prize o. J.).
Tiefes Lernen
3
AlphaGo ist das Programm der Firma Google Deep Mind, das die weltbesten Go-Spieler
im März 2016 mühelos schlagen konnte.
30 A Technologie
orientiert und viele Medien verkürzt nur von neuronalen Netzen sprechen, gibt es
deutliche Unterschiede zum biologischen Vorbild.
Die Neurowissenschaft hat mittlerweile ein gutes Verständnis dafür entwickelt, wie
ein einzelnes biologisches Neuron, z. B. eine Gehirnzelle, Information weiterverarbei-
tet. Dabei geben vorgeschaltete Neuronen elektrische Impulse über chemische
Potenziale an ihren Synapsen an ein Neuron weiter. Das Neuron erhält im Zeitverlauf
zahlreiche solcher Impulse und lädt sich dabei auf, bis ein Schwellenpotenzial erreicht
ist. Dann feuert das Neuron einen eigenen Impuls über sein Axon, das einem großen
Datenkabel entspricht, an dessen Ende der Impuls über die eigenen Synapsen des
Neurons wieder an nachgeschaltete Zellen weitergegeben wird. Dieser Prozess findet
kontinuierlich in allen Neuronen statt, die in ganz unterschiedlichen Netzwerkstruk-
Abbildung A.5: In einem KNN werden Eingabewerte in Schichten versteckter Neuronen (hier
beispielhaft zwei Schichten) verarbeitet. Wenn Rückkopplungen (hier der hellblau gepunk-
tete Pfeil) eingesetzt werden, spricht man von einem rekurrenten Netz. Das Ergebnis der
Berechnung sind die Ausgabewerte der Ausgabeneuronen (hier nur eins)
iit-Themenband – Künstliche Intelligenz 31
Einzelne Neuronen können seit 1952 mit Hilfe des Hodgkin-Huxley-Modells simuliert
werden (Hodgkin und Huxley 1952), wobei heute sowohl vereinfachte als auch
komplexere Simulationsmodelle in Gebrauch sind. Die Simulation ganzer Netzwerke
kann in Hinblick auf den Rechenaufwand sehr aufwendig sein. Aktuell werden ins-
besondere im Human Brain Project4 große Netzwerke von Neuronen simuliert, pers-
pektivisch sogar in der Größenordnung der Anzahl der biologischen Neuronen im
menschlichen Gehirn.
Liest man über neuronale Netze im Bereich KI, so sind damit KNN gemeint, die nicht
auf eine genaue Abbildung der biologischen Verhältnisse abzielen, sondern vielmehr
nur abstrakt von der Modellierung biologischer neuronaler Netze motiviert sind. Sie
setzen primär die Konzepte der Verschaltungsstärke bzw. Gewichtung und des
Schwellenwerts informatorisch um. Solche KNN erfüllen ihren Zweck aber in aktuel-
len Anwendungen. Der KI-Boom speist sich vor allem daraus, dass die Konzepte
neuronaler Netze auf bestimmter Hardware stark parallelisiert und effizient ausge-
führt werden können (siehe Beitrag 1 „Hardware für KI“).
Die grundlegende Funktionsweise eines neuronalen Netzes ist in Abbildung A.5 dar-
gestellt. Es erhält Eingabewerte, führt darauf Berechnungen durch und ermittelt
schließlich die Ausgabewerte. Wie in der Abbildung dargestellt, fließen Informatio-
nen auf der linken Seite hinein, durchlaufen das Netz und fließen auf der rechten
Seite verarbeitet hinaus. Dabei können in einem komplexeren Netz die Eingabewerte
links beispielsweise die Farbwerte der Pixel eines Bildes sein und der Ausgabewert
rechts eine Aussage, ob auf diesem Bild ein Hund erkennbar ist. In diesem Fall kön-
nen die Ausgabewerte ein einfaches Klassifikationsergebnis, also beispielsweise eine
1 (wahr – Hund erkannt) oder 0 (falsch – kein Hund erkannt) sein. Die Ausgabewerte
können aber auch eine beliebig komplexere Bedeutung haben. Bei jedem Verarbei-
tungsschritt werden die Werte aus der jeweils vorhergehenden Ebene weitergeleitet
an die einzelnen Neuronen der nächsten Ebene. In einem Neuron der Folgeebene
kommen also Werte mehrerer Neuronen an. Wie auch im biologischen Vorbild ist die
4
Das Human Brain Project ist ein seit 2013 von der Europäischen Kommission gefördertes
Forschungsprojekt, an dem über zehn Jahre hinweg mehr als 100 Institutionen beteiligt
sind. Die Gesamtkosten betragen mehr als eine Milliarde Euro.
32 A Technologie
Gewichtung der Werte ein wesentliches Element des Netzes. Alle eingehenden
Werte werden im Neuron in Hinblick auf ihre Gewichtung und den Schwellwert des
jeweiligen Neurons zu einer Ausgabe verarbeitet, die es dann wiederum an mehrere
Neuronen der Folgeschicht weitergibt. Dieser Prozess wiederholt sich bis zur letzten
Ebene. Zwischen der ersten Schicht, den Eingabe-Neuronen, und der letzten Schicht,
den Ausgabe-Neuronen, liegen die sogenannten versteckten Neuronen (Hidden
Neurons). Aufgrund der Richtung des Informationsflusses nennt man ein solches
Netz Feedforward-Netz. Möglich sind selbstverständlich auch komplexere Netzwerk-
strukturen, in denen die Informationen gleichzeitig nach vorne und teilweise auch
nach hinten fließen. Beispielsweise könnten die verarbeiteten Informationen einer
Neuronenschicht nicht nur an die nächste Schicht weiterfließen, sondern auch an die
vorhergehende Schicht zurückgekoppelt werden. Solche Netze bezeichnet man als
rekurrente Netze. Die Rückkopplung kann eine Art von „Informationserinnerung“ im
Netz darstellen und je nach Anwendungsfall sinnvoll werden.
Ein leeres Netz muss zunächst trainiert werden, um seine gewünschte Funktion zu
erfüllen. Die Gewichtungen an allen Stellen des Netzes müssen so justiert werden,
dass das gewünschte Ergebnis erzielt wird. Beispielsweise müsste ein Netz erst ler-
nen, ob auf Bildern ein Hund abgebildet ist oder nicht. Dieses Anlernen (Training) des
Netzes ist dabei viel aufwendiger und rechenintensiver als die spätere Nutzung des
Netzes zur Erkennung von Mustern (Inference). Eine Methode zum Anlernen ist die
„Backpropagation“, die zu den überwachten Lernmethoden gehört. Dabei fließen
Eingabewerte in das Netz ein und das Netz errechnet Ausgabewerte. Anschließend
wird verglichen, wie weit diese errechneten Ausgabewerte von den Ausgabewerten,
die sich eigentlich richtigerweise aus den Eingabewerten ergeben müssten, abwei-
chen. Diese Abweichung bzw. dieser Fehler muss so weit wie möglich gesenkt wer-
den. Dazu werden die Gewichtungen innerhalb des Netzes angepasst. Dann durch-
laufen die Eingabewerte wieder das Netz und produzieren neue Ausgabewerte, die
wiederum einen gewissen Fehler haben. Dieser Vorgang wird wiederholt, bis der
Fehler der Ausgabe ausreichend gering ausfällt. Dazu müssen zu allen Eingabewer-
ten die richtigen Ausgabewerte bekannt sein. Beispielsweise könnte das Netz auf
10.000 Bilder trainiert werden, wobei sich auf vielen Bildern Hunde befinden und auf
dem Rest nicht. Danach kann es idealerweise auf neuen unbekannten Bildern erken-
nen, ob ein Hund abgebildet ist oder nicht. Dabei wird es allerdings manchmal, hof-
fentlich möglichst selten, falsch entscheiden.
Wenn ein KNN wie oben beschrieben trainiert wird, dann handelt es sich um über-
wachtes Lernen. KNN können aber ebenfalls für unüberwachtes und für verstärktes
Lernen eingesetzt werden.
Für das Beispiel der Erkennung von Hundebildern sind die skizzierten Arten bzw.
Funktionen von neuronalen Netzen allerdings noch nicht ausreichend gut. Vielmehr
iit-Themenband – Künstliche Intelligenz 33
würde man dafür aktuell „faltende“ neuronale Netze (Convolutional Neural Net-
works, kurz CNN) heranziehen. Faltungen sind mathematische Funktionen, die in der
Software zahlreicher Hochtechnologien genutzt werden. In einem CNN kommen in
verschiedenen Schichten Faltungen zum Einsatz, die Bildinformationen bzw. Merk-
male abstrahieren. In Bildern mit möglichen Hunden sitzen oder laufen die Tiere
natürlich nicht immer an der gleichen Stelle. Was einen Hund ausmacht, ist nicht
seine Position im Bild, sondern es sind vielmehr Eigenschaften wie das abgebildete
flauschige Fell, das im Bild bestimmte weiche Kanten zur Umgebung produziert,
bestimmte Muster aus Augen, Schnauze und Ohren oder vier Beine mit hellen Pfoten
an den Enden, die in bestimmten Positionen zueinander stehen. Diese Eigenschaften
sind manchmal konkreter und manchmal abstrakter, sie finden sich aber nie in den
reinen Rohdaten der Pixel eines Bildes. Deshalb funktioniert ein CNN so, dass es Teile
des Bildes als Ganzes auswertet und so beispielsweise ein abstraktes Merkmal wie
die flauschige, auf dem Bild leicht verschwommene Abgrenzung des Hundes von
seiner Umgebung weiterverarbeitet. Das Bild wird also in den Schichten des Netzes
abstrahiert und die abstrakteren Merkmale führen am Ausgang des Netzes zu der
Entscheidung, ob ein Hund auf dem Bild zu sehen ist oder nicht.5
Eine weitere Methode im Bereich der neuronalen Netze sind sogenannte Generative
Adversarial Networks (GAN) (Goodfellow et al. 2014). In gewisser Hinsicht kämpfen
bei dieser Methode zwei Netzwerke gegeneinander. Dem eigentlich eingesetzten
Netz, das lernen soll, wird ein Gegnernetz gegenübergestellt, das die Eingabewerte
des lernenden Netzes erzeugt. Das Gegnernetz ist dabei aber so verschaltet, dass es
lernt, Eingabewerte zu produzieren, die für das lernende Netz möglichst schlechte
Ergebnisse mit einem hohen Grad an Fehlern liefern. Das Gegnernetz konfrontiert
das lernende Netz also immer und immer wieder mit seinen Schwächen und führt es
an seine Grenzen. Das Ergebnis dieser Auseinandersetzung ist, dass das lernende
Netz exzellent wird und selbst mit schwierigen Eingabewerten zurechtkommt.
Unter KI, ML und DL versteht man heute eine ganze Reihe von Ansätzen, Probleme
mit Hilfe von autonom agierenden und in diesem Sinne intelligenten Computerpro-
grammen zu lösen. In den folgenden Kapiteln soll auf bestimmte Teilbereiche der
Technologie genauer eingegangen werden. Kapitel 1 beschreibt, welche Rechen-
hardware nötig ist, um neuronale Netze überhaupt effizient ausführen zu können.
Kapitel 2 zeigt mit einer Übersicht zu Normung und Standardisierung auf, wie KI-
Werkzeuge aktuell gehandhabt werden. In Kapitel 3 wird dargestellt, wie der Mensch
mit komplexen KI-Systemen interagieren kann und könnte. Kapitel 4 befasst sich mit
Ansätzen und Methoden im Anwendungsgebiet IT-Sicherheit.
5
Jeder, der schon einmal Google Fotos verwendet hat, kennt die Güte der Mustererken-
nung in Bildern (Computer Vision).
34 A Technologie
Literatur
Bostrom, Nick (2014): Superintelligence. Paths, dangers, strategies. 1. ed. Oxford: Oxford
University Press.
Colmerauer, Alain; Roussel, Philippe (1996): The birth of Prolog. In: Thomas J. Bergin (Hrsg.):
History of programming languages II. [Second ACM SIGPLAN History of Programming
Languages Conference (HOPL-II), April 20 - 23, 1993, Cambridge, Massachusetts]. New
York, NY, Reading, Mass.: ACM Press; Addison-Wesley, S. 331–367.
Copeland, Michael (2016): What’s the Difference Between Artificial Intelligence, Machine
Learning, and Deep Learning? Online verfügbar unter https://blogs.nvidia.com/
blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-lear-
ning-ai/, zuletzt geprüft am 26.06.2018.
Crevier, Daniel (1995): AI. The tumultuous history of the search for artificial intelligence. [2.
pr.]. New York, NY: Basic Books.
Diff Authors: Autonomous Weapons: an Open Letter from AI & Robotics Researchers. Online
verfügbar unter https://futureoflife.org/open-letter-autonomous-weapons, zuletzt geprüft
am 23.02.2018..
Goodfellow, I. J.; Pouget-Abadie, J.; Mirza, M.; Xu, B.; Warde-Farley, D.; Ozair, S. et al.
(2014): Generative Adversarial Networks. In: ArXiv e-prints.
Hodgkin, A.L.; Huxley, A. F. (1952): A quantitative description of membrane current and its
application to conduction and excitation in nerve. In: The Journal of physiology 117 (4), S.
500–544.
Knight, Will (2016): This Factory Robot Learns a New Job Overnight. Online verfügbar unter
https://www.technologyreview.com/s/601045/this-factory-robot-learns-a-new-job-over-
night/, zuletzt geprüft am 23.02.2018.
Kober, Jens; Bagnell, J. Andrew; Peters, Jan (2013): Reinforcement learning in robotics. A
survey. In: The International Journal of Robotics Research 32 (11), S. 1238–1274. DOI:
10.1177/0278364913495721.
Kurzweil, Ray (2001): The Law of Accelerating Returns. Online verfügbar unter http://www.
kurzweilai.net/the-law-of-accelerating-returns, zuletzt geprüft am 23.02.2018.
Lally, Adam; Fodor Paul (2011): Natural Language Processing With Prolog in the IBM Watson
System. The Association for Logic Programming. Online verfügbar unter https://www.
cs.nmsu.edu/ALP/2011/03/natural-language-processing-with-prolog-in-the-ibm-watson-
system/, zuletzt geprüft am 23.02.2018.
Luger, George F. (2003): Künstliche Intelligenz. Strategien zur Lösung komplexer Probleme.
4. Aufl., [Nachdr.]. München: Pearson Studium (Pearson Studien Informatik).
Mitchell, Tom M. (2010): Machine learning. International ed., [Reprint.]. New York, NY:
McGraw-Hill (McGraw-Hill series in computer science).
Netflix Prize (o. J.): Online verfügbar unter https://www.netflixprize.com/community/
topic_1537.html, zuletzt geprüft am 23.02.2018.