Academia.edu no longer supports Internet Explorer.
To browse Academia.edu and the wider internet faster and more securely, please take a few seconds to upgrade your browser.
1993, Angewandte Chemie
…
27 pages
1 file
2004
The report gives an introduction to neural networks. Starting with the basic terminology, different types of neural networks are described. Several applications of neural networks are shown, e.g. pattern recognition, content-adressable memory, and optimization problems. The major part of the report is focused on learning. Methods for learning from examples as well as methods for learning from observations are described. This report has been used as part of a script for a graduate student course in AI. It aims at teaching the basics of neural networks with the intention to make accessible the mathematical techniques used in this context. The paper is written in German.
Gabler Verlag eBooks, 2001
ist Inhaber des lehrstuhls Marketing" an der Universität Hannover (www.m2.uni-hannover.de). Dipl.-Ing. Frank Buckler ist wissenschaftlicher Projektmitarbeiter am lehrstuhl Marketing" der Universität Hannover (www.neusrel.de).
CHEMKON, 1998
Es gibt keinen Algorithmus für die Metapher, und sie kann auch nicht mit Hilfe eines Computers produziert werden, gleichgültig, welche Mengen organisierter Information oder präziser Instruktion ich eingebe. (Umberto Eco, 1985) 1 Der Begriff Künstliche Intelligenz wird oft in den populären Medien, sowie in Kunst-und Philosophiekreisen als eine Art alchemistischer Talisman zitiert, dessen Funktion selten erklärt wird. Das derzeit vorherrschende Paradigma (u.a. wichtig für die Automatisierung von Arbeit) basiert nicht auf GOFAI (Good Old-Fashioned Artificial Intelligence) -gute altmodische künstliche Intelligenz, die nie erfolgreich in automatisierter symbolischer Deduktion war -sondern auf neuronalen Netzwerken 1958 entwickelt von Frank Rosenblatt, um statistische Induktion zu automatisieren. Nichtsdestotrotz führen neuronale Netzwerke selbst eine spezifische Dimension des "Unberechenbaren" ein. Statistische Induktion ist unfähig dem Universum der Kategorien seiner Trainingsdaten zu entkommen, und wird deutlich am Beispiel der Erkennung von sprachlichen Metaphern oder von Humor. Ein neuronales Netzwerk hat immer Probleme "Erfindungen von etwas Neuem" zu identifizieren. Frank Rosenblatt und die Erfindung des Perzeptrons Obwohl die Evolution von Künstlicher Intelligenz aus mehreren Entwicklungslinien hervorgeht, bezieht sich dieser Text nur auf die entscheidende Konfrontation zwischen zwei Klassenkameraden der Bronx High School of Science, namentlich Marvin Minsky, Gründer des MIT Artificial Intelligence Lab, und Frank Rosenblatt, dem Erfinder des ersten neuronalen Netzwerkes, des Perzeptrons. Der Konflikt zwischen Minsky und Rosenblatt wird oft reduziert auf den Disput zwischen einem hierarchisch regelbasierten Paradigma von Künstlicher Intelligenz (symbolischer KI) und der verteilten, parallelen Datenverarbeitung von neuronalen Netzwerken (Konnektionismus). Anstatt der Umsetzung eines von vornherein vollkommen intelligenten Algorithmus, lernt in dem letzteren Modell eine Maschine von ihrer Umgebung und wird Schritt für Schritt teilweise "intelligent". Im logischer Hinsicht liegt hier der Unterschied zwischen symbolischer Deduktion und statistischer Induktion 2 vor. 1951 entwickelte Minsky das erste neuronale Netzwerk SNARC (ein Problemlöser) aber vernachlässigte dann das Projekt in der Überzeugung, dass neuronale Netzwerke zu viel Rechenkapazität 3 benötigen würden. 1957 beschrieb Rosenblatt das erste erfolgreiche neuronale Netzwerk in einem Bericht an das Cornell Aeronautical Laboratory mit dem Titel "Das Perzeptron: Ein Wahrnehmendes und Erkennendes Automaton". Ähnlich wie Minsky hatte Rosenblatt sein neuronales Netzwerk skizziert, die der Idee der künstlichen Neuronen von Warren McCulloch und Walter Pitts, welche von den Neuronen im Auge inspiriert war 4 , eine aufbauende und verteilte Struktur verlieh. Die erste neuronale Maschine, das Mark 1 Perzeptron, wurde in der Tat eigentlich als Sehmaschine 5 hergestellt. Eine Hauptanforderung eines solchen Systems ist die Fähigkeit, komplexe Informationsmuster erkennen zu können, die sich phänomenologisch ähnlich sind […] ein Prozess der den psychologischen Phänomenen der "Assoziation" und "Reizgeneralisierung" entspricht. Das System muss das "gleiche" Objekt in unterschiedlichen Ausrichtungen, Größen, Farben oder Veränderungen, und vor einer Vielfalt unterschiedlicher Hintergründe erkennen können. [Es] sollte fähig sein, ein elektronisches oder elektromechanisches System zu konstruieren, dass Ähnlichkeiten oder Übereinstimmungen zwischen Mustern von optischen, elektrischen, oder tonalen Informationen in einer Weise, ähnlich denen von Wahrnehmungsprinzipien biologischer Gehirne zu erkennen lernt. The vorgeschlagene System ist einem Informationsfluss folgend, in dem eine komplexe Eingabe verschlüsselt wird um einer bestimmten Ausgabe zu entsprechen. Die Struktur, die sich daraus ergibt, ist nicht unbedingt ein Netzwerk (oder ein Rhizom), sondern ein verzweigtes Netzwerk, das als hierarchischer Konus wächst, und in dem Information weitergeleitet und in höhere Formen von Abstraktion destilliert werden. 13 Die allgemeine Rückkopplung wirkt sich auf die Funktion jedes einzelnen Knotens oder Neurons aus, d. h. auf die Art und Weise, wie ein Knoten berechnet (sein "Gewicht"). Die Rückkopplung, die die Berechnung jedes einzelnen Knotens steuert (was man unterschiedlich als Gewichtsanpassung, Fehlerrückführung usw. bezeichnet), kann eine Gleichung, ein Algorithmus oder sogar ein menschlicher Operator sein. In einer spezifischen Instanz von neuronalen Netzwerken kann die Steuerrückkopplung durch Änderung einer Knotenschwelle ein ODER-Gatter z. B. in ein UND-Gatter umwandeln -das bedeutet, dass die Steuerrückkopplung die Art und Weise verändert, wie ein Knoten funktioniert. 14 Die Logikgatter von neuronalen Netzwerken berechnen Informationen, um die Art und Weise zu beeinflussen, wie sie zukünftige Informationen berechnen. Auf diese Weise beeinflussen Informationen die Logik. Der Geschäftsschwerpunkt der wichtigsten IT-Unternehmen liegt heute darin, die effektivste Formel der neuronalen Kontrollrückkopplung zu finden. Genauer gesagt, lernt das neuronale Netz, ein Bild zu erkennen, indem es Abhängigkeiten oder Verhältnisse zwischen Pixeln aufzeichnet und statistisch eine interne Darstellung zusammenstellt. In einem Foto eines Apfels, zum Beispiel, kann ein rotes Pixel zu 80-prozentiger Wahrscheinlichkeit von anderen roten Pixeln umgeben sein, und so weiter. Auf diese Weise lassen sich auch ungewöhnliche Verhältnisse in komplexeren grafischen Merkmalen (Kanten, Linien, Kurven, etc.) kombinieren. Da ein Apfel aus verschiedenen Blickwinkeln erkannt werden muss, wird ein Bild nie gespeichert, sondern nur seine statistischen Abhängigkeiten. Das statistische Diagramm der Abhängigkeiten wird als mehrdimensionale interne Repräsentation aufgezeichnet, die dann mit einer menschenlesbaren Ausgabe (dem Wort "Apfel") assoziiert wird. Dieses Trainingsmodell wird als überwachtes Lernen bezeichnet, da der Mensch entscheidet, ob jeder Ausgang korrekt ist. Nicht überwachtes Lernen ist, wenn das neuronale Netz die häufigsten Muster von Abhängigkeiten in einem Trainingsdatensatz entdecken muss, ohne einer vorherigen Klassifizierung zu folgen (bei einem Datensatz von Katzenbildern extrahiert es die Eigenschaften einer generischen Katze). Abhängigkeiten und Muster lassen sich über die unterschiedlichsten Datentypen nachvollziehen: Visuelle Datensätze sind am intuitivsten zu verstehen, aber dieselben Verfahren werden z. B. auf soziale, medizinische und ökonomische Daten angewendet. Die gegenwärtigen 13 Siehe: Ethem Alpaydın, Introduction to Machine Learning, 2 nd ed. MIT Press, 2014, S. 260. 14 Dies ist ein spezieller Fall für Illustrationszwecke. Auch die Aktivierungsfunktionen arbeiten unterschiedlich. 6 Techniken der Künstlichen Intelligenz sind eindeutig eher eine hochentwickelte Form der Mustererkennung als Intelligenz an solche, wenn Intelligenz als Entdeckung und Erfindung neuer Regeln verstanden wird. Was neuronale Netzwerke berechnen, um es logisch auszudrücken, ist eine Form der statistischen Induktion. Natürlich kann eine solche außergewöhnliche Form der automatisierten Inferenz ein wertvoller Verbündeter für die menschliche Kreativität und Wissenschaft sein (und sie ist die beste Annäherung an Peirces so genannte schwache Abduktion), aber sie stellt nicht per se die Automatisierung der Intelligenz qua Erfindung dar, weil sie eben innerhalb von "zu menschlichen" Kategorien verbleibt. 15 Menschliche, allzu menschliche Berechnung Peirce sagte, "der Mensch sei ein äußeres Zeichen". 16 Wenn diese Anschauung die Philosophen dazu anregte, zu betonen, dass der menschliche Geist ein artefaktisches Projekt ist, das sich bis in die Technologie hinein erstreckt, so wurde die tatsächliche Verschmelzung des menschlichen Verstandes mit den externen Maschinen der Erkennung [cognition] nur selten empirisch illustriert. Dies hat vereinfachende Positionen hervorgebracht, in denen Ideen wie Künstliche Allgemeine Intelligenz und Superintelligenz als alchemistische Talismane des Posthumanismus evoziert werden, ohne die inneren Funktionsweisen und Postulate der Berechnung hinreichend zu erklären. Ein faszinierender Aspekt der neuronalen Berechnung ist eigentlich die Art und Weise, wie sie die Kategorien menschlichen Wissens verstärkt, anstatt sie in autonomen Formen zu ersetzen. Im Gegensatz zu der naiven Vorstellung einer Autonomie von künstlicher Intelligenz sind in der Architektur neuronaler Netzwerke viele Elemente noch immer stark vom menschlichen Eingriff betroffen und abhängig. Will man verstehen, wie stark neuronale Berechnung in das 'Unmenschliche' hineinreicht, sollte man erkennen, wie viel es noch 'zu menschlich' ist. Das Design des Trainingsdatensatzes ist die kritischste und verwundbarste Komponente der Architektur neuronaler Netzwerke. Das neuronale Netzwerk ist darauf trainiert, Muster in Daten, die Vergangenes dokumentieren, zu erkennen, um diese Fähigkeit auf zukünftige Daten anzuwenden. Wenn aber, wie bereits mehrfach zu beobachten, Trainingsdaten eine rassistische, geschlechtsspezifische und klassenbezogene Verzerrung aufweisen, werden neuronale Netzwerke eine solche Verzerrung reflektieren, verstärken und verzerren. Gesichtserkennungssysteme, die auf 15 Über die Versuche schwache Abduktion zu automatisieren, siehe "Automatic Abductive Scientists" in: Lorenzo Magnani. Datenbanken mit Gesichtern von hellhäutigen Menschen trainiert wurden, versagten kläglich darin, dunkelhäutige Gesichter als Menschen zu erkennen. Ein Problem, das als Überanpassung [overfitting] bezeichnet wird: Bei genügender Rechenleistung zeigt ein neuronales Netz die Tendenz, zu viel zu lernen, sich also auf ein super-spezifisches Muster zu fixieren: Es ist daher notwendig, einige seiner Ergebnisse zu ignorieren, um seinen Erkennungsimpuls entspannter zu gestalten. Ähnlich der Überanpassung können auch Fälle von...
Chemie Ingenieur Technik - CIT, 1999
Berichte der Bunsengesellschaft für physikalische Chemie, 1998
Bericht uber die 97. Hauptversammlung der Deutschen Bunsen-Gesellschaft fur Physikalische Chemie e.V. vom 21.-23. Mai 1998 in Munster Haupnhema: ,,Physikalische Chemie der Gele und Netzwerke" Wissenschaftliche Vorbereitung: H. H o f f m a n n , Bayreuth, H. R e h a g e , Essen, und W. O p p e r m a n n , Stuttgart Der Erste Vorsitzende der Bunsen-Gesellschaft. Dr.-Ing. K. Nothnagel, eroffnete die Tagung und be@Bte als Gaste den Staatssekretiir des Ministeriums fur Wissenschaft und Forschung des Landes Nordrhein-Westfalen
Der Anaesthesist, 2003
Bei einem künstlichen neuronalen Netzwerk (KNN) handelt es sich um ein einfaches Modell des zentralen Nervensystems. Neurone sind dort hoch gradig untereinander verbunden. Sie lernen, auf Informationen zu reagieren und sich entsprechend anzupassen. Das menschliche Gehirn ist die komplizierteste Struktur, die uns bekannt ist. Umso beachtenswerter ist, dass im Gehirn nur ein Grundtypus von Zelle existiert,der Information übertragen und diese in gewisser Weise auch speichern kann.Beim Menschen entsteht durch dieses Netzwerk aus etwa 10 11 Neuronen ein intelligentes Wesen mit den Fähigkeiten zu lernen, wiederzuerkennen und vorauszusehen.Mit neuronalen Netzwerken versucht man die Vorgänge im Gehirn durch Computeranwendungen zu simulieren. Im Gehirn sind die Nervenzellen in komplexer Weise miteinander verknüpft. Jede Zelle kann über Dendriten Signale von anderen Zellen empfangen und diese über Axone weiterleiten. Im Zellkörper der Nervenzelle summieren sich die Potenziale der einzelnen Dendriten auf. Wird ein bestimmter Schwellenwert überschritten, dann feuert das Neuron und sendet so ein Impulssignal über das Axon zu seinen Nachbarn; andernfalls bleibt es ruhig. Rein technisch gesehen funktioniert also eine Nervenzelle
2002
Zusammenfassung Die Hauptkomponentenanalyse (Principal Component Analysis, PCA) ist eine weit verbreitete und vielfältig anwendbare Methode der Dimensionsreduktion und der Merkmalsextraktion. Sie wird benutzt zur Komprimierung, zum Entrauschen von Daten oder allgemein als Vorverarbeitung bei Klassifikations-, Regressions-oder Quellentrennungsaufgaben. Die PCA ist auf die Erkennung linearer Strukturen in Datenräumen beschränkt.
Loading Preview
Sorry, preview is currently unavailable. You can download the paper by clicking the button above.
Carbohydrate Research, 1968
Verhandlungen zur Geschichte und Theorie der Biologie 12, 2006
Angewandte Chemie, 2007
Der Nervenarzt, 2003
Die Schönheit des Denkens
Schweizerische Zeitschrift für Ganzheitsmedizin / Swiss Journal of Integrative Medicine, 2017
Naturwissenschaften, 1977
Informatik aktuell, 1998
2008
Zeitschrift f�r Zellforschung und Mikroskopische Anatomie, 1965
Pfl�gers Archiv European Journal of Physiology, 1970
Angewandte Chemie, 2008
Inklusiver Fachunterricht in der Sekundarstufe, 2015