StartseiteKNN - Was ist das?Biologische GrundlagenMathematischer HintergrundNetzstrukturenLernverfahrenAnwendungen

Mathematischer Hintergrund:

Das künstliche Neuron

McCulloch-Pitts-Neuron

Perzeptron

Allgemein:

Startseite

Unser Team

Quellenangabe

Haftungsausschluss

Der Natur stark angelehnt, splittet man, den Funktionalitäten entsprechend, das künstliche Neuron in
3 Einheiten.

Darstellung eines Künstlichen Neurons

Wie bereits erläutert, ist das Neuron nicht für die Speicherung des Wissens, sondern ausschließlich für die bedingte Weiterleitung eingehender Impulse verantwortlich.


Diese drei Komponenten werden mathematisch als Propagierungsfunktion neti, Aktivierungsfunktion fai und Ausgabefunktion foi bezeichnet, wobei Index i festlegt, auf welches Neuron sich die Funktion bezieht.

Die Stärke der Verbindungen zwischen den Neuronen, den Synapsen, wird mit einer reellen Zahl dargestellt. Man nennt diese auch Gewichtungen, wobei sie die Eingabe verstärken, wenn sie positiv oder abschwächen, wenn sie negativ sind. Eine Null- Gewichtung entspricht einer nicht vorhandenen Verbindung.

Propagierungsfunktion


Die Propagierungsfunktion neti legt fest, in welcher Form die Eingabe berechnet bzw. verarbeitet wird. Die am Häufigsten angewandte Propagierungsfunktion ist die gewichtete Summe aller Eingaben.

X1 bis xn bezeichnen die einzelnen Eingaben und w1 bis wn die Gewichte der Verbindungen (die von den Eingaben stammen) des Neurons.

Aktivierungsfunktion

Der Aktivierungszustand gibt den Grad der Aktivierung einer Zelle an, welcher je nach Aktivierungsfunktion entweder eine diskrete Zahl oder eine reelle Zahl aus einem bestimmten Intervall, z.B. [0;1] ist.
Die Aktivierungsfunktion muss einigen Vorraussetzungen gerecht werden: Zum einen muss sie stetig und differenzierbar sein, um im Lernverfahren » Backpropagation verwendet werden zu können und zum anderen muss sie, durch die Verwendung neuronaler Netze zur Lösung nichtlinearer Probleme, nichtlinear sein.
Die Aktivierungsfunktion muss außerdem sehr sensibel sein, da sie auf Signale sehr kleiner sowohl großer Amplituden reagieren muss.
Eine Funktion, die diesen Vorraussetzungen genügt, ist diese logische Funktion:

Ausgabefunktion

Das Ergebnis, also die Ausgabe, welche entweder an die nachfolgende Zelle oder gar an die Umgebung übertragen wird, wird aus dem Ergebnis der Aktivierungsfunktion berechnet. Das durch ein Neuron zu verarbeitende Signal besteht also aus den Ausgangssignalen des Vorgängerneurons.
Ist eine nichtlineare Funktion bereits Bestandteil der Aktivierungsfunktion, so wird für die Ausgabefunktion meist die Identitätsfunktion f(x) = x gewählt, d.h. es wird auf eine spezielle Ausgabefunktion verzichtet.

Schwellenwert

Der Schwellenwert θ bezeichnet den Spannungswert des Membranpotentials, bei dem ein Aktionspotential entsteht, also das Potenzial "überschwellig" wird. Wenn sich die Eingaben eines Neurons anhäufen, so wird diese Reizschwelle überschritten. Dies wird häufig durch ein „on“- Neuron (ein Neuron, mit einer festen 1-Ausgabe) ersetzt. Auf diese Weise enthält die Netzeingabe einen Schwellenwertterm und die Aktivierungsfunktion kann ohne den Schwellenwert berechnet werden.
Da nun der Schwellenwert nicht mehr berücksichtigt werden muss, ist dies eine gute Implementierung für die mathematische Beschreibung und die einfachere Realisierung der Lernregel.

Ein neuronales Netz kann als gerichteter Graph dargestellt werden, wobei die Knoten die Neuronen und die Kanten die Verbindungen darstellen.

Weiter zu » McCulloch-Pitts-Neuron