Skip to content

Latest commit

 

History

History
53 lines (31 loc) · 5.09 KB

File metadata and controls

53 lines (31 loc) · 5.09 KB

Einführung in Neuronale Netzwerke

Zusammenfassung des Inhalts zu neuronalen Netzwerken in einer Skizze

Wie wir in der Einführung besprochen haben, besteht eine Möglichkeit, Intelligenz zu erreichen, darin, ein Computermodell oder ein künstliches Gehirn zu trainieren. Seit Mitte des 20. Jahrhunderts haben Forscher verschiedene mathematische Modelle ausprobiert, bis sich in den letzten Jahren dieser Ansatz als äußerst erfolgreich erwiesen hat. Solche mathematischen Modelle des Gehirns werden als neuronale Netzwerke bezeichnet.

Manchmal werden neuronale Netzwerke als Künstliche Neuronale Netzwerke (Artificial Neural Networks, ANNs) bezeichnet, um klarzustellen, dass es sich um Modelle handelt und nicht um echte Netzwerke von Neuronen.

Maschinelles Lernen

Neuronale Netzwerke sind Teil einer größeren Disziplin namens Maschinelles Lernen, deren Ziel es ist, Daten zu nutzen, um Computermodelle zu trainieren, die Probleme lösen können. Maschinelles Lernen macht einen großen Teil der Künstlichen Intelligenz aus, jedoch behandeln wir in diesem Lehrplan nicht das klassische ML.

Besuchen Sie unseren separaten Maschinelles Lernen für Anfänger Lehrplan, um mehr über klassisches Maschinelles Lernen zu erfahren.

Im Maschinellen Lernen gehen wir davon aus, dass wir einen Datensatz mit Beispielen X und den entsprechenden Ausgabewerten Y haben. Beispiele sind oft N-dimensionale Vektoren, die aus Merkmalen bestehen, und Ausgaben werden als Labels bezeichnet.

Wir betrachten die zwei häufigsten Probleme des Maschinellen Lernens:

  • Klassifikation, bei der wir ein Eingabeobjekt in zwei oder mehr Klassen einordnen müssen.
  • Regression, bei der wir für jede Eingabeprobe eine numerische Zahl vorhersagen müssen.

Wenn Eingaben und Ausgaben als Tensoren dargestellt werden, ist der Eingabedatensatz eine Matrix der Größe M×N, wobei M die Anzahl der Proben und N die Anzahl der Merkmale ist. Die Ausgabelabels Y sind ein Vektor der Größe M.

In diesem Lehrplan konzentrieren wir uns ausschließlich auf Modelle neuronaler Netzwerke.

Ein Modell eines Neurons

Aus der Biologie wissen wir, dass unser Gehirn aus Nervenzellen (Neuronen) besteht, von denen jede mehrere "Eingänge" (Dendriten) und einen einzigen "Ausgang" (Axon) hat. Sowohl Dendriten als auch Axone können elektrische Signale leiten, und die Verbindungen zwischen ihnen — bekannt als Synapsen — können unterschiedliche Grade der Leitfähigkeit aufweisen, die durch Neurotransmitter reguliert werden.

Modell eines Neurons Modell eines Neurons
Echtes Neuron (Bild von Wikipedia) Künstliches Neuron (Bild vom Autor)

Das einfachste mathematische Modell eines Neurons enthält daher mehrere Eingänge X1, ..., XN und einen Ausgang Y sowie eine Reihe von Gewichten W1, ..., WN. Der Ausgang wird berechnet als:

Y = f\left(\sum_{i=1}^N X_iW_i\right)

wobei f eine nichtlineare Aktivierungsfunktion ist.

Frühe Modelle von Neuronen wurden in dem klassischen Artikel A logical calculus of the ideas immanent in nervous activity von Warren McCullock und Walter Pitts im Jahr 1943 beschrieben. Donald Hebb schlug in seinem Buch "The Organization of Behavior: A Neuropsychological Theory" vor, wie solche Netzwerke trainiert werden können.

In diesem Abschnitt

In diesem Abschnitt lernen wir:


Haftungsausschluss:
Dieses Dokument wurde mit dem KI-Übersetzungsdienst Co-op Translator übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.