| Vorteile | Nachteile |
|---|---|
| Keine Trainingszeit | Braucht lange für Vorhersagen |
| Einfache und Verständliche Ergebnisse | Erkennt nur einfache (lineare) Beziehungen |
| Hat nur einen nicht vom Modell festgelegten Parameter (Hyperparameter), k --> einfach zu optimieren | Eignet sich nicht zur Vorhersage von noch passierenden Ereignissen (Zukunftsvorhersagen) Bsp: Regnet es morgen? |
Ein Entscheidungsbaum besteht aus mehreren Knoten. Hierbei wird zwischen Entscheidungsknoten, die Zwischenergebnisse beinhalten, und Blattknoten, die keine weiteren Verzweigungen mehr besitzen und an denen wir das Endergebnis ablesen können unterschieden. Verbunden werden diese Knoten durch Äste, welche die möglichen Antworten auf die Knoten bestimmen.

Gute Zusammenfassung: https://www.youtube.com/watch?v=1fQrOek4buQ
Neuronale Netze
Ein von biologischen Gehirnen inspiriertes Modell mit vernetzten künstlichen Neuronen, das durch Trainingsdaten Muster erkennt und komplexe Zusammenhänge lernt.
Ein Neuron bekommt Eingabewerte x übergeben. Diese werden mit Gewichten w multipliziert. Jedes Neuron bildet die Summe () dieser gewichteten Eingaben und berechnet den Wert einer Aktivierungsfunktion ().
Typische Aktivierungsfunktionen:

Ein künstliches neuronales Netz kombiniert viele Neuronen. Diese werden in Schichten organisiert.
![]()
Die Gewichte in einem künstlichen neuronalen Netz sind nach der Erstellung zufällig. Damit sind die Entscheidungen des Netzes zufällig. Hier kommt der Lernalgorithmus ins Spiel. Er berechnet für die Trainingsdaten die größe des Fehlers und passt danach von der Ausgabeschicht rückwärts die Gewichte an. Deshalb heißt er auch Backpropagation-Algorithmus. Sein Ziel ist die Minimierung des Fehlers für die Trainingsdaten. Dies geschieht mathematisch durch finde des Minimus der Fehlerfunktion durch Gradientenabstieg.
Visualisierung des Gradientenabstiegs. Die Schrittweite wird durch die Lernrate bestimmt.
