Wir haben bereits Entscheidungsbäume kennengelernt und wissen, wie diese unter Verwendung von Trainingsdaten erzeugt werden können.
Falls du damit nicht vertraut bist, schaue dir bitte unbedingt zunächst folgenden Kurs an:
Wir wissen auch, dass zu ein und derselben Trainingsmenge unterschiedliche Entscheidungsbäume erzeugt werden können, nämlich insbesondere dann, wenn an jedem Knoten ein zufälliges Merkmal für die Entscheidungsregel gewählt wird. Und genau diese Tatsache führt uns bereits zu einem Random Forest:
Ein Random Forest ist eine Zusammenstellung mehrere Entscheidungsbäume, die jeweils auf Grundlage derselben Trainingsmenge erzeugt wurden und bei denen die Merkmale der Entscheidungsregeln zufällig gewählt wurden.
Auch die Vorgehensweise, um ein Objekt anhand eines Random Forest zu klassifizieren, ist naheliegend und einfach:
Um ein Objekt zu klassifizieren, werden alle Entscheidungsbäume des Random Forest ausgewertet. Die Mehrheit der Ergebnisse der einzelnen Bäume wird schließlich als das Klassifikationsergebnis des Random Forest angesehen.
Deutlich wird die Vorgehensweise vor allem anhand der folgenden Aufgabe.