close

Standort Krefeld

acadon AG
Königsberger Straße 115
47809 Krefeld

Tel.: +49 (0) 21 51 96 96-0
Fax.: +49 (0) 21 51 96 96-96
E-Mail: info@acadon.de

close

Support

Hotline _timber
Skype: +49 (0) 21 51 96 96-103
E-Mail: support@acadon.de

Hotline _packaging
Skype: +49 (0) 21 51 96 96-303
E-Mail: packaging@acadon.de

Hotline _cooperations / _furniture
Skype: +49 (0) 21 51 96 96-0
E-Mail: verbundgruppen@acadon.de

Hotline _venture
Skype: +49 (0) 21 51 96 96-803
E-Mail: venture@acadon.de

Weitere Kontakte

Hotline _technology
Skype: +49 (0) 21 51 96 96-200
E-Mail: technik@acadon.de

Administration/Marketing
Skype: +49 (0) 21 51 96 96-0
E-Mail: marketing@acadon.de

Künstliche Intelligenz – Was sind Entscheidungsbäume?

Mithilfe von Entscheidungsbäumen werden Entscheidungen graphisch dargestellt und bieten die Möglichkeit diese zu hinterfragen und nachzuvollziehen.  Die Darstellung erfolgt mit Knoten und sogenannten Subsets in denen die verschiedenen Eigenschaften aufgesplittet werden. Jedes Ergebnis kann mit einem weiteren Knoten verbunden sein, der zu einem anderen Ergebnis führen kann.

Zur Verdeutlichung ein Beispiel:

 

Über einen Zeitraum von 14 Tagen wurde Johns Verhalten dokumentiert, im Bezug darauf ob er Tennis gespielt hat oder nicht. Das Ziel ist es durch einen Entscheidungsbaum voraussagen zu können ob er an Tag 15 unter folgenden Bedingungen spielen wird: Es regnet, die Luftfeuchtigkeit ist hoch, jedoch ist der Wind schwach.

Mithilfe von Entscheidungsbäumen wird das Trainingsmodel durch Attribute in Subsets gesplittet bis nur „pure Subsets“ vorhanden sind (Ergebnisse sind nur positiv oder negativ).

Für Tag 15 wird geprüft in welches Subset es am besten passt.

Das dominante Ergebnis ist entscheidend. Der Algorithmus speichert nicht nur true und false sondern auch die Werte, die sogenannten Scores wann das Ergebnis richtig war und wann nicht.

Eine künstliche Intelligenz nutzt diesen Score um weiter zulernen.

Zusammengefasst ergeben sich für das Splitten der Daten die folgenden drei Schritte:

  1. Attribut auswählen mit dem höchsten Informationsgewinn bzw. der höchsten Eindeutigkeit
  2. Wurzelknoten erstellen
  3. Weitere Schwellwerte definieren für weitere Ergebnisse

Entscheidungsbäume sind nicht in der Lage ein Ergebnis zu finden, wenn die Testdaten zu weit auseinander sind. Außerdem ist es nur möglich nach einem Attribut gleichzeitig zu splitten und nicht nach mehreren. Dazu wird immer der „beste“ Weg bzw. das dominanteste Ergebnis genommen.

Das Grundprinzip wird in dem Algorithmus “Decision Forest” und “Decision Jungle” ausgebaut.

Decision Forests (Entscheidungswald)

Vereinfacht gesagt werden im “Decision Forest” mehrere Entscheidungsbäume genutzt und für eine genauere Vorhersage wird das Ergebnis zusammengeführt. Dieser Vorgang ist das sogenannte Mehrheitsvoting. Je Baum wird nur mit einem Hauptattribut trainiert. Diese Methode wird auch auf die anderen Bäume angewendet, sodass am Ende jeder Baum nahezu perfekt auf sein Merkmal trainiert ist. Je mehr Bäume verwendet werden desto höher ist die Genauigkeit.

Der Algorithmus sucht nicht nach dem wichtigsten Merkmal, sondern er such in einem zufälligem Subset (Teilmenge) nach dem besten Merkmal, die Variationen der Merkmale führt zu einem genaueren Ergebnis. Desweiteren ist es auch noch möglich die zuvor genannten Schwellwerte, als zufällige Werte zu definieren.