Apriori-Algorithmus

Aus testwiki
Zur Navigation springen Zur Suche springen

Der Apriori-Algorithmus ist ein Verfahren zur Assoziationsanalyse, einem Bereich des Data-Mining. Er dient der Auffindung sinnvoller und nützlicher Zusammenhänge in transaktionsbasierten Datenbasen, die in Form sogenannter Assoziationsregeln dargestellt werden. Eine häufige Anwendung des Apriori-Algorithmus ist die Warenkorbanalyse. Items sind hierbei angebotene Produkte und ein Einkauf stellt eine Transaktion dar, welche die gekauften Items enthält. Der Algorithmus bestimmt nun Korrelationen der Form:

Wenn Shampoo und Rasierwasser gekauft wurden, wurde in 90 % der Fälle auch Rasierschaum gekauft.

Eine passende Datenbasis besteht aus einer Tabelle von Transaktionen (Zeilen), in denen beliebige binäre Items (Spalten) zusammengefasst werden. Der Apriori-Algorithmus findet Zusammenhänge zwischen Mengen von Items, die in einem großen Teil der Transaktionen vorkommen. Die durch den Algorithmus erzeugten Assoziationsregeln haben die Form AB. Dabei sind A und B Mengen von Items und die Regel ist so zu interpretieren, dass Transaktionen, in denen die Itemmenge A vorkommt, häufig auch die Itemmenge B enthalten.

Voraussetzungen

Der Apriori-Algorithmus wird bei Datenbasen einer bestimmten Form angewendet. Die Form der Datenbasis muss wie folgt vorliegen:

  • ist eine Menge möglicher Items
  • 𝒟={t1,t2,...,tn} ist die Datenbasis, bestehend aus Transaktionen tx
  • eine Transaktion tx fasst eine Menge von Items zusammen

Typischerweise werden sehr viele Transaktionen – oft mehr als 500.000 – gleichzeitig auf einer sehr großen Item-Basis analysiert. Die Darstellung der Datenbasis erfolgt in einer de-normalisierten Datenbanktabelle, welche für jedes mögliche Item eine Spalte besitzt. Die enthaltenen Zeilen stellen jeweils eine Transaktion dar, wobei in der Transaktion enthaltene Items mit einer 1, nicht enthaltene mit einer 0 gekennzeichnet werden. Eine Transaktion lässt sich somit auch als Vektor mit Dimensionen betrachten.

Eine Assoziationsregel besitzt formal ausgedrückt nun die Form

XY

wobei gilt

X, Y und XY=

Bewertung von Regeln

Assoziationsregeln werden mit zwei probabilistischen Messwerten bewertet: Support und Konfidenz. Der Apriori-Algorithmus erwartet als Eingabe unter anderem die Werte minsupp und minconf, welche den minimalen Support und die minimale Konfidenz einer Regel darstellen, damit sie berücksichtigt werden.

Support

Der Support einer Itemmenge ist die Wahrscheinlichkeit, dass diese Itemmenge in einer Transaktion vorkommt.

Sei X=A1,A2,...,An Itemmenge.

Support(X)=P(A1,A2,...,An)={t𝒟Xt}D

Der Support einer Assoziationsregel XY, mit X={A1,A2,...,An} und Y={B1,B2,...,Bm}, ist definiert als

Support(XY)=Support(XY)=P(A1,A2,...,An,B1,B2,...,Bm)={t𝒟XYt}D

Der Support einer Regel gibt also die relative Häufigkeit an, mit der die Regel in der Datenbasis vorkommt. Meist ist ein hoher Support wünschenswert, um Aussagen über Mehrheiten zu finden.

Konfidenz

Sei XY eine Assoziationsregel, mit X={A1,A2,...,An} und Y={B1,B2,...,Bm}.

Die Konfidenz einer Regel entspricht der Wahrscheinlichkeit der Konklusion unter Bedingung der Prämisse:

Conf(XY)=P(B1,B2,...,BmA1,A2,...,An)

also

Conf(XY)=Support(XY)Support(X)={t𝒟XYt}{t𝒟Xt}

Die Konfidenz misst also die relative Häufigkeit des Vorkommens der Konklusion unter Bedingung der Prämisse. Auch für die Konfidenz ist ein hoher Wert wünschenswert. Oder einfacher ausgedrückt: Die Konfidenz misst für welchen Anteil der Transaktionen, in denen X vorkommt, auch Y vorkommt. Zur Berechnung der Konfidenz wird die Anzahl aller regelerfüllenden Transaktionen (also der Support) durch die Anzahl der Transaktionen, die X enthalten, geteilt.

Der Algorithmus

Der Apriori-Algorithmus erhält als Eingaben

  • Die Datenbasis 𝒟
  • Den Minimal-Support minsupp
  • Die minimale Konfidenz minconf

und gibt eine Menge von Assoziationsregeln aus, die sowohl minsupp als auch minconf erfüllen.

Der Algorithmus arbeitet in zwei Schritten, welche beide einen gemeinsamen Schritt Apriori-Gen verwenden:

  1. Findung häufiger Mengen
  2. Erzeugung von Assoziationsregeln

Finden häufiger Itemmengen

Die Suche nach häufigen Itemmengen startet mit 1-elementigen Mengen und wird iterativ mit n-elementigen Mengen fortgeführt, bis keine Itemmengen mit genügendem Support mehr gefunden werden. Dabei wird in jeder Iteration eine Menge von Kandidatenmengen mittels Apriori-Gen erzeugt und jede Menge auf die minsupp-Eigenschaft hin überprüft. Können keine neuen Mengen mehr gefunden werden, stoppt der Algorithmus und gibt die gefundenen Mengen aus.

  1. Berechne alle 1-elementigen Itemmengen mit Support > minsupp: L1.
  2. Für k1k.
    1. Berechne Menge von Kandidaten Ck aus Lk1 mittels Apriori-Gen.
    2. Berechne den tatsächlichen Support von allen Mengen aus Ck.
    3. Nimm die Mengen mit genügend Support minsupp in Lk auf.
    4. Ist Lk=, brich ab.
  3. Gib Lk zurück.

Die zurückgegebene Menge enthält alle häufigen Itemmengen.

Apriori-Gen

Die Sub-Routine Apriori-Gen wird sowohl bei der Berechnung häufiger Mengen, als auch bei der Generierung von Assoziationsregeln verwendet. Anstatt für alle möglichen Itemmengen den Support direkt zu berechnen, wird durch Apriori-Gen auf Basis bereits gefundener häufiger Mengen eine Menge von Kandidaten zur weiteren Überprüfung generiert.

Die Routine erhält als Eingabe eine Menge häufiger k1-Itemmengen (Lk1) und gibt eine Menge von k-Itemmengen (Ck) als mögliche Kandidaten zurück. Sie basiert auf dem Prinzip, dass alle Teilmengen einer häufigen Itemmenge häufig sind, alle Obermengen einer nicht-häufigen Itemmenge aber auch nicht-häufig. Unnötige Support-Berechnungen werden so vermieden.

  1. Generiere k-Itemmengen durch Verschmelzung von je zwei k1-Itemmengen, die je k2 Items gemein haben und füge sie Ck hinzu. Dieser Schritt garantiert, dass immer nur jeweils ein Element zur neuen Menge hinzukommt.
  2. Überprüfe für jede Menge X in Ck, ob alle k1-Teilmengen in Lk1 enthalten sind. Falls nicht, entferne X aus Ck.

Beispiel

Die Eingabe zu Apriori-Gen sei:

L3={{a,b,c},{a,b,d},{a,b,e},{a,c,d},{a,c,e},{b,c,d}}

Schritt 1 der Apriori-Gen-Routine berechnet nun die folgende Kandidaten-Menge:

C4={{a,b,c,d},{a,b,c,e},{a,b,d,e},{a,c,d,e}}

Schritt 2 entfernt die Mengen {a,b,c,e},{a,b,d,e} und {a,c,d,e} wieder aus C4, da {b,c,e},{b,d,e} und {c,d,e} nicht in L3 enthalten sind. Beide Mengen sind also nicht häufig und ihre Obermengen müssen nicht berücksichtigt werden.

Das Ergebnis von Apriori-Gen ist also

C4={{a,b,c,d}}

Generierung von Assoziationsregeln

Nur Itemmengen die bereits in sich häufig sind, müssen für diesen Schritt des Algorithmus berücksichtigt werden. Solche Itemmengen wurden von Schritt 1 des Apriori-Algorithmus berechnet. Die von Schritt 1 verwendete Routine Apriori-Gen wird bei der Generierung von Assoziationsregeln erneut verwendet.

Für jede gefundene häufige Itemmenge wird versucht, Assoziationsregeln zu erzeugen. Dabei wird mit möglichst kurzen (1-elementigen) Konklusionen begonnen, welche iterativ vergrößert werden. Der folgende Pseudocode wird für jede gefundene Itemmenge Z ausgeführt:

  1. Für jede Itemmenge Z: berechne Assoziationsregeln der Form XY mit Y=1 und X=ZY mit Conf(XY)>minconf.
  2. Erzeuge H1 mit Itemmengen bestehend aus je einer gefundenen Konklusion.
  3. Hk1Hk
    1. Erzeuge Hk durch Apriori-Gen.
    2. Für jede Konklusion hkHk überprüfe minconf von (Zhk)hk. Falls minconf nicht erfüllt ist, entferne hk aus Hk.
    3. Wenn Hk=, brich ab.
  4. Gib Hk zurück.

Die erzeugten Regeln erfüllen alle minsupp und minconf.

Literatur

  • Rakesh Agrawal, Tomasz Imieliński, Arun Swami: Mining Association Rules between Sets of Items in Large Databases. In: Peter Buneman; Sushil Jajodia (Hrsg.): Proceedings of the 1993 ACM SIGMOD international conference on Management of data (= SIGMOD Record. Bd. 22, Nr. 2, Juni 1993). ACM, New York NY 1993, ISBN 0-89791-592-5, S. 207–216, Vorlage:Doi
  • Rakesh Agrawal, Ramakrishnan Srikant: Fast Algorithms for Mining Association Rules. In: Jorge Bocca, Matthias Jarke, Carlo Zaniolo (Hrsg.): Very large data bases. Proceedings of the 20th International Conference on Very Large Data Bases. Morgan Kaufmann Publishers Inc., Hove u. a. 1994, ISBN 1-55860-153-8, S. 487–499, online (PDF; 282 kB).
  • Vorlage:Literatur
  • Christoph Beierle, Gabriele Kern-Isberner: Methoden wissensbasierter Systeme: Grundlagen, Algorithmen, Anwendungen., 4. Aufl. Vieweg+Teubner Verlag, 2008, S. 147ff. ISBN 3-8348-0504-1