Tf-idf-Maß

Das Tf-idf-Maß (von englisch term frequency ‚Vorkommenshäufigkeit‘ und inverse document frequencyinverse Dokumenthäufigkeit‘) ist ein statistisches Maß, das im Information Retrieval zur Beurteilung der Relevanz von Termen in Dokumenten einer Dokumentenkollektion eingesetzt wird.

Mit der so errechneten Gewichtung eines Wortes bezüglich des Dokuments, in welchem es enthalten ist, können Dokumente als Suchtreffer einer wortbasierten Suche besser in der Trefferliste angeordnet werden, als es beispielsweise über die Termfrequenz allein möglich wäre.

Vorkommenshäufigkeit

Die Vorkommenshäufigkeit (auch Suchwortdichte genannt) # ( t , D ) {\displaystyle \operatorname {\#} (t,D)} gibt an, wie häufig der Term t {\displaystyle t} im Dokument D {\displaystyle D} vorkommt. Ist beispielsweise das Dokument D i {\displaystyle D_{i}} der Satz

Das rote Auto hält an der roten Ampel.

dann ist # ( rot , D i ) = 2. {\displaystyle \operatorname {\#} ({\text{rot}},D_{i})=2.}

Um eine Verzerrung des Ergebnisses in langen Dokumenten zu verhindern, ist es möglich, die absolute Vorkommenshäufigkeit # ( t , D ) {\textstyle \operatorname {\#} (t,D)} zu normalisieren. Dazu wird die Anzahl der Vorkommen von Term t {\displaystyle t} in Dokument D {\displaystyle D} durch die maximale Häufigkeit eines Terms in D {\displaystyle D} geteilt und man erhält die relative Vorkommenshäufigkeit tf ( t , D ) {\displaystyle \operatorname {tf} (t,D)} .

tf ( t , D ) = # ( t , D ) max t D # ( t , D ) {\displaystyle \operatorname {tf} (t,D)={\frac {\#(t,D)}{\max _{t'\in D}\#(t',D)}}}

Andere Ansätze verwenden die Boolesche Häufigkeit (d. h., es wird nur geprüft, ob das Wort vorkommt oder nicht), oder eine logarithmisch skalierte Häufigkeit.

Inverse Dokumenthäufigkeit

Die inverse Dokumenthäufigkeit misst die Spezifität eines Terms für die Gesamtmenge der betrachteten Dokumente. Ein übereinstimmendes Vorkommen von seltenen Begriffen ist für die Relevanz aussagekräftiger als eine Übereinstimmung bei sehr häufigen Wörtern (z. B. "und" oder "ein").

Die inverse Dokumentfrequenz idf ( t ) {\displaystyle \operatorname {idf} (t)} eines Terms t {\displaystyle t} hängt nicht vom einzelnen Dokument, sondern vom Dokumentkorpus (der Gesamtmenge aller Dokumente im Retrievalszenario) ab:

idf ( t ) = log N D : t D 1 {\displaystyle \operatorname {idf} (t)=\log {\frac {N}{\sum _{D:t\in D}1}}}

Hier ist N {\displaystyle N} die Anzahl der Dokumente im Korpus und D : t D 1 {\textstyle \sum _{D:t\in D}1} die Anzahl der Dokumente, die Term t {\displaystyle t} beinhalten.

TF-IDF

Das Gewicht tf . idf ( t , D ) {\displaystyle \operatorname {tf} .\operatorname {idf} (t,D)} eines Terms t {\displaystyle t} im Dokument D {\displaystyle D} ist dann nach TF-IDF das Produkt der Termhäufigkeit mit der inversen Dokumentenhäufigkeit (Spärck Jones, 1972):

t f - i d f ( t , D ) = tf ( t , D ) idf ( t ) {\displaystyle \operatorname {tf-idf} (t,D)=\operatorname {tf} (t,D)\cdot \operatorname {idf} (t)}

In den meisten Anwendungen dürfte es sinnvoll sein, dass ein vielfaches Vorkommen eines Terms nicht auch in gleichem Maße zur Relevanz beiträgt. In der Praxis wird der TF-Wert daher in der Regel normalisiert.

TF-LAG-IDF

Die Analyse der Zeitabhängigen Relevanz von Termen wird durch das Konzept des TF-LAG-IDF möglich. Das Gewicht t f - l a g - i d f ( t , J , n , D ) {\displaystyle \operatorname {tf-lag-idf} (t,J,n,D)} eines Terms t {\displaystyle t} im Dokument D {\displaystyle D} und Jahr J {\displaystyle J} mit Lag n {\displaystyle n} ist nach TF-LAG-IDF das Produkt der Termhäufigkeit mit der verzögerten inversen Dokumenthäufigkeit:

t f - l a g - i d f ( t , J , n , D ) = tf ( t , J , D ) l a g - i d f ( t , J n ) {\displaystyle \operatorname {tf-lag-idf} (t,J,n,D)=\operatorname {tf} (t,J,D)\cdot \operatorname {lag-idf} (t,J-n)}

Um eine Division durch Null zu vermeiden wird das LAG-IDF Gewicht auf einen hohen Wert festgelegt, wenn die Dokumenthäufigkeit gleich Null ist.[1]

Literatur

  • Spärck Jones, Karen (1972) "A statistical interpretation of term specificity and its application in retrieval", Journal of Documentation 23(1): 11-21.
  • Ricardo Baeza-Yates, Berthier Ribeiro-Neto: Modern Information Retrieval. Addison-Wesley, Harlow u. a. 1999, ISBN 0-201-39829-X, S. 29–30.

Einzelnachweise

  1. Martin G. Moehrle, Michael Wustmans, Jan M. Gerken: How business methods accompany technological innovations - a case study using semantic patent analysis and a novel informetric measure: How business methods accompany technological innovations. In: R&D Management. Band 48, Nr. 3, Juni 2018, S. 331–342, doi:10.1111/radm.12307.