Schaut man sich die vielen Strategien der Textbewertungsmechanismen (bes. Keyworddichte und WDF / WDF*IDF), kommt man sehr schnell auf den Gedanken, dass hier etwas fehlt: der Abgleich zu einer tatsächlich existierenden und abprüfbaren Marktsituation. Es erscheint ja als äußerst unlogisch, Texte nur nach SEO-Richtlinien zu optimieren, ohne auch nur im Ansatz zu prüfen, ob denn die Kernaussage eines Textes – bzw. das angebotene Produkt, die angebotene Dienstleistung – sich auch tatsächlich einer Nachfrage erfreut.
Ansatzpunkte, um dieses Problem aufzulösen wären:
[Hashtaganalyse]
Folgt man der Annahme, dass Hashtagkombinationen und Häufigkeiten dieser Worte deckungsgleich sind mit der KW-Dichte des zu bewerbenden Artikels, könnte man vermuten, dass der zu bewerbende Artikel eine große Abnehmerschaft in den Medien findet, deren Hashtags über entsprechende Algorithmen analysiert. Wenn man die Ergebnisse in ein geeignetes und vergleichbares Schema übergeben möchte, kann man hier über eine Abbildung in Form der WDF oder KW-Dichte nachdenken. Es erscheint mir als logisch, dass eine möglichst hohe Übereinstimmung besagter Werte mit den zu bewerbenden Texten / Inhalte / Produkte „optimal“ sein kann.
[Socialmedia-Analyse via API]
Interessant wird die Prüfung auf einen bereits vorhandenen und optimierten Text im Vergleich zur Konkurrenz. Man kann hierbei die Deeplinks der jeweiligen Angebote (=>Texte) erfassen (via Positionscheck, Xovi-Anbindung etc.) und über die Socialmedia-API-Anbindungen die folgenden Variablen abprüfen: Likes, Shares, Comments, Clicks. Das Studium der Facebook-API zeigt, dass selbstverständlich die Clicks auf Angebot-XYZ ausgegegeben werden können – dies erfolgt erstaunlich schnell (nahezu Echtzeit) und ist recht sauber. Führt man die Socialmedia-Analyse-Prozedur durch, empfiehlt es sich, ein eigenes Gewichtungsmodell zu entwickeln. Für mich und meine / unsere Projekte sind Shares, Comments und Clicks interessanter als Likes.
[Gegenprobe auf Google-Trends]
Neulich entdeckte ich eine recht gute Variante der Anbindunga uf Google-Trends. Es spricht also nichts dagegen, eine quasi abschließende Probe auf besagte Datenbanken aus den Ergebnissen der Hashtag / KW / WDF – Analyse in automatisierter Form zu legen. Ich denke hier noch über einen geeigneten Algorithmus nach, der die Daten aus diesem „Medium“ in die Werthaltigkeitsberechnung mit einbezieht.
Aus den o.g. Gedankenfetzen ergibt sich diese ToDo-Liste für die Anwendung „Social-Tracker“ (0.6b)
- Textanalyse mit KWD und WDF (erledigt)
- Hashtaganalyse: Erweiterung auf KWD und WDF – auf Hashtaganzahl und Wortanzahl gerechnet
- G-Trendsanalyse auf KW-Dichte / Text & Hashtags (ggf. Quartal / Jahr)
- Datenaufbereitung in Form von Diagrammen plus PDF-Export
Ob man hieraus eine geeignete mathematische Formel entwickeln kann und / oder sollte, ist mir im Moment noch nicht klar. Diesbezügliche Entscheidungen werde ich treffen, wenn weitere Erkenntnisse aus den Zahlenmaterialien sichtbar werden.
Verifiziert habe ich
- Verwendung der gefilterten Hashtags als eigene Hashtags und / oder Schlagworte in Blogkonstruktionen und / oder Textoptimierung fördert das Ranking
- Verwendung von gefilterten Hashtags als Informationsträger in den Socialmedia der gef. Hashtags lässt im schwereren Longtailbereich Texte ranken (in Abhängigkeit von der Accountautorität)
- Kommentare auf bspw. gepostete Links in Facebook können rankingfördernd sein, wobei hier weitere Variablen zu beachten sind
- die Verwendung von „guten“ Hashtags (siehe Filter, interne Bewertung etc.) bewirkt – je nach Qualität der Posts / Inhalte und Autorität der postenden Accounts – Verteilungs-, Reichweiten- und Rankingeffekte.