Instagram, Scrapen & Erfassen von Location-URLs

Vor ein paar Tagen übernahmen wir von Roland Berger ein Projekt, welches u.a. die Trends und Kommunikationen aus den öffentlichen Räumen diverser Locations erfassen und bewerten soll.
Hier ist das Anlegen und Erfassen möglichst vieler Instagramlocations aus einem städtischen Raum eines der Hauptaufgaben der Datenerfassungsprozedur und ich entschied mich für den Weg über den Google-Index.

(1) Aufrufen der Indexurl
site:instagram.com/explore/locations/ „stadt land objekt“

(2) URLscraper
memo7.clear;
try
ovElements := WebBrowser2.OleObject.Document.all;
for i := 0 to (ovElements.Length - 1) do
begin
if (pos('?hl', ovelements.item(i))=0) and (pos('https://www.instagram.com/explore/locations/', ovelements.item(i))<>0) and (pos('&prev=search',ovelements.item(i))=0) and (pos('https://www.google.com/',ovelements.item(i))=0) then
begin
memo7.Lines.Add(ovElements.item(i));
end;
end;
except
end;
memo7.lines.BeginUpdate;
KillDuplicates(memo7.lines);
memo7.lines.EndUpdate;

(3) Bereinigung und Aufbereitung der Daten
Ausgehend von der Beispielurl https://www.instagram.com/explore/locations/1026498374/eltonel-bar/ wird nun die URLstruktur dahingehend sichtbar und logisch, dass der Ort des Locationcodes „1026498374“ erfassbar ist. Dieser wird aus der ursprünglichen Zeichenkette (hier: URL-String) mit Hilfe einer geeigneten Funktion extrahiert und zwecks Tiefenanalyse der Locationmedien in die Datenbank(en) gespeichert.

Instagram – Location ID finden

Diverse Änderungen an der Facebook-API-Politik (Stichwort: Datenscrapeskandale & Co.) zwangen mich leider dazu, Alternativwege für das Organisieren der Location-IDs zu analysieren und ich werde folgende Optionen in die Datenscraperfunktionen einbauen.

(1) Manuelle Recherche
https://docs.social-streams.com/article/118-find-instagram-location-id

(2) Recherche auf Basis der Geo-Codes
https://api.instagram.com/v1/locations/search?lat=48.858844&lng=2.294351&access_token=ACCESS-TOKEN

(3) Recherche auf Basis des Google-Index
https://www.google.com/search?q=site:instagram.com/explore/locations/%20+%22apolda%22

Hashtags: Auswertungen und Interpretation (Nicht-Nerdy)

Eines unserer wichtigsten Recherchetools sind und bleiben die Hashtagbeobachtungen auf Instagram. Hier erlebe ich immer wieder bei den vielen Gesprächen faszinierende Rückfragen zu allgemeinen Verständnis- und Interpretationsprobleme. Daher dieser Grundlagenartikel.

Am Beipiel der Themenwelt „Leipzig“ (hier: #leipzig) lässt sich das Monitoring so anstellen:

(1) Aufruf der App
(2) Suche nach dem Tag in der App
(3) Häufungszahl notieren
(4) Gehe zurück zu (1)

Über diesen (manuellen) Rechercheweg lassen sich nun Häufungsentwicklungszahlenreihen anlegen.

[Beispiel für #Leipzig]

Der Nicht-Nerd kann jetzt und nach Sichtung der Entwicklungen dieser Zahlen unfassbar spannende Fragen für sich und völlig unabhängig von diversen Socialmediaberater_innen und Influencermarketingagenturen beantworten:

(1) Wieviele neue Medien tauchen denn da zu den Tags / Themenwelten auf?
(2) Was gibt es denn sonst noch schönes zu der Hauptsuchphrase? (Siehe Screenshots, die Liste …)
(3) Wie entwickeln sich denn diese Nebenhashtags?
(4) Passt die Entwicklung (1-3) denn überhaupt auf die aktuelle Planung (hier: Contentmarketing, Zielgruppenerkenntnisse usw.)?

Diese Datenbankauffüllung und die Quasi-Forschung an den Hashtags lässt mich manchmal etwas lächeln, weil wir intern sehr viele Diskussionen rund um die Interpretationsvarianten der Zahlenveränderungen führen. Ich vertrete in manchen Situationen u.a. den Ansatz, dass die Differenz von Zahl (Z) zu Zahl (X) sagt: „Die Differenz entspricht punktgenau der Anzahl der Accounts, welche in dem Zeitraum aktiv sind“. Anne vertritt da einen anderen Ansatz und bemerkt immer mal wieder gern, dass auch eine Person 1000 Medien in einem kurzen Zeitabstand unter dem Tag #leipzig dort veröffentlicht. Ich denke, dass man zum finalen Kompromiss kommt, wenn man halt in der Betrachtung eine Fehlerquote einbaut und ich bevorzuge da – je nach Thema (!) – 33%-45%.

Zurück zur Datenerfassung.
Der beschriebene und manuelle Weg eignet sich natürlich für kleine Tagsammlungen und Projekte. Sucht man allerdings einen umfangreicheren Überblick, kommt man selbstverständlich nicht um die Anbindung an den Instagram-Endpoint umhin und hier dürfen die Leser_innen des Arbeitsblogs den eigentlichen Existenzgrund der Datenbanken finden. Sprich: niemand hat schlichtweg die Zeit, die Lust und die Ressourcen, um 1000-10.000 projektbezogene Tags jeden Tag zu suchen, die Zahlen aufzuschreiben und das Ganze auch auszuwerten.

So. Ich hoffe, dass meine Ausführungen zu den Hashtags etwas klarer geworden sind.

Fragen? Anregungen?

Betrug (?) im Influencer-Marketing?

Während der obligatorischen Branchen- und Szenerecherche entdeckte ich sehr interessante Meldungen:

Betrug im Influencer-Marketing: Unilever zieht Konsequenzen (T3N)
Unilever will keine Influencer mit Fake-Followern (WuV)
Beide beziehen sich auf:
Unilever takes stand against digital media’s fake followers (Reuters)

https://www.horizont.net/marketing/nachrichten/Weckruf-Unilever-kuendigt-Einschnitte-im-Influencer-Marketing-an-167802 (Horizont mit genaueren Ausführungen)

https://www.wsj.com/articles/unilever-demands-influencer-marketing-business-clean-up-its-act-1529272861 (WSJ mit genaueren Zahlen)

Ich bin auf die „Optimierbarkeiten“ der Followerzahlen in den letzten Artikeln eingegangen und ich frage mich gerade, welcher Dienstleister bzw. Experte aus dem Bereich „Influencermarketing“ denn die Sauberkeit der Listen (a) versteht, (b) sicherstellt und (c) überhaupt umfangreiche Erkenntnisse, Erfahrungen, Prozeduren oder Tools zum Screenen besitzt bzw. anwenden kann.

Ich bin gespannt, wie sich in den nächsten Tagen die übliche Fachpresse zum Influencer-Marketing positioniert. Das „Optimierungsproblem“ der Followerzahlen scheint offensichtlich bei den großen Einkäufern angekommen zu sein.

Vielleicht wird es einmal Zeit, die eigene Influencermarketingstrategie auf Werthaltigkeit zu überprüfen?

Influencermarketing und das Problem der mangelnden Transparenz

Inspiriert von der Unilever-Presse schaute ich noch einmal in das Archiv des Arbeitsblogs und entdeckte einen alten Artikel, welcher Recherche- und Prüfszenarien skizziert auf API-Endpointbasis unter dem Titel „Instagram – Influencersuche und Influencerbegutachtungen„.

Hinweis dazu: Durch die Einschränkungen der InstagramAPI funktioniert das 2016er-Script nicht mehr und man muss es auf den API-Bug umkonfigurieren. Ich schätze, dass der Aufwand max. 3-6h in Anspruch nehmen wird. Hier würde ich zwei Ansätze zur Datenerhebung tiefer prüfen: (a) API-Bug und zur Absicherung (b) eine geeignete HTML-Scraper-Technologie.

Ich glaube mich zu erinnern, dass 2015/2016 dieser unlogische Hype zum ersten Mal von mir gefunden und kritisiert wurde und beim Schreiben dieser Zeilen bekomme ich einen interessanten „Flashback“ zur neulich besuchten Verkaufsveranstaltung und diversen Nachgesprächen, deren Inhalte waren:

– Die Branche besitzt keine sauberen Monitoringansätze.
– Die Branche arbeitet auf Basis von Zwischenmenschlichkeiten und Erfahrungen.
– Die Branche kennt keinerlei Prüfmethoden auf Basis der Socialmediabezogenen API-Endpoints.
– Die Branche besitzt keinerlei Ressourcen zum Aufbau, zum Programmieren und zum Testen von Prüfscripten und entsprechenden Tools.
– Die Branche versteht keine technischen Dokumentationen und es existieren nirgends innerhalb dieser Branche Fachkräfte zur Umsetzung von Prüfscripten, Monitoringsoftwares.

Eigentlich sind diese Kritikinhalte absolut deckungsgleich zu den Gesprächen aus den Jahren 2015/2016 und ich sehe hier nun keinerlei Weiterentwicklung, Innovation oder sogar Logik. Vielleicht hat der Geschäftsfreund Georg Grohs Recht: Es wird definitiv Zeit, die versprochenen Zahlen, die Effekte und die Kooperationen einer kritischen Überprüfung zu unterziehen.

Instagram: Gibt es die perfekte Uhrzeit zum Posten von Beiträgen?

Björn Tantau betrieb heute Aufklärungsarbeit(en) für die interessierten Laien in Form eines Artikels. Dieser ist soweit okay, bezieht viele externe Erkenntnisse ein und er demonstriert einige Zahlen auf Basis seines Accounts. Leider lassen die schriftlichen Gedankengänge auch viele Fragen offen und ich bemängele da u.a. die primäre Einbindung von Studienergebniszusammenfassungen in Form der typischen Infografiken und die relativ kritiklose Wiedergabe der allgemeingültigen Erkenntnisse. Vielleicht bin ich auch zu kritisch, erkenne aber auch an, dass der Tantau-Artikel halt dessen Zielgruppe(n) nahezu perfekt abholt.

Genug der Textkritik und hin zur Tiefenanalyse.

Die Frage nach DEM perfekten Zeitpunkt einer Publikation kann natürlich Gegenstand extremster Grundsatzdiskussionen sein. Privat ist mir die Suche, die immerwährende und tiefergehende Suche nach DEM einen Zeitpunkt zwar wichtig, jedoch prägen entsprechende und extrem zeitraubende Aktivitäten nicht das tägliche Management der Accounts. Teilweise neige ich auch dazu, „bei Lust“ oder „bei Laune“ zu posten, weil eben abholbare Zielgruppen und deren Aktivitäten extrem schlecht kalkulierbar sind. Mal im Ernst: natürlich existieren Gedankenspiele zu Zeitfenster im Bereich der Mittagspause, der Frühstückspause, der sonstigen Pausen oder eben dem Feierabend. Das ist alles soweit logisch, nur sagt die Logik auch, dass man eben auch „nur“ im Nebel stochert, weil das Interaktionsverhalten auf Basis der „Erfahrungswerte“ oder „Beobachtungen“ schlichtweg unkalkulierbar bleibt.

Hausintern haben wir folgende Arbeitshypothesen aufgestellt bezüglich der Feststellbarkeit möglicher ‚idealer‘ Postzeitpunkte:

(a) Der ideale Postzeitraum ist ablesbar durch die Interaktionen NACH dem Posten.
(b) Der ideale Postzeitraum ist ablesbar durch aufkommende Trends und/oder Gesprächsthemen.
(c) Der ideale Postzeitraum ist ablesbar durch das Erfassen und Auswerten von Kommunikationen innerhalb von Filterblasen.

Die Rechercheansätze wurden hier
https://www.pontipix.de/instagram-tagsuche-tagbewertungen-und-tagbegutachtungen/
– Artikel zur Tagrecherche
– allgemeine Interpretationshinweise

und dort

https://www.pontipix.de/postzeitpunkte-bei-instagram/
– Grobskizzierung eines Auswertungsalgorithmus

beschrieben.

Fragen, Anregungen, Bemerkungen oder Anfragen? Gern per Kommentar, eMail oder Telefon.

Engagement-Gruppen für Instagram: Ein erstes Zwischenfazit

Vor einigen Tagen berichtete ich hier über das Hochfahren diverser Gruppenexperimente für die Reichweitenerhöhung von Instagram-Accounts und nun wird es Zeit für eine erste Bilanz.
Wie bereits angedeutet, hält sich der Arbeitsaufwand (Arbeit in und mit den Gruppen) stark in Grenzen: Ich schätze diesen auf ca. 30 Minuten pro Tag. Die Sichtung des Accounts ergab nun folgende Beobachtungen:

-> Starker Zulauf von Interaktionen aus Accounts mit folgenden Metriken:
(a) zwischen 10k und 280k Follower zu zwischen 1000 und 8000 Abos
(b) Interaktionen auf den zulaufenden Accounts bewegen sich im „gesunden“ Rahmen (also: ~600 bis z.T. ~2500, vmtl. auch in Teilen über die Gruppen organisiert)
(c) Followersprung des Testaccounts von ca. 7.000 auf ca. 9.000 Follower
(d) Sofortpositionierung von frischen Medien auf „Aktuelle“ und „Beliebteste“
(e) Enorme Reichweitensteigerung des Accounts (~4.000 auf ~80.000, je Woche)
(f) stärkeres Aufkommen von natürlichen Kommentaren
(g) Etablierung von Kontakten (KEINE Influencermarketingkooperationen!)
(h) starke Reputationsabfärbung, wenn der Account eine Empfehlung auf andere Accounts „ausspricht“
(i) Organische Interaktionen innerhalb der gruppen ohne eigenes Zutun

Mir fehlt im Moment die Zeit, den Account und den Gegenprobe-Account mit den dokumentierten API-Methoden final zu verifizieren. Agenturintern werden wir diese Strategieform diskutieren, um sie eventuell im Tagesgeschäft anzuwenden. Ich sehe schlichtweg keine unkalkulierbaren Risiken, sofern der berühmte Marketingmix passt, die Inhalte wertvoll sind & die Botschaften des Accounts samt der einhergehenden Firmenphilosophien stimmig sind.

Wie kann ich Trafficvolumina von völlig fremden Projekten analysieren? (Bit.ly-Variante)

Bei einem dieser szenetypischen Verkaufsvorträge aus dem Bereich „Influencer-Marketing“/“Social-Media-Marketing“ tauchte die Frage der Überprüfbarkeit(en) diverser Werthaltigkeitsprognosen auf. Während meiner Nachfragen und Gesprächsangebote wurde signalisiert, dass die Abgabe solcher Prognosen schwer sei und die Prognosen eher auf subjektiven Begriffen wie „zwischenmenschliche Kontakte zum Influencer“ und „Erfahrungen“ beruhen. Nun gebe ich mich mit Subjektivitäten nur ungern zufrieden und mache mich selbst auf die Suche nach Antworten.

Eine bei uns etablierte Prüfvariante basiert auf dem URL-Shortener „Bit.ly“ und dessen Analysevarianten, die offensichtlich vielen Dienstleister_innen / Analysebetreibenden gar nicht so bekannt sind.

Kurzer Zwischenabsatz: Was ist eigentlich ein URL-Shortener? Wikipedia schreibt dazu:

„Unter einem Kurz-URL-Dienst, engl. URL Shortener, versteht man einen Dienst, der für beliebige URLs existierender Webseiten eine zweite, alternative URL zur Verfügung stellt. Diese Alias-URL führt über eine HTTP-Weiterleitung zum Aufruf der ursprünglichen Webseite. Der auch short URL, URL alias oder Kurzlink genannte Alias besteht meist aus wenigen (ASCII-)Buchstaben oder Zahlen. Dies dient dazu, für unhandliche, große sowie problematische Sonderzeichen enthaltende URLs, kurze und unproblematische Aliase (besser zu merken, schneller einzugeben, …) bereitzustellen. Solche URLs finden sich vor allem bei Websites, die mit Datenbankvariablen operieren. Weit verbreitet ist die Nutzung von Kurz-URLs auch in Mikroblogging-Diensten und Status-Meldungen in sozialen Netzwerken, die beide nur eine begrenzte Anzahl von Zeichen pro Nachricht erlauben. Um die Weiterleitung von Kurzlinks anzuzeigen, ohne sie zu besuchen, können „Redirect Checker“ verwendet werden.“

(Quelle: https://de.wikipedia.org/wiki/Kurz-URL-Dienst)

Hier gibt es zwei Verfahren:

[Manuell]

Möchte man sich die Daten in einem schönen und logisch aufbereiteten Überblick anschauen, geht man so vor:
-> Schauen, ob ein Objekt mit einer Bit.ly-URL hinterlegt ist
-> Ergänzung der Bit.ly-URL mit einem „+“ und Übertrag in den Browser (Beispiel: https://bitly.com/2JJBUJC+)
Für erweiterte Daten (Ref, Land etc.) benötigt man einen Account auf Bit.ly, wo man nach Einloggen und Bestätigen an die gewünschten Informationen kommt.

[Technisch/Maschinell]

An der Stelle kommt der etwas kompliziertere Technikteil. Zur Erklärung: Nachfolgend zeige ich die interessanten Endpoints mit einer Durchnummerierung, welche wichtig für die Darstellung eines groben Algorithmuskonzeptes sein wird.

Um alle Funktionen nutzen zu können, benötigt die Anwenderin diesen Token. Den Code bekommt man, indem folgende Anleitung durchgeführt wird: „How do I find my OAuth access token?„. Nach der Tokenorganisation sollte man sich selbstverständlich mit den Abfragevolumina beschäftigen. Hier meine ich, dass 100 Abfragen je Minute ganz okay sind, jedoch definitiv nicht ausreichen, um bspw. gewaltige Systeme im Umfang von Zalando auch nur im Ansatz analysieren zu können. Das Problem löst man entspannt, indem man sich die gewünschte Menge an Accounts und Tokens besorgt. Die Tokens werden in einem solchen Fall in einer entsprechenden Liste gespeichert (Text, DB) und der Abfragealgorithmus „kann“ sich dort auch per Zufallsgenerator „bedienen“.

(1) [Basisfunktionen]
Ich nutze diese Endpoints gern für Gegenproben und allgemeine Recherchearbeiten.
https://api-ssl.bitly.com/v3/link/info?access_token=deintoken&link=bitlyurl
Die auslesbaren Informationen zeigen einen Fehlercode (bspw. Crawlingprobleme, „N/A“ usw.) und die Metriken „original_url“, „canonical_url“.

(2) [Auslesen der generierenden Accounts, „Encoders“]
https://api-ssl.bitly.com/v3/link/encoders?access_token=deintoken&link=bitlyurl
Die auslesbaren Informationen zeigen die Accounts, welche die analysierte URL bearbeitet/eingestellt hatten.

(3) [Auslesen der Querverweise inkl. Traffic]
Habe ich nun eine eindeutig identifizierbare URL vorliegen, interessiere ich mich selbstverständlich für die Beantwortung folgender Fragen:
(a) Wo befindet sich die aktive URL?
(b) Wieviel Traffic generiert die aktive URL über DEN identifizierten Linkspender?

Diese Informationen lassen sich über den folgenden „Endpoint“ Abrufen:
https://api-ssl.bitly.com/v3/link/referrers?access_token=deintoken&link=bitlyurl

Datenstruktur:
data->referrers[nr.]->referrer // -> Linkplatz
data->referrers[nr.]->click // -> Click über den Linkplatz

Eine alternative Variante ist über das Auslesen der verweisenden Domain machbar und logisch, sofern man sich nicht für den Deeplink innerhalb eines Projektes/einer Domain interessiert. Ich habe diesen Endpoint nie angebunden, weil primär die Unterseite der verweisenden Domain spannend ist
https://api-ssl.bitly.com/v3/link/referring_domains?access_token=deintoken&link=bitlyurl

(4)[Clickstatistiken, allgem.]
https://api-ssl.bitly.com/v3/link/clicks?access_token=deintoken&link=bitlyurl
Dieser Endpoint wirft nur die Clickanzahl zurück, die über den Link kommt.

(5)[Clickstatistiken, nach Ländern.]
https://api-ssl.bitly.com/v3/link/countries?access_token=deintoken&link=bitlyurl
Dieser Endpoint wirft nur die Clickanzahl zzgl. der Länder der Clickenden zurück. Hierbei handelt es sich um die Ländercodes. Diese müssten natürlich bei einer Softwareumsetzung in leicht verständliche Zeichenketten + Flaggen etc. umgewandelt werden.

Ein mögliches Umsetzungskonzept sieht so aus:
[1] Token besorgen
[2] Sitemap der Analyseprojekte besorgen UND zusammengefasste URLs extrahieren
[2.1] extrahierte URLs in geeignete Liste/Datenbank speichern
[2.2] Sitemapdownload/URLextract in eine Prozedure fassen
[3] Scraper
[3.1] Lade URL-Liste
[3.2]
for lfnr=0 to ende(URL_Liste) do
begin
//-> extrahiere Querverweise zzgl. Clicks
httpget+extract(3)
//-> extrahiere Clicks nach Ländern
httpget+extract(5)
end

Ich besprach u.a. dieses Konzept und eine konkrete Umsetzung 2015 beim Affiliatestammtisch (Leipzig) und ich bin mit der „hauseigenen“ Lösung soweit zufrieden.

Einige Performancedaten sind:

URL-Liste mit 100-5000 Einträgen
– Datenerfassungsdauer: ca. 1 Stunde

URL-Liste mit 5000-10.000 Einträgen
– Datenerfassungsdauer: ca. 1-2 Stunden

Die W&L-GbR-Lösung basiert derzeit (noch) auf die Datenspeicherung via CSV. Das liegt u.a. daran, dass ich erst sehr spät den Wert von „richtigen“ Datenbanken wie SQL & SQLite erkannt habe. Wie auch immer: Die Erfassung der o.g. Daten verlangt natürlich auch die Etablierung diverser Auswertungsansätze, weil man nicht aus purem „Selbstzweck“ diese Daten erfasst. Ich sehe folgende Szenarien, bei der die Bit.ly-Variante zum Einsatz kommen kann:

[Konkurrenzscreening]

Die typische „SEO-Denke“ geht (leider) immer davon aus, dass das Sichten via Datendienstleister (XOVI, Sistrix) und Backlinks/Backlinkstrukturen für die Marktbegutachtungsaktivitäten ausreicht. Das stimmt leider so nicht, denn diese Ansätze liefern keinerlei transparente Einblicke in mögliche Traffic- und Traffic-via-Zielgruppeninformationen. Hier rate ich schon seit 2011 zu einer projektbezogenen Einbindung einer „Nutzwertanalyse“. Die Analyse via Bit.ly-API kann bei dauerhaftem Monitoren komplexer Sitemaps eben genau aussagen, wann welche Trafficqualität über welche Social Media/Backlinks zum beobachteten Objekt kam und kommt.

[Influencermarketingbeurteilungen]
Bei dieser Variante kann man auf das umfangreiche Scrapen diverser Sitemaps verzichten und manuell die typischen Promotionslinks in den Scraper eintragen.
Ist die Erfassungsprozedure entsprechend konfiguriert, lassen sich VOR der Inanspruchname einer Influencermarketingagentur/Influenceraccounts Prognosen zu:
(a) Länderspezifische Trafficströme
(b) Clickstatistik/Zeiteinheit (Tag, Woche etc.)
(c) Weiterempfehlung des [Werbe]links, gezeigt durch „Streueffekt“
anstellen. Ich empfehle analog zu den allgemeinen Verkaufsargumenten der Sparte „Influencermarketing“ genau diese Gegenprüfvariante.

[Backlinkrecherchen und Backlinkaquise]

Diesen Ansatz hatte ich – zusammen mit Anne – bereits während den Arbeiten an den Projekten der Empora Fashion Group aufgestellt. Wenn man also bei schwierigen Projektlagen (damals: Mode, viele Produkte etc.) sich bewusst die Konkurrenz via Bit.ly-Analysen anschaut, lassen sich eben über den Ref-Endpoint plötzlich Linkspender identifizieren, welche durch die Zusammenführung mit den Clickzahlen Trafficvolumina versprechen können. Verlinkungen machen nur dann Sinn, wenn eben der gesetzte Link nicht primär im Sinne der „SEO-Denke“ wirkt, sondern Zielgruppen anspricht und via Gegenprobe auf Konkurrenzprojekte auch saubere Clickgestaltungen (Historie, Land etc.) quasi „verspricht“.

Weitere Gedanken, Ideen oder Austauschwunsch? Gerne via Kommentar, e-Mail oder Anfragen.

Wie kann ich interagierende Accounts mit Hilfe eines Instagrambugs auslesen?

In einer der letzten Vertriebs- und Verkaufsveranstaltung (Subthema: Erkennen und Bewerten von Accounts, Interaktionen usw.) wurde ich inspiriert, eine geeignete technische Lösung zu recherchieren, welche die Titelfrage beantwortet. Der Grund ist einfach: Durch die Beschneidung der Instagram-API ist die technische Erfassung o.g. Metriken schlichtweg nicht mehr möglich. Einen Ausweg bietet folgende Vorgehensweise:

[AbfrageURL]
https://www.instagram.com/[Accountname]/?__a=1

[Codekonzept]
lade_account_liste(datei,DB)
//-> Erfassen der Likenden
for l=0 to liste_ende do
begin
httpget(https://www.instagram.com/liste[l]/?__a=1
(1) extract(graphql->user->edge_owner_to_timeline_media->edges->[NrX]->node[X]->edge_media_preview_like->count)
(2) extract(graphql->user->edge_owner_to_timeline_media->edges->[NrX]->node[X]->edge_media_preview_like->edges->[NrY]->node[Y]->id)
(3) extract(graphql->user->edge_owner_to_timeline_media->edges->[NrX]->node[X]->edge_media_preview_like->edges->[NrY]->node[Y]->profile_pic_url)
(4) extract(graphql->user->edge_owner_to_timeline_media->edges->[NrX]->node[X]->edge_media_preview_like->edges->[NrY]->node[Y]->username)
end

[Erklärung]
„httpget“ = Ergebnis der Abfrage wird herunter geladen
„extract“ = Das Ergebnis der Abfrage wird nach der Variable durchsucht und die Inhalte werden im gewählten Format gespeichert.
„lade_account_liste“ = Die zu begutachtenden Accounts werden in Listenform (Textdatei, SQLTab etc.) in die Prozedur eingespielt.

Die Manuelle Sichtung der Ergebnisse kann man mit https://jsoneditoronline.org/ erledigen. Hier einfach die Abfrageurl https://www.instagram.com/[Accountname]/?__a=1 mit dem Accountnamen im Browser eintragen und das Resultat in den jsoneditor kopieren.

[Erklärung: Datensätze]
(1) Auslesen der aktuellen Likes als Zahl
(2) Auslesen des likenden Accounts in Form der InstagramID
(3) Auslesen der Profilbildurl des likenden Accounts
(4) Auslesen des likenden Accountnamens

[Fazit]
Ich bezeichne den begutachteten Erhebungsweg bewusst als „Bug“, da Instagram offziell das Erfassen dieser Datensätze im letzten API-Entwicklungsturnus geschlossen hatte. Nun mag man davon halten, was man möchte und ich sehe u.a. hier für mich den Beleg dafür, dass die geschlossenen Endpoints selbstverständlich nach wie vor aktiv sind. Vielleicht beschäftig sich Instagram mit der Bug-Bereinigung, vielleicht bleibt aber auch diese Abfragevariante „ewig“ offen. Die Sichtung des JSON-Codes zeigte mir, dass „leider“ nur eine begrenzte Anzahl an interagierenden Accounts auslesbar ist, aber auch dieses Problem lässt sich elegant über eine geeignete Timer-Variante lösen. Diese aktiviert im Prinzip im Sekundentakt den Scrapingvorgang und holt sich die gewünschten Datensätze ab, speichert und verarbeitet die Eintragungen. Hochfaszinierend ist in diesem Gedankenspiel die Metrik „Username“: Die Inhalte aus der Variable lassen sich in geeignete Listen übertragen und in das o.g. Grobkonzept einspielen. Über diesen Weg erfährt der wissensdurstige Dataminer alles aus dem Medienstream des Influenceraccounts / Accounts UND den Accounts, welche eben mit dem Hauptanalyseobjekt interagieren.

Hier setzt bei mir das kritische und hinterfragende Nachdenken an:
Welchen Wert haben umfangreiche Datenschutzerklärungen, wenn bspw. Social Media problemlos recherchierbare Lücken für die Datenerhebungen offen lassen?
Welchen Wert haben offzielle Ankündigungen und Umsetzungen zu API-Änderungen, gerade aus dem FB-Haus in Verbindung mit Cambridge Analytica?
Welchen Wert haben Äußerungen aus dem Hause Facebook bzgl. der Kontrolle der Datenzugriffe von Externen, wenn (a) dieser „Bug“ identifizierbar und (b) nutzbar ist?

Ich muss gestehen, dass ich einen gewaltigen Nutzen in diesen Datenerhebungsvarianten sehe. Natürlich habe ich über die Nutzbarmachung im Interesse der Wobus & Lehmann GbR nachgedacht, bin aber letztendlich davon abgekommen, weil mir derzeit kein sauberes Anonymisierungsverfahren bekannt ist. Ich finde es schade, dass die Influencer-Marketing-Agenturszene schweigt und keinerlei Analysen, Statements oder generell Worte zu dieser Datenproblematik veröffentlicht.

Influencermarketing, Instagram und das (lästige) Problem der suboptimalen Followerzahlen?

Ich glaube, dass die Leser_innen des Arbeitsblogs mit extrem hoher Wahrscheinlichkeit meine enorme Skepsis gegenüber der „offziellen“ Strategie des Influencermarketings verstanden haben und ich denke, dass ich etwas mehr Erklärung schuldig bin. Es ist eigentlich einfach und bei Sichtung der Kritiken (also … nicht nur meine) tauchen immer wieder Argumente rund um die einkaufbaren Follower auf und hier vertrete ich nun einmal den Ansatz, dass man die Strategie „Influencermarketing“ eben wegen der massiven Kritiken nicht auf Basis der Subjektivitäten „Erfahrung“ oder „Zwischenmenschlichkeit“ beurteilen muss, sondern man MUSS diesen Ansatz eben auch mit Hintergrundwissen zu den Einflussfaktoren / „alternativen“ Strategien jedes Mal neu bewerten (also: je Szenarium, je Projekt, je Kund_in usw.).

Nun ist eine spannende Problemquelle beim Instagrambasierten Influencermarketing eben die Frage, ob die einkaufbare Reichweite (hier: Follower) auch tatsächlich „real“ ist. Ich wundere mich immer wieder, wie selten eben diese unfassbar spannende Problematik so selten und so unbefriedigend diskutiert wird, obwohl gefühlt einige 1000 Anbieter mit entsprechenden Kaufangeboten auf dem Markt völlig problemlos recherchierbar sind. Es gehört für mich zum Tagesgeschäft dazu, die Konkurrenz zu beobachten, welche eben diese spezielle Marketingform anbietet und natürlich entdecke ich da viele Blogbeiträge und Erfahrungsberichte zu wahnsinnig emotional ausgeschmückten Worstcase-Szenarien und ich mache mir da immer einen Spaß und frage nach konkreten Erfahrungen. Sprich: man kann in der hochintellektuellen Sparte „Marketing“ ja schlichtweg nur zu Dingen Formulierungen tätigen, von denen man schlichtweg auch etwas versteht und hierzu gehört auch das Durchspielen von Experimenten und NICHT (!) das kritiklose Wiederholen von nicht nachprüfbaren Experimenten der Werbeszene. Man sollte schon im Interesse der Sichtung dieser einkaufbaren Follower sich um das Erwirtschaften eigener (!) Erfahrungen bemühen.

Eines davon erledigte ich vor geraumer Zeit mit einem extra aufgesetzten Instagramaccount und hier ging ich so vor:
[1] Recherche bei Google
https://www.google.de/search?q=buy+instagram+followers+cheap
(„cheap“ deswegen, weil ich kein Interesse am Verspielen von Geld hatte.)
Im Rahmen des ersten Grobchecks entdeckte ich, dass die vielen Anbieter sich „beweisen“ wollen und man bietet potentiellen Kund_innen eben auch Testpakete – natürlich – kostenfrei an.

[2] Recherche bei Google, nach kostenlosen Followertestpaketen
https://www.google.de/search?q=buy+instagram+followers+free+trial
https://www.google.de/search?q=10+free+instagram+followers+trial
https://www.google.de/search?q=50+free+instagram+followers+trial
https://www.google.de/search?q=20+free+instagram+likes

Ich sehe nun einen bunten und wunderschön ausgeschmückten Laden mit sehr vielen interessanten Angeboten und weil mir hier der moralische Zeigefinger (oder besser: der basislose moralische Zeigefinger) keine Freude bereitet, experimentierte ich mit den folgenden Angeboten ein wenig herum:

[Pro Forma – Hinweis]
Ich übernehme keine Verantwortung, wenn die Benutzung der nachfolgenden Angebote nicht die gewünschten Effekte produziert.

http://www.buzzdayz.com/free-instagram-follower-trial/
https://www.quickfansandlikes.com/
http://www.gramozo.com/free-trial/
https://www.getmassfollowers.co.uk/
http://buyhugefollowers.co.uk/
http://www.thebestfollowers.co.uk/
https://instalegendary.com/
https://soclikes.com/
https://getmoreinsta.com/index.php?page=addfreefollowers

Eine besonders interessanter Anbieter ist:
https://plusmein.com/index.php?page=addfreefollowers
Dieser erlaubt das Einbuchen von jeweils 20 Follower je 24 Stunden und damit kann der Experimentalaccount über einen schönen Zeitraum hinweg „wachsen“. Eine „Runde“ des Testaccounts durch diese Liste „erntete“ zwischen 250 und 300 relativ stabile Follower.

Ein paar Worte zur Bewertung der zusammengeschnorrten Follower.
Ich habe hier eher „gemischte“ Gefühle zur Qualität: ich sehe klischeehafte Fakeaccounts (also: junge Frau, extrem viele Abos, wenig Follows, keine|wenig Medien) und ich sehe natürlich auch sehr natürlich wirkende Accounts und das lässt mich fragen, woher diese Anbieter denn die vermittelbaren Accounts überhaupt nehmen und ein wenig Recherche ergab, dass die meisten Quellen sich auf das Interaktionen – gegen Coin – System beziehen. Interessant ist der Anbieter „plusmein.com“, denn hier entdeckte ich in den ersten Testläufen durchaus auch neue Follower, deren Daten und Medien dem typischen Bild des einkaufbaren Influencers entsprechen.
Ganz ehrlich: ich habe keine Ahnung, wie dieser Anbieter arbeitet und woher die Accounts stammen und im Moment theoretisiere ich in Richtung „Engagement Gruppe“, wobei das natürlich nicht final verifizierbar sein dürfte. Obwohl die Qualitäten wechselhafter Natur sein können, sehe ich auch, dass der Schwundfaktor im – sagen wir mal – „natürlichen“ Rahmen bleibt, wobei ich auch sehe, dass die Interaktionen da, wenn auch äußerst gering sind.
Komme ich nun zur moralischen Einordnung und hier vertrete ich – wie erwähnt – eine eher pragmatische Sichtweise, gerade deswegen, weil die Einordnung der Followerlisten in Fake / Non-Fake sehr schwierig ist. Natürlich existieren sehr viele Indikatoren für eben „schwierige“ Ansätze innerhalb einer Accountstruktur und diese sind Ungleichgewichte in den Zahlen, komische Kommentare, aber mal ganz ehrlich: es gibt durchaus Menschen, die wie die Irren unfassbar vielen anderen Menschen folgen, dann gibt es Accounts, die ohne Verantwortung oder „Zutun“ eben Ziel von Spamcommentattacken werden. Mir passiert sowas ständig, den Kund_innen ebenfalls und ich sehe da immer wieder automatisch generierte Comments aus eben auch der Feder deutscher Accounts aus der Berater_innenszene, der Socialmediaberater_innen und selbstverständlich auch völlig normale Firmen. Das hängt auch damit zusammen, dass viele eben diese Werkzeuge wie „Ninjagram“ verwenden und die Hoffnung hegen, dass abgesetzte Kommentare Aufmerksamkeit erzeugen.
Also: „Fakes“ sind definitiv nicht sauber und extrem eindeutig identifizierbar und das gilt auch für den Kauf oder das oben beschriebene Zusammenschnorren. Also quält mich eine Frage: Wieso existieren stark moralisierende Argumente rund um ein nicht nachprüfbares Thema? Ich erkenne keinerlei Logik in der eigenen Geschäfts- und Dienstleistungsaufwertung, wenn nicht überprüfbare Followerlisten als pauschal „sauber“ deklariert werden und das via Behauptung schlichtweg „nur“ in den Raum gestellt wird.

Ob nun diese Positionierungsvariante edel, gut, moralisch einwandfrei oder sogar „praktikabel“ ist, muss und soll jeder Mensch für sich selbst entscheiden. Mir steht das Erheben des moralischen Zeigefingers nicht zu, würde aber das eventuelle Einsatzszenarium immer wieder neu bewerten und während eines eventuellen Schnorrens / Einkaufens unbedingt auf folgende Dinge achten:

(1) Absolut saubere Contentqualität.
(2) Klare, deutliche und zielgruppengenaue Kommunikation.
(3) Natürliche Marketingmaßnahmen

Fragen, Gedanken, Hinweise? Gern über Kommentar oder via Telefonat. Ich suche übrigens tatsächlich händeringend nach einem sauberen Followerlistenauswertungsalgorithmus.