Was bisher nur Google Analytics 360-Kunden hatten, kommt zukünftig für alle Google Analytics-Nutzer zum Einsatz. Zumindest wenn man von Google Analytics 4 spricht. Es geht um den BigQuery-Connector. Mit wenigen Schritten lassen sich Daten von Google Analytics 4 nach Google BigQuery exportieren. Welche Vorteile hat das?
- Man bekommt Zugriff auf die Rohdaten, kein Sampling mehr im User Interface
- Das GA4-Interface kann max. 25 Event-Parameter pro Event anzeigen. Du kannst aber mehr mitschicken – die Parameter findest du dann aber nur in BigQuery.
- Mittels SQL kannst du innerhalb der BigQuery-Benutzeroberfläche detaillierte Analysen durchführen.
- Von BigQuery aus lassen sich die Daten dann weiterverarbeiten bzw. an andere Tools verschicken.
- Etc.
Kommen wir aber zur Praxis und Anleitung. Du braucht zunächst eine Google Analytics 4-Property (falls du noch keine hast, dann erfährst du hier, wie du eine GA4-Property erstellen kannst). Wechsle dann in die Verwaltung und wähle den Menüpunkt “BigQuery-Verknüpfung”:
Klicke dann auf “Verknüpfen”:
Dann auf “BigQuery-Projekt auswählen”:
Wenn du schon ein BigQuery-Projekt hast, dann müsstest du eine Liste deiner Projekt sehen, die du auswählen kannst (im Projekt sollte die BigQuery API aktiv sein – siehe unten):
Falls nicht, dann musst du zunächst zur Google Cloud Plattform wechseln. Erstelle dann ein neues Projekt mit Klick auf “Neues Projekt”:
Vergebe einen Projektnamen:
Bleibe dann in der Google Cloud Konsole. Suche im Suchfeld nach “BigQuery API” und wähle deinen Eintrag aus:
Klicke dann auf “Aktivieren” um die API aktiv zu stellen (bei mir ist sie schon aktiv):
Ist das getan, kannst du zurück zu GA4 gehen und das soeben erstellte Projekt auswählen und mit “Bestätigen” (oben rechts) das Projekt übernehmen:
Wähle dann den Speicherort der Daten:
Hier sollte eine EU-Region gewählt werden (falls du in der EU ansässig bist), da Google hier die EU-Datenschutzbestimmungen besser steuern kann. Sprich aber hier am besten mit deinem Datenschutzbeauftragten. Klicke dann auf “Weiter”. Im Anschluss musst du die Datenstreams auswählen, die beim Export berücksichtigt werden sollten. Bei mir gibt es in dieser Property aktuell nur den Web-Datenstream, daher ist auch nur einer verfügbar, den ich auswähle:
Wenn du auch Werbe-IDs mit einbeziehen willst, dann wähle “Werbe-IDs für App-Streams einbeziehen” aus. Im nächsten Schritt kannst du wählen wie oft die Daten an BigQuery exportiert werden sollen:
Ohne Angabe eines Rechnungskontos im Cloud-Projekt kann nur “Täglich” gewählt werden. Hier wird dann nur einmal am Tag exportiert. Entsprechend fehlt dann auch die Intraday-Tabelle (Tabelle mit Live-Daten). Mit “Streaming” kannst du die Daten in fast Echtzeit nach BigQuery exportieren. Erfordert aber ein Rechnungskonto, da kostenpflichtig. Wähle die gewünschte Option aus und klicke auf “Senden”.
Dann dauert es kurz. Wenn alles erfolgreich war, bekommst du die abschließende Meldung:
Wenn du wie ich den täglichen Export gewählt hast, dann dauert es einen Tag bis die Daten in BigQuery zur Verfügung stehen:
Falls du “Streaming” gewählt hast und die erste Tabelle da ist, empfehle ich dir noch in die Tabellen-Details zu wechseln und dann auf “Details bearbeiten”:
Setze hier die Ablaufzeit auf “None” und speichere ab:
Das sorgt dafür, dass deine Tabellen nicht automatisch nach einer bestimmten, vordefinierten Zeit ablaufen (ich glaube es sind 2 Monate), sondern für immer erhalten bleiben. Beachte, dass sich diese Einstellung nur auf zukünftige Tages-Tabellen auswirkt. Falls du schon Tages-Tabellen im Dataset hast, dann musst du diese Einstellung leider bei jeder einzelnen Tabelle im Nachgang machen. Deshalb empfiehlt es sich diese Einstellung am besten sofort vorzunehmen.