Dieser Artikel ist eine vereinfachte Illustration des Produkts. Es soll Analysten unterstützen, um zu sehen, welche Einheit die Rolle erfüllt.  Wir empfehlen Ihnen, unsere Dokumentationen einzusehen. Dort finden Sie ausführliche Informationen, die in diesem Artikel beschrieben werden.

Hauptakteure

Es wurde zuvor hier erwähnt, wie einzelne Besucherdaten erstellt werden und hier, wie Besucherdaten den Datensatz bilden.  Wir gehen weiter zurück, und sehen uns den gesamten Cluster in diesem Artikel an.

DPU - Verwalter des Datensatzes -

84-02

DPU (Data Processing Unit) ist der Verwalter eines Clusters. Wenn die DPU als Verarbeitungs-Server agiert, generiert diese abzufragende Datensätze auf dem lokalen temp.db (Karteninhaber).

Die DPU nimmt ebenfalls die Rolle als Abfrageserver an, wo sie als zentraler Anknüpfungspunkt von einer Clientanwendung zu anderen DPUs agiert.


FSU als primärer Server - Koordinator des Datensatzes -

84-03

Ein Team von Servern benötigt einen Supervisor und eine FSU (File Server Unit) erfüllt diese Rolle als primärer Server.  Es bewahrt eine Stammkopie der Datensatzarchitektur (Schema), Konfigurationen und Leistungsparameter auf.  Der primäre Server wird auch als Synch-Server bezeichnet.


FSU für nicht primäre Aufgaben

84-06

Um die Arbeitsbelastung des primären Servers zu erleichtern, können einige Aufgaben an zusätzliche FSUs delegiert werden.  Wir werden die Indexierung von dekodierten Daten (Normalisierung), den Export von Datensätzen (Segmentexport) und die Konvertierung von unverarbeiteten Protokolldateien (Transformieren) kurz behandeln.


Für einen kleinen Cluster reicht ein FSU häufig aus, um alle Verwaltungsaufgaben zu erfüllen. Beim Vergrößern des Clusters kann der primäre Server überlastet werden.  Adobe empfiehlt die Verwendung einer zusätzlichen FSU, um einen Engpass zu vermeiden.

Hinweis:

Für andere FSU-Aufgaben (Protokollierungsserver, Quelllisten-Server und Dateiserver) und Komponenten (Sensor und Repeater), wenden Sie sich bitte „hier“ an unsere Dokumentation.

Client

96-07

Der „Data Workbench-Client“ ist die Frontend-Applikation. Analysten verwenden sie zum Ausführen einer Abfrage auf ihrem Abfrageserver, ein Architekt verwendet sie zum Konfigurieren des Schemas auf dem primären Server und Administratoren verwenden es zum Verwalten verschiedener Server.


Berichtsserver

84-04

Der Berichtsserver automatisiert die Berichtsfunktionalität der Clientanwendung. Er führt Abfragen von einem Berichtssatz aus und verteilt die Ausgabe über verschiedene Kanäle.


Die Erstellung von Abfragedatensätzen

Synchronisation – Anweisungen zur Freigabe -

DPUs wissen zuerst einmal nicht, wo verschiedene Materialien zu finden sind oder wie sie verarbeitet werden.  Durch Synchronisierung werden die Anweisungen, das Schema und die Ressourcenkarte vom primären Server (FSU) abgerufen.

19-01

Es werden jetzt Anweisungen bereitgestellt, der Karteninhaber ist jedoch leer.

Logprozess - Erstellung eines Datensatzes -

Mithilfe der synchronisierten Anweisungen und Karte findet jeder DPU die Protokolldateien und beginnt mit der Dekodierung. 

15-01

Wenn ein entschlüsseltes Ereignis zu einem vorhandenen Besucher gehört, wird es an die entsprechenden Karten angehängt.  Wenn es zu einem Besucher auf einem anderen DPU gehört, wird er weitergeleitet.  Wenn das Ereignis zu keinem vorhandenen Besucher gehört, wird eine neue Karte erstellt.

Besucher werden gleichmäßig auf alle DPUs verteilt.  Zum Beispiel: Auf einem 10-DPU-Cluster mit 5 Millionen Besuchern verwaltet jeder DPU die Daten von 500,000 Besuchern.  Da jedoch jeder Besucher eine unterschiedliche Datengröße hat, ist die Größe von „temp.db“ nicht auf allen DPUs gleich (Obwohl sie in der Regel nah beinander liegen)

Normalisierung- Indexierung von entschlüsselten Daten -

Während jedes DPU die Eingabe ausführt, werden die Dimensionselemente gleichzeitig auf dem Normaliserungsserver indiziert.

21-02

Normalerweise entspricht ein FSU der Rolle des primären Servers und des Normalisierungsservers.

Nach Abschluss des Protokollprozesses haben wir einen Abfragedatenset.

Interaktive Analyse mit Data Workbench-Client

Schließlich ist der Datensatz für Analysten bereit.  Für eine detaillierte Analyse werden mehrere Abfragen ausgeführt, was von einer Frage zur anderen führt. Für dies wird am besten der Data Workbench-Client verwendet.

    1. Zuweisung eines Abfrageservers

Zunächst stellt der Data Workbench-Client eine Verbindung zu einem primären Server her und einer der DPUs wird als Abfrageserver zugewiesen.

30-03

Die Clientanwendung ist jetzt „Online“ mit dem Datensetprofil.  Ab diesem Zeitpunkt wird dieser DPU zu einem Kontakt für diesen Client.

    2. Ausführen von Anfragen

Der Client sendet Abfragezeichenfolgen an den Server.  Nachdem die Abfrage empfangen wurde, leitet der Abfrageserver die gleiche Anforderung an andere DPUs weiter.  Außerdem wird die Abfrage anhand ihres eigenen „temp.db“ (Kartenhalter) ausgeführt und das Ergebnis wird zusammen mit anderen DPUs an den Client zurückgegeben.

33-02

Auf der Client-Seite werden Abfrageergebnisse in verschiedene Visualisierungen übersetzt, wenn sie im Strom ankommen.  Der fertige Arbeitsbereich kann auch als Vorlage für den Berichtsserver gespeichert werden.

Geplanter Bericht mit dem Berichtserver

Der Berichtsserver automatisiert die Fragendurchführungen.   Zu einem bestimmten Zeitpunkt wird ein Bericht von dem primären Server abgerufen und ausgeführt und dann über verschiedene Methoden wie E-Mails bereitgestellt.

24-01

Exportieren von Datensätzen mit Segmentexport

Bestimmte Segmente des Datensatzes können als abgegrenzte Textdateien exportiert werden. Basierend auf der Exportdefinitionsdatei (*.export) filtert jeder DPU seine Daten aus und sendet sie an den Segment-Export-Server.

25-02

Exportierte Daten aus DPUs werden in eine Datei auf dem „Segment-Export-Server“ kombiniert und auf einen bestimmten Standort hochgeladen.  Die Datei wird in der Regel in verschiedene Analyseinstrumente von Drittanbietern oder benutzerdefinierte Anwendungen für die weitere Analyse importiert.

Hinweis:

Ebenso wie die Rolle des Normaliserungsservers, kann eine FSU die primäre Rolle sowohl als auch die Segment-Export-Rolle in einem kleinen Cluster einnehmen.  Da es jedoch einen Stapel großer Datenübertragungen erfordert, kann der Segmenten-Export die Ressourcen von FSU leicht überlasten.

Protokollumwandlungen mit Transform

FSU kann als Konvertierungsserver agieren.  Im Gegensatz zum Segmentenexport, welcher einen Datensatz zu Text exportiert, ist „Transformieren“ eine einfache Text-zu-Text-Konvertierung.  Es werden ebenfalls eine oder mehrere Arten von Texteingaben und deren Zusammenführung in eine Daten benötigt, wie z. B. Sensor-Daten (.vsl), Protokolldateien, XML-Dateien und ODBC-Daten (Text).  Es wird häufig verwendet, um die Rohdaten vor der Zuführung zu einem Datensatz vorzuverarbeiten.

26-01

Wie Sie sehen, können die Transform Server (FSU)-Operationen ohne Dataset oder DPUs ausgeführt werden.  Aus diesem Grund wird der Transform Server häufig unabhängig ausgeführt.

Dieses Werk unterliegt den Bedingungen der Creative Commons Attribution-Noncommercial-Share Alike 3.0 Unported License.  Twitter™- und Facebook-Beiträge fallen nicht unter die Bedingungen der Creative Commons-Lizenz.

Rechtliche Hinweise   |   Online-Datenschutzrichtlinie