Cluster per Data Workbench

Questo articolo contiene una spiegazione semplificata del prodotto. È pensata per supportare gli analisti nel visualizzare quale entità svolge un determinato ruolo.  I lettori sono invitati a consultare la nostra documentazione per informazioni dettagliate su ciò che viene trattato in questo articolo.

Attori principali

In precedenza, abbiamo discusso come vengono costruiti i dati dei singoli visitatori qui, e come i dati dei visitatori formano il set di dati qui.  In questo articolo faremo un ulteriore passo indietro per analizzare l'intero cluster.

DPU - Custode del set di dati -

DPU (Data Processing Unit) è il custode di un cluster. Quando svolge il ruolo di Processing Server, la DPU genera un dataset interrogabile sul temp.db locale (set di dati).

DPU svolge anche il ruolo di server delle query, nel quale agisce come unico punto di contatto da un'applicazione client ad altre DPU.

FSU come Server Primario - Coordinatore del Dataset -

Un gruppo di server ha bisogno di un supervisore e una FSU (File Server Unit) svolge questo ruolo come Server primario.  Memorizza una copia master dell'architettura del set di dati (schema), delle configurazioni e dei parametri prestazionali.  Il Server primario è anche conosciuto come Synch Server.

FSU per i ruoli non primari

Per alleggerire il carico di lavoro del Server primario, alcuni ruoli possono essere delegati ad altre FSU.  Tratteremo brevemente l'indicizzazione dei dati decodificati (Normalizzazione), l'esportazione del set di dati (Esportazione dei segmenti) e la conversione dei file di log grezzi (Trasformazione).

Per un piccolo cluster, una sola FSU è spesso sufficiente a svolgere tutti i ruoli di gestione. Man mano che il tuo cluster cresce, il Server Primario può non essere più sufficiente.  Adobe raccomanda l'uso di una FSU aggiuntiva se questo diventa il collo di bottiglia.

Nota:

Per altri ruoli FSU (Logging Server, Source List Server e File Server) e componenti (sensore e ripetitore) ti preghiamo di consultare la nostra documentazione qui.

Cliente

Il client Data Workbench è l'applicazione front-end. Gli analisti lo usano per eseguire una query sul server delle query, un architetto lo usa per configurare lo schema sul Server primario, e l'amministratore lo usa per gestire i vari server.

Server dei rapporti 

Il server dei rapporti automatizza le funzionalità di reporting dell'applicazione client. Esegue le query da un set di report e fornisce l'output attraverso vari canali.

Creare un set di dati per Query

Sincronizzazione - Istruzioni di condivisione

In un primo momento, i DPU non sanno dove trovare i vari materiali o come elaborarli.  Attraverso la sincronizzazione, prelevano le istruzioni, lo schema e la mappa delle risorse dal server primario (FSU).

Le istruzioni sono ora fornite, ma il set di dati è ancora vuoto.

Processo di log - creazione di un set di dati -

Utilizzando le istruzioni sincronizzate e la mappa, ogni DPU trova i file di log e inizia a decodificarli. 

Se un evento decodificato appartiene a un visitatore esistente, viene allegato alle sue schede.  Se appartiene a un visitatore su un altro DPU, questo viene inoltrato.  Infine, se l'evento non appartiene a nessun visitatore esistente, viene creata una nuova scheda.

I visitatori sono distribuiti uniformemente su tutte le DPU.  Ad esempio, su un cluster di 10 DPU con 5 milioni di visitatori, ogni DPU contiene dati per 500.000 visitatori.  Tuttavia, poiché ogni visitatore ha dati di dimensioni diverse, la dimensione di temp.db non sarà uguale tra le DPU (anche se tendono a essere molto simili tra loro).

Normalizzazione - Indicizzazione dei dati decodificati -

Mentre ogni DPU elabora l'input, gli elementi di dimensione sono indicizzati simultaneamente sul server di normalizzazione.

In genere, una FSU svolge il ruolo sia del Server Primario che del server di normalizzazione.

Una volta completato il processo di log, avremo un dataset consultabile tramite query.

Analisi interattiva con il client Data Workbench

Infine, il set di dati è pronto per gli analisti.  Per un'analisi approfondita, una serie di query viene eseguita con il susseguirsi delle domande, ed è meglio utilizzare il client Data Workbench.

    1. Assegnare il server delle query

In primo luogo, il client Data Workbench Client si connette a un server primario e una delle DPU verrà assegnata come server delle query.

L'applicazione client è ora "Online" con il profilo del set di dati.  Da questo momento in poi, questa DPU diventa un punto di contatto per questo client.

    2. Domande in corso

Il client invierà la stringa di interrogazione al suo server delle query.  Una volta ricevuta la richiesta, il server delle query inoltra la stessa richiesta ad altre DPU.  Inoltre, esegue la query contro il proprio temp.db (set di dati) e restituisce il risultato al cliente insieme ai risultati di altre DPU.

Ritornando sul lato client, i risultati delle query saranno tradotti in varie forme di visualizzazione man mano che entrano in funzione.  L'area di lavoro finita può anche essere salvata come modello per il server dei rapporti.

Report pianificati con il server dei rapporti

Il server dei rapporti automatizza l'esecuzione delle query.   A un'ora specificata, preleva un set di report dal server primario e li esegue, per poi consegnarli attraverso vari metodi come le email.

Esportazione del set di dati con Segment Export

Segmenti specifici del set di dati possono essere esportati come file di testo delimitati. In base al file di definizione di esportazione (*.export), ogni DPU filtra la propria quota di dati e li invia al Segment Export Server.

I dati esportati dalle DPU vengono combinati in un unico file su server di esportazione segmenti e caricati in una posizione specifica.  Il file viene tipicamente importato in vari strumenti di analisi di terze parti o applicazioni personalizzate per ulteriori analisi.

Nota:

Proprio come il server di normalizzazione, una FSU può svolgere sia il ruolo di server primario che quello di esportazione di segmenti su un piccolo cluster.  Tuttavia, trattandosi di una serie di grandi trasmissioni di dati, il server di esportazione dei segmenti può rallentare facilmente le risorse dell'FSU.

Conversione di log con server di trasformazione

FSU può funzionare come server di trasformazione.  A differenza delle esportazioni di segmenti (che è l'esportazione da un insieme di dati all'altro), la trasformazione consiste in una semplice conversione da testo a testo.  Prende anche uno o più tipi di input di testo e li unisce in un unico file di testo come Sensor data (.vsl), file di log, file XML e dati ODBC (di testo).  Viene spesso utilizzato per preelaborare i dati grezzi prima di inviarli a un set di dati.

Come si vede, le operazioni del server di trasformazione (FSU) possono essere eseguite senza set di dati o DPU.  Per questo motivo, il server di trasformazione agisce spesso in modo indipendente.

Logo Adobe

Accedi al tuo account