Cluster para Data Workbench

Este artículo es una ilustración simplificada del producto. Su objetivo es ayudar a los analistas para que puedan visualizar qué entidad cumple qué función.  Se recomienda a los lectores que consulten nuestra documentación para obtener información detallada sobre lo que se cubre en este artículo.

Actores principales

Anteriormente, discutimos cómo se construyen aquí los datos individuales de los visitantes, y cómo los datos de los visitantes forman el conjunto de datos aquí.  Estamos retrocediendo un poco más y examinando todo el grupo en este artículo.

DPU - Custodia del conjunto de datos -

DPU (Unidad de Procesamiento de Datos) es el custodia de un cluster. Cuando juega el papel de un Servidor de Procesamiento, el DPU genera un conjunto de datos consultable en el archivo local temp.db (portatarjetas).

DPU también juega el papel de Consulta de Servidor donde actúa como un único punto de contacto desde una aplicación cliente a otras DPU.

FSU como Servidor Primario - Coordinador de Dataset -

Un equipo de servidores necesita un supervisor, y una FSU (Unidad de Servidor de Archivos) cumple esa función como Servidor Primario.  Almacena una copia maestra de la arquitectura del conjunto de datos (esquema), las configuraciones y los parámetros de rendimiento.  El Servidor Primario es también conocido como Servidor de Sincronización.

FSU para funciones no primarias

Para aligerar la carga de trabajo del servidor primario, algunas de las funciones se pueden delegar a otras FSU.  Abordaremos de forma breve la indexación de datos decodificados (Normalización), la exportación de conjuntos de datos (Exportación de segmentos) y la conversión de archivos de registro sin procesar (Transformar).

Para un grupo pequeño, una FSU suele ser suficiente para cumplir todas las funciones de gestión. A medida que su clúster crece, Primary Server puede verse abrumado.  Adobe recomienda el uso de una FSU adicional si se convierte en el cuello de botella.

Nota:

Para otras funciones de FSU (Servidor de registro, Servidor de lista de fuentes y Servidor de archivos) y componentes (Sensor y Repetidor), consulte nuestra documentación aquí.

Cliente

El cliente Data Workbench es la aplicación principal. Los analistas lo utilizan para ejecutar una consulta contra su servidor de consulta, un arquitecto lo utiliza para configurar el esquema en Primary Server, y el administrador lo utiliza para gestionar varios servidores.

Servidor de Informes 

El Servidor de Reportes automatiza la funcionalidad de reporte de la aplicación cliente. Ejecuta consultas desde un conjunto de informes y entrega la salida a través de varios canales.

Creación de un conjunto de datos consultable

Sincronización - Instrucciones para compartir -

Al principio, las DPU no saben dónde encontrar varios materiales o cómo procesarlos.  A través de la sincronización, obtendrán las instrucciones, el esquema y el mapa de recursos del Servidor Primario (FSU).

Ahora se proporcionan las instrucciones, pero el tarjetero sigue vacío.

Proceso de registro: Conjunto de datos de construcción -

Utilizando las instrucciones y el mapa sincronizados, cada DPU encuentra los archivos de registro y comienza a decodificarlos. 

Si un evento decodificado pertenece a un visitante existente, se añade a sus tarjetas.  Si resulta que pertenece a un visitante en otra DPU, se reenvía.  Finalmente, si el evento no pertenece a ningún visitante existente, se crea una nueva tarjeta.

Los visitantes están distribuidos uniformemente entre todas las DPU.  Por ejemplo, en un clúster de 10-DPU con 5 millones de visitantes, cada DPU contiene datos de 500.000 visitantes.  Sin embargo, debido a que cada visitante tiene un tamaño de datos diferente, el tamaño de temp.db no será igual en todas las DPUs (aunque tienden a estar muy cerca).

Normalización - Indexación de datos decodificados -

A medida que cada DPU procesa la entrada, los elementos de dimensión se indexan en el servidor de normalización simultáneamente.

Normalmente, una FSU cumple la función de Servidor Primario y de Servidor de Normalización.

Una vez que el proceso de registro se haya completado, tendremos un conjunto de datos consultable.

Análisis interactivo con Data Workbench Client

Finalmente, el conjunto de datos está listo para los analistas.  Para un análisis en profundidad, se ejecutan una serie de consultas a medida que una pregunta conduce a otra, y es mejor hacerlo utilizando el cliente de Data Workbench.

    1. Asignar servidor de consulta

En primer lugar, el cliente de Data Workbench se conecta a un servidor primario y una de las DPU se asignará como su servidor de consulta.

La aplicación cliente está ahora “Online” con el perfil del conjunto de datos.  A partir de este momento, esta DPU se convierte en un punto de contacto para este Cliente.

    2. Ejecución de consultas

El cliente enviará la cadena de consulta a su servidor de consulta.  Una vez recibida la consulta, el servidor de consultas envía la misma solicitud a otras DPU.  También ejecuta la consulta contra su propio archivo temp.db (titular de la tarjeta) y devuelve el resultado al Cliente junto con los resultados de otras DPU.

De vuelta en el lado del Cliente, los resultados de la consulta se traducirán en varias formas de visualización a medida que se vayan transmitiendo.  El espacio de trabajo terminado también se puede guardar como plantilla para Report Server.

Informe programado con el servidor de informes

El Servidor de Informes automatiza las ejecuciones de las consultas.   En un momento determinado, recoge un conjunto de informes del Servidor Primario y los ejecuta, y luego los entrega a través de varios métodos, como los correos electrónicos.

Exportación de sets de datos con exportación de segmentos

Los segmentos específicos del conjunto de datos se pueden exportar como archivos de texto delimitados. Basado en el archivo de definición de exportación (*.export), cada DPU filtra su parte de datos y los envía al servidor de exportación de segmentos.

Los datos exportados desde DPU se combinan en un archivo en el Servidor de exportación de segmento, y se cargan en una ubicación especificada.  El archivo se importa normalmente a varias herramientas de análisis de terceros o aplicaciones personalizadas para su análisis posterior.

Nota:

Al igual que el papel de Servidor de Normalización, una FSU puede cumplir tanto el papel de Exportación Primaria como el de Exportación de Segmentos en un cluster pequeño.  Sin embargo, como se trata de un lote de grandes transmisiones de datos, Exportación de segmentos puede fácilmente agotar los recursos de la FSU.

Conversión de fuentes de registro con Transform

FSU puede funcionar como un Servidor de Transformación.  A diferencia de las exportaciones de segmento (que es la exportación de conjunto de datos a texto), Transform es una simple conversión de texto a texto.  También toma uno o más tipos de entradas de texto y las fusiona en un solo archivo de texto, como datos de Sensor (.vsl), archivos de registro, archivos XML y datos ODBC (texto).  A menudo se utiliza para preprocesar los datos brutos antes de alimentarlos a un conjunto de datos.

Como puede ver, las operaciones del Servidor de Transformación (FSU) pueden ejecutarse sin conjuntos de datos o DPU.  Por esta razón, el servidor Transform a menudo funciona de forma independiente.

Obtén ayuda de forma más rápida y sencilla

¿Nuevo usuario?