Glosario > Glosario > Glosario de términos
  

Glosario de términos

Administrador de Data Transformation lógico (LDTM)

Componente de servicio del servicio de integración de datos que optimiza y compila trabajos y después los envía al Administrador de Data Transformation (DTM).

almacén de creación de perfiles

Una base de datos relacional que almacena información relacionada con la creación de perfiles, como resultados de perfil y resultados de cuadro de mando.

aplicación

Un objeto implementable que puede contener objetos de datos, asignaciones, servicios de datos SQL, servicios web y flujos de trabajo.

archivo de esquema XSD

Archivo * .xsd que contiene un esquema XML que define los elementos, atributos y estructura de los documentos XML.

asignación

Un conjunto de entradas y salidas vinculadas por objetos de transformación que definen las reglas de la transformación de datos.

asignación de cuadrícula

Asignación de Informatica que el motor de Blaze compila y distribuye en un clúster de nodos.

asignación de escritura de objetos de datos lógicos

Una asignación que escribe datos en los destinos usando un objeto de datos lógicos como entrada. Contiene uno o varios objetos de datos lógicos como entrada y un objeto de datos físicos como destino.

asignación de lectura de objetos de datos lógicos

Una asignación que ofrece una vista de los datos a través de un objeto de datos lógicos. Contiene uno o varios objetos de datos físicos como orígenes y un objeto de datos lógicos como la salida de asignación.

asignación de objetos de datos lógicos

Una asignación que vincula un objeto de datos lógicos con uno o varios objetos de datos físicos. Puede incluir una lógica de transformación.

asignación de operación

Una asignación que realiza la operación de servicio web para el cliente del servicio web. Una asignación de operación puede contener una transformación de entrada, una transformación de salida y varias transformaciones de fallo.

asignación de tablas virtuales

Una asignación que contiene una tabla virtual como destino.

asignación dinámica

Asignación en la que se pueden cambiar orígenes, destinos y la lógica de transformación en tiempo de ejecución en función de los parámetros y las reglas que se hayan definido. Puede configurar asignaciones dinámicas para permitir cambios de metadatos en orígenes y destinos. Puede determinar qué puertos recibe una transformación, que puertos se utilizarán en la lógica de transformación y qué enlaces se establecerán entre los grupos de transformación.

base de datos virtual

Un servicio de datos SQL que se puede consultar. Contiene objetos virtuales y proporciona una vista uniforme de los datos procedentes de orígenes diferentes y heterogéneos.

big data

Conjunto de datos tan grande y complejo que no se puede procesar mediante herramientas de administración de bases de datos estándar.

búsqueda de detección

Un tipo de búsqueda en Analyst Tool que identifica los activos en función de correlaciones directas a la consulta de búsqueda, así como relaciones con otros objetos que coinciden con la consulta de búsqueda.

canal

Un origen y todas las transformaciones y destinos que reciben datos de ese origen. Cada asignación contiene uno o varios canales.

carpeta

Un contenedor de objetos en el repositorio de modelos. Utilice carpetas para organizar objetos en un proyecto y crear carpetas para agrupar objetos basados en las necesidades del negocio.

clave candidata

Una columna o un conjunto de columnas que identifican de forma exclusiva cada fila de origen en una tabla de base de datos.

clave deducida

Una columna o un conjunto de columnas que Analyst Tool o la Herramienta del desarrollador deducen como clave candidata según los datos de las columna.

clave documentada

Una clave principal declarada en la base de datos de origen.

Cloudera's Distribution Including Apache Hadoop (CDH)

Versión de Cloudera del marco de software de Hadoop de código abierto.

clúster Hadoop

Clúster de equipos configurado para ejecutar aplicaciones y servicios de Hadoop. Un clúster de Hadoop típico incluye un nodo principal y varios nodos de trabajo. El nodo principal ejecuta los daemons principales JobTracker y NameNode. Un nodo esclavo o de trabajo ejecuta los daemons DataNode y TaskTracker. En los clústeres pequeños, el nodo principal puede ejecutar también los daemons esclavos.

coincidencia directa

En una búsqueda global, una coincidencia directa es un activo que coincide con toda la consulta de búsqueda. En la búsqueda de detección, una coincidencia directo es una coincidencia en la que algunos o todos los metadatos del activo coinciden con la consulta de búsqueda.

coincidencia indirecta

Coincidencia de los resultados de una búsqueda de detección que está vinculada con el activo que directamente coincide con algunas o todas las consultas de búsqueda.

columna de dependientes

En una dependencia funcional, la columna que contiene valores que vienen determinados por una columna de determinantes.

columna de determinantes

En una dependencia funcional, un conjunto de columnas que determina el valor de la columna de dependientes. Si el determinante tiene cero columnas, el dependiente es constante.

componente de inicio

El componente ejecutable que Data Transformation inicia en primer lugar cuando ejecuta una transformación del procesador de datos.

CompressionCodec

Interfaz de compresión de Hadoop. Un códec es la implementación de un algoritmo de compresión y descompresión. En Hadoop, un códec se representa mediante una implementación de la interfaz CompressionCodec.

conservación

El proceso de validar y administrar metadatos detectados de un origen de datos para que los metadatos se puedan usar y sean adecuados para crear informes.

contenedor

Asignación de memoria y recursos de CPU en un nodo con la función de cálculo. Los servicios de aplicación utilizan los contenedores para realizar cálculos en los nodos de forma remota. Por ejemplo, un Servicio de integración de datos que se ejecuta en una malla puede ejecutar de modo remoto una asignación dentro de un contenedor en un nodo con la función de cálculo.

contenido de correo electrónico dinámico

Contenido de correo electrónico definido en un parámetro o variable de flujo de trabajo.

creación de particiones

Proceso de dividir los datos subyacentes en subconjuntos que pueden ejecutarse en varios subprocesos de procesamiento. Cuando los administradores habilitan el servicio de integración de datos para maximizar el paralelismo, el servicio aumenta el número de subprocesos de procesamiento, que pueden optimizar el rendimiento de las asignaciones y la creación de perfiles.

cuadro de mando

Representación gráfica de los valores válidos de una columna de origen o resultado de una regla de resultados del perfil. Emplee cuadros de mando para medir el progreso de la calidad de los datos.

DataNode

Nodo HDFS que almacena datos en el sistema de archivos de Hadoop. Un clúster HDFS puede tener varios DataNode, con datos replicados entre ellos.

datos virtuales

La información obtenida cuando se consultan tablas virtuales o se ejecutan procedimientos almacenados en un servicio de datos SQL.

dependencia funcional

La relación entre un conjunto de columnas en una tabla determinada, en la cual la columna de determinantes determina de forma funcional la columna de dependientes.

desarrollo basado en equipos

La colaboración de los miembros del equipo en un proyecto de desarrollo. La colaboración incluye funciones como el control de versiones mediante la desprotección y protección de objetos del repositorio.

destinatario

Un usuario o grupo en el dominio de Informatica que recibe una notificación durante un flujo de trabajo.

destinatario dinámico

Un destinatario de notificación definido en un parámetro o variable de flujo de trabajo.

destino dinámico

Archivo sin formato o destino relacional de una asignación que puede cambiar en tiempo de ejecución. Las transformaciones de escritura pueden definir columnas de destino en tiempo de ejecución en función del flujo de asignación o a partir de un destino asociado. Las transformaciones de escritura también pueden eliminar y sustituir la tabla de destino en tiempo de ejecución.

detección de clave externa

El proceso que busca columnas en un origen de datos que coincide con las columnas de clave principal en el origen de datos primario.

detección de clave principal

El proceso para identificar una columna o una combinación de columnas que identifica de manera inequívoca una fila en un origen de datos.

detección de dependencia funcional

El proceso que busca relaciones de dependencia funcional entre columnas en un origen de datos.

detección del dominio de datos

Proceso que identifica todos los dominios de datos asociados a una columna según los valores o el nombre de la columna.

detección empresarial

Proceso que busca las estadísticas de perfil de columna, los dominios de datos, las claves principales y las claves externas en un gran número de orígenes de datos diseminados en varias conexiones o esquemas.

dirección de correo electrónico dinámica

Una dirección de correo electrónico definida en un parámetro o variable de flujo de trabajo.

documento de origen

Documento que representa la entrada de una transformación del procesador de datos.

documento de origen de ejemplo

Ejemplo de los documentos que procesa una transformación del procesador de datos.

documento de salida

Documento que es el resultado de una transformación del procesador de datos.

dominio de datos

Un objeto del repositorio de modelos predefinido o definido por el usuario que representa el significado funcional de una columna según los datos o del nombre de la columna. Son ejemplos de ello el número de la seguridad social, el de la tarjeta de crédito y el ID de correo electrónico.

ejecución de Administrador de Data Transformation (DTM)

Componente de cálculo del servicio de integración de datos que extrae, transforma y carga datos para finalizar un trabajo de transformación de datos.

ejecutor de Blaze

Componente de DTM que puede simplificar y convertir una asignación en un plan de ejecución de Blaze que se ejecuta en un clúster de Hadoop.

ejecutor de Hive

Componente de DTM que puede simplificar y convertir una correlación o un perfil en un plan de ejecución de Hive que se ejecuta en un clúster de Hadoop.

enlace de tiempo de ejecución

Enlace de grupo a grupo que utiliza una directiva o un parámetro, o ambos, para determinar qué puertos deben vincularse entre los grupos en tiempo de ejecución.

entorno de Hive

Entorno que puede configurarse para ejecutar una asignación o un perfil en un clúster de Hadoop. Debe configurar Hive como entorno de validación y tiempo de ejecución.

entorno de tiempo de ejecución

Entorno configurado por el usuario para ejecutar una asignación o un perfil. El entorno de tiempo de ejecución puede ser nativo o de Hive.

entorno de validación

Entorno que se configura para validar una asignación o un perfil. Valide una asignación o un perfil para asegurarse de que se puede ejecutar en un entorno de tiempo de ejecución. El entorno de validación puede ser de Hive, nativo, o ambos.

entorno nativo

Entorno predeterminado del dominio de Informatica que ejecuta una asignación, un flujo de trabajo o un perfil. El servicio de integración realiza la extracción, transformación y carga de datos.

entrada de tarea

Datos que pasan a una tarea desde los parámetros y las variables del flujo de trabajo. La tarea utiliza los datos de entrada para completar una unidad de trabajo.

esquema

Definición de los elementos, atributos y estructura utilizados en documentos XML. El esquema cumple el estándar XML Schema del World Wide Web Consortium y se almacena como un archivo *.xsd.

esquema virtual

Un esquema de una base de datos virtual que define la estructura de la base de datos.

estrategia de recuperación de tareas

Una estrategia que define cómo el servicio de integración de datos finaliza una tarea interrumpida durante una sesión de recuperación de flujo de trabajo. Puede configurar una tarea para utilizar una estrategia de recuperación de reinicio o de omisión.

evento

Un objeto de flujo de trabajo que inicia o finaliza el flujo de trabajo. Un evento representa algo que ocurre cuando se ejecuta el flujo de trabajo. El editor muestra los eventos como círculos.

evento de procesador de datos

Suceso durante la ejecución de una transformación del procesador de datos.

expresión de predicado

Una expresión que filtra los datos de una asignación. Una expresión de predicado devuelve verdadero o falso.

flujo de secuencia

Un conector entre objetos de flujo de trabajo que especifica el orden en el que el servicio de integración de datos ejecuta los objetos. El editor muestra flujos de secuencia como flechas.

flujo de secuencia condicional

Un flujo de secuencia que incluye una expresión que el servicio de integración de datos evalúa como TRUE o FALSE. Si la expresión tiene un resultado TRUE, el servicio de integración de datos ejecuta el siguiente objeto en el flujo de trabajo. Si la expresión tiene como resultado FALSE, el servicio de integración de datos no ejecuta el siguiente objeto en el flujo de trabajo.

flujo de secuencia predeterminado

El flujo de secuencia saliente desde una puerta de enlace exclusiva que siempre tienen como resultado TRUE. Cuando todos los demás flujos de secuencia condicionales dan como resultado FALSE, el servicio de integración de datos ejecuta el objeto conectado al flujo de secuencia saliente predeterminado.

flujo de trabajo

Una representación gráfica de un conjunto de eventos, tareas y decisiones que definen un proceso de negocio. Puede utilizar la herramienta del desarrollador para añadir objetos a un flujo de trabajo y conectar los objetos con flujos de secuencia. El servicio de integración de datos utiliza las instrucciones configuradas en el flujo de trabajo para ejecutar los objetos.

función de usuario

Colección de privilegios que se asigna a un usuario o grupo. Asigne funciones a los usuarios y grupos del dominio y a algunos de los servicios de aplicación en el dominio.

función del nodo

El propósito de un nodo. Un nodo con la función de servicio puede ejecutar servicios de aplicación. Un nodo con la función de cálculo puede realizar cálculos solicitados por servicios de aplicación remotos. Un nodo con ambas funciones puede ejecutar servicios de aplicación y realizar cálculos de forma local para esos servicios.

glosario de dominio de datos

Contenedor donde están todos los dominios de datos y grupos de dominios de datos de Analyst Tool o de las herramientas del desarrollador.

grupo de dominio de datos

Conjunto de dominios de datos bajo una categoría de dominio de datos concreta.

grupo de mediciones

Un grupo de mediciones definido por el usuario.

Hadoop Distributed File System (HDFS)

Sistema de almacenamiento de archivos distribuido que utilizan las aplicaciones de Hadoop.

Herramienta de supervisión de Informatica

La Herramienta de supervisión de Informatica es una aplicación que proporciona un vínculo directo a la ficha Supervisar de la Herramienta del administrador. La ficha Supervisar muestra propiedades, además de estadísticas e informes de tiempo de ejecución acerca de los objetos de integración que se ejecutan en un Servicio de integración de datos.

Hive

Infraestructura de almacén de datos creada sobre Hadoop. Hive admite un lenguaje similar a SQL denominado HiveQL para realizar resúmenes, consultas y análisis de datos.

ID de instancia de flujo de trabajo

Un número que identifica de forma exclusiva una instancia de flujo de trabajo que se ha ejecutado.

implementar

Hacer que los objetos de una aplicación estén accesibles para los usuarios finales: Dependiendo de los tipos de objetos de la aplicación, los usuarios finales pueden realizar consultas para los objetos, acceder a los servicios web, ejecutar asignaciones o ejecutar flujos de trabajo.

Informatica Administrator

Informatica Administrator (Administrator Tool) es una aplicación que consolida las tareas administrativas de los objetos de dominio como servicios, nodos, licencias y mallas. Puede administrar el dominio y la seguridad del dominio mediante Administrator Tool.

Informatica Developer

Informatica Developer (la herramienta Developer) es una aplicación que se utiliza para diseñar soluciones de integración de datos. El repositorio de modelos almacena los objetos creados en la herramienta Developer.

instancia de DTM

Representación lógica y específica de la ejecución del Administrador de Data Transformation (DTM) que el servicio de integración de datos crea para ejecutar un trabajo. En función de cómo esté configurado el servicio de integración de datos, las instancias de DTM pueden ejecutarse en el proceso del servicio de integración de datos, en un proceso DTM independiente en el nodo local, o en un proceso DTM independiente en un nodo remoto.

instancia de flujo de trabajo

La representación de tiempo de ejecución de un flujo de trabajo. Cuando ejecuta un flujo de trabajo desde una aplicación implementada, debe ejecutar una instancia del flujo de trabajo. Puede simultáneamente ejecutar varias instancias del mismo flujo de trabajo.

instancia de flujo de trabajo activo

Una instancia de flujo de trabajo en la que se puede realizar una acción, como cancelar, anular o recuperar. Las instancias de flujo de trabajo activo incluyen instancias de flujo de trabajo que se están ejecutando e instancias de flujo de trabajo habilitadas para la recuperación que se han cancelado o anulado.

JobTracker

Servicio de Hadoop que coordina tareas de asignación y de reducción y las programa para ejecutarse en los TaskTrackers.

linaje de cuadro de mando

Un diagrama que muestra el origen de los datos, describe la ruta y muestra cómo fluyen los datos para una métrica o grupo de métricas en un cuadro de mando. En el análisis del linaje de cuadro de mando, los cuadros o nodos representan objetos. Las flechas representan las relaciones en el flujo de datos.

mapplet

Un objeto reutilizable que contiene un conjunto de transformaciones que puede utilizar en varias asignaciones o validar como una regla.

MapReduce

Modelo de programación para procesar grandes volúmenes de datos en paralelo.

medición

Una columna de un origen o resultado de datos de una regla que forma parte de un cuadro de mando.

memoria caché del conjunto de resultados

Una caché que contiene los resultados de cada consulta del servicio de datos SQL o de cada solicitud de servicio web. Con la memoria caché del conjunto de resultados, el servicio de integración de datos devuelve los resultados almacenados en la memoria caché cuando los usuarios ejecutan consultas idénticas. La memoria caché del conjunto de resultados reduce el tiempo de ejecución en el caso de consultas idénticas.

metastore

Base de datos que Hive utiliza para almacenar los metadatos de las tablas de Hive almacenadas en HDFS. Los metastores pueden ser locales, incorporados o remotos.

Minigráfico

Un minigráfico es un gráfico de líneas que muestra la variación de un valor nulo, un valor exclusivo o un valor no exclusivo en las cinco últimas ejecuciones de perfil consecutivas.

modelo de objetos de datos lógicos

Un modelo de datos que describe los datos de una organización y la relación entre ellos. Contiene objetos de datos lógicos y define las relaciones entre ellos.

Módulo del servicio de flujo de trabajo

Un componente del servicio de integración de datos que administra las solicitudes para ejecutar flujos de trabajo.

Módulo del servicio SQL

El servicio de componentes del servicio de integración de datos que administra las consultas SQL enviadas a un servicio de datos SQL desde una herramienta cliente de terceros.

Módulo del servicio web

Un componente del servicio de integración de datos que administra las solicitudes de operación de servicio web enviadas al servicio web desde un cliente de servicio web.

NameNode

Nodo del clúster de Hadoop que gestiona el espacio de nombres del sistema de archivos, mantiene el árbol del sistema de archivos y los metadatos de todos los archivos y directorios del árbol.

nodo

Una representación de un nivel de la jerarquía de un mensaje de servicio web.

objeto de datos físicos

Una representación física de datos que se utiliza para leer recursos, buscarlos y escribir en ellos.

objeto de datos lógicos

Un objeto que describe una entidad lógica de una organización. Tiene atributos y claves y describe las relaciones entre los atributos.

objeto de datos personalizados

Un objeto de datos físicos que utiliza como orígenes uno o varios recursos relacionales relacionados u objetos de datos relacionales. Utilice objetos de datos personalizados para realizar tareas tales como unir datos de recursos relacionados o filtrar filas. Los objetos de datos personalizados utilizan una única conexión y una única instrucción SQL para las tablas de origen.

optimización basada en el coste

Método de optimización que reduce el tiempo de ejecución en asignaciones que realizan operaciones join. Con la optimización basada en el coste, el servicio de integración de datos crea planes diferentes para ejecutar una asignación y calcula el coste de cada plan. El servicio de integración de datos ejecuta el plan con el coste más pequeño. Además, calcula el coste en función de las estadísticas de la base de datos y de la información de E/S, CPU, red y memoria.

optimización de inserción

Método de optimización que inserta la lógica de transformación en una base de datos de origen o de destino. Con la optimización de inserción, el servicio de integración de datos convierte la lógica de transformación en consultas SQL y las envía a la base de datos. La base de datos ejecuta las consultas SQL para procesar los datos.

optimización de primera proyección

Método de optimización que reduce la cantidad de datos que se mueven entre transformaciones en la asignación. Con la optimización de primera proyección, el servicio de integración de datos identifica los puertos sin utilizar y elimina los vínculos entre los puertos en una asignación.

optimización de primera selección

Método de optimización que reduce el número de filas que pasan por la asignación. Con la optimización de primera selección, el servicio de integración de datos acerca los filtros al origen de asignación en la canalización.

optimización de semi-join

Método de optimización que reduce el número de filas extraídas del origen. Con la optimización de semi-join, el servicio de integración de datos modifica las operaciones join de una asignación. El servicio de integración de datos aplica el método de optimización de semi-join a una transformación Joiner cuando un grupo de entrada grande tiene filas que no coinciden con un grupo de entrada más pequeño en la condición join. El servicio de integración de datos lee las filas de los grupos más pequeños, encuentra las filas coincidentes en el grupo más grande y ejecuta la operación de unión.

optimización del predicado

Método de optimización que simplifica o reescribe las expresiones de predicado de una asignación. Con la optimización del predicado, el servicio de integración de datos intenta aplicar expresiones de predicado tan pronto como es posible para mejorar el rendimiento de la asignación.

origen dinámico

Archivo sin formato u origen relacional de una asignación que puede cambiar en tiempo de ejecución. Las transformaciones de lectura y de búsqueda pueden obtener cambios de definiciones o metadatos directamente desde el origen. Si utiliza un parámetro para el origen, puede cambiar el origen en tiempo de ejecución.

parámetro de flujo de trabajo

Un valor constante que define antes de ejecutar el flujo de trabajo. Los parámetros conservan el mismo valor durante toda la ejecución del flujo de trabajo. Defina el valor del parámetro en un archivo de parámetros. Todos los parámetros de flujo de trabajo están definidos por el usuario.

perfil

Un objeto que contiene reglas para detectar patrones en datos de origen. Puede ejecutar un perfil para evaluar la estructura de datos y para verificar que las columnas de datos contengan el tipo de información esperada.

perfil de columna

Un tipo de perfil que determina las características de las columnas en un origen de datos, tales como frecuencias de valor, porcentajes, patrones y tipos de datos.

perfil de detección empresarial

Un tipo de perfil que se utiliza para realizar la detección empresarial.

perfil de objeto de datos

Un objeto del repositorio que define el tipo de análisis que realiza en un origen de datos.

perfil de unión

Un tipo de perfil que determina el grado de superposición entre un conjunto de una o más columnas en un origen de datos y un conjunto similar en el mismo o en diferentes orígenes de datos.

plan de ejecución Hive

Una serie de tareas de Hive que el ejecutor de Hive genera después de procesar una asignación o un perfil. Plan de ejecución de Hive que también se puede denominar flujo de trabajo de Hive.

ponderación de la medición

Entero mayor o igual a 0 asignado a una medición. La ponderación de la medición define la contribución de esta a la puntuación del grupo de mediciones.

preprocesador

Procesador de documentos que se utiliza para realizar modificaciones generales en un documento de origen antes de ejecutar la transformación principal.

procedimiento almacenado virtual

Un conjunto de instrucciones de procedimientos o de flujo de datos en un servicio de datos SQL.

procesador de documentos

Componente que actúa en un documento como un todo, por lo general, realizando conversiones preliminares antes del análisis.

proceso DTM

Proceso de sistema operativo que el servicio de integración de datos inicia para ejecutar instancias de DTM. En función de la configuración del servicio de integración de datos, el servicio puede ejecutar cada instancia de DTM en un proceso DTM independiente en un nodo local o remoto.

proyecto

El contenedor de nivel superior para almacenar los objetos creados en Informatica Analyst e Informatica Developer. Cree proyectos en función de sus objetivos o requisitos empresariales. Los proyectos aparecen tanto en Informatica Analyst como en Informatica Developer.

puerta de enlace

Un objeto de flujo de trabajo que divide y fusiona rutas de acceso del flujo de trabajo según cómo el servicio de integración de datos evalúe las expresiones en flujos de secuencia condicionales. El editor muestra puertas de enlace como diamantes.

Puerta de enlace exclusiva

Una puerta de enlace que representa un decisión tomada en un flujo de trabajo. Cuando una puerta de enlace exclusiva divide el flujo de trabajo, el servicio de integración de datos toma una decisión para tomar una de las ramas salientes. Cuando una puerta de enlace exclusiva fusiona el flujo de trabajo, el servicio de integración de datos espera a una ramificación entrante antes de desencadenar la rama saliente.

puerto dinámico

Puerto que puede recibir una o varias columnas procedentes de una transformación de nivel superior y crear un puerto generado para cada columna.

puerto generado

Puerto dentro de un puerto dinámico que representa una única columna. Developer tool genera puertos en función de una o varias reglas de entrada.

puerto variable con estado

Puerto variable que hace referencia a los valores de las filas anteriores.

punto de partición

Límite entre etapas de un canal de asignación. Cuando se habilita la creación de particiones, el servicio de integración de datos puede redistribuir filas de datos en puntos de partición.

puntuación de la medición

El porcentaje de valores válidos de la medición.

puntuación del grupo de mediciones

Media ponderada computada de todas las puntuaciones de las mediciones del grupo de mediciones.

recuperación de flujo de trabajo

La finalización de una instancia de flujo de trabajo desde el punto de interrupción. Cuando habilita un flujo de trabajo para la recuperación, puede recuperar una instancia de flujo de trabajo anulada o cancelada.

regla

Lógica empresarial reutilizable que define las condiciones que se aplican a los datos de origen al ejecutarse un perfil. Emplee reglas para validar los datos de un perfil y para medir el progreso de la calidad de los datos. Puede crear una regla en Informatica Analyst o en Informatica Developer.

regla de datos

Lógica empresarial reutilizable que identifica una columna por sus valores como perteneciente a un dominio de datos en concreto.

regla de entrada

Regla que determina qué puertos generados se crearán dentro de un puerto dinámico.

regla de nombre de columna

Lógica empresarial reutilizable que identifica una columna por su nombre como perteneciente a un dominio de datos concreto.

salida de tarea

Datos que pasan desde una tarea a las variables del flujo de trabajo. Cuando configure una tarea, especifique los valores de salida de la tarea que desea asignar a variables del flujo de trabajo. El servicio de integración de datos copia los valores de salida de la tarea a las variables del flujo de trabajo cuando la tarea finaliza. El servicio de integración de datos puede acceder a estos valores desde las variables del flujo de trabajo cuando evalúa las expresiones de los flujos de secuencia condicionales y cuando ejecuta más objetos en el flujo de trabajo.

secuencias de comandos de Hive

Secuencia de comandos en lenguaje de consultas de Hive que contiene consultas y comandos de Hive para ejecutar la asignación.

segmento de cuadrícula

Fragmento de una asignación de cuadrícula que está incluido en una tarea de cuadrícula.

Servicio de administrador de recursos

Servicio del sistema que gestiona recursos de cálculo en el dominio y distribuye trabajos para alcanzar un rendimiento y una escalabilidad óptimos. El servicio de administrador de recursos recopila información acerca de los nodos con la función de cálculo. El servicio empareja los requisitos de la tarea con la disponibilidad de los recursos para identificar el nodo de cálculo idóneo para ejecutar la tarea. El servicio de administrador de recursos se comunica con los nodos de cálculo en una cuadrícula del servicio de integración de datos. Habilite el servicio de administrador de recursos cuando configure una cuadrícula del servicio de integración de datos para ejecutar trabajos en procesos remotos independientes.

servicio de aplicación

Servicio que se ejecuta en uno o varios nodos en el dominio de Informatica. Puede crear y administrar servicios de aplicación en Informatica Administrator o mediante el programa de comandos infacmd. Los servicios de aplicación incluyen servicios que pueden tener varias instancias en el dominio y servicios del sistema que pueden tener una sola instancia en el dominio. Configure cada servicio de aplicación en función de los requisitos de su entorno.

servicio de datos

Un conjunto de operaciones reutilizables que puede ejecutar para acceder a los datos y transformarlos. Un servicio de datos proporciona un modelo de datos unificado al que puede acceder a través de un servicio web o contra el que puede ejecutar una consulta SQL.

servicio de datos SQL

Una base de datos virtual que puede consultar. Contiene objetos virtuales y proporciona una vista uniforme de los datos procedentes de orígenes diferentes y heterogéneos.

Servicio de integración de datos

Un servicio de aplicación que realiza trabajos de integración de datos para Informatica Analyst, Informatica Developer y clientes externos. Los trabajos de integración de datos incluyen la vista previa de datos y la ejecución de asignaciones, perfiles, servicios de datos SQL, servicios web y flujos de trabajo.

servicio de repositorio de modelos

Un servicio de la aplicación en dominio de Informatica que ejecuta y administra el repositorio de modelos. El repositorio de modelos almacena los metadatos creados por los productos de Informatica en una base de datos relacional con el fin de habilitar la colaboración entre productos.

servicio de sistema

Servicio de aplicación que puede tener una sola instancia en el dominio. Al crear el dominio, se crean automáticamente los servicios de sistema. Puede habilitar, deshabilitar y configurar servicios de sistema.

tabla virtual

Una tabla de una base de datos virtual.

tarea

Un objeto de flujo de trabajo que ejecuta una unidad de trabajo en el flujo de trabajo, tal como ejecutar una asignación, enviar un correo electrónico o ejecutar un comando de shell. Una tarea representa algo que se debe realizar durante el flujo de trabajo. El editor muestra las tareas como cuadrados.

tarea de comando

Tarea de preprocesamiento o posprocesamiento de los datos locales de un flujo de trabajo de motor de Blaze.

tarea de cuadrícula

Solicitud de trabajo de procesamiento en paralelo. Cuando la asignación se ejecuta en el entorno Hadoop, el ejecutor del motor de Blaze envía la solicitud al administrador de cuadrículas. Cuando la asignación se ejecuta en el entorno nativo y el servicio de integración de datos se ejecuta en modo remoto, el servicio de integración de datos envía la solicitud al administrador de servicios del nodo de cálculo principal.

tarea de Hive

Tarea del plan de ejecución de Hive. Un plan de ejecución de Hive contiene muchas tareas de Hive. Las tareas de Hive contienen secuencias de comandos de Hive.

tasklet

Partición de un segmento de cuadrícula que se ejecuta en un DTM independiente.

TaskTracker

Nodo del clúster de Hadoop que ejecuta tareas, como las de asignación o de reducción, por ejemplo. Los TaskTrackers envían informes de progreso al JobTracker.

trabajo MapReduce

Unidad de trabajo que consta de los datos de entrada, el programa MapReduce e información de configuración. Hadoop ejecuta el trabajo MapReduce dividiéndolo en tareas de asignación y tareas de reducción.

transformación

Un objeto de repositorio en una asignación que genera, modifica o transfiere datos. Cada transformación realiza una función diferente.

transformación de servicio web

Una transformación que procesa solicitudes o respuestas de servicio web. Ejemplos de transformaciones de servicios web son transformación de entrada, transformación de salida, transformación de fallo y la transformación de consumidor de servicio web.

Valor atípico

Un valor atípico es un patrón, un valor o una frecuencia de una columna en los resultados de perfil que se sale del rango de valores esperado.

variable de flujo de trabajo

Un valor que puede cambiar durante la ejecución de un flujo de trabajo. Utilice variables del flujo de trabajo para hacer referencia a variables y registrar información de tiempo de ejecución. Puede utilizar variables del flujo de trabajo definidas por el usuario o del sistema.

variable de flujo de trabajo definida por el usuario

Una variable de flujo de trabajo que captura la salida de tarea o captura los criterios que especifique. Después de crear una variable de flujo de trabajo definida por el usuario, configure el flujo de trabajo para asignar un valor de tiempo de ejecución a la variable.

variable de flujo de trabajo del sistema

Una variable de flujo de trabajo que devuelve información de tiempo de ejecución del sistema, tal como el ID de instancia del flujo de trabajo, el usuario que ha iniciado el flujo de trabajo o la hora de inicio del flujo de trabajo.

vista virtual de los datos

Una base de datos virtual definida por un servicio de datos SQL que puede consultar como si fuera una base de datos física.

XMap

Objeto de transformación del procesador de datos que asigna un documento XML de entrada a otro documento XML.

XPath

Lenguaje de consulta utilizado para seleccionar nodos en un documento XML y realizar cálculos.