Curso de Fundamentos de Integración de Datos Pentaho
Pentaho Data Integration es una herramienta de integración de datos de código abierto para definir trabajos y transformaciones de datos.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar las poderosas capacidades ETL y la rica GUI de Pentaho Data Integration para administrar todo el ciclo de vida de big data y maximizar el valor de los datos dentro de su organización.
Al final de esta formación, los participantes serán capaces de:
- Cree, obtenga una vista previa y ejecute transformaciones de datos básicas que contengan pasos y saltos
- Configurar y proteger el Pentaho repositorio empresarial
- Aproveche fuentes de datos dispares y genere una versión única y unificada de la verdad en un formato listo para análisis.
- Proporcionar resultados a las solicitudes de terceros para su posterior procesamiento
Audiencia
- Analista de Datos
- Desarrolladores ETL
Formato del curso
- En parte conferencia, en parte discusión, ejercicios y práctica práctica intensa
Programa del Curso
Introducción
Instalación y configuración Pentaho
Descripción general de Pentaho Características y arquitectura
Descripción del almacenamiento en caché en memoria de Pentaho
Navegación por la interfaz de usuario
Conexión a una fuente de datos
Configuración del Pentaho repositorio empresarial
Transformación de datos
Visualización de los resultados de la transformación
Resolución de errores de transformación
Procesamiento de un flujo de datos
Reutilización de transformaciones
Programación de transformaciones
Aseguramiento Pentaho
Integración con aplicaciones de terceros (Hadoop, NoSQL, etc.)
Análisis e informes
Pentaho Design Patterns y Mejores Prácticas
Solución de problemas
Resumen y conclusión
Requerimientos
- Comprensión de las bases de datos relacionales
- Comprensión del almacenamiento de datos
- Comprensión de los conceptos ETL (Extraer, Transformar, Cargar)
Los cursos de formación abiertos requieren más de 5 participantes.
Curso de Fundamentos de Integración de Datos Pentaho - Booking
Curso de Fundamentos de Integración de Datos Pentaho - Enquiry
Fundamentos de Integración de Datos Pentaho - Consultas
Consultas
Testimonios (2)
Es una sesión práctica.
Vorraluck Sarechuer - Total Access Communication Public Company Limited (dtac)
Curso - Talend Open Studio for ESB
Traducción Automática
La capacitacidad de la herramienta
Gerardo Avila - Reckitt Benckizer
Curso - KNIME Analytics Platform for BI
Próximos cursos
Cursos Relacionados
KNIME Analytics Platform for BI
21 HorasKNIME Analytics Platform es una opción líder de código abierto para la innovación basada en datos, que le ayuda a descubrir el potencial oculto en sus datos, extraer información fresca o predecir nuevos futuros. Con más de 1000 módulos, cientos de ejemplos listos para ejecutar, una amplia gama de herramientas integradas y la más amplia selección de algoritmos avanzados disponibles, KNIME Analytics Platform es la caja de herramientas perfecta para cualquier científico de datos y analista de negocios.
Este curso para KNIME Analytics Platform es una oportunidad ideal para que los principiantes, los usuarios avanzados y los KNIME expertos conozcan KNIME, aprendan a utilizarlo de forma más eficaz y a crear informes claros y completos basados en KNIME flujos de trabajo
Platforma analityczna KNIME - szkolenie kompleksowe
35 HorasEl curso de formación "Analytics Platform KNIME" ofrece una visión completa de esta plataforma gratuita de análisis de datos. El programa incluye una introducción al procesamiento y análisis de datos, instalación y configuración KNIME, creación de flujos de trabajo, metodología para la creación de modelos de negocio y modelado de datos. El curso también analiza herramientas avanzadas de análisis de datos, importación y exportación de flujos de trabajo, integración de herramientas, procesos ETL, minería de datos, visualización, extensiones e integraciones con herramientas como R, Java, Python, Gephi, Neo4j. La conclusión incluye una visión general de la presentación de informes, la integración con BIRT y KNIME WebPortal.
Oracle GoldenGate
14 HorasEsta capacitación en vivo dirigida por un instructor en Argentina (en línea o en el sitio) está dirigida a administradores de sistemas y desarrolladores que desean configurar, implementar y administrar Oracle GoldenGate para la transformación de datos.
Al final de esta capacitación, los participantes serán capaces de:
- Instale y configure Oracle GoldenGate.
- Comprender la replicación de bases de datos Oracle mediante la herramienta Oracle GoldenGate.
- Comprender la arquitectura Oracle GoldenGate.
- Configure y realice una replicación y migración de bases de datos.
- Optimice Oracle GoldenGate el rendimiento y solucione problemas.
Pentaho Open Source BI Suite Community Edition (CE)
28 HorasPentaho Open Source BI Suite Community Edition (CE) es un paquete de inteligencia empresarial que proporciona integración de datos, informes, paneles y capacidades de carga.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a maximizar las características de Pentaho Open Source BI Suite Community Edition (CE).
Al final de esta capacitación, los participantes podrán:
- Instale y configure Pentaho Open Source BI Suite Community Edition (CE)
- Comprender los fundamentos de las herramientas Pentaho CE y sus características.
- Cree informes con Pentaho CE
- Integrar datos de terceros en Pentaho CE
- Trabaja con big data y análisis en Pentaho CE
Audiencia
- Programadores
- Desarrolladores de BI
Formato del curso
- Conferencia parcial, discusión parcial, ejercicios y práctica práctica.
Nota
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
Algoritmos de Fusión de Datos
14 HorasSensor Fusion es la combinación e integración de datos de múltiples sensores para proporcionar una visión más precisa, fiable y contextual de los datos.
Sensor Fusion Las implementaciones requieren algoritmos para filtrar e integrar diferentes fuentes de datos.
Audiencia
Este curso está dirigido a ingenieros, programadores y arquitectos que se ocupan de implementaciones de múltiples sensores.
Talend Administration Center (TAC)
14 HorasEsta capacitación en vivo dirigida por un instructor en Argentina (en línea o en el sitio) está dirigida a administradores de sistemas, científicos de datos y analistas de negocios que deseen configurar Talend el Centro de administración para implementar y administrar las funciones y tareas de la organización.
Al final de esta capacitación, los participantes serán capaces de:
- Instale y configure Talend Centro de administración.
- Comprender e implementar Talend los fundamentos de gestión.
- Cree, implemente y ejecute proyectos empresariales o tareas en Talend.
- Supervise la seguridad de los conjuntos de datos y desarrolle rutinas empresariales basadas en el marco del TAC.
- Obtener una comprensión más amplia de las aplicaciones de big data.
Talend Big Data Integration
28 HorasEsta capacitación en vivo dirigida por un instructor en Argentina (en línea o presencial) está dirigida a personas técnicas que deseen implementar Talend Open Studio para Big Data para simplificar el proceso de lectura y procesamiento Big Data.
Al final de esta formación, los participantes serán capaces de:
- Instale y configure Talend Open Studio para Big Data.
- Conéctese con Big Data sistemas como Cloudera, HortonWorks, MapR, Amazon EMR y Apache.
- Comprenda y configure los componentes y conectores de big data de Open Studio.
- Configure los parámetros para generar automáticamente el código de MapReduce.
- Utilice la interfaz de arrastrar y soltar de Open Studio para ejecutar Hadoop trabajos.
- Prototipos de canalizaciones de big data.
- Automatice los proyectos de integración de big data.
Talend Cloud
7 HorasEsta capacitación en vivo dirigida por un instructor en Argentina (en línea o en el sitio) está dirigida a administradores y desarrolladores de datos que desean administrar, monitorear y operar procesos de integración de datos utilizando Talend Cloud servicios.
Al final de esta capacitación, los participantes serán capaces de:
- Navegue por la Talend consola de administración para administrar usuarios y roles en la plataforma.
- Evalúe los datos para encontrar y comprender conjuntos de datos relevantes.
- Cree una canalización para procesar y supervisar los datos en reposo o en acción.
- Prepare los datos para el análisis con el fin de generar información relevante para el negocio.
Talend Data Stewardship
14 HorasEsta capacitación en vivo dirigida por un instructor en Argentina (en línea o en el sitio) está dirigida a analistas de datos de nivel principiante a intermedio que deseen profundizar su comprensión y habilidades en la gestión y mejora de la calidad de los datos utilizando Talend Data Stewardship.
Al final de esta capacitación, los participantes podrán:
-
Obtenga una comprensión completa del papel de la administración de datos en el mantenimiento de la calidad de los datos.
Utilice Talend Data Stewardship para administrar tareas de calidad de datos.
Cree, asigne y administre tareas dentro de Talend Data Stewardship, incluida la personalización del flujo de trabajo.
Utilice las capacidades de generación de informes y supervisión de la herramienta para realizar un seguimiento de la calidad de los datos y los esfuerzos de administración.
Talend Open Studio para ESB
21 HorasEn esta capacitación en vivo dirigida por un instructor en Argentina, los participantes aprenderán a usar Talend Open Studio for ESB para crear, conectar, mediar y administrar servicios y sus interacciones.
Al final de esta formación, los participantes serán capaces de:
- Integre, mejore y entregue tecnologías ESB como paquetes únicos en una variedad de entornos de implementación.
- Comprender y utilizar Talend los componentes más utilizados de Open Studio.
- Integre cualquier aplicación, base de datos, API o servicios web.
- Integre a la perfección sistemas y aplicaciones heterogéneos.
- Incruste bibliotecas de código Java existentes para ampliar los proyectos.
- Aproveche los componentes y el código de la comunidad para ampliar los proyectos.
- Integre rápidamente sistemas, aplicaciones y fuentes de datos dentro de un entorno Eclipse de arrastrar y soltar.
- Reduzca el tiempo de desarrollo y los costes de mantenimiento mediante la generación de código optimizado y reutilizable.