Envíanos tu consulta
Términos y condiciones *
logoImagina
Formación
Modalidades
Próximas Convocatorias
Temario
FAQ
Solicitar información
iconoCurso

Curso de Data Fabric

DISPONIBLE EN MODALIDAD:
aMedidaIcon
Aula Virtual Personalizada
arrowRightDark

Domina la arquitectura Data Fabric, desde los fundamentos hasta la implementación práctica. Aprende a unificar, integrar y analizar datos provenientes de múltiples fuentes utilizando tecnologías clave como Apache Spark, Kafka y Data Lakes. Descubre cómo orquestar flujos de datos, garantizar el gobierno y seguridad, y optimizar procesos en entornos cloud y on-premises.

iconClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClient

Formación en Data Fabric bonificable para empresas

A quién va dirigido nuestro curso de Data Fabric

Profesionales de datos, arquitectos de soluciones, ingenieros de datos y responsables de infraestructura que deseen implementar arquitecturas **Data Fabric** para optimizar la gestión y análisis de datos distribuidos.

Objetivos de nuestro curso de Data Fabric

  • Comprender la arquitectura y los fundamentos del enfoque Data Fabric en la gestión de datos modernos.
  • Implementar soluciones Data Fabric para unificar, integrar y analizar datos de múltiples fuentes.
  • Dominar las tecnologías y herramientas clave, como Apache Spark, Kafka, Data Lakes y API de datos.
  • Diseñar flujos de datos automatizados y orquestar procesos en entornos distribuidos.
  • Garantizar la seguridad, el gobierno de datos y el cumplimiento normativo en entornos Data Fabric.

Qué vas a aprender en nuestro curso de Data Fabric

Domina la arquitectura Data Fabric, desde los fundamentos hasta la implementación práctica. Aprende a unificar, integrar y analizar datos provenientes de múltiples fuentes utilizando tecnologías clave como Apache Spark, Kafka y Data Lakes. Descubre cómo orquestar flujos de datos, garantizar el gobierno y seguridad, y optimizar procesos en entornos cloud y on-premises.

Requisitos de nuestro curso de Data Fabric

  • Conocimiento previo de gestión y procesamiento de datos (SQL, ETL, APIs).
  • Familiaridad con conceptos de Big Data, integración de datos y arquitecturas de datos.
  • Equipo con 16 GB de RAM, procesador Intel i7, 50 GB de almacenamiento libre y acceso a internet.
  • Instalación previa de Docker, Python 3.8+, Apache Spark y herramientas de orquestación como Kubernetes.
  • Acceso a una plataforma cloud (AWS, Azure, GCP) con permisos para implementar servicios de datos.

Temario del curso de Data Fabric

tema 1

Introducción a la Arquitectura Data Fabric

  • Conceptos fundamentales de Data Fabric
  • Contexto y evolución de la arquitectura de datos
  • Características principales de Data Fabric
  • Ventajas de Data Fabric frente a arquitecturas tradicionales
  • Integración de datos en entornos híbridos y multi-cloud
  • Relación entre Data Fabric y Data Mesh
  • Ejemplos de casos de uso en la industria
  • Componentes clave: orquestación, gobernanza y análisis
  • Herramientas tecnológicas utilizadas en Data Fabric
  • Ejercicio práctico: Evaluación de una arquitectura de datos tradicional
iconArrowDown
tema 2

Diseño de una Arquitectura Data Fabric

  • Principios de diseño en Data Fabric
  • Identificación de fuentes de datos y conectores
  • Creación de una capa unificada de acceso a datos
  • Diseño de flujos de integración de datos
  • Uso de APIs para facilitar el acceso distribuido
  • Gestión del metadato y el catálogo de datos
  • Herramientas de automatización en el diseño Data Fabric
  • Evaluación de rendimiento y escalabilidad
  • Diseño de arquitecturas híbridas y multi-cloud
  • Ejercicio práctico: Crear un blueprint de arquitectura Data Fabric
iconArrowDown
tema 3

Gestión e Integración de Datos

  • Introducción a la integración de datos en Data Fabric
  • Conectores de datos: SQL, NoSQL, APIs y streaming
  • Integración con sistemas de origen: ERP, CRM y Data Lakes
  • Procesos ETL y ELT: definición e implementación
  • Integración de datos en tiempo real con Apache Kafka
  • Unificación de datos estructurados y no estructurados
  • Herramientas y plataformas de integración modernas
  • Optimización de procesos para datos en movimiento
  • Evaluación de calidad y confiabilidad de los datos integrados
  • Ejercicio práctico: Crear un flujo ETL con Spark y Kafka
iconArrowDown
tema 4

Orquestación de Flujos de Datos

  • Introducción a la orquestación de datos en Data Fabric
  • Herramientas clave: Airflow, Kubernetes y Apache NiFi
  • Definición y diseño de pipelines de datos
  • Automatización de flujos de datos complejos
  • Uso de DAGs (Directed Acyclic Graphs) en orquestación
  • Ejecución de tareas en entornos distribuidos
  • Monitoreo y depuración de pipelines de datos
  • Integración de procesos batch y streaming
  • Optimización de flujos para reducir latencias
  • Ejercicio práctico: Orquestar un pipeline usando Apache Airflow
iconArrowDown
tema 5

Almacenamiento de Datos en Data Fabric

  • Concepto y uso de Data Lakes y Data Warehouses
  • Comparación entre almacenamiento local y en la nube
  • Optimización de almacenamiento en Data Lakes
  • Uso de Amazon S3, Azure Blob y Google Cloud Storage
  • Implementación de almacenes de datos escalables con Redshift y BigQuery
  • Gestión de formatos de datos: Parquet, ORC y Avro
  • Estrategias de partición y compresión de datos
  • Configuración de políticas de retención y acceso
  • Herramientas de catalogación de datos: Glue, Data Catalog
  • Ejercicio práctico: Configurar un Data Lake en AWS
iconArrowDown
tema 6

Gobernanza de Datos en Data Fabric

  • Introducción a la gobernanza de datos
  • Creación de políticas y normas de acceso
  • Gestión de roles y permisos con IAM y RBAC
  • Aplicación de normas de cumplimiento: GDPR, CCPA
  • Monitorización y auditoría de acceso a datos
  • Gestión del linaje de datos en entornos complejos
  • Herramientas para implementar gobernanza: Collibra, Alation
  • Uso de metadatos para mejorar la trazabilidad
  • Integración con sistemas de catalogación de datos
  • Ejercicio práctico: Implementar una política de gobernanza
iconArrowDown
tema 7

Análisis de Datos en Data Fabric

  • Introducción a herramientas de análisis de datos
  • Integración de Spark para análisis distribuidos
  • Consultas interactivas en tiempo real con Presto
  • Uso de SQL en sistemas modernos de análisis
  • Dashboards y visualización de datos con Tableau y Power BI
  • Creación de modelos predictivos en Spark MLlib
  • Implementación de análisis exploratorio de datos (EDA)
  • Generación de informes automatizados
  • Procesamiento de datos en tiempo real para análisis streaming
  • Ejercicio práctico: Análisis de grandes volúmenes de datos
iconArrowDown
tema 8

Streaming de Datos en Tiempo Real

  • Conceptos de procesamiento de datos en streaming
  • Configuración de Apache Kafka para datos en tiempo real
  • Integración con Spark Streaming y Flink
  • Creación de pipelines de streaming en Apache NiFi
  • Procesamiento de eventos y análisis continuo
  • Herramientas de monitorización y observabilidad
  • Ejemplo de caso: procesamiento de datos IoT en tiempo real
  • Configuración de flujos seguros para streaming
  • Optimización de latencias en el procesamiento
  • Ejercicio práctico: Configurar un flujo streaming con Kafka
iconArrowDown
tema 9

Machine Learning y Data Fabric

  • Introducción al Machine Learning en arquitecturas Data Fabric
  • Preparación de datos para modelos ML
  • Creación de pipelines de entrenamiento automatizados
  • Uso de TensorFlow y PyTorch en plataformas distribuidas
  • Optimización de modelos en Spark MLlib
  • Implementación de AutoML en entornos Data Fabric
  • Despliegue de modelos en tiempo real
  • Monitorización y evaluación de modelos predictivos
  • Integración con plataformas cloud: AWS, GCP, Azure
  • Ejercicio práctico: Modelo predictivo en un flujo Data Fabric
iconArrowDown
tema 10

Seguridad en Arquitecturas Data Fabric

  • Gestión de cifrado de datos en tránsito y en reposo
  • Políticas de seguridad con TLS, SSL y VPN
  • Monitoreo de accesos y detección de amenazas
  • Integración de sistemas SIEM para análisis de seguridad
  • Cumplimiento de normativas y auditorías
  • Creación de políticas de recuperación ante desastres
  • Seguridad en servicios cloud y on-premises
  • Automatización de políticas de seguridad en entornos Data Fabric
  • Caso de estudio: implementación segura en un proyecto real
  • Ejercicio práctico: Configurar políticas de cifrado en Data Fabric
iconArrowDown
tema 11

Proyecto Final: Implementación de una Arquitectura Data Fabric

  • Definición de objetivos del proyecto
  • Creación de un Data Lake en AWS o Azure
  • Integración de datos estructurados y no estructurados
  • Implementación de pipelines ETL y streaming
  • Análisis de datos con Apache Spark y Presto
  • Visualización de resultados en dashboards
  • Gobernanza y seguridad aplicada a los flujos de datos
  • Optimización del rendimiento y costos
iconArrowDown

Preguntas Frecuentes de Data Fabric

¿Cuáles son los beneficios de realizar el curso de Data Fabric?

accordionIcon
El curso de Data Fabric te proporciona una comprensión profunda de la arquitectura Data Fabric, desde los conceptos fundamentales hasta la implementación práctica. Aprenderás a unificar, integrar y analizar datos de diversas fuentes utilizando tecnologías clave como Apache Spark y Kafka, lo que optimiza la gestión y análisis de datos distribuidos, mejorando significativamente la infraestructura de gestión de datos de la empresa.

¿El curso de Data Fabric se puede bonificar a través de FUNDAE?

accordionIcon
Sí, el curso de Data Fabric se puede bonificar hasta el 100% a través de FUNDAE, lo que significa que las empresas pueden utilizar los créditos disponibles para la formación de sus empleados, minimizando así el coste total del curso. Además, podemos encargarnos de la gestión de la bonificación con un cargo extra del 10% del valor del curso + IVA, coste que también puede ser bonificado.

¿En qué modalidad se imparte el curso de Data Fabric?

accordionIcon
El curso de Data Fabric se imparte en la modalidad de Aula Virtual Personalizada. Esta modalidad permite asistir a las clases a través de videoconferencia en Zoom, ofreciendo flexibilidad a los empleados para capacitarse sin necesidad de desplazarse, además de proporcionar acceso a las grabaciones para revisiones posteriores.

¿Qué habilidades desarrollaré con el curso de Data Fabric?

accordionIcon
Con el curso de Data Fabric desarrollarás habilidades en integración y gestión de datos en entornos híbridos y multi-cloud, diseño de flujos de datos, orquestación de pipelines y análisis avanzado de datos. También aprenderás sobre gobernanza y seguridad de datos, asegurando que los procesos de datos en la empresa sean eficientes y seguros.

¿Cómo puedo inscribirme en el curso de Data Fabric?

accordionIcon
Puedes inscribirte en el curso de Data Fabric completando los formularios disponibles en nuestra web. Es importante que rellenes toda la información requerida para que podamos procesar tu inscripción de manera rápida y eficiente, asegurando tu plaza en el curso.