Envíanos tu consulta
Términos y condiciones *
*Si no puedes asistir en directo te facilitaremos un enlace para verlo en diferido
logoImagina
iconoCurso

Curso completo de Big Data con Apache Kudu

DISPONIBLE EN MODALIDAD:
aMedidaIcon
Aula Virtual Personalizada
arrowRightDark

Este curso trata sobre cómo utilizar big data para almacenar, procesar y analizar datos estructurados, centrándose en las tres soluciones Apache más populares, dentro del ecosistema Hadoop: Apache Kudu, Apache Spark, Apache Impala. Estos tres productos integrados podrán aportar grandes soluciones en términos de rendimiento y escalabilidad para toda empresa intersada en sacar rendimiento a sus datos.

iconClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClient
Formación en Big Data con Apache Kudu bonificable para empresas

¿A quién va dirigido?

Analistas de datos y desarrolladores que quieran utilizar Apache Kudu para trabajar el Data Warehousing de su empresas integrándolo con Apache Spark, Apache Impala, AWS y otras soluciones profesionales.

Objetivos

  • Obtener unas bases solidas sobre el uso del almacén de datos que es Apache Kudu, orientado en permitir un rápido análisis de los datos
  • Aprender a integrar Apache Impala, Apache Spark y Apache Kafka para garantizar datos en tiempo real y alta disponibilidad
  • Aprender a generar visualizaciones de datos y a administrarlos bajo los fundamentos de la gobernanza de datos y data wharehouse
  • Aprender a securizar soluciones Kudu
  • Trabajar Apache Kudu en la nube con AWS

¿Qué vas a aprender?

Este curso trata sobre cómo utilizar big data para almacenar, procesar y analizar datos estructurados, centrándose en las tres soluciones Apache más populares, dentro del ecosistema Hadoop: Apache Kudu, Apache Spark, Apache Impala. Estos tres productos integrados podrán aportar grandes soluciones en términos de rendimiento y escalabilidad para toda empresa intersada en sacar rendimiento a sus datos.

Requisitos

  • Tener experiencia desarrollando con Python y realizando consultas SQL
  • Tener experiencia trabajando con Bases de datos relacionales, Apache Spark + Python (Pyspark), Apache Impala y Apache Kafka
  • Se recomienda tener experiencia con los conceptos de Big Data
  • Tener acceso (revisar configuraciones proxy en caso de tenerlas) a una cuenta Community de Azure Databricks para realizar los laboraorios de Spark
  • Son necesarios permisos de instalación en el equipo en el que se realice la formación