Envíanos tu consulta
Términos y condiciones *
*Si no puedes asistir en directo te facilitaremos un enlace para verlo en diferido
logoImagina
iconoCurso

Curso completo de Análisis de datos con Hadoop

DISPONIBLE EN MODALIDAD:
aMedidaIcon
Aula Virtual Personalizada
arrowRightDark

Este curso de Análisis de Datos con Hadoop es una herramienta ideal para aquellos que deseen aprovechar el poder de procesamiento de Big Data para obtener resultados precisos de análisis de datos. Aprenderás todos los conceptos fundamentales de Big Data, cómo funciona Hadoop, qué son los nodos maestros y esclavos, cómo se configuran, cómo se crean y cómo se ejecutan los jobs. Desarrollarás tus habilidades en la configuración de Hadoop, la creación de clusters y la ejecución de trabajos. Aprenderás también cómo usar herramientas como Hive, Pig y Spark para realizar análisis de datos complejos con Hadoop.

iconClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClient
Formación en Análisis de datos con Hadoop bonificable para empresas

¿A quién va dirigido?

Desarrolladores que buscan obtener una comprensión profesional cómo emplear Apache Hadoop para el análisis de datos.

Objetivos

  • Comprender los conceptos fundamentales de Big Data y cómo funciona Hadoop
  • Aprender a configurar y crear clusters con Hadoop
  • Desarrollar habilidades para ejecutar trabajos con Hadoop
  • Aprender a usar herramientas como Hive, Pig y Spark para realizar análisis de datos complejos
  • Comprender la mejor forma de análisis y procesamiento de datos con Hadoop

¿Qué vas a aprender?

Este curso de Análisis de Datos con Hadoop es una herramienta ideal para aquellos que deseen aprovechar el poder de procesamiento de Big Data para obtener resultados precisos de análisis de datos. Aprenderás todos los conceptos fundamentales de Big Data, cómo funciona Hadoop, qué son los nodos maestros y esclavos, cómo se configuran, cómo se crean y cómo se ejecutan los jobs. Desarrollarás tus habilidades en la configuración de Hadoop, la creación de clusters y la ejecución de trabajos. Aprenderás también cómo usar herramientas como Hive, Pig y Spark para realizar análisis de datos complejos con Hadoop.

Requisitos

  • Tener experiencia desarrollando con Java (JDK 11 o superior), Scala y proyectos Maven
  • Tener un equipo con acceso a un usuario con permisos de instalación donde realiziar el curso y conexión estable a internet
  • El equipo debe contar como mínimo con: CPU de 6.a generación o más reciente (o AMD equivalente), 8GB de RAM, 2GB de GPU y 8GB de espacio disponible en disco duro
  • Tener instalado previamente en el equipo: IntelliJ (2022 Community o superior), Java (JDK 11 o superior), Scala, Git, Docker Desktop, Apache Hadoop, Apache Flume, Apache Spark y Apache Hive
  • Es recomendable tener experiencia dockerizando aplicaciones Java o Scala