Envíanos tu consulta
Términos y condiciones *
*Si no puedes asistir en directo te facilitaremos un enlace para verlo en diferido
logoImagina
iconoCurso

Curso completo de Procesado de datos en streaming con Spark Streaming en Scala

DISPONIBLE EN MODALIDAD:
aMedidaIcon
Aula Virtual Personalizada
arrowRightDark

Aprende a instalar, desarrollar, configurar y gestionar la infraestructura relacionada con el broker de mensajería en streaming con Spark Streaming con Scala y aprende todo lo necsario para procesar los datos y sacarles la máxima utilidad

iconClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClient
Formación en Procesado de datos en streaming con Spark Streaming en Scala bonificable para empresas

¿A quién va dirigido?

Administradores de sistemas, con experiencia en administrar Spark, desarrolladores Scala o devops que tengan que instalar o gestionar la infraestructura relacionada con el broker de mensajería en streaming con Spark Streaming

Objetivos

  • Adquirir los conocimientos necesarios sobre streaming de datos utilizando Spark Streaming
  • Aprender a trabajar con diferentes tipos de operaciones de tratamiento de datos en Scala
  • Aprender a administrar y gestionar clusters Spark para streaming de datos
  • Conocer cómo escalar y monitorizar la infraestructura de servidores
  • Conocer las herramientas que ofrece Spark Streaming sobre securización y cómo aplicarlas

¿Qué vas a aprender?

Aprende a instalar, desarrollar, configurar y gestionar la infraestructura relacionada con el broker de mensajería en streaming con Spark Streaming con Scala y aprende todo lo necsario para procesar los datos y sacarles la máxima utilidad

Requisitos

  • Tener experiencia desarrollando con Scala, realizando consultas SQL y haber trabajado con Spark
  • Tener acceso (revisar configuraciones proxy en caso de tenerlas) a una cuenta Community de Azure Databricks para realizar los laboraorios de Spark
  • Tener una computadora con acceso a un usuario con permisos de instalación y configuración
  • Tener un IDE listo para desarrollar con Spark y Scala, Docker Desktop y Git inslatados previamente