Envíanos tu consulta
Términos y condiciones *
*Si no puedes asistir en directo te facilitaremos un enlace para verlo en diferido
logoImagina
iconoCurso

Curso Spark ML con Scala: Procesamiento de Datos

DISPONIBLE EN MODALIDAD:
aMedidaIcon
Aula Virtual Personalizada
arrowRightDark

Aprende a usar el lenguaje de programación Scala para crear modelos de aprendizaje automático y aprende a utilizar la biblioteca de Spark ML para implementar modelos de aprendizaje automático en un entorno de Big Data.

Al final del curso de Spark ML con Scala, los alumnos tendrán los conocimientos necesarios para comenzar a usar Apache Spark ML con Scala en sus puestos de trabajo de manera profesional.

iconClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClienticonClient
Procesamiento de datos con Scala

¿A quién va dirigido?

Profesionales con experiencia en Scala que busquen introducirse profesionalmente en el mundo del Machine Learning a través de Apache Spark ML

Objetivos

  • Introducirse en Spark ML y los conceptos fundamentales del aprendizaje automático.
  • Desarrollar habilidades en el uso de la biblioteca de Spark ML.
  • Aprender a trabajar con modelos de aprendizaje automático supervisado y no supervisado como regresión lineal, árboles de decisión, random forest, support vector machines, k-means clustering, etc.
  • Preparar a los alumnos para comenzar a utilizar Apache Spark ML con Scala en sus entornos de trabajo de manera profesional

¿Qué vas a aprender?

Aprende a usar el lenguaje de programación Scala para crear modelos de aprendizaje automático y aprende a utilizar la biblioteca de Spark ML para implementar modelos de aprendizaje automático en un entorno de Big Data.

Al final del curso de Spark ML con Scala, los alumnos tendrán los conocimientos necesarios para comenzar a usar Apache Spark ML con Scala en sus puestos de trabajo de manera profesional.

Requisitos

  • Tener experiencia desarrollando con Scala y realizando consultas SQL
  • Son necesarios permisos de instalación en el equipo en el que se realice la formación
  • Tener acceso (revisar configuraciones proxy en caso de tenerlas) a una cuenta Community de Azure Databricks para realizar los laboratorios de Spark con Scala
  • Tener Scala, Git y un IDE para desarrollar en Scala instalado previamente (por ejemplo IntelliJ) instalados previamente en el equipo