[2021] Ciencia de datos y aprendizaje automático con Scala y Spark (episodio 02/03) {DH}


[*]

[*]

APRENDIENDO LA MÁQUINA SCALA SPARK

Spark con la API de Scala

4 de julio de 2020·Leer durante 5 minutos

Los inventores de Spark eligieron Scala para escribir los módulos de bajo nivel. En Ciencia de datos y aprendizaje automático con Scala y Spark (episodio 03/01) cubrimos los conceptos básicos del lenguaje de programación Scala utilizando un entorno de Google Colab. En este artículo, aprenderemos más sobre el ecosistema Spark y su API de nivel superior para usuarios de Scala. Todavía estamos usando Spark 3.0.0 y Google Colab para practicar algunos fragmentos de código.

¿Qué es Apache Spark?

Según Apache Spark y Delta Lake Under the Hood

Apache Spark es un motor informático unificado y un conjunto de bibliotecas para el procesamiento de datos en paralelo en clústeres de computadoras. En este momento, Spark es el motor de código abierto más avanzado para esta tarea; Esto la convierte en la herramienta de facto para cualquier desarrollador o científico de datos interesado en big data. Spark admite varios lenguajes de programación ampliamente utilizados (Python, Java, Scala y R), …

[*]
SEGUIR LELLENDO: [*][2021] Ciencia de datos y aprendizaje automático con Scala y Spark (episodio 02/03) {DH}

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *