Skip to content

wgonzalez25/bigdata-workshop-es

 
 

Repository files navigation

Workshop de Big Data con Apache Spark [🇪🇸]

Material del Workshopde Big Data

Contenidos

Infrastructura

El workshop simula una instalación de producción utilizando container de Docker. docker-compose.yml contiene las definiciones y configuraciones para esos servicios y sus respectivas UIs:

Los puertos de acceso a cada servicio quedaron los defaults. Ej: spark master:7077, postgres: 5432

Levantar ambiente

Instalar el ambiente siguiendo las instrucciones acá.

Correr el script que levanta el ambiente Usage: control-env.sh (start|stop|cleanup):

./control-env.sh start

**IMPORTANTE** el script `control-env.sh cleanup` borra cualquier dado que haya sido procesado anteriormente.


# Access Spark-Master and run spark-shell
docker exec -it master bash
root@588acf96a879:/app# spark-shell

Probar:

val file = sc.textFile("/dataset/yahoo-symbols-201709.csv")
file.count
file.take(10).foreach(println)

Acceder al Spark Master: http://localhost:8080 y SPARK-UI: http://localhost:4040.

Troubleshooting

Si los jobs mueren (KILLED) y no se completan puede ser debido a la memória disponible para Docker, aumente la memoria > 8Gb al proceso de Docker:

Siga leyendo

Agradecimientos

Sobre

Gustavo Arjones © 2017-2020
arjon.es | LinkedIn | Twitter

About

Workshop Big Data en Español

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • HTML 41.6%
  • Jupyter Notebook 30.8%
  • TeX 15.2%
  • Python 7.0%
  • Scala 4.5%
  • Shell 0.7%
  • Other 0.2%