Pour lancer le projet et lire le CSV, commence par supprimer ce qu'il y a dans le csv que tu téléchargeras (ce qui est là est à titre d'exemple). Ensuite, lance zookeeper et kafka en créant d'abord un topic "velib"; Puis lance le producer (call_api.py), il permet de récupérer ce qu'il ya dans l'API toutes les minutes. Ensuite lance le fichier consumer.py qui récupérera les données intéressantes et les stockera dans le fichier velib.csv.
Lancer spark-submit avec la commande -> spark-submit --packages org.apache.spark:spark-streaming-kafka-0-8_2.11:2.4.4 read_kafka.py
csv file import https://techexpert.tips/fr/elasticsearch-fr/elasticsearch-importation-dun-fichier-csv/