Je suis en train d'essayer d'installer Spark sur Windows 10 mais j'ai une erreur lorsque j'essaie d'exécuter pyspark.
Impossible de trouver le répertoire des jars de Spark. Vous devez construire Spark avant d'exécuter ce programme.
J'ai suivi les étapes indiquées ici jusqu'à l'étape 4.
Je suis allé dans Scripts et site-packages d'Anaconda. Dans Scripts, il y a pyspark spark-shell et ainsi de suite, MAIS le dossier pyspark dans site-packages n'a ni le dossier jars ni son propre dossier bin.
Où se trouvent les jars ?
0 votes
Avez-vous correctement défini vos variables d'environnement? SPARK_HOME, HADOOP_HOME comme répertoire d'installation de Spark et ajouté $SPARK_HOME\bin à PATH
0 votes
Salut MaFF, j'ai défini mes variables d'environnement et elles indiquent le dossier bin qui contient chaque programme.