7 votes

Échec de la recherche du répertoire des jars Spark. Vous devez construire Spark avant d'exécuter ce programme.

Je suis en train d'essayer d'installer Spark sur Windows 10 mais j'ai une erreur lorsque j'essaie d'exécuter pyspark.

Impossible de trouver le répertoire des jars de Spark. Vous devez construire Spark avant d'exécuter ce programme.

J'ai suivi les étapes indiquées ici jusqu'à l'étape 4.

Je suis allé dans Scripts et site-packages d'Anaconda. Dans Scripts, il y a pyspark spark-shell et ainsi de suite, MAIS le dossier pyspark dans site-packages n'a ni le dossier jars ni son propre dossier bin.

Où se trouvent les jars ?

0 votes

Avez-vous correctement défini vos variables d'environnement? SPARK_HOME, HADOOP_HOME comme répertoire d'installation de Spark et ajouté $SPARK_HOME\bin à PATH

0 votes

Salut MaFF, j'ai défini mes variables d'environnement et elles indiquent le dossier bin qui contient chaque programme.

-2voto

VinayKumar.M Points 53

Une des causes de cette erreur est que lors du réglage du chemin d'accès, le chemin d'accès Spark_home peut contenir des espaces comme "C:/Users//apache spark/bin"

Il suffit de supprimer les espaces ou de changer de répertoire.

Prograide.com

Prograide est une communauté de développeurs qui cherche à élargir la connaissance de la programmation au-delà de l'anglais.
Pour cela nous avons les plus grands doutes résolus en français et vous pouvez aussi poser vos propres questions ou résoudre celles des autres.

Powered by:

X