J'essaye de découvrir la taille / forme d'un DataFrame dans PySpark. Je ne vois pas une seule fonction qui puisse faire cela.
En Python je peux faire
data.shape()
Existe-t-il une fonction similaire dans PySpark. Ceci est ma solution actuelle, mais je suis à la recherche d'un élément
row_number = data.count()
column_number = len(data.dtypes)
Le calcul du nombre de colonnes n'est pas idéal ...