J'ai essayé xlrd, pandas, openpyxl et d'autres bibliothèques de ce type, mais toutes semblent prendre un temps exponentiel à mesure que la taille du fichier augmente, car elles lisent le fichier entier. Les autres solutions mentionnées ci-dessus, qui utilisent "on_demand", n'ont pas fonctionné pour moi. Si vous souhaitez simplement obtenir les noms des feuilles au départ, la fonction suivante fonctionne pour les fichiers xlsx.
def get_sheet_details(file_path):
sheets = []
file_name = os.path.splitext(os.path.split(file_path)[-1])[0]
# Make a temporary directory with the file name
directory_to_extract_to = os.path.join(settings.MEDIA_ROOT, file_name)
os.mkdir(directory_to_extract_to)
# Extract the xlsx file as it is just a zip file
zip_ref = zipfile.ZipFile(file_path, 'r')
zip_ref.extractall(directory_to_extract_to)
zip_ref.close()
# Open the workbook.xml which is very light and only has meta data, get sheets from it
path_to_workbook = os.path.join(directory_to_extract_to, 'xl', 'workbook.xml')
with open(path_to_workbook, 'r') as f:
xml = f.read()
dictionary = xmltodict.parse(xml)
for sheet in dictionary['workbook']['sheets']['sheet']:
sheet_details = {
'id': sheet['@sheetId'],
'name': sheet['@name']
}
sheets.append(sheet_details)
# Delete the extracted files directory
shutil.rmtree(directory_to_extract_to)
return sheets
Comme tous les xlsx sont essentiellement des fichiers zippés, nous extrayons les données xml sous-jacentes et lisons les noms des feuilles du classeur directement, ce qui prend une fraction de seconde par rapport aux fonctions de la bibliothèque.
Benchmarking : (Sur un fichier xlsx de 6mb avec 4 feuilles)
Pandas, xlème : 12 secondes
openpyxl : 24 secondes
Méthode proposée : 0,4 seconde
Comme je devais simplement lire les noms des feuilles, le fait de devoir lire tout le temps me dérangeait et j'ai donc choisi cette voie.