190 votes

Le taux de données IOPub a été dépassé dans le notebook Jupyter (lors de la visualisation de l'image)

Je veux afficher une image dans le cahier Jupyter. C'est un fichier .png de 9,9 Mo.

from IPython.display import Image
Image(filename='path_to_image/image.png')

Je reçois l'erreur suivante :

Le taux de données IOPub a été dépassé.
Le serveur de notebook arrêtera temporairement d'envoyer des sorties
au client pour éviter de le faire planter.

Un peu surprenant et signalé ailleurs.

Est-ce attendu et y a-t-il une solution simple ?

(Le message d'erreur suggère de modifier la limite dans --NotebookApp.iopub_data_rate_limit.)

3 votes

Est-il possible d'augmenter ceci uniquement à partir du carnet lui-même plutôt que de modifier la configuration en ligne de commande? Je travaille dans un environnement partagé et je n'ai pas les droits pour modifier Jupyter en ligne de commande.

3voto

Andrei Tulbure Points 61

J'ai le même problème dans mon Jupyter NB sur Win 10 lors de l'interrogation d'une base de données MySQL.

Enlever toutes les instructions d'impression a résolu mon problème.

2voto

desertBorn Points 31

J'ai rencontré ce problème en utilisant la version 6.3.0. Lorsque j'ai essayé la solution la mieux notée de Merlin, l'invite powershell m'a notifié que iopub_data_rate_limit avait été déplacé de NotebookApp à ServerApp. La solution a tout de même fonctionné mais je voulais mentionner la variation, surtout que la gestion interne de la configuration pourrait devenir obsolète.

1voto

Sincole Brans Points 56

Pour les conteneurs Docker déjà en cours d'exécution, essayez de modifier le nom du fichier - ~/.jupyter/jupyter_notebook_config.py décommentez la ligne - NotebookApp.iopub_data_rate_limit = et définissez un chiffre élevé comme 1e10. Redémarrez le conteneur Docker, cela devrait résoudre le problème

0voto

Une solution, simple consiste à créer une boucle for et à imprimer. Ainsi, il n'y aura aucun problème. Imprimer directement wcc pourrait poser problème si le graphe est énorme. Par conséquent, l'un des codes ci-dessous fonctionnera comme solution de contournement.

wcc=list(nx.weakly_connected_components(train_graph)) for i in range(1,10): print(wcc[i])

for i in wcc): print(wcc)

0voto

Skynet Points 45

En utilisant Visual Studio Code, l'extension Jupyter sera capable de gérer les gros volumes de données. lancer depuis le navigateur Anaconda

Prograide.com

Prograide est une communauté de développeurs qui cherche à élargir la connaissance de la programmation au-delà de l'anglais.
Pour cela nous avons les plus grands doutes résolus en français et vous pouvez aussi poser vos propres questions ou résoudre celles des autres.

Powered by:

X