137 votes

Débogage (affichage) des commandes SQL envoyées à la base de données par SQLAlchemy

J'ai une classe ORM appelée Personne, qui s'articule autour d'une table Personne :

Après avoir établi la connexion à la base de données, etc., j'exécute l'instruction :

people = session.query(Person).all()

Le tableau des personnes ne contient pas (encore) de données, de sorte que lorsque j'imprime la variable people j'obtiens une liste vide.

J'ai renommé la table à laquelle il est fait référence dans ma classe ORM People , à people_foo (qui n'existe pas).

Je lance ensuite à nouveau le script. J'ai été surpris de constater qu'aucune exception n'était levée lors de la tentative d'accès à une table qui n'existe pas.

J'ai donc les deux questions suivantes :

  1. Comment puis-je configurer SQLAlchemy pour qu'il propage les erreurs de la base de données vers le script ?
  2. Comment puis-je visualiser (c'est-à-dire imprimer) le code SQL qui est envoyé au moteur de la base de données ?

Si cela peut vous aider, j'utilise PostgreSQL.

[Editer]

Je suis en train de rédiger un paquet. Dans mon __main__.py script, j'ai le code suivant (raccourci ici) :

### __main__.py
import common # imports logging and defines logging setup funcs etc

logger = logging.getLogger(__name__)

def main():    
    parser = OptionParser(usage="%prog [options] <commands>",
                          version="%prog 1.0")

    commands = OptionGroup(parser, "commands")

    parser.add_option(
        "-l",
        "--logfile",
        dest="logfile",
        metavar="FILE",
        help="log to FILE. if not set, no logging will be done"
    )

    parser.add_option(
        "--level",
        dest="loglevel",
        metavar="LOG LEVEL",
        help="Debug level. if not set, level will default to low"
    )

    # Set defaults if not specified
    if not options.loglevel:
        loglevel = 1
    else:
        loglevel = options.loglevel

    if not options.logfile:
        logfilename = 'datafeed.log'
    else:
        logfilename = options.logfile

    common.setup_logger(False, logfilename, loglevel) 

       # and so on ...

        #### dbfuncs.py

import logging

    # not sure how to 'bind' to the logger in __main__.py
    logging.getLogger('sqlalchemy.engine').setLevel(logging.INFO)

    engine = create_engine('postgres://postgres:pwd@localhost:port/dbname', echo=True)

[Edit2]

Common met en place le logger correctement, et je peux utiliser le logger dans mes autres modules qui importent common.

Toutefois, en dbfuncs j'obtiens l'erreur/l'avertissement suivant :

Aucun gestionnaire n'a pu être trouvé pour le logger "sqlalchemy.engine.base.Engine

281voto

Denis Otkidach Points 13111

En plus de echo paramètre de create_engine() Il existe une méthode plus souple : configurer logging pour faire écho aux déclarations du moteur :

import logging
logging.basicConfig()
logging.getLogger('sqlalchemy.engine').setLevel(logging.INFO)

Voir Configuration de la journalisation de la documentation pour plus d'informations.

125voto

Menno Smits Points 527

Vous pouvez voir les instructions SQL envoyées à la base de données en passant la commande echo=True lors de la création de l'instance du moteur (généralement à l'aide de l'option create_engine() o engine_from_config() dans votre code).

Par exemple :

engine = sqlalchemy.create_engine('postgres://foo/bar', echo=True)

Par défaut, les déclarations consignées sont envoyées à la sortie standard (stdout).

Prograide.com

Prograide est une communauté de développeurs qui cherche à élargir la connaissance de la programmation au-delà de l'anglais.
Pour cela nous avons les plus grands doutes résolus en français et vous pouvez aussi poser vos propres questions ou résoudre celles des autres.

Powered by:

X