Peut-on m'indiquer des ressources sur la lexie, l'analyse syntaxique et la tokénisation avec Python ?
Je fais un peu de piratage sur un projet open source ( hotwire ) et je souhaitais apporter quelques modifications au code qui lexiques , analyse syntaxique et tokenisation les commandes qui y sont introduites. Comme il s'agit d'un véritable code de travail, il est assez complexe et un peu difficile à comprendre.
Je n'ai jamais travaillé sur du code pour lex/parse/tokenise avant, donc je pensais qu'une approche serait de travailler à travers un ou deux tutoriels sur cet aspect. J'espère en apprendre suffisamment pour naviguer dans le code que je veux réellement modifier. Existe-t-il quelque chose d'approprié ? (Idéalement, cela pourrait se faire en un après-midi sans avoir à acheter et à lire le livre du dragon d'abord...)
Edit : (7 Oct 2008) Aucune des réponses ci-dessous ne donne tout à fait ce que je veux. Avec elles, je pourrais générer des parseurs à partir de zéro, mais je veux apprendre à écrire mon propre parseur de base à partir de zéro, sans utiliser lex et yacc ou des outils similaires. Cela fait, je pourrai alors mieux comprendre le code existant.
Quelqu'un pourrait-il m'indiquer un tutoriel me permettant de construire un analyseur syntaxique de base à partir de zéro, en utilisant uniquement python ?