197 votes

Proxies avec le module Python 'Requests'.

Juste un court, simple sur l'excellent Demandes pour Python.

Je ne parviens pas à trouver dans la documentation ce que doit contenir la variable "proxies". Lorsque je lui envoie un dict avec une valeur standard "IP:PORT", il le rejette en demandant 2 valeurs. Donc, je suppose (parce que cela ne semble pas être couvert dans la documentation) que la première valeur est l'IP et la seconde le port ?

La documentation ne mentionne que cela :

proxies - (facultatif) Dictionnaire de mappage du protocole à l'URL du proxy.

Alors j'ai essayé ça... qu'est-ce que je devrais faire ?

proxy = { ip: port}

et dois-je les convertir en quelque sorte avant de les mettre dans le dict ?

r = requests.get(url,headers=headers,proxies=proxy)

7voto

qräbnö Points 737

8 ans de retard. Mais j'aime bien :

import os
import requests

os.environ['HTTP_PROXY'] = os.environ['http_proxy'] = 'http://http-connect-proxy:3128/'
os.environ['HTTPS_PROXY'] = os.environ['https_proxy'] = 'http://http-connect-proxy:3128/'
os.environ['NO_PROXY'] = os.environ['no_proxy'] = '127.0.0.1,localhost,.local'

r = requests.get('https://example.com')  # , verify=False

2voto

Rae mh Points 11

Je viens de faire un graveur de proxy et je peux aussi me connecter avec le même proxy gravé sans aucune entrée. voici :

#Import Modules

from termcolor import colored
from selenium import webdriver
import requests
import os
import sys
import time

#Proxy Grab

options = webdriver.ChromeOptions()
options.add_argument('headless')
driver = webdriver.Chrome(chrome_options=options)
driver.get("https://www.sslproxies.org/")
tbody = driver.find_element_by_tag_name("tbody")
cell = tbody.find_elements_by_tag_name("tr")
for column in cell:

        column = column.text.split(" ")
        print(colored(column[0]+":"+column[1],'yellow'))
driver.quit()
print("")

os.system('clear')
os.system('cls')

#Proxy Connection

print(colored('Getting Proxies from graber...','green'))
time.sleep(2)
os.system('clear')
os.system('cls')
proxy = {"http": "http://"+ column[0]+":"+column[1]}
url = 'https://mobile.facebook.com/login'
r = requests.get(url,  proxies=proxy)
print("")
print(colored('Connecting using proxy' ,'green'))
print("")
sts = r.status_code

1voto

mtt2p Points 126

Voici ma classe de base en python pour le module requests avec quelques configurations de proxy et un chronomètre !

import requests
import time
class BaseCheck():
    def __init__(self, url):
        self.http_proxy  = "http://user:pw@proxy:8080"
        self.https_proxy = "http://user:pw@proxy:8080"
        self.ftp_proxy   = "http://user:pw@proxy:8080"
        self.proxyDict = {
                      "http"  : self.http_proxy,
                      "https" : self.https_proxy,
                      "ftp"   : self.ftp_proxy
                    }
        self.url = url
        def makearr(tsteps):
            global stemps
            global steps
            stemps = {}
            for step in tsteps:
                stemps[step] = { 'start': 0, 'end': 0 }
            steps = tsteps
        makearr(['init','check'])
        def starttime(typ = ""):
            for stemp in stemps:
                if typ == "":
                    stemps[stemp]['start'] = time.time()
                else:
                    stemps[stemp][typ] = time.time()
        starttime()
    def __str__(self):
        return str(self.url)
    def getrequests(self):
        g=requests.get(self.url,proxies=self.proxyDict)
        print g.status_code
        print g.content
        print self.url
        stemps['init']['end'] = time.time()
        #print stemps['init']['end'] - stemps['init']['start']
        x= stemps['init']['end'] - stemps['init']['start']
        print x

test=BaseCheck(url='http://google.com')
test.getrequests()

1voto

C'est un peu tard, mais voici une classe qui simplifie le scrappage des proxies et la réalisation d'un POST ou GET http :

Demandes de procuration

https://github.com/rootVIII/proxy_requests

0voto

Lambov Points 11

Je partage un peu de code pour récupérer les proxys du site "https://free-proxy-list.net" et stocker les données dans un fichier compatible avec des outils comme "Elite Proxy Switcher" (format IP:PORT) :

PROXY_UPDATER - obtenir des proxies gratuits à partir de https://free-proxy-list.net/

from lxml.html import fromstring
import requests
from itertools import cycle
import traceback
import re

######################FIND PROXIES#########################################
def get_proxies():
    url = 'https://free-proxy-list.net/'
    response = requests.get(url)
    parser = fromstring(response.text)
    proxies = set()
    for i in parser.xpath('//tbody/tr')[:299]:   #299 proxies max
        proxy = ":".join([i.xpath('.//td[1]/text()') 
        [0],i.xpath('.//td[2]/text()')[0]])
        proxies.add(proxy)
    return proxies

######################write to file in format   IP:PORT######################
try:
    proxies = get_proxies()
    f=open('proxy_list.txt','w')
    for proxy in proxies:
        f.write(proxy+'\n')
    f.close()
    print ("DONE")
except:
    print ("MAJOR ERROR")

Prograide.com

Prograide est une communauté de développeurs qui cherche à élargir la connaissance de la programmation au-delà de l'anglais.
Pour cela nous avons les plus grands doutes résolus en français et vous pouvez aussi poser vos propres questions ou résoudre celles des autres.

Powered by:

X