C'est la fonction qui lit le lien Url et le convertit en Beautifulsoup.
multithreadding=[]
def scraper_worker(url):
r=requests.get(url)
soup = BeautifulSoup(r.text,"html.parser")
data=soup.find("div",{"class":"main-container"})
multithreadding.append(data)
threadding=[]
for u in split_link:
t=Thread(target=scraper_worker,args=(u, ))
t.start()
threadding.append(t)
split_link est la liste où 50 liens impairs sont stockés. Je suis confronté à un problème d'exécution de la partie multithreading.