Vous faites chier avec vos trucs genre Anubis qui cassent mes petits scrapers python :(
Là, je voulais gentiment scraper les missions sur le Fandom de Cyberpunk 2077 pour pouvoir faire mon arbre de mission.
Et pouf, on se fait rembarrer parce qu'on utilise pas un vrai navigateur :
$ curl -v https://cyberpunk.fandom.com/wiki/Cyberpunk_2077_Main_Jobs
> Host: cyberpunk.fandom.com
> User-Agent: curl/8.18.0
> Accept: */*
>
< HTTP/2 403
Dans ces cas là, pas le choix, Selenium WebDriver.
WebDriver est lib multilangage (…)










