res = requests.get(url=urls,headers=headers,proxies=proxies)
我想了半天没想好到底哪些网站反爬强,所以我就随便找一个网站来测试了,你可以再去尝试逛一下自己学校的教务管理系统,12360,facebook等…
目标网址:
所以定位就很容易:
driver.find_element_by_name(‘q’)
之前写过一次使用代理玩爬虫,是requests模块,但是作为个人,我越往后面学,发现selenium用得反而越来越多,requests被逐渐抛弃一般,所以这里补充一个selenium添加代理。
方式很简单:
ops.add_argument(‘–proxy-server=http://%s’ % a) #添加代理
注意这里的a格式为:ip:port
注意: 使用代理ip需要安装模块selenium-wire:
pip install selenium-wire
你应该是:
from seleniumwire import webdriver
而不是:
from selenium import webdriver
比如在X宝搜索:XX手机
完整代码:
from selenium import webdriver
from fake_useragent import UserAgent
from selenium.webdriver.chrome.options import Options
headers = {‘User-Agent’: UserAgent().random}
ops = Options()
driver = webdriver.Chrome(r’D:\360安全浏览器下载\chromedriver.exe’)
api_url = ‘让你复制的代理api链接’
driver.get(api_url)
a
版权归原作者 2401_84008929 所有, 如有侵权,请联系我们删除。