0


selenium使用代理IP

res = requests.get(url=urls,headers=headers,proxies=proxies)

我想了半天没想好到底哪些网站反爬强,所以我就随便找一个网站来测试了,你可以再去尝试逛一下自己学校的教务管理系统,12360,facebook等…

目标网址:

https://www.taobao.com/

在这里插入图片描述

所以定位就很容易:

driver.find_element_by_name(‘q’)

之前写过一次使用代理玩爬虫,是requests模块,但是作为个人,我越往后面学,发现selenium用得反而越来越多,requests被逐渐抛弃一般,所以这里补充一个selenium添加代理。

方式很简单:

ops.add_argument(‘–proxy-server=http://%s’ % a) #添加代理

注意这里的a格式为:ip:port

注意: 使用代理ip需要安装模块selenium-wire:

pip install selenium-wire

你应该是:

from seleniumwire import webdriver

而不是:

from selenium import webdriver

比如在X宝搜索:XX手机

完整代码:

from selenium import webdriver

from fake_useragent import UserAgent

from selenium.webdriver.chrome.options import Options

headers = {‘User-Agent’: UserAgent().random}

ops = Options()

driver = webdriver.Chrome(r’D:\360安全浏览器下载\chromedriver.exe’)

api_url = ‘让你复制的代理api链接’

driver.get(api_url)

a 


本文转载自: https://blog.csdn.net/2401_84008929/article/details/137503838
版权归原作者 2401_84008929 所有, 如有侵权,请联系我们删除。

“selenium使用代理IP”的评论:

还没有评论