0


python爬虫之爬取拉勾网

这次要爬取拉勾网,拉勾网的反爬做的还是很不错的啊,因为目标网站是Ajax交互的我一开始是直接分析json接口来爬取的,但是真的很麻烦,请求头一旦出点问题就给识别出来了后续我就改了一下方法用selenium来模拟浏览器去获取

招聘求职信息-招聘网站-人才网-拉勾招聘 (lagou.com)https://www.lagou.com/jobs/list_python?labelWords=&fromSearch=true&suginput=先把前面代码写好

思路嘛大概就是 获取主页的源代码——从中获取详情页的url——在去解析 先围绕这三步来写

这里我们已经获取到了主页的源代码

  1. from selenium import webdriver
  2. import requests
  3. from selenium.webdriver import ChromeOptions #这个包用来规避被检测的风险
  4. from lxml import etree
  5. from selenium.webdriver.support.ui import WebDriverWait
  6. from selenium.webdriver.support import expected_conditions as EC
  7. from selenium.webdriver.common.by import By
  8. import time
  9. import re
  10. class lagouSpitder(object):
  11. option = webdriver.ChromeOptions()
  12. option.add_experimental_option('useAutomationExtension', False)
  13. option.add_experimental_option('excludeSwitches', ['enable-automation'])
  14. driver_path = r'驱动路径' # 定义好路径
  15. def __init__(self):
  16. self.driver=webdriver.Chrome(executable_path=lagouSpitder.driver_path,options=lagouSpitder.option)#初始化路径+规避检测selenium框架
  17. self. driver.execute_cdp_cmd("Page.addScriptToEvaluateOnNewDocument", {
  18. "source": """
  19. Object.defineProperty(navigator, 'webdriver', {
  20. get: () => undefined
  21. })
  22. """
  23. })
  24. self.url='https://www.lagou.com/jobs/list_python/p-city_0?&cl=false&fromSearch=true&labelWords=&suginput='
  25. self.positions=[]
  26. def run(self): #主页面
  27. self.driver.get(self.url)
  28. source = self.driver.page_source # source页面来源 先获取一页
  29. if __name__ == '__main__':
  30. spider=lagouSpitder()
  31. spider.run()

接下来获取详情页的url,定义一个函数parse_list_page 显得美观可维护也强,可以看到 是在//a[@class="position_link"]里面的href属性里面,获取到了我们在去请求这个url一样是定义一个函数request_detall_page

  1. def parse_list_page(self,source): #获取职位详情页url
  2. html=etree.HTML(source)
  3. links=html.xpath('//a[@class="position_link"]/@href')
  4. for link in links:
  5. self.request_detall_page(link)
  6. time.sleep(2)
  7. def request_detall_page(self,url): #去请求细节页面
  8. self.driver.get(url)
  9. source=self.driver.page_source #source页面来源

接下来我们去解析详情页即可 定义函数 pares_detail_page 这里就不细说了怎么解析获取了大家肯定都会,后面我要说一下具体的优化

  1. def pares_detail_page(self,source): #获取职位细节信息
  2. html=etree.HTML(source)
  3. Position_name=html.xpath('//span[@class="position-head-wrap-position-name"]/text()')[0] #职位名字
  4. salary=html.xpath('//span[@class="salary"]/text()')[0] #薪水
  5. Position_the_temptation=html.xpath('//dd[@class="job-advantage"]/p/text()')[0] #职位诱惑
  6. Job_description=html.xpath('//div[@class="job-detail"]/text()') #职位详情
  7. Job_description=''.join(html.xpath('//div[@class="job-detail"]/text()')).strip() #拼接
  8. work_address=html.xpath('//div[@class="work_addr"]/text()')[3] #工作地址
  9. CompanyName = html.xpath('//h3[@class="fl"]/em/text()')[0] # 公司名字
  10. Company_Basic_Information=html.xpath('//li/h4/text()') #公司基本信息
  11. position={
  12. '职位名字':Position_name,
  13. '薪水':salary,
  14. '职位诱惑':Position_the_temptation,
  15. '职位详情':Job_description,
  16. '工作地址':work_address,
  17. '公司名字': CompanyName,
  18. '公司基本信息':Compnya_Basic_Information,
  19. }
  20. self.positions.append(position)
  21. time.sleep(5)

这样其实我们就已经写完了这个程序,不过这只能获取第一页对吧,我们肯定不只爬取第一页的所以就要进行优化

网站是通过点击下一页翻页,那么我们先获取到下一页的元素

获取到元素我们可以写个循环嘛,让他解析完一页之后去点击下一页,那什么时候停止呢?可以看到我们点击第三十页的时候 它的class是不是就变了呀我们写个判断语句当它class=pager_next pager_next_disabled 这个的时候我们就停止否则就继续点击,这里也要一起写一个显示等待我爬取的时候就有几次因为这个没有加载出来导致报错

  1. def run(self): #主页面
  2. self.driver.get(self.url) #去请求主页面
  3. while True:
  4. source = self.driver.page_source # source页面来源 先获取一页
  5. WebDriverWait(driver=self.driver,timeout=10).until(
  6. EC.presence_of_element_located((By.XPATH,'//span[@action="next"]'))
  7. ) #等待按钮加载出来,避免没加载出来就点击导致的报错
  8. self.parse_list_page(source) # 获取这一页职位url
  9. next_btn = self.driver.find_element_by_xpath('//span[@action="next"]')#下一页的元素位置
  10. if "pager_next pager_next_disabled" in next_btn.get_attribute('class'): # 如果class等于最后一页则停止,否则继续点击
  11. break
  12. else:
  13. next_btn.click() #点击下一页
  14. time.sleep(1)

接下来我们还得新开窗口,为什么呢详情页哪里来的下一页按钮这不得报错呀

  1. def request_detall_page(self,url): #去请求细节页面
  2. # self.driver.get(url)
  3. self.driver.execute_script("window.open('%s')"%url) #新打开一个职位页面
  4. self.driver.switch_to_window(self.driver.window_handles[1]) #切换到当前页面来解析,不切换的话selenium会停留在上一页
  5. source=self.driver.page_source #source页面来源
  6. self.pares_detail_page(source) #解析页面
  7. self.driver.close() #解析完关闭页面
  8. time.sleep(0.5)
  9. self.driver.switch_to_window(self.driver.window_handles[0]) #切换回主页面

我们来看下效果,也是没有问题呀

全部源代码如下

  1. from selenium import webdriver
  2. import requests
  3. from lxml import etree
  4. from selenium.webdriver.support.ui import WebDriverWait
  5. from selenium.webdriver.support import expected_conditions as EC
  6. from selenium.webdriver.common.by import By
  7. import time
  8. import re
  9. import random #随机模块
  10. class lagouSpitder(object):
  11. option = webdriver.ChromeOptions()
  12. option.add_experimental_option('useAutomationExtension', False)
  13. option.add_experimental_option('excludeSwitches', ['enable-automation'])
  14. driver_path = r'驱动路径' # 定义好路径
  15. def __init__(self):
  16. self.driver=webdriver.Chrome(executable_path=lagouSpitder.driver_path,options=lagouSpitder.option)#初始化路径+规避检测selenium框架
  17. self. driver.execute_cdp_cmd("Page.addScriptToEvaluateOnNewDocument", {
  18. "source": """
  19. Object.defineProperty(navigator, 'webdriver', {
  20. get: () => undefined
  21. })
  22. """
  23. })
  24. self.url='https://www.lagou.com/jobs/list_python/p-city_0?&cl=false&fromSearch=true&labelWords=&suginput='
  25. self.positions=[]
  26. def run(self): #主页面
  27. self.driver.get(self.url) #去请求主页面
  28. while True:
  29. source = self.driver.page_source # source页面来源 先获取一页
  30. WebDriverWait(driver=self.driver,timeout=10).until(
  31. EC.presence_of_element_located((By.XPATH,'//span[@action="next"]'))
  32. ) #等待按钮加载出来,避免没加载出来就点击导致的报错
  33. self.parse_list_page(source) # 解析完获取的这一页职位之后,去点击下一页
  34. next_btn = self.driver.find_element_by_xpath('//span[@action="next"]')#下一页的元素位置
  35. if "pager_next pager_next_disabled" in next_btn.get_attribute('class'): # 如果class等于最后一页则停止,否则继续点击
  36. break
  37. else:
  38. next_btn.click() #点击下一页
  39. time.sleep(1)
  40. def parse_list_page(self,source): #获取职位详情页url
  41. html=etree.HTML(source)
  42. links=html.xpath('//a[@class="position_link"]/@href')
  43. for link in links: #循环去解析详情页
  44. self.request_detall_page(link)
  45. time.sleep(random.uniform(1, 3))#随机暂停
  46. def request_detall_page(self,url): #去请求细节页面
  47. # self.driver.get(url)
  48. self.driver.execute_script("window.open('%s')"%url) #新打开一个职位页面
  49. self.driver.switch_to_window(self.driver.window_handles[1]) #切换到当前页面来解析,不切换的话selenium会停留在上一页
  50. source=self.driver.page_source #source页面来源
  51. self.pares_detail_page(source) #解析页面
  52. self.driver.close() #解析完关闭页面
  53. time.sleep(0.5)
  54. self.driver.switch_to_window(self.driver.window_handles[0]) #切换回主页面
  55. def pares_detail_page(self,source): #获取职位细节信息
  56. html=etree.HTML(source)
  57. Position_name=html.xpath('//span[@class="position-head-wrap-position-name"]/text()')[0] #职位名字
  58. salary=html.xpath('//span[@class="salary"]/text()')[0] #薪水
  59. Position_the_temptation=html.xpath('//dd[@class="job-advantage"]/p/text()')[0] #职位诱惑
  60. Job_description=html.xpath('//div[@class="job-detail"]//text()') #职位详情
  61. # Job_description=re.sub(r'[\s/]','',Job_description)
  62. desc=''.join(html.xpath('//div[@class="job-detail"]//text()')).strip() #拼接
  63. work_address=html.xpath('//div[@class="work_addr"]//text()')[3] #工作地址
  64. CompanyName = html.xpath('//h3[@class="fl"]/em/text()')[0] # 公司名字
  65. Company_Basic_Information=html.xpath('//li/h4/text()') #公司基本信息
  66. position={
  67. '职位名字':Position_name,
  68. '薪水':salary,
  69. '职位诱惑':Position_the_temptation,
  70. '职位详情':Job_description,
  71. '工作地址':work_address,
  72. '公司名字': CompanyName,
  73. '公司基本信息':Company_Basic_Information,
  74. }
  75. self.positions.append(position)
  76. print(position)
  77. print('='*40)
  78. if __name__ == '__main__':
  79. spider=lagouSpitder()
  80. spider.run()

对了还有一件事~看完觉得可以的话点个赞吧,切莫白嫖

**至此程序就全部写完啦 **

声明

本文仅限于做技术交流学习,请勿用作任何非法用途!

标签: python 爬虫 selenium

本文转载自: https://blog.csdn.net/m0_59874815/article/details/121480276
版权归原作者 是白白 所有, 如有侵权,请联系我们删除。

“python爬虫之爬取拉勾网”的评论:

还没有评论