大家好呀,我是辣条。
写这篇文章的灵感来源于之前和朋友的聊天,真的无力吐槽了,想发适合的表情包怼回去却发现收藏的表情包就那几个,就想着是不是可以爬取一些表情包,再也不用尬聊了。
先给大家看看我遇到的聊天最尬的场面:
斗图吧图片采集
抓取目标
网站:斗图吧
工具使用
开发环境:win10、python3.7
开发工具:pycharm、Chrome
工具包:requests、etree
重点内容学习
1.Q队列储存数据信息
2.py多线程使用方法
3.xpath语法学习
项目思路分析
根据你需要的关键字搜索对应的图片数据
搜索的关键字和页数根据改变对应的url
https://www.doutula.com/search?type=photo&more=1&keyword={}&page={}
将对应的url地址保存在page队列里
page_q = Queue()
img_q = Queue()for x inrange(1,11):
url ='https://www.doutula.com/search?type=photo&more=1&keyword=%E7%A8%8B%E5%BA%8F%E5%91%98&page={}'.format(x)
page_q.put(url)
通过xpath方式提取当前页面的url地址以及图片的名字
将提取到的图片和地址存储在img队列里
defparse_page(self, url):
response = requests.get(url, headers=self.headers).text
# print(response)
html = etree.HTML(response)
images = html.xpath('//div[@class="random_picture"]')for img in images:
img_url = img.xpath('.//img/@data-original')# 获取图片名字print(img_url)
alt = img.xpath('.//p/text()')for name, new_url inzip(alt, img_url):
filename = re.sub(r'[??.,。!!*\\/|]','', name)+".jpg"# 获取图片的后缀名# suffix = os.path.splitext(img_url)[1]# print(alt)
self.img_queue.put((new_url, filename))
根据图片地址下载保存图片
保存图片是要根据图片url来判断保存的后缀(我统一保存的jpg,问就是因为懒癌晚期)
整理需求
- 创建两个线程类,一个用来提取网页图片数据,一个保存图片数据
- 创建两个队列,一个保存page的url, 一个保存图片的url和名字
- 通过xpath的方法提取出网址的图片地址
简易源码分享
import requests
from lxml import etree
import re
from queue import Queue
import threading
classImageParse(threading.Thread):def__init__(self, page_queue, img_queue):super(ImageParse, self).__init__()
self.page_queue = page_queue
self.img_queue = img_queue
self.headers ={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36'}defrun(self):if self.page_queue.empty():break
url = self.page_queue.get()
self.parse_page(url)defparse_page(self, url):
response = requests.get(url, headers=self.headers).text
# print(response)
html = etree.HTML(response)
images = html.xpath('//div[@class="random_picture"]')for img in images:
img_url = img.xpath('.//img/@data-original')# 获取图片名字print(img_url)
alt = img.xpath('.//p/text()')for name, new_url inzip(alt, img_url):
filename = re.sub(r'[??.,。!!*\\/|]','', name)+".jpg"# 获取图片的后缀名# suffix = os.path.splitext(img_url)[1]# print(alt)
self.img_queue.put((new_url, filename))classDownload(threading.Thread):def__init__(self, page_queue, img_queue):super(Download, self).__init__()
self.page_queue = page_queue
self.img_queue = img_queue
defrun(self):if self.img_queue.empty()and self.page_queue.empty():break
img_url, filename = self.img_queue.get()withopen("表情包/"+ filename,"wb")as f:
response = requests.get(img_url).content
f.write(response)print(filename +'下载完成')defmain():# 建立队列
page_q = Queue()
img_q = Queue()for x inrange(1,11):
url ='https://www.doutula.com/search?type=photo&more=1&keyword=%E7%A8%8B%E5%BA%8F%E5%91%98&page={}'.format(x)
page_q.put(url)for x inrange(5):
t = ImageParse(page_q, img_q)
t.start()
t = Download(page_q, img_q)
t.start()if __name__ =='__main__':
main()
PS:表情包在手,聊天永不尬,没什么事是一个表情包解决不了的,如果有那就多发几个!对你有用的话给辣条一个三连吧,感谢啦!
版权归原作者 五包辣条! 所有, 如有侵权,请联系我们删除。