0


(三)爬取一些网页图片

爬取一些网页图片

1、随机爬取一个网页:

  1. import requests
  2. # 1、获取图片网页源码
  3. def Get_Source_Page():
  4. url ='https://pic.netbian.com/index.html'
  5. # 当爬虫程序运行爬网站,若不设置header为任意一个名字,会被有些网站检查出是python爬虫,被禁止访问
  6. headers ={
  7. # 'Host':'image.baidu.com'
  8. # 'Cookie':
  9. # 'Referer':"User-Agent":"hdy"}
  10. # 后去网页get请求
  11. response = requests.get(url=url, headers=headers)
  12. # 获取数据内容,并打印(获取网页源码很重要,每个网页都不尽相同,可以根据具体返回的网页信息来截取图片信息)
  13. text = response.text
  14. print(text)return text
  15. if __name__=='__main__':Get_Source_Page()

2、运行,出现部分乱码:

在这里插入图片描述

3、将返回的网页进行编码解码,具体什么编码看开头的“meta charset="gbk“,这里是gbk编码。

  1. response.encoding ='gbk'

4、完整代码:

  1. import requests
  2. # 1、获取图片网页源码
  3. def Get_Source_Page():
  4. url ='https://pic.netbian.com/index.html'
  5. # 当爬虫程序运行爬网站,若不设置header为任意一个名字,会被有些网站检查出是python爬虫,被禁止访问
  6. headers ={
  7. # 'Host':'image.baidu.com'
  8. # 'Cookie':
  9. # 'Referer':"User-Agent":"hdy"}
  10. # 后去网页get请求
  11. response = requests.get(url=url, headers=headers)
  12. # gbk编码解码
  13. response.encoding ='gbk'
  14. # 获取数据内容,并打印(获取网页源码很重要,每个网页都不尽相同,可以根据具体返回的网页信息来截取图片信息)
  15. text = response.text
  16. print(text)return text
  17. if __name__=='__main__':Get_Source_Page()

5、运行结果,网页获取成功,乱码解决:

在这里插入图片描述

6、对于需要截取一些特定多行的网页源码,需要进行如下操作:

  1. import re
  2. a ='''aabbccdd123456:121313413
  3. xxyyzz'''
  4. b = re.findall("aa(.*?)zz", a)
  5. c = re.findall("aa(.*?)zz", a, re.S) # re.S的功能
  6. print("b is :", b)print("c is :", c)
  7. # re.S的作用是将多行的字符串a连接成一行,多行中的aa和zz不在同一行,则"aa(.*?)zz"的条件没有
  8. # 需要将多行中aa和zz通过re.S链接在一起

7、运行效果:

在这里插入图片描述

8、查看网页源码信息,定位到图片的URL链接和标题,以备用在程序中获取的网页源码中提取URL链接和图片标题:

在这里插入图片描述

9、在第5步中程序运行获取的网页信息,根据在浏览器上网页源码的图片信息定位到程序请求得到的网页信息。

在这里插入图片描述
在这里插入图片描述

10、设计程序获取图片信息(URL、标题):

  1. import requests
  2. import re
  3. # 1、获取图片网页源码
  4. def Get_Source_Page():
  5. url ='https://pic.netbian.com/index.html'
  6. # 当爬虫程序运行爬网站,若不设置header为任意一个名字,会被有些网站检查出是python爬虫,被禁止访问
  7. headers ={
  8. # 'Host':'image.baidu.com'
  9. # 'Cookie':
  10. # 'Referer':"User-Agent":"hdy"}
  11. # 后去网页get请求
  12. response = requests.get(url=url, headers=headers)
  13. # utf-8编码解码
  14. response.encoding ='gbk'
  15. # 获取数据内容,并打印(获取网页源码很重要,每个网页都不尽相同,可以根据具体返回的网页信息来截取图片信息)
  16. text = response.text
  17. print(text)return text
  18. # 2、从源码中解析出图片地址
  19. def Get_img_link(text):
  20. # 对整个网页截取有图片的地址、标题等信息的网页内容
  21. # find要求的的内容信息”<ul class="clearfix">(.*?)</ul>“,<ul></ul>中间内容
  22. find = re.compile('<ul class="clearfix">(.*?)</ul>', re.S)
  23. # 对text网页信息截取符合find要求的的内容信息
  24. li_list = re.findall(find, text)print(li_list[0])if __name__=='__main__':Get_Source_Page()Get_img_link(Get_Source_Page())

11、在网页信息中提取得到需要图片信息:

在这里插入图片描述

12、进一步提取图片信息:

  1. import requests
  2. import re
  3. # 1、获取图片网页源码
  4. def Get_Source_Page():
  5. url ='https://pic.netbian.com/index.html'
  6. # 当爬虫程序运行爬网站,若不设置header为任意一个名字,会被有些网站检查出是python爬虫,被禁止访问
  7. headers ={
  8. # 'Host':'image.baidu.com'
  9. # 'Cookie':
  10. # 'Referer':"User-Agent":"hdy"}
  11. # 后去网页get请求
  12. response = requests.get(url=url, headers=headers)
  13. # utf-8编码解码
  14. response.encoding ='gbk'
  15. # 获取数据内容,并打印(获取网页源码很重要,每个网页都不尽相同,可以根据具体返回的网页信息来截取图片信息)
  16. text = response.text
  17. print(text)return text
  18. # 2、从源码中解析出图片地址
  19. def Get_img_link(text):
  20. # 对整个网页截取有图片的地址、标题等信息的网页内容
  21. # find要求的的内容信息”<ul class="clearfix">(.*?)</ul>“,<ul></ul>中间内容
  22. find = re.compile('<ul class="clearfix">(.*?)</ul>', re.S)
  23. # 对text网页信息截取符合find要求的的内容信息
  24. li_list = re.findall(find, text)print(li_list[0])
  25. # 截取特定格式的网页信息
  26. find_img_link = re.compile('<img src="(.*?)" alt="(.*?)" />', re.S)
  27. # 对li_list[0]信息截取符合find_img_link要求的的内容信息
  28. img_list = re.findall(find_img_link, li_list[0])
  29. # print(img_list)if __name__=='__main__':Get_Source_Page()Get_img_link(Get_Source_Page())

13、运行,从多张的图片的一整段信息,提取得到一张张图片的信息:

在这里插入图片描述

14、分别得到一张张图片信息(URL、标题):

  1. import requests
  2. import re
  3. # 1、获取图片网页源码
  4. def Get_Source_Page():
  5. url ='https://pic.netbian.com/index.html'
  6. # 当爬虫程序运行爬网站,若不设置header为任意一个名字,会被有些网站检查出是python爬虫,被禁止访问
  7. headers ={
  8. # 'Host':'image.baidu.com'
  9. # 'Cookie':
  10. # 'Referer':"User-Agent":"hdy"}
  11. # 后去网页get请求
  12. response = requests.get(url=url, headers=headers)
  13. # utf-8编码解码
  14. response.encoding ='gbk'
  15. # 获取数据内容,并打印(获取网页源码很重要,每个网页都不尽相同,可以根据具体返回的网页信息来截取图片信息)
  16. text = response.text
  17. print(text)return text
  18. # 2、从源码中解析出图片地址
  19. def Get_img_link(text):
  20. # 对整个网页截取有图片的地址、标题等信息的网页内容
  21. # find要求的的内容信息”<ul class="clearfix">(.*?)</ul>“,<ul></ul>中间内容
  22. find = re.compile('<ul class="clearfix">(.*?)</ul>', re.S)
  23. # 对text网页信息截取符合find要求的的内容信息
  24. li_list = re.findall(find, text)print(li_list[0])
  25. # 截取特定格式的网页信息
  26. find_img_link = re.compile('<img src="(.*?)" alt="(.*?)" />', re.S)
  27. # 对li_list[0]信息截取符合find_img_link要求的的内容信息
  28. img_list = re.findall(find_img_link, li_list[0])print(img_list)for i inimg_list:print(i)if __name__=='__main__':Get_Source_Page()Get_img_link(Get_Source_Page())

15、更清晰的显示图片信息:

在这里插入图片描述

16、向图片地址发送请求并保存:

  1. import requests
  2. import re
  3. # 1、获取图片网页源码
  4. def Get_Source_Page():
  5. url ='https://pic.netbian.com/index.html'
  6. # 当爬虫程序运行爬网站,若不设置header为任意一个名字,会被有些网站检查出是python爬虫,被禁止访问
  7. headers ={
  8. # 'Host':'image.baidu.com'
  9. # 'Cookie':
  10. # 'Referer':"User-Agent":"hdy"}
  11. # 后去网页get请求
  12. response = requests.get(url=url, headers=headers)
  13. # gbk编码解码
  14. response.encoding ='gbk'
  15. # 获取数据内容,并打印(获取网页源码很重要,每个网页都不尽相同,可以根据具体返回的网页信息来截取图片信息)
  16. text = response.text
  17. print(text)return text
  18. # 2、从源码中解析出图片地址
  19. def Get_img_link(text):
  20. # 对整个网页截取有图片的地址、标题等信息的网页内容
  21. # find要求的的内容信息”<ul class="clearfix">(.*?)</ul>“,<ul></ul>中间内容
  22. find = re.compile('<ul class="clearfix">(.*?)</ul>', re.S)
  23. # 对text网页信息截取符合find要求的的内容信息
  24. li_list = re.findall(find, text)
  25. # print(li_list[0])
  26. # 截取特定格式的网页信息
  27. find_img_link = re.compile('<img src="(.*?)" alt="(.*?)" />', re.S)
  28. # 对li_list[0]信息截取符合find_img_link要求的的内容信息
  29. img_list = re.findall(find_img_link, li_list[0])print(img_list)for i inimg_list:print(i)
  30. # 3、向图片发送请求,并保存图片
  31. def Save_img(link, title):
  32. # img_url = f'https://pic.netbian.com/index.html' # 第一页的图片地址
  33. img_url = f'https://pic.netbian.com/{link}' # 拼接图片地址链接(第2、3、、# )
  34. img_res = requests.get(url=img_url) # 像图片地址发送请求
  35. withopen(f'04_fild/{title}.jpg', mode='wb')asf: # 以二进制方式写入jpg图片
  36. f.write(img_res.content)
  37. img_res.close()if __name__=='__main__':Get_Source_Page()Get_img_link(Get_Source_Page())
  38. # 取需要保存的图片的部分URL链接
  39. Save_img('uploads/allimg/210317/001935-16159115757f04.jpg','4k 高清 可爱 女生 动漫 长辫子 双马尾辫 项链 电脑 壁纸')

17、成功爬取一张图片:

在这里插入图片描述

18、改进程序,保存一个网页里面的多张图片:

  1. import requests
  2. import re
  3. # 1、获取图片网页源码
  4. def Get_Source_Page():
  5. url ='https://pic.netbian.com/index.html'
  6. # 当爬虫程序运行爬网站,若不设置header为任意一个名字,会被有些网站检查出是python爬虫,被禁止访问
  7. headers ={
  8. # 'Host':'image.baidu.com'
  9. # 'Cookie':
  10. # 'Referer':"User-Agent":"hdy"}
  11. # 后去网页get请求
  12. response = requests.get(url=url, headers=headers)
  13. # gbk编码解码
  14. response.encoding ='gbk'
  15. # 获取数据内容,并打印(获取网页源码很重要,每个网页都不尽相同,可以根据具体返回的网页信息来截取图片信息)
  16. text = response.text
  17. print(text)return text
  18. # 2、从源码中解析出图片地址
  19. def Get_img_link(text):
  20. # 对整个网页截取有图片的地址、标题等信息的网页内容
  21. # find要求的的内容信息”<ul class="clearfix">(.*?)</ul>“,<ul></ul>中间内容
  22. find = re.compile('<ul class="clearfix">(.*?)</ul>', re.S)
  23. # 对text网页信息截取符合find要求的的内容信息
  24. li_list = re.findall(find, text)
  25. # print(li_list[0])
  26. # 截取特定格式的网页信息
  27. find_img_link = re.compile('<img src="(.*?)" alt="(.*?)" />', re.S)
  28. # 对li_list[0]信息截取符合find_img_link要求的的内容信息
  29. img_list = re.findall(find_img_link, li_list[0])print(img_list)for i inimg_list:print(i[0], i[1])Save_img(i[0], i[1])
  30. # 3、向图片发送请求,并保存图片
  31. def Save_img(link, title):
  32. # img_url = f'https://pic.netbian.com/index.html' # 第一页的图片地址
  33. img_url = f'https://pic.netbian.com/{link}' # 拼接图片地址链接(第2、3、、# )
  34. img_res = requests.get(url=img_url) # 像图片地址发送请求
  35. withopen(f'04_fild/{title}.jpg', mode='wb')asf: # 以二进制方式写入jpg图片
  36. f.write(img_res.content)
  37. img_res.close()if __name__=='__main__':Get_Source_Page()Get_img_link(Get_Source_Page())
  38. # Save_img('uploads/allimg/210317/001935-16159115757f04.jpg','4k 高清 可爱 女生 动漫 长辫子 双马尾辫 项链 电脑 壁纸')

19、代码解析:

在这里插入图片描述

20、进一步改进代码,获取认识页数的全部图片:

  1. import requests
  2. import re
  3. # 1、获取图片网页源码
  4. def Get_Source_Page():
  5. # 当爬虫程序运行爬网站,若不设置header为任意一个名字,会被有些网站检查出是python爬虫,被禁止访问
  6. headers ={
  7. # 'Host':'image.baidu.com'
  8. # 'Cookie':
  9. # 'Referer':"User-Agent":"hdy"}for i inrange(2,5): # 若想要爬取多个页数的图片,就把这里的5改成想要爬的页数
  10. # url ='https://pic.netbian.com/index.html' # 首页的网页地址
  11. if i ==1:
  12. url = f'https://pic.netbian.com/index.html'else:
  13. url = f'https://pic.netbian.com/index_{i}.html' # 第i页的网页地址
  14. # 后去网页get请求
  15. response = requests.get(url=url, headers=headers)
  16. # gbk编码解码
  17. response.encoding ='gbk'
  18. # 获取数据内容,并打印(获取网页源码很重要,每个网页都不尽相同,可以根据具体返回的网页信息来截取图片信息)
  19. text = response.text
  20. print(text)return text
  21. # 2、从源码中解析出图片地址
  22. def Get_img_link(text):
  23. # 对整个网页截取有图片的地址、标题等信息的网页内容
  24. # find要求的的内容信息”<ul class="clearfix">(.*?)</ul>“,<ul></ul>中间内容
  25. find = re.compile('<ul class="clearfix">(.*?)</ul>', re.S)
  26. # 对text网页信息截取符合find要求的的内容信息
  27. li_list = re.findall(find, text)
  28. # print(li_list[0])
  29. # 截取特定格式的网页信息
  30. find_img_link = re.compile('<img src="(.*?)" alt="(.*?)" />', re.S)
  31. # 对li_list[0]信息截取符合find_img_link要求的的内容信息
  32. img_list = re.findall(find_img_link, li_list[0])print(img_list)for i inimg_list:print(i[0], i[1])Save_img(i[0], i[1])
  33. # 3、向图片发送请求,并保存图片
  34. def Save_img(link, title):
  35. # img_url = f'https://pic.netbian.com/index.html' # 第一页的图片地址
  36. img_url = f'https://pic.netbian.com/{link}' # 拼接图片地址链接(第2、3、、# )
  37. img_res = requests.get(url=img_url) # 像图片地址发送请求
  38. withopen(f'04_fild/{title}.jpg', mode='wb')asf: # 以二进制方式写入jpg图片
  39. f.write(img_res.content)
  40. img_res.close()if __name__=='__main__':Get_Source_Page()Get_img_link(Get_Source_Page())
  41. # Save_img('uploads/allimg/210317/001935-16159115757f04.jpg','4k 高清 可爱 女生 动漫 长辫子 双马尾辫 项链 电脑 壁纸')

本文转载自: https://blog.csdn.net/K_AAbb/article/details/127204404
版权归原作者 Kkh_8686 所有, 如有侵权,请联系我们删除。

“(三)爬取一些网页图片”的评论:

还没有评论
关于作者
...
overfit同步小助手
文章同步