0


Python爬虫 —— 使用BeautifulSoup4解析HTML文档

Python爬虫 —— 使用BeautifulSoup4解析HTML文档

目录


1.BeautifulSoup4简介

1.1 BS4与lxml

开门见山!我们先来聊聊BS4是个啥,它能干啥,BS4是一个从HTML和XML文件中提取数据的python库,它可以将复杂HTML文件转换为一个复杂的树形结构,这棵树的每一个结点都是Python对象,所有对象都可以归纳为4类,我们在后面会说

BeautifulSoup会自动将输入文档转换为Unicode编码,将输入文档转换为utf-8编码

lxml与BS4一样是优秀的python解释器,它也是,但是这二者有什么样的区别,决定了我们为什么选择BeautifulSoup,lxml是从文档的局部入手,只能局部遍历,但BS4就不一样了,它会载入整个文档,解析整个DOM树,正是因为这个工程量巨大,所以BS4会有很大的时间和空间的开销,整体性能是低于lxml的

但是我们使用BeautifulSoup4必有其原因:BS4用来解析HTML比较简单,API设计也是非常的银性化(人性化)方便我们使用,它也支持CSS选择器,这对于解析整个DOM树的BS4可谓是如虎添翼,它还支持Python标准库中的HTML解析器和lxml的XML解析器

1.2 BeautifulSoup的4类对象

我们前面说:“将复杂HTML文件转换为一个复杂的树形结构,这棵树的每一个结点都是Python对象”,这些python可以大致分为4类:Tag、NavigableString、BeautifulSoup和Comment,我们通过几个例子来熟悉一下这四类对象的使用方法:

  • 1.Tap 标签及其内容,但默认只拿到第一个
  • 2.NavigableString 标签里的内容(字符串)
  • 3.BeautifulSoup 表示整个文档
  • 4.Comment 是一个特殊的NavigableString类型,但输出的内容不包含注释

首先第一步就是导包:from bs4 import BeautifulSoup;然后通过文件操作的语句来打开我们项目中的一个html文件,用一个file对象接收我们的html文件后想要让BeautifulSoup解析它,我们还需要传入一个解析器:html.parser

from bs4 import BeautifulSoup
import re
file=open("./Demo.html","rb")
html =file.read().decode("utf-8")# 通过html.parser解析器把我们的HTML解析成了一棵树
bs = BeautifulSoup(html,"html.parser")# 1.Tapprint("1. Tap的例子:获取title")print(bs.title)# 2.NavigableStringprint("2. NavigableString的例子:获取title的string内容和div的属性")print(bs.title.string)print(bs.div.attrs)# 获取标签中的所有属性,并返回一个字典# 3.BeautifulSoupprint("3. BeautifulSoup的例子:获取整个html文档的name")print(bs.name)# 4.Commentprint("4. Comment的例子:获取a的string")print(bs.a.string)

按照以往管理咱来看看代码!从第7行开始我们对这四类对象做了实例解释,对应Tap类型,我们打印了bs.title,即这个HTML文档的标签的全部信息,第12、13行我们通过bs.title.string和bs.div.attrs打印了标签内的信息,title的string信息和div盒子的属性,后面的代码也是同样的道理

在这里插入图片描述

2.文档搜索方式

我们在通过网页的地址获取到其源码后不可能直接使用,所以我们在获取HTML源码后要先对其进行信息的定向搜索和筛选,然后再供我们使用,对应BeautifulSoup的文档搜索,它提供了这样几种搜索方式:使用find_all()方法直接搜索、使用kwargs指定参数进行搜索、指定字符串搜索(常与正则表达式匹配使用)和设置limit参数进行搜索,我们依旧通过一些实际操作来掌握这些搜索方法

2.1 使用find_all()搜索

  • 字符串过滤:会查找与字符串完全匹配的内容(注意一定是完全匹配)
  • 正则表达式搜索:使用search()方法匹配内容,它搜索的对象依旧是一个标签,一个整体而不是拆分开来
t_list = bs.find_all("a")
t_list02 = bs.find_all(re.compile("a"))

对应字符串搜索,我们往find_all()方法中传入了一个字符串"a",进行整个文档的字符串过滤,只有含有单个"a"的内容才会被筛选出来,我们使用正则表达式搜索时往find_all()方法中传入re.compile(“a”)这样的一个匹配规则,它会返回所有含有"a"的标签内容,比如等都不例外

在这里插入图片描述

2.2 使用kwargs指定参数搜索

同样是使用find_all()方法进行文档搜索,但是我们往其中传入的参数完全不同,举两个例子,我们要搜索id="update"的标签、有class字样的标签还有href="baidu.html"的标签

# 2.kwargs (参数):指定参数进行搜索print("-------(1)显示id=“update“的")
t_list03 = bs.find_all(id="update")for item in t_list03:print(item)print("-------(2)只要有class就显示出来")
t_list04 = bs.find_all(class_=True)for item in t_list04:print(item)print("-------(3)指定查找href=”baidu.html“")
t_list05 = bs.find_all(href="baidu.html")for item in t_list05:print(item)

在这里插入图片描述

2.3 text参数搜索

使用text参数进行搜索就稍显轻松了,使用text搜索我们一般会使用列表和正则表达式搜索,这样才能达到我们定向筛选数据的效果,话不多说上代码

在这里插入图片描述

2.4 设置limit参数搜索

如果我们通过代码bs.find_all(class_=True)来筛选出存在"class"的部分,结果是有很多很多的,但是我们如果只想要3个结果,需要设置参数limit=x来满足我们的需求

t_text10 = bs.find_all("a", limit=3)for item in t_text10:print(item)

在这里插入图片描述

2.5 CSS选择器

相对来说通过CSS选择器来进行文档搜索就很丰富了,可以通过标签、类名、id名、标签属性和子标签等等方式来进行搜索,不一样的是我们会使用bs.select()方法来筛选

# css选择器print("-------(1)通过标签访问")
t_css = bs.select('title')# 通过标签访问for item in t_css:print(item)print("-------(2)通过类名访问")
t_css2 = bs.select(".col-sm-3")# 通过类名访问for item in t_css2:print(item)print("-------(3)通过id访问")
t_css3 = bs.select("#btn_add")for item in t_css3:print(item)print("-------(4)通过标签的属性访问")
t_css4 = bs.select("button[type='submit']")for item in t_css4:print(item)# 注意不能有空格print("-------(5)通过子标签访问")
t_css5 = bs.select("div > button")for item in t_css5:print(item)

在这里插入图片描述


如果文章对您有所帮助,记得一键三连支持一下哦~

标签: python pycharm 爬虫

本文转载自: https://blog.csdn.net/qq_50587771/article/details/123870433
版权归原作者 香蕉道突破手牛爷爷 所有, 如有侵权,请联系我们删除。

“Python爬虫 —— 使用BeautifulSoup4解析HTML文档”的评论:

还没有评论