Python爬虫 —— 使用BeautifulSoup4解析HTML文档
目录
1.BeautifulSoup4简介
1.1 BS4与lxml
开门见山!我们先来聊聊BS4是个啥,它能干啥,BS4是一个从HTML和XML文件中提取数据的python库,它可以将复杂HTML文件转换为一个复杂的树形结构,这棵树的每一个结点都是Python对象,所有对象都可以归纳为4类,我们在后面会说
BeautifulSoup会自动将输入文档转换为Unicode编码,将输入文档转换为utf-8编码
lxml与BS4一样是优秀的python解释器,它也是,但是这二者有什么样的区别,决定了我们为什么选择BeautifulSoup,lxml是从文档的局部入手,只能局部遍历,但BS4就不一样了,它会载入整个文档,解析整个DOM树,正是因为这个工程量巨大,所以BS4会有很大的时间和空间的开销,整体性能是低于lxml的
但是我们使用BeautifulSoup4必有其原因:BS4用来解析HTML比较简单,API设计也是非常的银性化(人性化)方便我们使用,它也支持CSS选择器,这对于解析整个DOM树的BS4可谓是如虎添翼,它还支持Python标准库中的HTML解析器和lxml的XML解析器
1.2 BeautifulSoup的4类对象
我们前面说:“将复杂HTML文件转换为一个复杂的树形结构,这棵树的每一个结点都是Python对象”,这些python可以大致分为4类:Tag、NavigableString、BeautifulSoup和Comment,我们通过几个例子来熟悉一下这四类对象的使用方法:
- 1.Tap 标签及其内容,但默认只拿到第一个
- 2.NavigableString 标签里的内容(字符串)
- 3.BeautifulSoup 表示整个文档
- 4.Comment 是一个特殊的NavigableString类型,但输出的内容不包含注释
首先第一步就是导包:from bs4 import BeautifulSoup;然后通过文件操作的语句来打开我们项目中的一个html文件,用一个file对象接收我们的html文件后想要让BeautifulSoup解析它,我们还需要传入一个解析器:html.parser
from bs4 import BeautifulSoup
import re
file=open("./Demo.html","rb")
html =file.read().decode("utf-8")# 通过html.parser解析器把我们的HTML解析成了一棵树
bs = BeautifulSoup(html,"html.parser")# 1.Tapprint("1. Tap的例子:获取title")print(bs.title)# 2.NavigableStringprint("2. NavigableString的例子:获取title的string内容和div的属性")print(bs.title.string)print(bs.div.attrs)# 获取标签中的所有属性,并返回一个字典# 3.BeautifulSoupprint("3. BeautifulSoup的例子:获取整个html文档的name")print(bs.name)# 4.Commentprint("4. Comment的例子:获取a的string")print(bs.a.string)
按照以往管理咱来看看代码!从第7行开始我们对这四类对象做了实例解释,对应Tap类型,我们打印了bs.title,即这个HTML文档的标签的全部信息,第12、13行我们通过bs.title.string和bs.div.attrs打印了标签内的信息,title的string信息和div盒子的属性,后面的代码也是同样的道理
2.文档搜索方式
我们在通过网页的地址获取到其源码后不可能直接使用,所以我们在获取HTML源码后要先对其进行信息的定向搜索和筛选,然后再供我们使用,对应BeautifulSoup的文档搜索,它提供了这样几种搜索方式:使用find_all()方法直接搜索、使用kwargs指定参数进行搜索、指定字符串搜索(常与正则表达式匹配使用)和设置limit参数进行搜索,我们依旧通过一些实际操作来掌握这些搜索方法
2.1 使用find_all()搜索
- 字符串过滤:会查找与字符串完全匹配的内容(注意一定是完全匹配)
- 正则表达式搜索:使用search()方法匹配内容,它搜索的对象依旧是一个标签,一个整体而不是拆分开来
t_list = bs.find_all("a")
t_list02 = bs.find_all(re.compile("a"))
对应字符串搜索,我们往find_all()方法中传入了一个字符串"a",进行整个文档的字符串过滤,只有含有单个"a"的内容才会被筛选出来,我们使用正则表达式搜索时往find_all()方法中传入re.compile(“a”)这样的一个匹配规则,它会返回所有含有"a"的标签内容,比如等都不例外
2.2 使用kwargs指定参数搜索
同样是使用find_all()方法进行文档搜索,但是我们往其中传入的参数完全不同,举两个例子,我们要搜索id="update"的标签、有class字样的标签还有href="baidu.html"的标签
# 2.kwargs (参数):指定参数进行搜索print("-------(1)显示id=“update“的")
t_list03 = bs.find_all(id="update")for item in t_list03:print(item)print("-------(2)只要有class就显示出来")
t_list04 = bs.find_all(class_=True)for item in t_list04:print(item)print("-------(3)指定查找href=”baidu.html“")
t_list05 = bs.find_all(href="baidu.html")for item in t_list05:print(item)
2.3 text参数搜索
使用text参数进行搜索就稍显轻松了,使用text搜索我们一般会使用列表和正则表达式搜索,这样才能达到我们定向筛选数据的效果,话不多说上代码
2.4 设置limit参数搜索
如果我们通过代码bs.find_all(class_=True)来筛选出存在"class"的部分,结果是有很多很多的,但是我们如果只想要3个结果,需要设置参数limit=x来满足我们的需求
t_text10 = bs.find_all("a", limit=3)for item in t_text10:print(item)
2.5 CSS选择器
相对来说通过CSS选择器来进行文档搜索就很丰富了,可以通过标签、类名、id名、标签属性和子标签等等方式来进行搜索,不一样的是我们会使用bs.select()方法来筛选
# css选择器print("-------(1)通过标签访问")
t_css = bs.select('title')# 通过标签访问for item in t_css:print(item)print("-------(2)通过类名访问")
t_css2 = bs.select(".col-sm-3")# 通过类名访问for item in t_css2:print(item)print("-------(3)通过id访问")
t_css3 = bs.select("#btn_add")for item in t_css3:print(item)print("-------(4)通过标签的属性访问")
t_css4 = bs.select("button[type='submit']")for item in t_css4:print(item)# 注意不能有空格print("-------(5)通过子标签访问")
t_css5 = bs.select("div > button")for item in t_css5:print(item)
如果文章对您有所帮助,记得一键三连支持一下哦~
版权归原作者 香蕉道突破手牛爷爷 所有, 如有侵权,请联系我们删除。