文章目录
前言
近年来,随着互联网的快速发展和人们对电影需求的增加,电影市场也变得日趋繁荣。作为观众或者投资者,我们时常需要了解最新的电影排行榜和票房情况。本文将介绍如何使用Python编写一个爬虫脚本,通过Selenium库自动化操作浏览器,爬取猫眼电影榜单数据,并保存为Excel文件。
导入所需的库:
import time
:导入时间模块,用于添加延时等待。from selenium import webdriver
:导入Selenium库中的webdriver模块,用于创建浏览器实例和自动化操作。from selenium.webdriver.common.by import By
:导入Selenium库中的By模块,用于XPath定位元素。import pandas as pd
:导入pandas库,用于处理和分析数据。
设置ChromeDriver的路径,并创建一个Chrome浏览器实例:
driver_path ='ChromeDriver的路径'
driver = webdriver.Chrome(driver_path)
打开目标网页,这里以猫眼电影榜单页面为例:
url ='https://www.maoyan.com/board?timeStamp=1688716544141&sVersion=1&webdriver=false&index=3&signKey=44a722f975ab0b6750812bd0bf340b88&channelId=40011&requestCode=49793531118b4af79a95958d845ab0a7lgmud'
driver.get(url)
time.sleep(5)
使用XPath定位电影信息。通过查看网页源代码,发现电影信息所在的
<dd>
标签具有唯一的class属性名:
info = driver.find_element(By.CLASS_NAME,"board-wrapper")
ddlist = info.find_elements(By.TAG_NAME,"dd")
遍历所有的
<dd>
标签,获取电影名称、导演和评分,并将数据保存到DataFrame中:
data = pd.DataFrame(columns=['电影名称','导演','评分'])
i =0for item in ddlist:
titles = item.find_element(By.CLASS_NAME,"board-item-main").find_element(By.CLASS_NAME,"name").text
directors = item.find_element(By.CLASS_NAME,"star").text
scores = item.find_element(By.CLASS_NAME,"releasetime").text
data.loc[i]=[titles, directors, scores]
i +=1print(f"电影名称:{titles},导演:{directors},评分:{scores}")
将DataFrame导出为Excel文件:
output_path ='猫眼.xlsx'
data.to_excel(output_path, index=False)
关闭浏览器:
driver.quit()
通过以上代码,我们成功实现了使用Python爬取猫眼电影榜单数据的功能。
完整代码
import time
from selenium import webdriver
from selenium.webdriver.common.by import By
import pandas as pd
# 设置ChromeDriver的路径
driver_path =''# 创建Chrome浏览器实例
driver = webdriver.Chrome(driver_path)# 打开目标网页
url ='https://www.maoyan.com/board?timeStamp=1688716544141&sVersion=1&webdriver=false&index=3&signKey=44a722f975ab0b6750812bd0bf340b88&channelId=40011&requestCode=49793531118b4af79a95958d845ab0a7lgmud'
driver.get(url)
time.sleep(5)# 使用XPath定位电影信息
info = driver.find_element(By.CLASS_NAME,"board-wrapper")
ddlist = info.find_elements(By.TAG_NAME,"dd")# print(ddlist)
data = pd.DataFrame(columns=['电影名称','导演','评分'])
i =0for item in ddlist:# print(item)# 获取所有电影信息
titles = item.find_element(By.CLASS_NAME,"board-item-main").find_element(By.CLASS_NAME,"name").text
directors = item.find_element(By.CLASS_NAME,"star").text
scores = item.find_element(By.CLASS_NAME,"releasetime").text
data.loc[i]=[titles, directors, scores]
i +=1print(f"titles{titles}, directors{directors} , scores{scores}")# # 将DataFrame导出为Excel文件
output_path ='猫眼.xlsx'
data.to_excel(output_path, index=False)## # 关闭浏览器
driver.quit()
分点说明
import time
:导入时间模块,用于添加延时等待。from selenium import webdriver
:导入Selenium库中的webdriver模块,用于创建浏览器实例和自动化操作。from selenium.webdriver.common.by import By
:导入Selenium库中的By模块,用于XPath定位元素。import pandas as pd
:导入pandas库,用于处理和分析数据。driver_path = ''
:设置ChromeDriver的路径,填写你的ChromeDriver路径。driver = webdriver.Chrome(driver_path)
:创建一个Chrome浏览器实例。url = 'https://www.maoyan.com/board?timeStamp=1688716544141&sVersion=1&webdriver=false&index=3&signKey=44a722f975ab0b6750812bd0bf340b88&channelId=40011&requestCode=49793531118b4af79a95958d845ab0a7lgmud'
:目标网页的URL。driver.get(url)
:打开目标网页。time.sleep(5)
:等待5秒,确保页面加载完成。info = driver.find_element(By.CLASS_NAME, "board-wrapper")
:使用By.CLASS_NAME通过class名称定位电影信息所在的元素。ddlist = info.find_elements(By.TAG_NAME, "dd")
:使用By.TAG_NAME通过标签名称定位所有电影信息所在的元素。data = pd.DataFrame(columns=['电影名称', '导演', '评分'])
:创建一个空的DataFrame,用于存储电影数据,并指定列名。i = 0
:设置索引变量i。for item in ddlist:
:遍历所有电影信息。titles = item.find_element(By.CLASS_NAME, "board-item-main").find_element(By.CLASS_NAME, "name").text
:通过XPath定位电影名称,并使用.text获取文本内容。directors = item.find_element(By.CLASS_NAME, "star").text
:通过XPath定位导演信息,并使用.text获取文本内容。scores = item.find_element(By.CLASS_NAME, "releasetime").text
:通过XPath定位评分信息,并使用.text获取文本内容。data.loc[i] = [titles, directors, scores]
:将电影名称、导演和评分添加到DataFrame中的一行。i += 1
:索引自增1。print(f"titles{titles}, directors{directors} , scores{scores}")
:打印每部电影的名称、导演和评分。output_path = '猫眼.xlsx'
:指定输出Excel文件的路径。data.to_excel(output_path, index=False)
:将DataFrame保存为Excel文件,不包含索引列。driver.quit()
:关闭浏览器。
完结
点赞加关注下个代码有帮助
版权归原作者 全栈若城 所有, 如有侵权,请联系我们删除。