使用Selenium爬取京东商品数据并存储到MySQL数据库中的过程可以分为几个步骤:
1. 准备工作
安装所需库
确保你已经安装了Python环境以及以下库:
selenium
:用于自动化浏览器操作。pymysql
或mysql-connector-python
:用于连接MySQL数据库。webdriver
:如ChromeDriver,对应你的浏览器版本。
可以通过pip安装这些库:
pip install selenium pymysql
下载WebDriver
根据使用的浏览器下载对应的WebDriver,并确保其路径已添加到系统PATH中。
2. 编写代码
连接MySQL数据库
首先,你需要创建一个MySQL数据库以及表结构来存放京东商品数据。下面是一个简单的数据库连接示例:
import pymysql
# 数据库连接配置
db_config ={'host':'localhost','user':'your_username','password':'your_password','db':'your_database','charset':'utf8mb4'}defconnect_db():return pymysql.connect(**db_config)# 创建表(如果尚未创建)defcreate_table():
conn = connect_db()
cursor = conn.cursor()
sql ="""
CREATE TABLE IF NOT EXISTS jd_goods (
id INT AUTO_INCREMENT PRIMARY KEY,
product_name VARCHAR(255),
price DECIMAL(10, 2),
link VARCHAR(255),
image_url VARCHAR(255),
description TEXT,
timestamp TIMESTAMP DEFAULT CURRENT_TIMESTAMP
)
"""
cursor.execute(sql)
conn.commit()
cursor.close()
conn.close()
create_table()
使用Selenium爬取数据
接下来,使用Selenium打开网页,定位到商品信息元素,并提取数据。
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.chrome.service import Service
from webdriver_manager.chrome import ChromeDriverManager
import time
import pymysql
defscrape_jd_goods(keyword):# 初始化Selenium
driver = webdriver.Chrome(service=Service(ChromeDriverManager().install()))# 访问京东搜索页面
url =f'https://www.jd.com/allSort.aspx?keyword={keyword}'
driver.get(url)
time.sleep(3)# 等待页面加载# 获取商品列表
goods_list = driver.find_elements(By.XPATH,'//li[@class="gl-item"]')# 存储数据到数据库for good in goods_list:try:
name = good.find_element(By.XPATH,'.//div[@class="p-name"]/a/em').text
price =float(good.find_element(By.XPATH,'.//div[@class="p-price"]').text.replace('','').replace('元','').strip())
link = good.find_element(By.XPATH,'.//div[@class="p-name"]/a').get_attribute('href')
img_url = good.find_element(By.XPATH,'.//div[@class="p-img"]/a/img').get_attribute('src')# 插入数据库with connect_db()as conn:
cursor = conn.cursor()
sql ="INSERT INTO jd_goods (product_name, price, link, image_url) VALUES (%s, %s, %s, %s)"
cursor.execute(sql,(name, price, link, img_url))
conn.commit()except Exception as e:print(f"Error scraping data: {e}")
driver.quit()# 示例:爬取关键词“手机”的商品信息
scrape_jd_goods('手机')
注意事项
- 实际应用中可能需要处理更复杂的页面结构、分页、反爬虫策略等问题。
- 上述代码未包含错误处理的完整逻辑,实际应用时应加入异常处理提高健壮性。
- 频繁请求可能会触发京东的反爬机制,建议设置合理的延时,并遵守网站的爬虫政策。
- 考虑使用
webdriverwait
代替time.sleep()
以提高效率和稳定性。
版权归原作者 svygh123 所有, 如有侵权,请联系我们删除。