0


MySQL 读写分离

优质博文:IT-BLOG-CN

一、背景

随着机票业务不断增长,订单库的读性能遇到了挑战,因此对订单库进行读写分离操作。主要目的是提高数据库的并发性能和可扩展性。当系统的所有写操作效率尚可,读数据请求效率较低时,比如之前订单表存放了几千万条数据,且查询订单信息需要关联十几个字表,每个字表的数据超亿条。查询超过设置的慢

SQL

查询时间

3s

。以下是一些具体原因和好处:读写分离的功能基于主从复制。
1、性能提升:
【1】读写负载分担:通过将读操作和写操作分离,可以将写操作集中在主库

Master

上,而将读操作分散到多个从库

Slave

上。这可以显著减少主库的负载,提高整体系统的响应速度。
【2】并发处理能力:读写分离可以利用多个从库来处理并发读请求,从而提高系统的并发处理能力。

2、可扩展性:
【1】横向扩展:通过增加从库的数量,可以轻松地扩展系统的读处理能力,而不需要对主库进行复杂的扩展。
【2】负载均衡:可以使用负载均衡技术将读请求分发到不同的从库上,从而实现更好的资源利用和性能优化。

3、数据安全性和容错性:
【1】数据备份:从库可以用作数据备份的一部分,提供数据冗余和容错能力。如果主库发生故障,从库可以迅速接管读操作,甚至在必要时提升为新的主库。
【2】灾难恢复:在灾难恢复场景中,从库可以作为主库的备份,确保数据的安全性和可恢复性。

4、缓存和索引优化: 从库可以针对特定的读操作进行优化,如创建特定的索引或缓存策略,而不影响主库的写操作性能。

扩展:慢查询超时时间配置:在

MySQL

的配置文件(通常是

my.cnf

my.ini

)中设置

long_query_time

。在

[mysqld]

部分添加或修改以下行:

[mysqld]
slow_query_log = 1
slow_query_log_file = /path/to/your/slow_query.log
long_query_time = 2

二、主从读写分离

主从复制完成后,我们还需要实现读写分离,

master

负责写入数据,两台

slave

负责读取数据。我们项目因为数据太大,所以使用

Sharding-JDBC

进行了分表分库。这里就说下通过

Sharding-JDBC

怎么实现数据读写分离的。

【1】引入依赖: 项目中引入

Sharding-JDBC

的依赖。

<dependency><groupId>org.apache.shardingsphere</groupId><artifactId>shardingsphere-jdbc-core</artifactId><version>5.x.x</version><!-- 请使用最新版本 --></dependency>

【2】配置数据源: 需要配置多个数据源,通常包括一个主库

Master``和一个或多个从库

Slave

。以下是一个简单的

Spring Boot`配置示例:

importorg.apache.shardingsphere.driver.api.yaml.YamlShardingSphereDataSourceFactory;importjavax.sql.DataSource;importjava.io.File;@ConfigurationpublicclassDataSourceConfig{@BeanpublicDataSourcedataSource()throwsException{File yamlFile =newFile("path/to/sharding-jdbc-config.yaml");returnYamlShardingSphereDataSourceFactory.createDataSource(yamlFile);}}

**【3】配置

YAML

文件:** 在

sharding-jdbc-config.yaml

文件中,配置读写分离的相关信息。以下是一个示例配置:

dataSources:master:type: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://localhost:3306/master_db
    username: root
    password: root
  slave0:type: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://localhost:3306/slave_db0
    username: root
    password: root
  slave1:type: com.zaxxer.hikari.HikariDataSource
    driverClassName: com.mysql.cj.jdbc.Driver
    jdbcUrl: jdbc:mysql://localhost:3306/slave_db1
    username: root
    password: root

rules:# 用于定义数据分片、读写分离等规则。在这个例子中,我们定义了一个读写分离的规则。-!READWRITE_SPLITTING# 是一个 YAML 类型标签,用于指示接下来的配置是一个读写分离规则。dataSources:# 是一个键,表示接下来要定义的是数据源的配置。在这个例子中,我们定义了一个名为 pr_ds 的逻辑数据源。pr_ds:# pr_ds 是逻辑数据源的名称。你可以在应用程序中使用这个名称来引用这个读写分离的数据源。writeDataSourceName: master # 指定了用于写操作的主数据源。在这个例子中,主数据源的名称是 master。所有的写操作(例如 INSERT、UPDATE、DELETE)都会路由到这个数据源。readDataSourceNames:# 是一个列表,指定了用于读操作的从数据源。在这个例子中,有两个从数据源,分别是 slave0 和 slave1。所有的读操作(例如 SELECT)会根据负载均衡策略路由到这些从数据源。- slave0
          - slave1
        loadBalancerName: round_robin # loadBalancerName 指定了用于读操作的负载均衡策略。在这个例子中,负载均衡策略的名称是 round_robin,表示轮询策略。轮询策略会将读操作均匀地分布到多个从数据源上loadBalancers:round_robin:type: ROUND_ROBIN

**【4】使用

Sharding-JDBC

数据源:** 使用配置好的

Sharding-JDBC

数据源。以下是一个简单的示例:

importorg.springframework.beans.factory.annotation.Autowired;importorg.springframework.jdbc.core.JdbcTemplate;importorg.springframework.stereotype.Service;@ServicepublicclassMyService{@AutowiredprivateJdbcTemplate jdbcTemplate;publicvoidperformDatabaseOperations(){// 写操作会路由到主库
        jdbcTemplate.update("INSERT INTO my_table (name) VALUES (?)","John Doe");// 读操作会路由到从库String name = jdbcTemplate.queryForObject("SELECT name FROM my_table WHERE id = ?",newObject[]{1},String.class);System.out.println("Name: "+ name);}}

思考一:

MySQL

中的数据延迟同步的问题怎么解决?
我们主从使用的硬件配置都是一样的,

MySQL

使用的也是

5.7

版本,支持

writeSet

并行复制,但很多时间可能是网络延迟,就需要确保足够的宽带,以便数据传输,选择地理位置较近的服务器等等。重点是我们对数据实时性要求高的系统,会将主库写入的数据存入

Redis

缓存中,并给一个过期时间,过期时间的设计与主从复制延迟的时间成正比。

思考二:同一线程且同一数据库连接内,如果读写操作在一起,为了保证数据一致性,均从主库读取。

三、读非关系型数据库-技术选型

同步模式

适合查询数据的一致性和实时性高的系统。但业务代码侵入比较强,增大写操作的耗时,影响系统的写操作的

QPS

异步模式

写入数据后,通过

kafka

异步建立查询数据,不影响业务流程,但需要考虑数据一致性问题。

binlog模式

这种方案也是我们使用的一套方案,还是借助自主研发的

DRC

服务,监听写数据库日志的方式建立查询数据,不影响主流程,代码无侵入。但需要注意数据一致性问题。

四、项目中的难点

消息幂等怎么保证?

消息幂等性在业务层保证一致,使用

updateOrInsert

方法,存在即更新,不存在则插入。那么在

MongDB

中也是一样的,使用条件更新

Upsert

,通过使用

upsert

选项,可以确保插入或更新操作是幂等的。如果文档不存在则插入,如果存在则更新。

db.collection.updateOne(
    { _id: documentId },
    { $set: { fieldName: newValue } },
    { upsert: true }
);

消费时序性怎么保证?

因为使用的是

Kafka

进行消息订阅消费,根据订单号进行分区消费,同一个订单分配至同一个分区,同一个分区是顺序消费的,从而保证消息的时序性。

消息一致性怎么保证?

搭建的数据同步系统

DRC

可以定时校验数据的一致性

查询数据存储为什么选 MongDB?

为了解决表数据量大查询缓慢的问题,不推荐选用关系型数据库了,内存数据库虽然性能非常高,比如

Redis

,但是不适合海量数据,太费钱了。所以重点考虑如下三种大数据存储模型:

MongoDB

/

HBase

/

Elasticsearch
MongoDB

:文档型数据库

NoSQL

,基于文档的存储,使用

JSON(BSON)

格式,丰富的查询语言,支持复杂的查询和聚合操作,水平扩展

Sharding

,最终一致性,支持多种一致性级别的配置。


本文转载自: https://blog.csdn.net/zhengzhaoyang122/article/details/142714320
版权归原作者 程序猿进阶 所有, 如有侵权,请联系我们删除。

“MySQL 读写分离”的评论:

还没有评论