• MySQL分库分表和优化


    分库分表技术之MyCat

    1.海量存储问题

    1.1 背景描述

    如今随着互联网的发展,数据的量级也是成指数的增长,从GB到TB到PB。对数据的各种操作也是愈加的困难,传统的关系性数据库已经无法满足快速查询与插入数据的需求。

    解决方案1: 使用NoSQL数据库, 通过降低数据的安全性,减少对事务的支持,减少对复杂查询的支持,来获取性能上的提升。

    解决方案2: NoSQL并不是万能的,就比如有些使用场景是绝对要有事务与安全指标的, 所以还是要用关系型数据库, 这时候就需要搭建MySQL数据库集群,为了提高查询性能, 将一个数据库的数据分散到不同的数据库中存储, 通过这种数据库拆分的方法来解决数据库的性能问题。

    1.2 分库分表

    1.2.1 什么是分库分表

    简单来说,就是指通过某种特定的条件,将我们存放在同一个数据库中的数据分散存放到多个数据库(主机)上面,以达到分散单台设备负载的效果。

    分库分表解决的问题:

    • 分库分表的目的是为了解决由于数据量过大而导致数据库性能降低的问题,将原来单体服务的数据库进行拆分.将数据大表拆分成若干数据表组成,使得单一数据库、单一数据表的数据量变小,从而达到提升数据库性能的目的。

    什么情况下需要分库分表

    • 单机存储容量遇到瓶颈.
    • 连接数,处理能力达到上限.

    注意:

    • 分库分表之前,要根据项目的实际情况 确定我们的数据量是不是够大,并发量是不是够大,来决定是否分库分表.
    • 数据量不够就不要分表,单表数据量超过1000万或100G的时候, 速度就会变慢(官方测试),

    1.2.2 分库分表的方式

    分库分表包括: 垂直分库、垂直分表、水平分库、水平分表 四种方式。

    1.2.2.1 垂直分库

    数据库中不同的表对应着不同的业务,垂直切分是指按照业务的不同将表进行分类,分布到不同的数据库上面

    将数据库部署在不同服务器上,从而达到多个服务器共同分摊压力的效果

    1.2.2.2 垂直分表

    将一个表按照字段分成多表,每个表存储其中一部分字段。

    对职位表进行垂直拆分, 将职位基本信息放在一张表, 将职位描述信息存放在另一张表

    垂直拆分带来的一些提升:

    • 解决业务层面的耦合,业务清晰
    • 能对不同业务的数据进行分级管理、维护、监控、扩展等
    • 高并发场景下,垂直分库一定程度的提高访问性能
    • 垂直拆分没有彻底解决单表数据量过大的问题
    1.2.2.3 水平分库

    将单张表的数据切分到不同的数据库中,每个数据库具有相同的库与表,只是表中数据集合不同。

    简单讲就是根据表中的数据的逻辑关系,将同一个表中的数据按照某种条件拆分到多台数据库(主机)上面, 例如将订单表 按照id是奇数还是偶数, 分别存储在不同的库中。

    1.2.2.4 水平分表

    针对数据量巨大的单张表(比如订单表),按照规则把一张表的数据切分到多张表里面去。 但是这些表还是在同一个库中,所以库级别的数据库操作还是有IO瓶颈。

     总结:

    • 垂直分表: 将一个表按照字段分成多表,每个表存储其中一部分字段。
    • 垂直分库: 根据表的业务不同,分别存放在不同的库中,这些库分别部署在不同的服务器.
    • 水平分库: 把一张表的数据按照一定规则,分配到不同的数据库,每一个库只有这张表的部分数据.
    • 水平分表: 把一张表的数据按照一定规则,分配到同一个数据库的多张表中,每个表只有这个表的部分数据.

    1.3 如何实现分库分表

    当数据库进行分库分表后,数据由一个数据库分散到多个数据库中。此时系统要查询时需要切换不同的数据库进行查询,那么系统如何知道要查询的数据在哪个数据库中?当添加一条记录时要向哪个数据库中插入呢?这些问题处理起来都是非常的麻烦。

    这种情况下可以使用一个数据库中间件mycat来解决相关的问题。接下来了解一下什么是mycat。

    2. MyCat

    2.1 什么是MyCat

    MyCat 是目前最流行的基于 java 语言编写的数据库中间件,是一个实现了 MySQL 协议的服务器,前端用户可以把它看作是一个数据库代理,用 MySQL 客户端工具和命令行访问,而其后端可以用 MySQL原生协议与多个 MySQL 服务器通信,也可以用 JDBC 协议与大多数主流数据库服务器通信,其核心功能是分库分表和读写分离,即将一个大表水平分割为 N 个小表,存储在后端 MySQL 服务器里或者其他数据库里。

    MyCat对于我们Java程序员来说,就是一个近似等于 MySQL 的数据库服务器,你可以用连接 MySQL 的方式去连接 Mycat(除了端 口不同,默认的 Mycat 端口是 8066 而非 MySQL 的 3306,因此需要在连接字符串上增加端口信息)

    我们可以像使用MySQL一样使用MyCat,Mycat 可以管理若干 MySQL 数据库,同时实现数据的存储和操作

    2.2 MyCat支持的数据库

    • Oracle
    • MySQL
    • mongoDB
    • SQlServer

    2.3 MyCat 概念说明

    2.3.1 MyCat的分片策略

    什么是分片

    • 通过某种特定的条件,将我们存放在同一个数据库中的数据分散存放到多个数据库(主机)上面,以达到分散单台设备负载的效果。

    MyCat支持两种切分模式

    • 一种是按照不同的表(或者Schema)来切分到不同的数据库(主机)之上,这种切可以称之为数据的垂直(纵向)切分
    • 另外一种则是根据表中的数据的逻辑关系,将同一个表中的数据按照某种条件拆分到多台数据库(主机)上面,这种切分称之为数据的水平(横向)切分。

     

    逻辑库(schema)

    对数据进行分片处理之后,从原有的一个库,被切分为多个分片数据库,所有的分片数据库集群构成了整个完整的数据库存储。Mycat在操作时,使用逻辑库来代表这个完整的数据库集群,便于对整个集群操作。

    逻辑表(table)

    既然有逻辑库,那么就会有逻辑表,分布式数据库中,对应用来说,读写数据的表就是逻辑表。

    逻辑表,可以是数据切分后,分布在一个或多个分片库中,也可以不做数据切分,不分片,只有一个表构成。

    分片表:

    是指那些原有的很大数据的表,需要切分到多个数据库的表,这样,每个分片都有一部分数据,所有分片构成了完整的数据。 总而言之就是需要进行分片的表。

    非分片表:

    一个数据库中并不是所有的表都很大,某些表是可以不用进行切分的,非分片是相对分片表来说的,就是那些不需要进行数据切分的表。

    分片节点(dataNode)

    数据切分后,一个大表被分到不同的分片数据库上面,每个表分片所在的数据库就是分片节点(dataNode)。

    节点主机(dataHost)

    数据切分后,每个分片节点不一定都会独占一台机器,同一机器上面可以有多个分片数据库, 这样一个或多个分片节点所在的机器就是节点主机,为了规避单节点主机并发数限制, 尽量将读写压力高的分片节点均衡的放在不同的节点主机dataHost。

    分片规则

    前面讲了数据切分,一个大表被分成若干个分片表,就需要一定的规则rule,这样按照某种业务规则把数据分到 某个分片的规则就是分片规则,数据切分选择合适的分片规则非常重要,将极大的避免后续数据处理的难度。

    2.4 MyCat的下载和安装

    2.4.1 安装环境

    1. jdk: 要求jdk必须是1.7 及以上版本

    2. MySQL: 推荐mysql5.5 版本以上

    3. MyCat: Mycat的官方网站:http://www.mycat.org.cn/

    搭建步骤

    第一步: 搭建3台虚拟机

    第二步: server01与server02 安装MySQL数据库服务器,保证版本一致

    server01 192.168.52.10

    server02 192.168.52.11

    第三步: 创建数据库

    192.168.52.10 创建 lagou1 数据库

    192.168.52.11 创建 lagou2 和 lagou3 数据库

    2.4.2 MyCat安装

    注意: 提前安装好JDK

    第一步: 下载MyCat

    第二步: 上传MyCat 到 server03 服务器 ,并解压

    启动命令:./mycat start

    停止命令:./mycat stop

    重启命令:./mycat restart

    查看状态:./mycat status

    带控制台启动

    ./mycat console

    2.5 MyCat核心配置

    2.5.1 schema.xml配置

    schema标签

    Schema.xml作为MyCat中重要的配置文件之一,管理着MyCat的逻辑库、表、分片规则、DataNode以及DataSource。弄懂这些配置,是正确使用MyCat的前提。这里就一层层对该文件进行解析。

    <!-- 逻辑库 -->
    
    <schema name="lagou" checkSQLschema="true" sqlMaxLimit="100" >
    </schema>

    table标签

    table标签定义了 Mycat 中的逻辑表,所有需要拆分的表都需要在这个标签中定义

    <schema name="lagou" checkSQLschema="true" sqlMaxLimit="100" >
    <table name="pay_order" dataNode="dn1,dn2,dn3" rule="auto-sharding-long"
    primaryKey="id" autoIncrement="true" ></table>
    </schema>

    dataNode标签

    dataNode标签定义了 MyCat 中的分片节点,也就是我们通常说所的数据分片。

    <dataNode name="dn1" dataHost="localhost1" database="lagou1" />
    <dataNode name="dn2" dataHost="localhost2" database="lagou2" />
    <dataNode name="dn3" dataHost="localhost2" database="lagou3" />


    name: 定义节点的名字,这个名字需要是唯一的,我们需要在 table 标签上应用这个名字,来建立表与分片对应的关系。

    dataHost : 用于定义该分片属于哪个分片主机,属性值是引用 dataHost 标签上定义的 name 属性。

    database: 用于定义该分片节点属于哪个具体的库

    dataHost标签

    dataHost标签在 Mycat 逻辑库中也是作为最底层的标签存在,直接定义了具体的数据库实例、读写分离配置和心跳语句

    <!-- 节点主机 -->
        <dataHost name="localhost1" maxCon="1000" minCon="10" balance="0"
                  writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1"  slaveThreshold="100">
            <heartbeat>select user()</heartbeat>
            <!-- can have multi write hosts -->
            <writeHost host="hostM1" url="jdbc:mysql://192.168.199.128:3306" user="root"
                       password="@Zhf19970510##">
            </writeHost>
            
        </dataHost>
        
        <dataHost name="localhost2" maxCon="1000" minCon="10" balance="0"
                  writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1"  slaveThreshold="100">
            <heartbeat>select user()</heartbeat>
            <!-- can have multi write hosts -->
            <writeHost host="hostM2" url="jdbc:mysql://192.168.199.129:3306" user="root"
                       password="@Zhf19970510##">
            </writeHost>
            
        </dataHost>

    heartbeat标签

    heartbeat标签内指明用于和后端数据库进行心跳检查的语句。例如:MySQL 可以使用 select user()、Oracle 可以 使用 select 1 from dual 等

    <heartbeat>select user()</heartbeat>

    writeHost和readHost标签

    writeHost和readHost标签都指定后端数据库的相关配置给 mycat,用于实例化后端连接池。

    writeHost 指定写实例 , readHost 指定读实例. 在一个 dataHost 内可以定义多个 writeHost 和readHost

    <!-- 节点主机 -->
        <dataHost name="localhost1" maxCon="1000" minCon="10" balance="0"
                  writeType="0" dbType="mysql" dbDriver="jdbc" switchType="1"  slaveThreshold="100">
            <heartbeat>select user()</heartbeat>
            <!-- can have multi write hosts -->
            <writeHost host="hostM1" url="jdbc:mysql://192.168.199.128:3306" user="root"
                       password="@Zhf19970510##">
            </writeHost>
            
        </dataHost>

    2.5.2 server.xml配置

    server.xml几乎保存了所有 mycat 需要的系统配置信息。

    2.5.2.1 user标签

    这个标签主要用于定义登录 mycat 的用户和权限。

    <user name="root" defaultAccount="true">
    <property name="password">123456</property>
    <property name="schemas">lagou</property>
    <property name="defaultSchema">lagou</property>
    </user>
    2.5.2.2 连接MyCat

    重启myCat,查看状态

    ./mycat start
    ./mycat status

    连接mycat

    mysql -uroot -p123456 -h127.0.0.1 -P8066

    2.5.3 rule.xml配置

    rule.xml里面就定义了我们对表进行拆分所涉及到的规则定义。我们可以灵活的对表使用不同的分片算 法,或者对表使用相同的算法但具体的参数不同。

    这个文件里面主要有tableRule和function这两个标 签。在具体使用过程中可以按照需求添加tableRule和function。

    2.5.3.1 tableRule标签
    <mycat:rule xmlns:mycat="http://io.mycat/">
        <tableRule name="sharding-by-intfile">
            <rule>
                <columns>sharding_id</columns>
                <algorithm>hash-int</algorithm>
            </rule>
        </tableRule>
    </mycat:rule>

    name:指定唯一的名字,用于标识不同的表规则。

    rule: 指定对物理表中的哪一列进行拆分和使用什么路由算法

    columns:指定要拆分的列名字。

    algorithm:使用 function 标签中的 name 属性,连接表规则和具体路由算法。

    2.5.3.2 function标签
    <function name="hash-int"
              class="io.mycat.route.function.PartitionByFileMap">
        <property name="mapFile">partition-hash-int.txt</property>
    </function>

    name:指定算法的名字。

    class:制定路由算法具体的类名字。

    property: 为具体算法需要用到的一些属性。

    2.5.4 常用的分片规则

    Mycat常用分片配置示例:

    自动分片

    根据指定的列的范围进行分片.默认从0节点开始

    <tableRule name="auto-sharding-long">
        <rule>
            <columns>id</columns>
            <algorithm>rang-long</algorithm>
        </rule>
    </tableRule>
    <function name="rang-long"
              class="io.mycat.route.function.AutoPartitionByLong">
        <property name="mapFile">autopartition-long.txt</property>
    </function>

    autopartition-long.txt文件:

    0-200000=0
    200000-400000=1
    0-200000范围分配给节点0
    200000-400000范围分配给节点1

    枚举分片

    把数据分类存储, 这种方法适用于取值固定的场合,例如性别和省份

    <!-- 枚举分片 -->
    <tableRule name="sharding-by-intfile">
        <rule>
            <columns>sharding_id</columns>
            <algorithm>hash-int</algorithm>
        </rule>
    </tableRule>
    <function name="hash-int" class="io.mycat.route.function.PartitionByFileMap">
        <property name="mapFile">partition-hash-int.txt</property>
    </function>

    mapFile 中是自定义的分片策略文件,需要自己编写

    partition-hash-int.txt文件内容如下:

    beijing=0
    wuhan=1
    shanghai=2

    取模分片

    根据配置中的count值进行分片,将数据分成配置的count份,然后将数据均匀的分布在各个节点上

    <tableRule name="mod-long">
        <rule>
            <columns>id</columns>
            <algorithm>mod-long</algorithm>
        </rule>
    </tableRule>
    <function name="mod-long" class="io.mycat.route.function.PartitionByMod">
        <!-- how many data nodes -->
        <property name="count">3</property>
    </function>

    2.6 MyCat分库分表

    2.6.1 分片规则配置(水平分库)

    水平分库: 把一张表的数据按照一定规则,分配到不同的数据库,每一个库只有这张表的部分数据.

    在rule.xml配置, 自动分片

    每个datanode中保存一定数量的数据。根据id进行分片

    <!-- schema 逻辑库 -->
    <schema name="lagou" checkSQLschema="true" sqlMaxLimit="100" >
        <table name="pay_order" dataNode="dn1,dn2,dn3" rule="auto-sharding-long"
        primaryKey="id" autoIncrement="true" >
        </table>
    </schema>
    
    ================================================================================
    =========
    
    <!-- 自动分片 -->
    <tableRule name="auto-sharding-long">
        <rule>
            <columns>id</columns>
            <algorithm>rang-long</algorithm>
        </rule>
    </tableRule>
    <function name="rang-long"
    class="io.mycat.route.function.AutoPartitionByLong">
        <property name="mapFile">autopartition-long.txt</property>
    </function>

    autopartition-long.txt

    # range start-end ,data node index
    # K=1000,M=10000.
    0-1k=0
    1k-2k=1
    2k-3k=2

    对分片规则进行测试id 范围为:

    Datanode1:1~1000
    Datanode2:1000~2000
    Datanode3:2000~3000

    2.6.2 启动MyCat 进行测试

    重启MyCat

    停止命令:./mycat stop

    重启命令:./mycat restart

    在MyCat中创建逻辑表

    DROP TABLE IF EXISTS pay_order;
    CREATE TABLE pay_order (
    id BIGINT(20) PRIMARY KEY,
    user_id INT(11) NOT NULL ,
    product_name VARCHAR(128) ,
    amount DECIMAL(12,2)
    );

    MyCat中创建好表之后,我们的MySQL节点中也会对应的创建表

    插入数据,观察数据被插入到哪张表中.

    INSERT INTO pay_order(id,user_id,product_name,amount) VALUES(2001,1,"面试宝典",15.8);

    注意: 解决MyCat乱码问题


    2.6.3 全局序列号

    在实现分库分表的情况下,数据库自增主键已无法保证自增主键的全局唯一。为此,Mycat 提供了全局sequence,并且提供了包含本地配置和数据库配置等多种实现方式。

    server.xml文件中

    <system>
    <property name="sequnceHandlerType">0</property>
    </system>

    0 表示是表示使用本地文件方式。

    1 表示的是根据数据库来生成

    2 表示时间戳的方式 ID= 64 位二进制 (42(毫秒)+5(机器 ID)+5(业务编码)+12(重复累加)

    2.6.3.1 本地文件

    此方式 Mycat 将 sequence 配置到文件中,当使用到 sequence 中的配置后,Mycat 会更新 classpath中的 sequence_conf.properties 文件中 sequence 当前的值。

    PAY_ORDER.HISIDS=
    PAY_ORDER.MINID=101
    PAY_ORDER.MAXID=10000000
    PAY_ORDER.CURID=100

    其中 HISIDS 表示使用过的历史分段(一般无特殊需要可不配置),MINID 表示最小 ID 值,MAXID 表示最大ID 值,CURID 表示当前 ID 值

    重启MyCat, 插入一条数据,不用指定id

    INSERT INTO pay_order(user_id,product_name,amount) VALUES(1,"xiao",12.8);

    2.7 MyCat读写分离

    2.7.1 什么是读写分离

    在实际的生产环境中, 数据的读写操作如果都在同一个数据库服务器中进行, 当遇到大量的并发读或者写操作的时候,是没有办法满足实际需求的,数据库的吞吐量将面临巨大的瓶颈压力.

    主从复制

    通过搭建主从架构, 将数据库拆分为主库和从库,主库负责处理事务性的增删改操作,从库负责处理查询操作,能够有效的避免由数据更新导致的行锁,使得整个系统的查询性能得到极大的改善。

    读写分离

    读写分离就是让主库处理事务性操作,从库处理select查询。数据库复制被用来把事务性查询导致的数据变更同步到从库,同时主库也可以select查询。

    读写分离的数据节点中的数据内容是一致。


    2.7.2 MySQL主从复制(同步)

    MyCat的读写分离是建立在MySQL主从复制基础之上实现的,所以必须先搭建MySQL的主从复制架构。

    主从复制的用途:

    • 实时灾备,用于故障切换
    • 读写分离,提供查询服务
    • 备份,避免影响业务

    主从部署必要条件:

    • 主库开启binlog日志(设置log-bin参数)
    • 主从server-id不同
    • 从库服务器能连通主库

    主从复制的原理:

    • Mysql 中有一种日志叫做 bin 日志(二进制日志)。这个日志会记录下所有修改了数据库的SQL语句(insert,update,delete,create/alter/drop table, grant 等等)。
    • 主从复制的原理其实就是把主服务器上的 bin 日志复制到从服务器上执行一遍,这样从服务器上的数据就和主服务器上的数据相同了。


    1. 主库db的更新事件(update、insert、delete)被写到binlog

    2. 主库创建一个binlog dump thread,把binlog的内容发送到从库

    3. 从库启动并发起连接,连接到主库

    4. 从库启动之后,创建一个I/O线程,读取主库传过来的binlog内容并写入到relay log

    5. 从库启动之后,创建一个SQL线程,从relay log里面读取内容,执行读取到的更新事件,将更新内容写入到slave的db

    2.7.3 主从复制架构搭建

    Mysql的主从复制至少是需要两个Mysql的服务,当然Mysql的服务是可以分布在不同的服务器上,也可以在一台服务器上启动多个服务。


    1) 第一步 master中创建数据库和表

    -- 创建数据库
    CREATE DATABASE test CHARACTER SET utf8;
    -- 创建表
    CREATE TABLE users (
    id INT(11) PRIMARY KEY AUTO_INCREMENT,
    NAME VARCHAR(20) DEFAULT NULL,
    age INT(11) DEFAULT NULL
    );
    -- 插入数据
    INSERT INTO users VALUES(NULL,'user1',20);
    INSERT INTO users VALUES(NULL,'user2',21);
    INSERT INTO users VALUES(NULL,'user3',22);

    2) 第二步 修改主数据库的配置文件my.cnf

    vim /etc/my.cnf

    插入下面的内容

    lower_case_table_names=1
    log-bin=mysql-bin
    server-id=1
    binlog-do-db=test
    binlog_ignore_db=mysql

    server-id=1 中的1可以任定义,只要是唯一的就行。

    log-bin=mysql-bin 表示启用binlog功能,并制定二进制日志的存储目录,

    binlog-do-db=test 是表示只备份test 数据库。

    binlog_ignore_db=mysql 表示忽略备份mysql。

    不加binlog-do-db和binlog_ignore_db,那就表示备份全部数据库。

    3) 第三步 重启MySQL

    service mysqld restart

    4) 第四步 在主数据库上, 创建一个允许从数据库来访问的用户账号.

    主从复制使用 REPLICATION SLAVE 赋予权限

    -- 创建账号
    GRANT REPLICATION SLAVE ON *.* TO 'slave'@'192.168.52.11' IDENTIFIED BY 'Qwer@1234';

    5) 第五步 停止主数据库的更新操作, 并且生成主数据库的备份

    -- 执行以下命令锁定数据库以防止写入数据。
    FLUSH TABLES WITH READ LOCK;

    6) 导出数据库,恢复写操作

    使用SQLYog导出,主数据库备份完毕,恢复写操作

    unlock tables;

    7) 将刚才主数据库备份的test.sql导入到从数据库

    导入后, 主库和从库数据会追加相平,保持同步!此过程中,若主库存在业务,并发较高,在同步的时候要先锁表,让其不要有修改!等待主从数据追平,主从同步后在打开锁!

    8) 接着修改从数据库的 my.cnf

    增加server-id参数,保证唯一.

    server-id=2
    -- 重启
    service mysqld restart

    9) 在从数据库设置相关信息

    执行以下SQL

    STOP SLAVE;
    CHANGE MASTER TO MASTER_HOST='192.168.52.10',
    MASTER_USER='slave',
    MASTER_PASSWORD='Qwer@1234',
    MASTER_PORT=3306,
    MASTER_LOG_FILE='mysql-bin.000001',
    MASTER_LOG_POS=0,
    MASTER_CONNECT_RETRY=10;

    10) 修改auto.cnf中的UUID,保证唯一

    -- 编辑auto.cnf
    vim /var/lib/mysql/auto.cnf
    -- 修改UUID的值
    server-uuid=a402ac7f-c392-11ea-ad18-000c2980a208
    -- 重启
    service mysqld restart

    11) 在从服务器上,启动slave 进程

    start slave;
    -- 查看状态
    SHOW SLAVE STATUS;
    -- 命令行下查看状态 执行
    SHOW SLAVE STATUS G;

    注意: 这两个参数的值,必须是 Yes,否则就要进行错误的排查.

    12) 现在可以在我们的主服务器做一些更新的操作,然后在从服务器查看是否已经更新

    -- 在主库插入一条数据,观察从库是否同步
    INSERT INTO users VALUES(NULL,'user4',23);

    2.7.4 实现读写分离

    数据库读写分离对于大型系统或者访问量很高的互联网应用来说,是必不可少的一个重要功能。对于MySQL来说,标准的读写分离是主从模式,一个写节点Master后面跟着多个读节点,读节点的数量取决于系统的压力,通常是1-3个读节点的配置

    在schema.xml文件中配置Mycat读写分离。使用前需要搭建MySQL主从架构,并实现主从复制,Mycat不负责数据同步问题。

    server.xml:

    修改用户可以访问的逻辑表为 test:

    <user name="root" defaultAccount="true">
        <property name="password">123456</property>
        <property name="schemas">test</property>
        <property name="defaultSchema">test</property>
    </user>
    schema.xml

    schema
    逻辑库 name="test"

    逻辑表 name="users"

    读写分离 不设置分片规则 ruleRequired=false

    分片节点 dataNode="dn4"

    <schema name="test" checkSQLschema="true" sqlMaxLimit="100">
        <table name="users" dataNode="dn4" ruleRequired="false" primaryKey="id"
        autoIncrement="true" >
        </table>
    </schema>

    dataNode

    <!-- 读写分离 -->
    <dataNode name="dn4" dataHost="localhost3" database="test" />

    dataHost

    <!-- 读写分离 -->
    <dataHost name="localhost3" maxCon="1000" minCon="10" balance="1" writeType="0"
    dbType="mysql" dbDriver="native" switchType="1" slaveThreshold="100">
        <heartbeat>select user()</heartbeat>
        <!---->
        <writeHost host="M1" url="192.168.52.10:3306" user="root"
        password="QiDian@666">
            <!---->
            <readHost host="S1" url="192.168.52.11:3306" user="root"
            password="QiDian@666"
            weight="1" />
        </writeHost>
    </dataHost>

    balance参数:

    0 :所有读操作都发送到当前可用的writeHost

    1 :所有读操作都随机发送到readHost和stand by writeHost

    2 :所有读操作都随机发送到writeHost和readHost

    3 :所有读操作都随机发送到writeHost对应的readHost上,但是writeHost不负担读

    writeType参数:

    0 :所有写操作都发送到可用的writeHost

    1 :所有写操作都随机发送到readHost

    2 :所有写操作都随机发送到writeHost,readHost

    重启MyCat
    ./mycat restart

    执行查询和插入操作

    1) 插入一条数据, 观察否两个表都同时新增了,如果同时新增,证明插入的是主库的表.

    INSERT INTO users(NAME,age) VALUES('测试abc',26);

    2) 在从库插入一条数据, 然后进行查询, 查询的是从库中的数据,证明查询操作在从库进行.

    SELECT * FROM users;

    1分库分表技术之ShardingJDBC

    1.1 分库分表方式回顾

    1) 分库分表的目的就是将我们的单库的数据控制在合理范围内,从而提高数据库的性能.

    垂直拆分( 按照结构分 )

    • 垂直分表: 将一张宽表(字段很多的表), 按照字段的访问频次进行拆分,就是按照表单结构进行拆
    • 垂直分库: 根据不同的业务,将表进行分类, 拆分到不同的数据库. 这些库可以部署在不同的服务器,分摊访问压力.

    水平拆分( 按照数据行分 )

    • 水平分库: 将一张表的数据 ( 按照数据行) 分到多个不同的数据库.每个库的表结构相同. 每个库都只有这张表的部分数据,当单表的数据量过大,如果继续使用水平分库, 那么数据库的实例就会不断增加,不利于系统的运维. 这时候就要采用水平分表.
    • 水平分表: 将一张表的数据 ( 按照数据行) , 分配到同一个数据库的多张表中,每个表都只有一部分数据.

    2) 什么时候用分库分表

    • 在系统设计阶段,就要完成垂直分库和垂直分表. 在数据量不断上升,数据库性能无法满足需求的时候, 首先要考虑的是缓存、 读写分离、索引技术等方案.如果数据量不断增加,并且持续增长再考虑水平分库 水平分表.

    1.2 分库分表带来的问题

    关系型数据库在单机单库的情况下,比较容易出现性能瓶颈问题,分库分表可以有效的解决这方面的问题,但是同时也会产生一些 比较棘手的问题.

    1.2.1 事务一致性问题

    当我们需要更新的内容同时分布在不同的库时, 不可避免的会产生跨库的事务问题. 原来在一个数据库操作, 本地事务就可以进行控制, 分库之后 一个请求可能要访问多个数据库,如何保证事务的一致性,目前还没有简单的解决方案.

    1.2.2 跨节点关联的问题

    在分库之后, 原来在一个库中的一些表,被分散到多个库,并且这些数据库可能还不在一台服务器,无法关联查询.

    解决这种关联查询,需要我们在代码层面进行控制,将关联查询拆开执行,然后再将获取到的结果进行拼装.

    1.2.3 分页排序查询的问题

    分库并行查询时,如果用到了分页 每个库返回的结果集本身是无序的, 只有将多个库中的数据先查出来,然后再根据排序字段在内存中进行排序,如果查询结果过大也是十分消耗资源的.

    1.2.4 主键避重问题

    在分库分表的环境中,表中的数据存储在不同的数据库, 主键自增无法保证ID不重复, 需要单独设计全局主键.

    1.2.5 公共表的问题

    不同的数据库,都需要从公共表中获取数据. 可以在每一个库都创建这个公共表, 所有对公共表的更新操作,都同时发送到所有分库执行. ShardingJDBC可以帮助我们解决这个问题.

    1.3 ShardingJDBC 简介

    1.3.1 什么是ShardingJDBC

    ShardingSphere是一套开源的分布式数据库中间件解决方案组成的生态圈,它由Sharding-JDBC、Sharding-Proxy和Sharding-Sidecar(计划中)这3款相互独立的产品组成,我们只关注 Sharding-JDBC即可.

    官方地址:https://shardingsphere.apache.org/document/current/cn/overview/

    Sharding-JDBC 定位为轻量级Java框架,在Java的JDBC层提供的额外服务。 它使用客户端直连数据库,以jar包形式提供服务,无需额外部署和依赖,可理解为增强版的JDBC驱动,完全兼容JDBC和各种ORM框架的使用。

    • 适用于任何基于Java的ORM框架,如:JPA, Hibernate, Mybatis, Spring JDBC Template或直接使用JDBC。
    • 基于任何第三方的数据库连接池,如:DBCP, C3P0, Druid等。
    • 支持任意实现JDBC规范的数据库。目前支持MySQL,Oracle,SQLServer和PostgreSQL。


    上图展示了Sharding-Jdbc的工作方式,使用Sharding-Jdbc前需要人工对数据库进行分库分表,在应用程序中加入Sharding-Jdbc的Jar包,应用程序通过Sharding-Jdbc操作分库分表后的数据库和数据表,由于Sharding-Jdbc是对Jdbc驱动的增强,使用Sharding-Jdbc就像使用Jdbc驱动一样,在应用程序中是无需指定具体要操作的分库和分表的。

    1.3.2 Sharding-JDBC主要功能

    • 数据分片
    • 读写分离

    通过Sharding-JDBC,应用可以透明的使用jdbc访问已经分库分表、读写分离的多个数据源,而不用关心数据源的数量以及数据如何分布。

    1.3.3 Sharding-JDBC与MyCat的区别

    1) mycat是一个中间件的第三方应用,sharding-jdbc是一个jar包

    2) 使用mycat时不需要修改代码,而使用sharding-jdbc时需要修改代码

    3) Mycat 是基于 Proxy,它复写了 MySQL 协议,将 Mycat Server 伪装成一个 MySQL 数据库,而Sharding-JDBC 是基于 JDBC 的扩展,是以 jar 包的形式提供轻量级服务的。

    Mycat(proxy中间件层)

    Sharding-jdbc(应用层):

    1.4 Sharding-JDBC入门使用

    1.4.1 搭建基础环境

    需求说明

    创建数据库lg_order, 模拟将订单表进行水平拆分, 创建两张表pay_order_1 与 pay_order_2,这两张表是订单表拆分后的表,我们通过Sharding-Jdbc向订单表插入数据,按照一定的分片规则,主键为偶数的落入pay_order_1表 ,为奇数的落入pay_order_2表, 再通过Sharding-Jdbc 进行查询.

    创建数据库

    CREATE DATABASE lg_order CHARACTER SET 'utf8';
    DROP TABLE IF EXISTS pay_order_1;
    CREATE TABLE pay_order_1 (
    order_id BIGINT(20) PRIMARY KEY AUTO_INCREMENT ,
    user_id INT(11) ,
    product_name VARCHAR(128),
    COUNT INT(11)
    );
    DROP TABLE IF EXISTS pay_order_2;
    CREATE TABLE pay_order_2 (
    order_id BIGINT(20) PRIMARY KEY AUTO_INCREMENT ,
    user_id INT(11) ,
    product_name VARCHAR(128),
    COUNT INT(11)
    );

    创建SpringBoot项目引入maven依赖

    sharding-jdbc以jar包形式提供服务,所以要先引入maven依赖。

    <dependency>
    <groupId>org.apache.shardingsphere</groupId>
    <artifactId>sharding-jdbc-spring-boot-starter</artifactId>
    <version>4.0.0-RC1</version>
    </dependency>

    1.4.2 分片规则配置(水平分表)

    使用sharding-jdbc 对数据库中水平拆分的表进行操作,通过sharding-jdbc对分库分表的规则进行配置,配置内容包括:数据源、主键生成策略、分片策略等。

    application.properties

    基础配置

    spring.application.name = sharding-jdbc-simple
    server.servlet.context-path = /sharding-jdbc
    spring.http.encoding.enabled = true
    spring.http.encoding.charset = UTF-8
    spring.http.encoding.force = true
    spring.main.allow-bean-definition-overriding = true
    mybatis.configuration.map-underscore-to-camel-case = true

    数据源

    # 定义数据源
    spring.shardingsphere.datasource.names = db1
    spring.shardingsphere.datasource.db1.type =
    com.alibaba.druid.pool.DruidDataSource
    spring.shardingsphere.datasource.db1.driver-class-name =
    com.mysql.jdbc.Driver
    spring.shardingsphere.datasource.db1.url =
    jdbc:mysql://localhost:3306/lg_order?characterEncoding=UTF-8&useSSL=false
    spring.shardingsphere.datasource.db1.username = root
    spring.shardingsphere.datasource.db1.password = 123456

    配置数据节点

    #配置数据节点,指定节点的信息
    
    spring.shardingsphere.sharding.tables.pay_order.actual-data-nodes = db1.pay_order_$->{1..2}

    表达式 db1.pay_order_$->{1..2}

    $ 会被 大括号中的 {1..2} 所替换

    会有两种选择: db1.pay_order_1 和 db1.pay_order_2

    配置主键生成策略

    #指定pay_order表 (逻辑表)的主键生成策略为 SNOWFLAKE
    
    spring.shardingsphere.sharding.tables.pay_order.keygenerator.column=order_id
    
    spring.shardingsphere.sharding.tables.pay_order.key-generator.type=SNOWFLAKE

    使用shardingJDBC提供的主键生成策略,全局主键

    为避免主键重复, 生成主键采用 SNOWFLAKE 分布式ID生成算法

    配置分片算法

    #指定pay_order表的分片策略,分片策略包括分片键和分片算法
    
    spring.shardingsphere.sharding.tables.pay_order.tablestrategy.inline.sharding-column = order_id
    
    spring.shardingsphere.sharding.tables.pay_order.tablestrategy.inline.algorithm-expression = pay_order_$->{order_id % 2 + 1}

    分表策略表达式: pay_order_$-> {order_id % 2 + 1}

    {order_id % 2 + 1} 结果是偶数 操作 pay_order_1表

    {order_id % 2 + 1} 结果是奇数 操作 pay_order_2表

    打开SQL日志

    # 打开sql输出日志
    
    spring.shardingsphere.props.sql.show = true

    步骤总结

    1. 定义数据源

    2. 指定pay_order 表的数据分布情况, 分布在 pay_order_1 和 pay_order_2

    3. 指定pay_order 表的主键生成策略为SNOWFLAKE,是一种分布式自增算法,保证id全局唯一

    4. 定义pay_order分片策略,order_id为偶数的数据下沉到pay_order_1,为奇数下沉到在pay_order_2

    1.4.3 编写程序

    新增订单

    @Mapper
    @Component
    public interface PayOrderDao {
        /**
        * 新增订单
        * */
        @Insert("insert into pay_order(user_id,product_name,COUNT) values(#
    {user_id},#{product_name},#{count})")
        int insertPayOrder(@Param("user_id") int user_id, @Param("product_name")
    String product_name, @Param("count") int count);
    
    }

    测试

    =

    @RunWith(SpringRunner.class)
    @SpringBootTest(classes = RunBoot.class)
    public class PayOrderDaoTest {
        @Autowired
        PayOrderDao payOrderDao;
        @Test
        public void testInsertPayOrder(){
        for (int i = 1; i < 10; i++) {
            //插入数据
            payOrderDao.insertPayOrder(1,"小米电视",1);
        }
        }
    }

    根据Id查询订单

    /**
    * 查询订单
    * */
    @Select({"<script>" +
    "select " +
    " * " +
    " from pay_order p" +
    " where p.order_id in " +
    "<foreach collection='orderIds' item='id' open='(' separator=','
    close=')'>" +
    " #{id} " +
    "</foreach>"+
    "</script>"})
    List<Map> findOrderByIds(@Param("orderIds") List<Long> orderIds);

    测试

    @Test
    public void testFindOrderByIds(){
        List<Long> ids = new ArrayList<>();
        ids.add(517020734275452928L); //order_1表
        ids.add(517020734380310529L); //order_2表
        List<Map> mapList = payOrderDao.findOrderByIds(ids);
        System.out.println(mapList);
    }

    1.4.4 ShardingJDBC执行流程

    当ShardingJDBC接收到发送的SQL之后,会执行下面的步骤,最终返回执行结果

    1. SQL解析: 编写SQL查询的是逻辑表, 执行时 ShardingJDBC 要解析SQL ,解析的目的是为了找到需要改写的位置.

    2. SQL路由: SQL的路由是指 将对逻辑表的操作,映射到对应的数据节点的过程. ShardingJDBC会获取分片键判断是否正确,正确 就执行分片策略(算法) 来找到真实的表.

    3. SQL改写: 程序员面向的是逻辑表编写SQL, 并不能直接在真实的数据库中执行,SQL改写用于将逻辑SQL改为在真实的数据库中可以正确执行的SQL.

    4. SQL执行: 通过配置规则 pay_order_$->{order_id % 2 + 1} ,可以知道当 order_id 为偶数时 ,应该向 pay_order_1表中插入数据, 为奇数时向 pay_order_2表插入数据.

    5. 将所有真正执行sql的结果进行汇总合并,然后返回。

    1.5 Sharding-JDBC分库分表

    1.5.1 水平分表

    把一张表的数据按照一定规则,分配到同一个数据库的多张表中,每个表只有这个表的部分数据. 在Sharding-JDBC入门使用中, 我们已经完成了水平分表的操作.

    1.5.2 水平分库

    水平分库是把同一个表的数据按一定规则拆到不同的数据库中,每个库可以放在不同的服务器上。接下来看一下如何使用Sharding-JDBC实现水平分库

    1. 将原来的lg_order 数据库,拆分为 lg_order_1 和 lg_order_2

    1. 分片规则配置

    现在是两个数据库,所以要配置两份数据源信息

    # 定义多个数据源
    spring.shardingsphere.datasource.names = db1,db2
    spring.shardingsphere.datasource.db1.type = com.alibaba.druid.pool.DruidDataSource
    spring.shardingsphere.datasource.db1.driver-class-name = com.mysql.jdbc.Driver
    spring.shardingsphere.datasource.db1.url = jdbc:mysql://localhost:3306/lg_order_1?characterEncoding=UTF-8&useSSL=false
    spring.shardingsphere.datasource.db1.username = root
    spring.shardingsphere.datasource.db1.password = 123456
    spring.shardingsphere.datasource.db2.type = com.alibaba.druid.pool.DruidDataSource
    spring.shardingsphere.datasource.db2.driver-class-name = com.mysql.jdbc.Driver
    spring.shardingsphere.datasource.db2.url = jdbc:mysql://localhost:3306/lg_order_2?characterEncoding=UTF-8&useSSL=false
    spring.shardingsphere.datasource.db2.username = root
    spring.shardingsphere.datasource.db2.password = 123456

    通过配置对数据库的分片策略,来指定数据库进行操作

    # 分库策略,以user_id为分片键,分片策略为user_id % 2 + 1,user_id为偶数操作db1数据源,否则操作db2。
    
    spring.shardingsphere.sharding.tables.pay_order.database-strategy.inline.sharding-column = user_id
    spring.shardingsphere.sharding.tables.pay_order.database-strategy.inline.algorithm-expression = db$->{user_id % 2 + 1}

    2. 分库分表的策略

    分库策略 ,目的是将一个逻辑表 , 映射到多个数据源

    # 分库找的是数据库 db$->{user_id % 2 + 1}

    spring.shardingsphere.sharding.tables.逻辑表名称.database-strategy.分片策略.分片策略属性名 = 分片策略表达式

    分表策略, 如何将一个逻辑表 , 映射为多个 实际表

    #分表 找的是具体的表 pay_order_$->{order_id % 2 + 1}

    spring.shardingsphere.sharding.tables.逻辑表名称.table-strategy.分片策略.algorithm-expression = 分片策略表达式

    3. Sharding-JDBC支持以下几种分片策略:

    standard:标准分片策略

    complex:符合分片策略

    inline:行表达式分片策略,,使用Groovy的表达式.

    hint:Hint分片策略,对应HintShardingStrategy。

    none:不分片策略,对应NoneShardingStrategy。不分片的策略。

    5. 插入测试

    @Test
    public void testInsertPayOrder(){
        //user_1 为奇数,插入到 lg_order_1 数据库
        for (int i = 0; i < 5; i++) {
            //插入数据
            payOrderDao.insertPayOrder(1,"海尔电视",1);
        }
        //user_2 为偶数,插入到 lg_order_2 数据库
        for (int i = 0; i < 5; i++) {
            //插入数据
            payOrderDao.insertPayOrder(4,"王牌电视",1);
        }
    }

    首先会根据分库策略找到对应的数据库 db$->{user_id % 2 + 1}

    然后再根据分表策略 找到要插入数据的表 pay_order_$->{order_id % 2 + 1}

    6. 查询测试

    @Test
    public void testFindOrderByIds(){
        List<Long> ids = new ArrayList<>();
        ids.add(517399941648220160L); //lg_order_1数据库的 order_1表
        ids.add(517399941518196736L); //lg_order_2数据库的 order_1表
        List<Map> mapList = payOrderDao.findOrderByIds(ids);
        System.out.println(mapList);
    }

    通过日志发现,sharding-jdbc将sql 路由到了 db1

    原因在 配置上有问题,数据库只指定了 db1

    7. 修改数据节点配置

    #数据节点: db1.pay_order_1 , db1.pay_order_2, db2.pay_order_1,db2.pay_order_2
    
    spring.shardingsphere.sharding.tables.pay_order.actual-data-nodes = db$->{1..2}.pay_order_$->{1..2}

    1.5.3 垂直分库

    垂直分库是指按照业务将表进行分类,分布到不同的数据库上面,每个库可以放在不同的服务器上,它的核心理念是专库专用.

    在使用微服务架构时,业务切割得足够独立,数据也会按照业务切分,保证业务数据隔离,大大提升了数据库的吞吐能力。

    1. 创建数据库

    CREATE DATABASE lg_user CHARACTER SET 'utf8';

    2. 在lg_user 数据库中 users 创建表

    DROP TABLE IF EXISTS users;
    
    CREATE TABLE users (
    id BIGINT(20) PRIMARY KEY,
    username VARCHAR(20) ,
    phone VARCHAR(11),
    STATUS VARCHAR(11)
    );

    3. 规则配置

    配置数据源信息

    spring.shardingsphere.datasource.names = db1,db2,db3
    spring.shardingsphere.datasource.db3.type =
    com.alibaba.druid.pool.DruidDataSource
    spring.shardingsphere.datasource.db3.driver-class-name = com.mysql.jdbc.Driver
    spring.shardingsphere.datasource.db3.url = jdbc:mysql://localhost:3306/lg_user?
    characterEncoding=UTF-8&useSSL=false
    spring.shardingsphere.datasource.db3.username = root
    spring.shardingsphere.datasource.db3.password = 123456

    配置数据节点

    spring.shardingsphere.sharding.tables.users.actual-data-nodes = db$->{3}.users
    spring.shardingsphere.sharding.tables.users.table-strategy.inline.shardingcolumn = id
    spring.shardingsphere.sharding.tables.users.table-strategy.inline.algorithmexpression = users

    4. 测试插入与查询

    @Mapper
    @Component
    public interface UsersDao {
    
        /**
         * 新增用户
         * */
        @Insert("insert into users(id,username,phone,status) values(#{id},#{username},#{phone},#{status})")
        int insertUser(@Param("id") Long id, @Param("username") String username, @Param("phone") String phone,
                       @Param("status") String status);
    
    
        /**
         * 查询用户
         * */
        @Select({"<script>"+
                "select * from users u where u.id in " +
                "<foreach collection='userIds' item='id' open='(' separator = ',' close=')'>#{id}</foreach>"
                +"</script>"})
        List<Map> findUserByIds(@Param("userIds") List<Long> userIds);
    
    }

    UserDaoTest

    @RunWith(SpringRunner.class)
    @SpringBootTest(classes = RunBoot.class)
    public class UserDaoTest {
    
        @Autowired
        UsersDao usersDao;
    
        @Test
        public void testInsert(){
    
            for (int i = 0; i < 10 ; i++) {
                Long id = i + 100L;
                usersDao.insertUser(id,"giao桑"+i,"13511112222", "1");
            }
        }
    
        @Test
        public void testSelect(){
    
            List<Long> ids = new ArrayList<>();
            ids.add(101L);
            ids.add(102L);
    
            List<Map> list = usersDao.findUserByIds(ids);
            System.out.println(list);
        }
    }

    1.6 Sharding-JDBC 操作公共表

    1.6.1 什么是公共表

    公共表属于系统中数据量较小,变动少,而且属于高频联合查询的依赖表。参数表、数据字典表等属于此类型。

    可以将这类表在每个数据库都保存一份,所有更新操作都同时发送到所有分库执行。接下来看一下如何使用Sharding-JDBC实现公共表的数据维护。

    1.6.2 公共表配置与测试

    1) 创建数据库

    分别在 lg_order_1, lg_order_2 , lg_user都创建 district表

    -- 区域表
    CREATE TABLE district (
    id BIGINT(20) PRIMARY KEY COMMENT '区域ID',
    district_name VARCHAR(100) COMMENT '区域名称',
    LEVEL INT COMMENT '等级'
    );

    2) 在Sharding-JDBC的配置文件中 指定公共表

    # 指定district为公共表
    spring.shardingsphere.sharding.broadcast-tables=district
    # 主键生成策略
    spring.shardingsphere.sharding.tables.district.key-generator.column=id
    spring.shardingsphere.sharding.tables.district.key-generator.type=SNOWFLAKE

    3) 编写代码, 操作公共表

    DistrictDao

    @Mapper
    @Component
    public interface DistrictDao {
    
        /**
         * 插入操作
         * */
        @Insert("INSERT INTO district(district_name,level) VALUES(#{district_name},#{level})")
        public void insertDist(@Param("district_name") String district_name, @Param("level") int level);
    
        /**
         * 删除数据
         */
        @Delete("delete from district where id = #{id}")
        int deleteDict(@Param("id") Long id);
    }

    DistrictDaoTest

    @RunWith(SpringRunner.class)
    @SpringBootTest(classes = RunBoot.class)
    public class DistrictDaoTest1 {
    
        @Autowired
        DistrictDao districtDao;
    
        @Test
        public void testInsert(){
            districtDao.insertDist("昌平区",2);
            districtDao.insertDist("朝阳区",2);
        }
    
        @Test
        public void testDelete(){
            districtDao.deleteDict(592125071577841665l);
            districtDao.deleteDict(592125071737225216L);
        }
    }

    1.7 Sharding-JDBC读写分离

    Sharding-JDBC读写分离则是根据SQL语义的分析,将读操作和写操作分别路由至主库与从库。它提供透明化读写分离,让使用方尽量像使用一个数据库一样使用主从数据库集群。

    1.7.1 MySQL主从同步

    为了实现Sharding-JDBC的读写分离,首先,要进行mysql的主从同步配置。

    我们直接使用MyCat讲解中,在虚拟机上搭建的主从数据库.

    在主服务器中的 test数据库 创建商品表

    CREATE TABLE products (
    pid BIGINT(32) PRIMARY KEY ,
    pname VARCHAR(50) DEFAULT NULL,
    price INT(11) DEFAULT NULL,
    flag VARCHAR(2) DEFAULT NULL
    );

    主库新建表之后,从库会根据binlog日志,同步创建.

    1.7.2 sharding-jdbc实现读写分离

    1. 配置数据源

    # 定义多个数据源
    spring.shardingsphere.datasource.names = db1,db2,db3,m1,s1
    spring.shardingsphere.datasource.m1.type =
    com.alibaba.druid.pool.DruidDataSource
    spring.shardingsphere.datasource.m1.driver-class-name = com.mysql.jdbc.Driver
    spring.shardingsphere.datasource.m1.url = jdbc:mysql://192.168.52.10:3306/test?
    characterEncoding=UTF-8&useSSL=false
    spring.shardingsphere.datasource.m1.username = root
    spring.shardingsphere.datasource.m1.password = QiDian@666
    spring.shardingsphere.datasource.s1.type =
    com.alibaba.druid.pool.DruidDataSource
    spring.shardingsphere.datasource.s1.driver-class-name = com.mysql.jdbc.Driver
    spring.shardingsphere.datasource.s1.url = jdbc:mysql://192.168.52.11:3306/test?
    characterEncoding=UTF-8&useSSL=false
    spring.shardingsphere.datasource.s1.username = root
    spring.shardingsphere.datasource.s1.password = QiDian@666

    2. 配置主库与从库的相关信息

    ms1 包含了 m1 和 s1

    pring.shardingsphere.sharding.master-slave-rules.ms1.master-data-source-name=m1
    spring.shardingsphere.sharding.master-slave-rules.ms1.slave-data-source-names=s1

    3. 配置数据节点

    #配置数据节点
    
    spring.shardingsphere.sharding.tables.products.actual-data-nodes = ms1.products

    4. 编写测试代码

    ProductsDao

    @Mapper
    @Component
    public interface ProductsDao {
        /**
        * 读写分离 插入
        * */
        @Insert("insert into products(pid,pname,price,flag) values(#{pid},#{pname},#{price},#{flag})")
        int insertProduct(@Param("pid") Long pid, @Param("pname") String
        pname,@Param("price") int price,@Param("flag") String flag);
        /**
        * 读写分离 查询
        * */
        @Select({"select * from products"})
        List<Map> findAll();
    }

    测试

    @RunWith(SpringRunner.class)
    @SpringBootTest(classes = RunBoot.class)
    public class ProductsDaoTest {
        @Autowired
        ProductsDao productsDao;
        /**
        * 测试插入
        * */
        @Test
        public void testInsert(){
            for (int i = 0; i < 5; i++) {
            productsDao.insertProduct(100L+i,"小米手机",1888,"1");
            }
        }
        /**
        * 测试查询
        * */
        @Test
        public void testSelect(){
            List<Map> all = productsDao.findAll();
            System.out.println(all);
        }
    }

    MySQL高级

    1.MySQL架构组成

    1.1 高级MySQL介绍

    1) 主要内容

    1.MySQL架构组成

    2.MySQL的备份与恢复

    3.MySQL查询和慢查询日志分析

    4.MySQL存储引擎

    5.MySQL索引优化

    6.MySQL锁机制

    7.MySQL高可用设计

    8.MySQL集群

    2) 什么是DBA ?

    数据库管理员,英文是Database Administrator,简称DBA。


    3) 一个高级DBA的职责:

    • 负责MySQL的容量规划,架构设计及安装、部署.
    • 负责MySQL的日常管理,监控和维护, 并对MySQL进行持续性能优化.
    • 负责MySQL开发支持,参与数据架构规划设计,以及相关业务的数据建模、设计评审、SQL代码审核优化.

    4)中级 Java开发工程师对数据库知识的掌握程度

    • 熟练操作主流数据库,能够通过代码(框架) 完成日常的数据库操作.
    • 熟练使用SQL, 熟悉SQL优化, 熟悉存储过程 视图 等创建及使用.
    • 了解MySQL的整体体系结构,了解MySQL事务 存储引擎的特点。
    • 了解MySQL索引优化,了解MySQL相关锁机制

    我们作为Java开发工程师, 关注的应该是跟开发相关的数据库知识. 了解这些高级的知识, 目的是让我们编写出更加高效的应用程序.

    专业的数据库维护、服务器优化、性能参数调优等等数据库相关的运维工作 还是要交给DBA去做的

    1.2 MySQL逻辑架构

    学习 MySQL 就好比盖房子,如果想把房子盖的特别高,地基一定要稳,基础一定要牢固。学习MySQL 数据库前要先了解它的体系结构,这是学好 MySQL 数据库的前提。

    1.2.1 MySQL架构体系介绍

    MySQL 由连接池、SQL 接口、解析器、优化器、缓存、存储引擎等组成,可以分为四层,即连接层、 服务层、引擎层和文件系统层。

    官方文档中 MySQL 的基础架构图:

    1. 连接层

    最上面是一些客户端和连接服务, 不是MySQL特有的,所有基于网络的C/S的网络应用程序都应该包括连接处理、认证、安全管理等。

    2. 服务层

    中间层是MySQL的核心,包括查询解析、分析、优化和缓存等。同时它还提供跨存储引擎的功能,包括存储过程、触发器和视图等。

    3. 引擎层

    存储引擎层,它负责存取数据。服务器通过API可以和各种存储引擎进行交互。不同的存储引擎具有不同的功能,我们可以根据实际需求选择使用对应的存储引擎

    4. 存储层

    数据存储层,主要是将数据存储在运行于裸设备的文件系统之上,并完成与存储引擎的交互

    1.2.2 SQL查询流程

    我们用一条 SQL SELECT 语句的执行轨迹来说明客户端与 MySQL 的交互过程,如下图所示。

    1. 通过客户端/服务器通信协议与 MySQL 建立连接

    2. 查询缓存,这是 MySQL 的一个可优化查询的地方,如果开启了 Query Cache 且在查询缓存过程中查询到完全相同的 SQL 语句,则将查询结果直接返回给客户端;如果没有开启Query Cache 或者没有查询到完全相同的 SQL 语句则会由解析器进行语法语义解析,并生成解析树。

    3. 预处理器生成新的解析树。

    4. 查询优化器生成执行计划。

    5. 查询执行引擎执行 SQL 语句,此时查询执行引擎会根据 SQL 语句中表的存储引擎类型,以及对应的API 接口与底层存储引擎缓存或者物理文件的交互情况,得到查询结果,由MySQL Server 过滤后将查询结果缓存并返回给客户端。若开启了 Query Cache,这时也会将SQL 语句和结果完整地保存到 QueryCache 中,以后若有相同的 SQL 语句执行则直接返回结果。

    1.3 MySQL物理文件

    物理文件包括:日志文件,数据文件,配置文件

    1.3.1 日志文件

    日志文件包括

    • error log 错误日志 排错 /var/log/mysqld.log【默认开启】
    • bin log 二进制日志 备份 增量备份 DDL DML DCL
    • Relay log 中继日志 复制 接收 replication master
    • slow log 慢查询日志 调优 查询时间超过指定值

    1.3.2 配置文件&数据文件

    1) 配置文件 my.cnf

    在 my.cnf 文件中可以进行一些参数设置, 对数据库进行调优。

    2) 数据文件

     

    2.MySQL的备份与恢复

    2.1 为什么要进行数据备份

    我们试着想一想, 在生产环境中什么最重要?如果我们服务器的硬件坏了可以维修或者换新, 软件问题可以修复或重新安装, 但是如果数据没了呢 对于一些网站、系统来说,数据库就是一切,所以做好数据库的备份是至关重要的!

    2.1.1 数据库备份的应用场景

    数据备份在很多工作中都是经常会用到的,因为数据容易因为各种原因而丢失,造成数据丢失的原因有哪些呢?

    数据丢失应用场景:

    • 系统硬件或软件故障
    • 自然灾害,比如水灾 火灾 地震等
    • 黑客攻击,非法访问者故意破坏
    • 误操作 , 人为的误操作占比最大

    非数据丢失应用场景:

    • 开发测试环境数据库搭建
    • 数据库或者数据迁移

    2.2 数据备份的类型

    2.2.1 按照业务方式分

    完全备份

    • 将数据库的全部信息进行备份,包括数据库的数据文件、日志文件,还需要备份文件的存储位置以及数据库中的全部对象和相关信息。

    差异备份

    • 备份从最近的完全备份后对数据所做的修改,备份完全备份后变化了的数据文件、日志文件以及数据库中其他被修改的内容。

    增量备份

    • 增量备份是指在一次全备份或上一次增量备份后,以后每次的备份只需备份与前一次相比增加或者被修改的文件。

     

    2.2.2 备份的组合方式

    完全备份与差异备份

    以每周数据备份为例,可以在星期一进行完全备份,在星期二至星期六进行差异备份。如果在星期六数据被破坏了,则只需要还原星期一完全的备份和星期五的差异备份。

    这种策略备份数据需要较多的时间,但还原数据使用较少的时间

    完全备份与增量备份

    以每周数据备份为例,在星期一进行完全备份,在星期二至星期六进行增量备份。如果在星期六数据被破坏了,则需要还原星期一正常的备份和从星期二至星期五的所有增量备份。

    这种策略备份数据需要较少的时间,但还原数据使用较长的时间。

    2.3 MySQL冷备份和热备份

    冷备份和热备份指的是, 按照数据库的运行状态分类

    2.3.1 冷备份

    冷备份指的是当数据库进行备份时, 数据库不能进行读写操作, 即数据库要下线

    冷备份的优点:

    • 是操作比较方便的备份方法(只需拷贝文件)
    • 低度维护,高度安全。

    冷备份的缺点:

    • 在实施备份的全过程中,数据库必须要作备份而不能作其它工作。
    • 若磁盘空间有限,只能拷贝到磁带等其它外部存储设备上,速度比较慢慢。
    • 不能按表或按用户恢复。

    2.3.2 热备份

    热备份

    热备份是在数据库运行的情况下,备份数据库操作的sql语句,当数据库发生问题时,可以重新执行一遍备份的sql语句。

    热备份的优点:

    • 可在表空间或数据文件级备份,备份时间短。
    • 备份时数据库仍可使用。
    • 可达到秒级恢复(恢复到某一时间点上)。

    热备份的缺点:

    • 不能出错,否则后果严重。
    • 因难维护,所以要特别仔细小心,不允许“以失败而告终”。

    2.4 实战演练

    2.4.1 冷备份实战

    1) 关闭SELinux

    • 修改 selinux 配置文件,将SELINUX=enforcing改为SELINUX=disabled,保存后退出
    vim /etc/selinux/config
    
    SELINUX=disabled
    • 修改后需要重启
    reboot # 重启命令

    2) 找到MySQL数据文件位置,停止MySQL服务

    SHOW VARIABLES LIKE '%dir%';
    
    -- 结果显示, 数据目录就是datadir的所在位置,即 /var/lib/mysql/
    
    service mysqld stop -- 停止mysql

    2) 进入到 /mysql 目录, 执行打包命令 将数据文件打包备份

    cd /var/lib/ # 进入其上级目录
    
    tar jcvf /root/backup.tar.bz2 mysql/ # 打包压缩到 root目录下

    3) 删除掉数据目录下的所有数据

    -- 删除原目录
    
    rm -rf /var/lib/mysql/

    4)恢复数据 (使用tar命令)

    -- 解压
    tar jxvf backup.tar.bz2 mysql/
    
    -- 把备份的文件移动到/var/lib/里面去替代原来的mysql
    mv /root/mysql/ /var/lib/

    5) 启动MySQL, 然后登陆MySQL,查看数据是否丢失, 如果数据正常代表冷备成功

    service mysqld start

    2.4.2 热备份实战

    mysqldump 备份工具

    mysqldump是MySQL数据库用来备份和数据转移的一个工具,一般在数据量很小的时候(几个G)可以用于备份。热备可以对多个库进行备份,可以对单张表或者某几张表进行备份。

    备份单个数据库

    1) 创建文件夹 , 备份数据

    [root@localhost ~]# mkdir databackup
    [root@localhost ~]# cd databackup
    [root@localhost databackup]# mysqldump -uroot -p lagou_edu > lagou_edu.sql

    2) 模拟数据丢失,删除数据库,然后重新创建一个新的库.

    DROP DATABASE lagou_edu;
    CREATE DATABASE lagou_edu CHARACTER SET 'utf8';

    3) 恢复数据

    [root@localhost databackup]cd databackup
    [root@localhost databackup]# mysql -uroot -p lagou_edu < lagou_edu.sql

    备份数据库的某些表

    1) 备份 表数据

    [root@localhost databackup]# mysqldump -uroot -p lagou_edu course course_lesson > backupTable.sql

    2) 模拟数据丢失,删除数据表

    DROP TABLE course;
    DROP TABLE course_lesson;

    3) 恢复数据

    mysql -uroot -p lagou_edu < backupTable.sql

    直接将MySQL数据库压缩备份

    1) 备份数据

    mysqldump -uroot -p lagou_edu | gzip > lagou_edu.sql.gz

    2) 模拟数据丢失,删除数据库

    DROP DATABASE lagou_edu;
    CREATE DATABASE lagou_edu CHARACTER SET 'utf8';

    3) 恢复数据

    gunzip < lagou_edu.sql.gz | mysql -uroot -p lagou_edu

    3.MySQL查询和慢查询日志分析

    3.1 SQL性能下降的原因

    在日常的运维过程中,经常会遇到DBA将一些执行效率较低的SQL发过来找开发人员分析,当我们拿到这个SQL语句之后,在对这些SQL进行分析之前,需要明确可能导致SQL执行性能下降的原因进行分析,执行性能下降可以体现在以下两个方面:

    等待时间长

    1.锁表导致查询一直处于等待状态,后续我们从MySQL锁的机制去分析SQL执行的原理

    执行时间长

    1.查询语句写的烂

    2.索引失效

    3.关联查询太多join

    4.服务器调优及各个参数的设置

    3.2 需要遵守的优化原则

    查询优化是一个复杂的工程,涉及从硬件到参数配置、不同数据库的解析器、优化器实现、SQL 语句的执行顺序、索引以及统计信息的采集等等方面.

    下面给大家介绍几个编写SQL的关键原则,可以帮助我们编写出更加高效的 SQL 查询.

    第一条: 只返回需要的结果

    • 一定要为查询语句指定 WHERE 条件,过滤掉不需要的数据行
    • 避免使用 select * from , 因为它表示查询表中的所有字段

    第二条: 确保查询使用了正确的索引

    • 经常出现在 WHERE 条件中的字段建立索引,可以避免全表扫描;
    • 将 ORDER BY 排序的字段加入到索引中,可以避免额外的排序操作;
    • 多表连接查询的关联字段建立索引,可以提高连接查询的性能;
    • 将 GROUP BY 分组操作字段加入到索引中,可以利用索引完成分组。

    第三条: 避免让索引失效

    • 在 WHERE 子句中对索引字段进行表达式运算或者使用函数都会导致索引失效
    • 使用 LIKE 匹配时,如果通配符出现在左侧无法使用索引
    • 如果 WHERE 条件中的字段上创建了索引,尽量设置为 NOT NULL

    3.3 SQL的执行顺序

    程序员编写的SQL

    MySQL执行的SQL

    查看下面的SQL 分析执行顺序

    上面的SQL执行执行顺序如下

    1. 首先执行 FROM 子句, 从 employee 表组装数据源的数据

    2. 执行 WHERE 子句, 筛选 employee 表中所有name不为 NULL 的数据

    3. 执行 GROUP BY 子句, 按 "性别" 列进行分组

    4. 执行select操作,获取需要的列。

    5. 最后执行order by,对最终的结果进行排序。

    3.4 JOIN查询的七种方式

    7中JOIN ,可以分为四类: 内连接 、左连接 、右连接、 全连接

    3.5 JOIN查询SQL编写

    1. 创建表 插入数据

    3.5.1 内连接

    3.5.2 左连接

    3.5.3 左连接去重叠部分

    3.5.4 右连接

    3.5.5 右连接去重叠部分

    3.5.6 全连接

    MySQL UNION 操作符用于连接两个以上的 SELECT 语句的结果组合到一个结果集合中。多个SELECT 语句会删除重复的数据。

    3.5.7 各自独有

    3.6 慢查询日志分析

    3.6.1 慢查询介绍

    MySQL的慢查询,全名是慢查询日志,是MySQL提供的一种日志记录,用来记录在MySQL中响应时间超过阈值的语句。

    默认情况下,MySQL数据库并不启动慢查询日志,需要手动来设置这个参数

    如果不是调优需要的话,一般不建议启动该参数,因为开启慢查询日志会或多或少带来一定的性能影响。

    慢查询日志支持将日志记录写入文件和数据库表。

    3.6.2 慢查询参数

    1) 执行下面的语句

    SHOW VARIABLES LIKE "%query%" ;

    2) MySQL 慢查询的相关参数解释:

    slow_query_log:是否开启慢查询日志, 1 表示开启, 0 表示关闭。

    slow-query-log-file:新版(5.6及以上版本)MySQL数据库慢查询日志存储路径。

    long_query_time: 慢查询阈值,当查询时间多于设定的阈值时,记录日志。

    3.6.3 慢查询配置方式

    1. 默认情况下slow_query_log的值为OFF,表示慢查询日志是禁用的

    2. 可以通过设置slow_query_log的值来开启

    3. 使用 set global slow_query_log=1 开启了慢查询日志只对当前数据库生效,MySQL重启后则会失效。如果要永久生效,就必须修改配置文件my.cnf(其它系统变量也是如此)

    4. 那么开启了慢查询日志后,什么样的SQL才会记录到慢查询日志里面呢? 这个是由参数long_query_time 控制,默认情况下long_query_time的值为10秒.

    5. 我修改了变量long_query_time,但是查询变量long_query_time的值还是10,难道没有修改到呢?注意:使用命令 set global long_query_time=1 修改后,需要重新连接或新开一个会话才能看到修改值。

    6. log_output 参数是指定日志的存储方式。 log_output='FILE' 表示将日志存入文件,默认值是'FILE'。 log_output='TABLE' 表示将日志存入数据库,这样日志信息就会被写入到mysql.slow_log 表中。

     MySQL数据库支持同时两种日志存储方式,配置的时候以逗号隔开即可,如:log_output='FILE,TABLE'。日志记录到系统的专用日志表中,要比记录到文件耗费更多的系统资源,因此对于需要启用慢查询日志,又需要能够获得更高的系统性能,那么建议优先记录到文件.

    7. 系统变量 log-queries-not-using-indexes :未使用索引的查询也被记录到慢查询日志中(可选项)。如果调优的话,建议开启这个选项。

    3.6.4 慢查询测试

    1. 执行 test_index.sql 脚本, 导入测试表

    2. 执行下面的SQL,执行超时 (超过1秒) 我们去查看慢查询日志

    SELECT * FROM test_index WHERE hobby = '20009951' OR hobby = '10009931' OR hobby = '30009931';

    3. 日志内容

    我们得到慢查询日志后,最重要的一步就是去分析这个日志。我们先来看下慢日志里到底记录了哪些内容。

    如下图是慢日志里其中一条SQL的记录内容,可以看到有时间戳,用户,查询时长及具体的SQL等

    4.MySQL存储引擎

    4.1 存储引擎 介绍

    什么是存储引擎

    存储引擎就是如何存储数据、如何为存储的数据建立索引和如何更新、查询数据等技术的实现方法。就像汽车的发动机一样, 存储引擎好坏 决定的数据库提供的功能和性能

    存储引擎的作用

    • 并发性
    • 事务支持
    • 引用完整性
    • 索引支持

    4.2 常见的3种存储引擎

    MySQL给用户提供了很多种类的存储引擎, 主要分两大类:

    • 事务安全表: InnoDB
    • 非事务安全表: MyISAM、MEMORY、MERGE、EXAMPLE、NDB Cluster、ARCHIVE、CSV、BLACKHOLE、FEDERATED等。

    查看MySQL数据的存储引擎有哪

    SHOW ENGINES;

    查看当前的默认存储引擎 (MySQL5.7 默认使用 InnoDB)

    SHOW VARIABLES LIKE '%default_storage_engine%';

    在MySQL中,不需要整个服务器都是用同一种引擎,针对具体的需求,可以对 每一个表使用不同的存储引擎 .并且想要进一步优化, 还可以自己编写一个存储引擎.

    -- 创建新表时指定存储引擎
    create table(...) engine=MyISAM;

    4.2.1 InnoDB(推荐)

    InnoDB是一个健壮的事务型存储引擎,这种存储引擎已经被很多互联网公司使用,为用户操作非常大的数据存储提供了一个强大的解决方案。InnoDB还引入了行级锁定和外键约束,在以下场合下,使用InnoDB是最理想的选择

    优点

    • Innodb引擎提供了对数据库ACID事务的支持,并且实现了SQL标准的四种隔离级别
    • 支持多版本并发控制的行级锁,由于锁粒度小,写操作和更新操作并发高、速度快。
    • 支持自增长列。
    • 支持外键。
    • 适合于大容量数据库系统,支持自动灾难恢复。

    缺点

    • 它没有保存表的行数,当SELECT COUNT(*) FROM TABLE时需要扫描全表

    应用场景

    • 当需要使用数据库事务时,该引擎当然是首选。由于锁的粒度更小,写操作不会锁定全表,所以在并发较高时,使用Innodb引擎会提升效率
    • 更新密集的表, InnoDB存储引擎特别适合处理多重并发的更新请求。

    4.2.2 MyISAM

    MyISAM引擎, 不支持事务、也不支持外键,优势是访问速度快,对事务完整性没有 要求或者以select,insert为主的应用基本上可以用这个引擎来创建表

    优点

    • MyISAM表是独立于操作系统的,这说明可以轻松地将其从Windows服务器移植到Linux服务器。
    • MyISAM存储引擎在查询大量数据时非常迅速,这是它最突出的优点
    • 另外进行大批量插入操作时执行速度也比较快。

    缺点

    • MyISAM表没有提供对数据库事务的支持。
    • 不支持行级锁和外键。
    • 不适合用于经常UPDATE(更新)的表,效率低。

    应用场景

    • 以读为主的业务,例如:图片信息数据库,博客数据库,商品库等业务。
    • 对数据一致性要求不是非常高的业务(不支持事务)
    • 硬件资源比较差的机器可以用 MyiSAM (占用资源少)

    4.2.3 MEMORY

    MEMORY的特点是 将表中的数据放在内存中,适用于存储临时数据的临时表和数据仓库中的纬度表

    优点

    memory类型的表访问非常的快,因为它的数据是放在内存中的

    缺点

    • 一旦服务关闭,表中的数据就会丢失掉。
    • 只支持表锁,并发性能差,不支持TEXT和BLOB列类型,存储varchar时是按照char的方式

    应用场景

    • 目标数据较小,而且被非常频繁地访问。
    • 如果数据是临时的,而且要求必须立即可用,那么就可以存放在内存表中。
    • 存储在Memory表中的数据如果突然丢失,不会对应用服务产生实质的负面影响。

    4.3 如何选择存储引擎

    不同的存储引擎都有各自的特点,以适应不同的需求,如表所示。为了做出选择,首先要考虑每一个存储引擎提供了哪些不同的功能。

    提供几个选择标准,然后按照标准,选择对应的存储引擎

    • 是否需要支持事务;
    • 崩溃恢复,能否接受崩溃;
    • 是否需要外键支持;
    • 存储的限制;
    • 对索引和缓存的支持;

    5.MySQL索引优化

    5.1 索引简介

    5.1.1 什么是索引

    索引就是排好序的,帮助我们进行快速查找的数据结构.

    简单来讲,索引就是一种将数据库中的记录按照特殊形式存储的数据结构。通过索引,能够显著地提高数据查询的效率,从而提升服务器的性能.

    专业一点来说呢,索引是一个排好序的列表,在这个列表中存储着索引的值和包含这个值的数据所在行的物理地址。在数据库十分庞大的时候,索引可以大大加快查询的速度,这是因为使用索引后可以不用扫描全表来定位某行的数据,而是先通过索引表找到该行数据对应的物理地址然后访问相应的数据

    1. 没有用索引时执行 select * from where t.Col2 = , 数据从磁盘一条一条拿去最终找到结果,效率低下。

    2. 为了加快查找,可以维护一个二叉树,左侧节点小于父节点, 右侧节点大于父节点,每个节点分别保存字段数据和一个指向对应数据记录物理地址的指针.

    3. 查找时 就可以使用二叉树查找获取相应的数据,从而快速检索出符合条件的记录

    一般来说索引本身也比较大,不可能全部保存在内存中,因此索引通常是以索引文件的形式存储在磁盘上

    5.1.2 索引的种类

    普通索引

    这是最基本的索引类型,基于普通字段建立的索引,没有任何限制。

    CREATE INDEX <索引的名字> ON tablename (字段名);
    ALTER TABLE tablename ADD INDEX [索引的名字] (字段名);
    CREATE TABLE tablename ( [...], INDEX [索引的名字] (字段名) );

    唯一索引

    与"普通索引"类似,不同的就是:索引字段的值必须唯一,但允许有空值 。

    CREATE UNIQUE INDEX <索引的名字> ON tablename (字段名);
    ALTER TABLE tablename ADD UNIQUE INDEX [索引的名字] (字段名);
    CREATE TABLE tablename ( [...], UNIQUE [索引的名字] (字段名) ;

    主键索引

    它是一种特殊的唯一索引,不允许有空值。在创建或修改表时追加主键约束即可,每个表只能有一个主键。

    CREATE TABLE tablename ( [...], PRIMARY KEY (字段名) );
    ALTER TABLE tablename ADD PRIMARY KEY (字段名);

    复合索引

    用户可以在多个列上建立索引,这种索引叫做组复合索引(组合索引)。复合索引可以代替多个单一索引,相比多个单一索引复合索引所需的开销更小。

    CREATE INDEX <索引的名字> ON tablename (字段名1,字段名2...);
    ALTER TABLE tablename ADD INDEX [索引的名字] (字段名1,字段名2...);
    CREATE TABLE tablename ( [...], INDEX [索引的名字] (字段名1,字段名2...) );

    复合索引使用注意事项:

    1. 何时使用复合索引,要根据where条件建索引,注意不要过多使用索引,过多使用会对更新操作效率有很大影响。

    2. 如果表已经建立了(col1,col2),就没有必要再单独建立(col1);如果现在有(col1)索引,如果查询需要col1和col2条件,可以建立(col1,col2)复合索引,对于查询有一定提高。

    全文索引

    查询操作在数据量比较少时,可以使用like模糊查询,但是对于大量的文本数据检索,效率很低。如果使用全文索引,查询速度会比like快很多倍。在MySQL 5.6 以前的版本,只有MyISAM存储引擎支持全文索引,从MySQL 5.6开始MyISAM和InnoDB存储引擎均支持。

    CREATE FULLTEXT INDEX <索引的名字> ON tablename (字段名);
    ALTER TABLE tablename ADD FULLTEXT [索引的名字] (字段名);
    CREATE TABLE tablename ( [...], FULLTEXT KEY [索引的名字] (字段名) ;

    全文索引方式有自然语言检索 IN NATURAL LANGUAGE MODE 和布尔检索 IN BOOLEAN MODE两种

    和常用的like模糊查询不同,全文索引有自己的语法格式,使用 match 和 against 关键字,比如

    SELECT * FROM users3 WHERE MATCH(NAME) AGAINST('aabb');
    
    -- * 表示通配符,只能在词的后面
    
    SELECT * FROM users3 WHERE MATCH(NAME) AGAINST('aa*' IN BOOLEAN MODE);

    全文索引使用注意事项:

    • 全文索引必须在字符串、文本字段上建立。
    • 全文索引字段值必须在最小字符和最大字符之间的才会有效。(innodb:3-84;myisam:4-84)

    5.1.3 索引的优势与劣势

    优点

    • 提高数据检索的效率,降低数据库的IO成本
    • 通过索引列对数据进行排序,降低数据排序的成本,降低了CPU的消耗

    缺点

    • 创建索引和维护索引要耗费时间,这种时间随着数据量的增加而增加
    • 索引需要占物理空间,除了数据表占用数据空间之外,每一个索引还要占用一定的物理空间
    • 当对表中的数据进行增加、删除和修改的时候,索引也要动态的维护,降低了数据的维护速度

    创建索引的原则

    • 在经常需要搜索的列上创建索引,可以加快搜索的速度;
    • 在作为主键的列上创建索引,强制该列的唯一性和组织表中数据的排列结构;
    • 在经常用在连接的列上,这些列主要是一些外键,可以加快连接的速度;
    • 在经常需要根据范围进行搜索的列上创建索引,因为索引已经排序,其指定的范围是连续的;
    • 在经常需要排序的列上创建索引,因为索引已经排序,这样查询可以利用索引的排序,加快排序查询时间;
    • 在经常使用在WHERE子句中的列上面创建索引,加快条件的判断速度。

    5.2 索引原理

    MySQL中索引的常用数据结构有两种,一种是Hash,另一种是BTree。

    5.2.1 HASH结构

    Hash底层实现是由Hash表来实现的,是根据键值 <key,value> 存储数据的结构。非常适合根据key查找value值,也就是单个key查询,或者说等值查询。

    对于每一行数据,存储引擎都会对所有的索引列计算一个哈希码,哈希码是一个较小的值,并且不同键值的行计算出来的哈希码也不一样。

    Hash索引的缺点

    • 哈希索引只包含哈希值和行指针,而不存储字段值,所以不能使用索引中的值来避免读取行。
    • 哈希索引数据并不是按照索引值顺序存储的,所以也就无法用于排序。
    • 哈希索引只支持等值比较查询。不支持任何范围查询和部分索引列匹配查找。

    Hsah索引的优点

    • 只需要做等值比较查询,而不包含排序或范围查询的需求,都适合使用哈希索引
    • 访问哈希索引的数据非常快,除非有很多哈希冲突。

    5.2.2 B+Tree结构

    MySQL数据库索引采用的是B+Tree结构,在B-Tree结构上做了优化改造

    B+Tree结构

    非叶子节点不存储data数据,只存储索引值,这样便于存储更多的索引值

    叶子节点包含了所有的索引值和data数据

    叶子节点用指针连接,提高区间的访问性能

    B树索引的应用

    • 全键值查询 where x=123
    • 键值范围查询 where 45 < x < 123

    5.3 EXPLAIN性能分析

    5.3.1 EXPLAIN简介

    概述

    使用 EXPLAIN 关键字可以模拟优化器执行SQL查询语句,从而知道MySQL是如何处理你的SQL语句的。分析你的查询语句或是表结构的性能瓶颈。 通过explain我们可以获得以下信息:

    EXPLAIN的作用

    • 表的读取顺序。(对应id)
    • 数据读取操作的操作类型。(对应select_type)
    • 哪些索引可以使用。(对应possible_keys)
    • 哪些索引被实际使用。(对应key)
    • 表直接的引用。(对应ref)
    • 每张表有多少行被优化器查询。(对应rows)

    EXPLAIN的入门

    explain使用:explain+sql语句,通过执行explain可以获得sql语句执行的相关信息。

    5.3.2 EXPLAIN字段介绍

    1.数据准备

    2.ID介绍

    select查询的序列号,包含一组数字,表示查询中执行select子句或操作表的顺序

    id相同,执行顺序由上至下

    id不同,如果是子查询,id的序号会递增,id值越大优先级越高,越先被执行

    3.select_type和table介绍

    查询类型,主要用于区别普通查询,联合查询,子查询等的复杂查询

    simple : 简单的select查询,查询中不包含子查询或者UNION

    primary : 查询中若包含任何复杂的子部分,最外层查询被标记

    subquery : 在select或where列表中包含了子查询

    derived : 在from列表中包含的子查询被标记为derived(衍生),MySQL会递归执行这些子查询,把结果放到临时表中

    union : 如果第二个select出现在UNION之后,则被标记为UNION,如果union包含在from子句的子查询中,外层select被标记为derived
    union result : UNION 的结果

    4.type介绍

    type显示的是连接类型,是较为重要的一个指标。下面给出各种连接类型,按照从最佳类型到最坏类型进行排序:

    system : 表仅有一行 (等于系统表)。这是const连接类型的一个特例,很少出现。

    const : 表示通过索引 一次就找到了, const用于比较 primary key 或者 unique 索引. 因为只匹配一行数据,所以如果将主键 放在 where条件中, MySQL就能将该查询转换为一个常量

    eq_ref : 唯一性索引扫描,对于每个索引键,表中只有一条记录与之匹配. 常见与主键或唯一索引扫描

    ref : 非唯一性索引扫描, 返回匹配某个单独值的所有行, 本质上也是一种索引访问, 它返回所有匹配某个单独值的行, 这是比较常见连接类型.

     

    range : 只检索给定范围的行,使用一个索引来选择行。

    index : 出现index 是 SQL 使用了索引, 但是没有通过索引进行过滤,一般是使用了索引进行排序分组

    ALL : 对于每个来自于先前的表的行组合,进行完整的表扫描。

    一般来说,需要保证查询至少达到 range级别,最好能到ref

    5.possible_keys 与 key介绍

    possible_keys

    • 显示可能应用到这张表上的索引, 一个或者多个. 查询涉及到的字段上若存在索引, 则该索引将被列出, 但不一定被查询实际使用.

    key

    • 实际使用的索引,若为null,则没有使用到索引。(两种可能,1.没建立索引, 2.建立索引,但索引失效)。查询中若使用了覆盖索引,则该索引仅出现在key列表中。覆盖索引:一个索引包含(或覆盖)所有需要查询的字段的值,通过查询索引就可以获取到字段值

     

     

    6.key_len介绍

    表示索引中使用的字节数, 可以通过该列计算查询中使用索引的长度

    key_len 字段能够帮你检查是否充分利用了索引 ken_len 越长, 说明索引使用的越充分

    使用explain 进行测试

    7.ref 介绍

    显示索引的哪一列被使用了,如果可能的话,是一个常数。哪些列或常量被用于查找索引列上的值

     

    8.rows 介绍

    表示MySQL根据表统计信息及索引选用情况,估算的找到所需的记录所需要读取的行数;越少越好

    总结: 当我们需要优化一个SQL语句的时候,我们需要知道该SQL的执行计划,比如是全表扫描,还是索引扫描; 使用 explain 关键字可以模拟优化器执行 sql 语句,从而知道 mysql 是如何处理 sql 语句的,方便我们开发人员有针对性的对SQL进行优化.

    • 表的读取顺序。(对应id)
    • 数据读取操作的操作类型。(对应select_type)
    • 哪些索引可以使用。(对应possible_keys)
    • 哪些索引被实际使用。(对应key)
    • 每张表有多少行被优化器查询。(对应rows)
    • 评估sql的质量与效率 (对应type)

    9.extra 介绍

    Extra 是 EXPLAIN 输出中另外一个很重要的列,该列显示MySQL在查询过程中的一些详细信息

    准备数据

    Using filesort

    执行结果Extra为 Using filesort ,这说明,得到所需结果集,需要对所有记录进行文件排序。这类SQL语句性能极差,需要进行优化。

    典型的,在一个没有建立索引的列上进行了order by,就会触发filesort,常见的优化方案是,在order by的列上添加索引,避免每次查询都全量排序。

    filtered 它指返回结果的行占需要读到的行(rows列的值)的百分比

    Using temporary

    执行结果Extra为 Using temporary ,这说明需要建立临时表 (temporary table) 来暂存中间结果。

    常见与 group by 和 order by,这类SQL语句性能较低,往往也需要进行优化。

    Using where

    需要注意的是:

    1. 返回所有记录的SQL,不使用where条件过滤数据,大概率不符合预期,对于这类SQL往往需要进行优化;

    2. 使用了where条件的SQL,并不代表不需要优化,往往需要配合explain结果中的type(连接类型)来综合判断。例如本例查询的 age 未设置索引,所以返回的type为ALL,仍有优化空间,可以建立索引优化查询。

    Using index

    Using join buffer

    问题在于 两个关联表join 使用 uname,关联字段均未建立索引,就会出现这种情况。

    常见的优化方案是,在关联字段上添加索引,避免每次嵌套循环计算。

    6.MySQL锁机制

    6.1 MySQL锁概述

    1.锁的概念

    数据库锁定机制简单来说,就是数据库为了保证数据的一致性,而使各种共享资源在被并发访问变得有序所设计的一种规则.

    案例

    假设当前商品只有一件, 两个用户同时购买,我们需要保证只有一个用户能下单成功.

    因为购买行为是一组操作,这里需要使用事务控制,从获取商品数量,插入订单 到付款后插入付款信息,更新商品数量.在这个过程中,使用锁可以对有限的资源进行保护.

    6.2 MySQL的锁分类

    MySQL数据库由于其自身架构的特点,存在多种数据存储引擎, MySQL中不同的存储引擎支持不同的锁机制。

    • MyISAMMEMORY存储引擎采用的表级锁,
    • InnoDB存储引擎既支持行级锁,也支持表级锁,默认情况下采用行级锁。
    • BDB采用的是页面锁,也支持表级锁

    按照数据操作的类型分

    • 读锁(共享锁):针对同一份数据,多个读操作可以同时进行而不会互相影响。
    • 写锁(排他锁):当前写操作没有完成前,它会阻断其他写锁和读锁。

    按照数据操作的粒度分

    表级锁:开销小,加锁快;不会出现死锁;锁定粒度大,发生锁冲突的概率最高,并发度最低。

    行级锁: 开销大,加锁慢;会出现死锁;锁定粒度最小,发生锁冲突的概率最低,并发度也最高。

    页面锁:开销和加锁时间界于表锁和行锁之间;会出现死锁;锁定粒度界于表锁和行锁之间,并发度一般

    按照操作性能可分为乐观锁和悲观锁

    乐观锁:一般的实现方式是对记录数据版本进行比对,在数据更新提交的时候才会进行冲突检测,如果发现冲突了,则提示错误信息。

    悲观锁:在对一条数据修改的时候,为了避免同时被其他人修改,在修改数据之前先锁定,再修改的控制方式。共享锁和排他锁是悲观锁的不同实现,但都属于悲观锁范畴。

    6.3 表级锁(偏读)

    表级锁是MySQL中锁定粒度最大的一种锁,表示对当前操作的整张表加锁,它实现简单,资源消耗较少,被大部分MySQL引擎支持。最常使用的MYISAM与INNODB都支持表级锁定。

    表级锁定分为: 表共享读锁(共享锁)与表独占写锁(排他锁)。

    特点: 开销小,加锁快;不会出现死锁;锁定粒度大,发出锁冲突的概率最高,并发度最低。

    6.3.1 数据准备

    6.3.2 加锁语法

    查看表中加过的锁

    手动增加表锁

    释放锁, 解除锁定

    6.3.3 加读锁测试

    MySQL 的表级锁有两种模式:

    • 表共享读锁(Table Read Lock)
    • 表独占写锁(Table Write Lock)。

    1. 对mylock01表加读锁

    lock table mylock01 read;

    2. 开启两个窗口,对mylock01进行读操作, 两个窗口都可以读

    3. 在1窗口进行写操作 (update), 失败

    4. 在1窗口中 读取其他的表,比如读取 mylock 02表. 读取失败.

    5. 在2窗口中 对 mylock01表 进行写操作

    6. 解除 mylock01 的锁定,窗口2 的修改执行.

    总结:

    对MyISAM表的读操作 (加读锁) ,不会阻塞其他进程对同一表的读请求,但是会阻塞对同一表的写请求. 只有当读锁释放后,才会执行其他进程的写操作.

    6.3.4 加写锁测试

    1. 在窗口1中 对mylock01表加写

    2. 在窗口1中, 对 mylock01 进行读写操作, 都是可以进行的

    3. 在窗口1中读其他表, 还是不允许

    4. 在窗口2 中读mylock01 表, 读操作被阻塞

    5. 在窗口2 中 对mylock01表进行写操作, 仍然被阻塞

    6. 释放锁, 窗口2操作执行执行.

    总结: 对MyISAM表加写锁, 会阻塞其他进程对同一表的读和写操作,只有当写锁释放后,才会执行其他进程的操作

    6.4 行级锁(偏写)

    6.4.1 行级锁介绍

    行锁的是mysql锁中粒度最小的一种锁,因为锁的粒度很小,所以发生资源争抢的概率也最小,并发性能最大,但是也会造成死锁,每次加锁和释放锁的开销也会变大。

    使用MySQL行级锁的两个前提

    • 使用 innoDB 引擎
    • 开启事务 (隔离级别为 Repeatable Read )

    InnoDB行锁的类型

    • 共享锁(S):当事务对数据加上共享锁后, 其他用户可以并发读取数据,但任何事务都不能对数据进行修改(获取数据上的排他锁),直到已释放所有共享锁。
    • 排他锁(X):如果事务T对数据A加上排他锁后,则其他事务不能再对数据A加任任何类型的封锁。获准排他锁的事务既能读数据,又能修改数据。

    加锁的方式

    • InnoDB引擎默认更新语句,update,delete,insert 都会自动给涉及到的数据加上排他锁,select语句默认不会加任何锁类型,如果要加可以使用下面的方式:
    • 加共享锁(S):select * from table_name where ... lock in share mode;
    • 加排他锁(x):select * from table_name where ... for update;

    锁兼容

    • 共享锁只能兼容共享锁, 不兼容排它锁
    • 排它锁互斥共享锁和其它排它锁

    行级锁都是基于索引的,如果一条 SQL 语句用不到索引是不会使用行级锁的,而会使用表级锁把整张表锁住,这点需要咱们格外的注意

    6.4.2 行锁测试

    1.更新时的行锁测试

    1.数据准备

    2.打开两个窗口, 都开启手动提交事务 ( 提交事务或回滚事务就会释放锁 )

    #开启MySQL数据库手动提交
    
    SET autocommit=0;

    3.执行不同会话修改操作, 窗口1读,窗口2 写

    窗口1 进行, 对id为1的数据 进行更新操作,但是不进行commit.

    执行之后,在当前窗口查看表数据,发现被修改了.

    4. 在窗口2 查看表信息, 无法看到更新的内容

    总结: 行级锁中的写锁主要是为了解决在修改数据时,不允许其他事务对当前数据进行修改和读取操作,从而可以有效避免”脏读”问题的产生。

    5. 窗口1 对innodb_lock表的 id=1 的这一行,进行写操作,但是不要commit

    6. 接下来 窗口2 也对innodb_lock表的 id=1 的这一行,进行写操作,发现发生了阻塞

    7. 等窗口1执行commit语句之后,窗口2的SQL就会执行了

    总结: 在有写锁的情况下,其他事务不能再对当前数据添加写锁,从而保证数据的一致性,从而避免了不可重复读的问题.

    2.查询时的排他锁测试

    1. select语句加排他锁方式 : select * from table_name where ... for update;

    for update 的作用

    • for update 是在数据库中上锁用的,可以为数据库中的行上一个排他锁。

    for update 的应用场景

    • 存在高并发并且对于数据的准确性很有要求的场景,是需要了解和使用for update的。

    for update 的注意点

    • for update 仅适用于InnoDB,并且必须开启事务,在begin与commit之间才生效

    2. 在窗口1中, 首先开启事务, 然后对 id为1 的数据进行排他查询

    3. 在窗口2中,对同一数据分别使用 排他查 和 共享锁 两种方式查询

    我们看到开了排他锁查询和共享锁查询都会处于阻塞状态,因为id=1的数据已经被加上了排他锁,此处阻塞是等待排他锁释放

    4. 如果只是使用普通查询,我们发现是可以的

    3. 查询时的共享锁测试

    添加共享锁: select * from table_name where ... lock in share mode;

    事务获取了共享锁,在其他查询中也只能加共享锁,但是不能加排它锁。

    1. 窗口1 开启事务, 使用共享锁查询 id = 2 的数据 ,但是不要提交事务

    2. 窗口2 开启事务, 使用普通查询和共享锁查询 id = 2 的数据 ,是可以的

    3. 加排他锁就查不到,因为排他锁与共享锁不能存在同一数据上。

    6.4.3 行锁分析

    1. 执行下面的命令,可以获取行锁锁信息

    2. 参数说明

    当等待次数很高,而且每次等待时长也不小的时候,我们就需要分析系统中为什么会有如此多的等待,然后根据分析结果着手制定优化策略。

    7.MySQL集群架构

    7.1 MySQL高可用设计

    7.1.1 高可用介绍

    1. 什么是高可用性

    计算公式: A表示可用性; MTBF表示平均故障间隔; MTTR表示平均恢复时间

    高可用有一个标准,9越多代表越容错, 可用性越高.

    假设系统一直能够提供服务,我们说系统的可用性是100%。如果系统每运行100个时间单位,会有1个时间单位无法提供服务,我们说系统的可用性是99%。很多公司的高可用目标是4个9,也就是99.99%

    7.1.2 MySQL高可用介绍

    我们在考虑MySQL数据库的高可用的架构时,主要要考虑如下几方面:

    • 如果数据库发生了宕机或者意外中断等故障,能尽快恢复数据库的可用性,尽可能的减少停机时间,保证业务不会因为数据库的故障而中断。
    • 用作备份、只读副本等功能的非主节点的数据应该和主节点的数据实时或者最终保持一致。当业务发生数据库切换时,切换前后的数据库内容应当一致,不会因为数据缺失或者数据不一致而影响业务。
    • 客户端通过Master对数据库进行写操作,slave端进行读操作,并可进行备份。Master出现问题后,可以手动将应用切换到slave端。

    7.2 MySQL高可用集群方案

    7.2.1 主从复制+读写分离

    此种架构,一般初创企业比较常用,也便于后面步步的扩展, 客户端通过Master对数据库进行写操作,slave端进行读操作,并可进行备份。Master出现问题后,可以手动将应用切换到slave端。

    主从复制的优点:

    1. 实时灾备,用于故障切换(高可用)

    2. 读写分离,提供查询服务(读扩展)

    3. 数据备份,避免影响业务(高可用)

    读写分离的优点:

    1. 主从只负责各自的写和读,极大程度的缓解锁争用

    2. 从库可配置myisam引擎,提升查询性能以及节约系统开销

    3. 从库同步主库,通过主库发送来的binlog恢复数据

    4. 读写分离适用与读远大于写的场景,如果只有一台服务器,当select很多时,update和delete会被这些select访问中的数据堵塞,等待select结束,并发性能不高。 对于写和读比例相近的应用,应该部署双主相互复制

    7.2.2 双主从复制

    很多企业刚开始都是使用MySQL主从模式,一主多从、读写分离等。但是单主如果发生单点故障,从库切换成主库还需要作改动。因此,如果是双主或者多主,就会增加MySQL入口,提升了主库的可用性

    双主模式是指两台服务器互为主从,任何一台服务器数据变更,都会通过复制应用到另外一方的数据库中。

    问题: 使用双主双写还是双主单写

    建议大家使用双主单写,因为双主双写存在以下缺点:

    • ID冲突
      • 在A主库写入,当A数据未同步到B主库时,对B主库写入,如果采用自动递增容易发生ID主键的冲突。
      • 可以采用MySQL自身的自动增长步长来解决,例如A的主键为1,3,5,7...,B的主键为2,4,6,8... ,但是对数据库运维、扩展都不友好。
    • 更新丢失
      • 同一条记录在两个主库中进行更新,会发生前面覆盖后面的更新丢失。

    7.2.3 MMM架构

    MMM(Master-Master Replication Manager for MySQL)是一套用来管理和监控双主复制,支持双主故障切换 的第三方软件。MMM 使用Perl语言开发,虽然是双主架构,但是业务上同一时间只允许一个节点进行写入操作。下图是基于MMM实现的双主高可用架构。

    MMM故障处理机制

    MMM 包含writer和reader两类角色,分别对应写节点和读节点。

    • 当 writer节点出现故障,程序会自动移除该节点上的VIP
    • 写操作切换到 Master2,并将Master2设置为writer
    • 将所有Slave节点会指向Master2

    除了管理双主节点,MMM 也会管理 Slave 节点,在出现宕机、复制延迟或复制错误,MMM 会移除该节点的 VIP,直到节点恢复正常。

    7.2.4 MHA架构

    MHA(Master High Availability)目前在MySQL高可用方面是一个相对成熟的解决方案,它由日本人开发,是一套优秀的作为MySQL高可用性环境下故障切换和主从提升的高可用软件。

    在MySQL故障切换过程中,MHA能做到在0~30秒之内自动完成数据库的故障切换操作,并且在进行故障切换的过程中,MHA能在最大程度上保证数据的一致性,以达到真正意义上的高可用。

    目前MHA主要支持一主多从的架构,要搭建MHA,要求一个复制集群中必须最少有三台数据库服务器,一主二从,即一台充当master,一台充当备用master,另外一台充当从库

    该软件由两部分组成:MHA Manager(管理节点)和MHA Node(数据节点)。

    • MHA Manager可以单独部署在一台独立的机器上管理多个master-slave集群,也可以部署在一台slave节点上。
    • MHA Node运行在每台MySQL服务器上,MHA Manager会定时探测集群中的master节点,当master出现故障时,它可以自动将最新数据的slave提升为新的master,然后将所有其他的slave重新指向新的master。整个故障转移过程对应用程序完全透明。

    MHA故障处理机制:

    • 把宕机master的binlog保存下来
    • 根据binlog位置点找到最新的slave
    • 用最新slave的relay log修复其它slave
    • 将保存下来的binlog在最新的slave上恢复
    • 将最新的slave提升为master
    • 将其它slave重新指向新提升的master,并开启主从复制

    MHA优点:

    • 自动故障转移快
    • 主库崩溃不存在数据一致性问题
    • 性能优秀,支持半同步复制和异步复制
    • 一个Manager监控节点可以监控多个集群
  • 相关阅读:
    OpenWRT解决因PPPOE丢包导致频繁掉线问题
    ArcGIS Server 9.3集群部署(多som+多soc)
    ArcGIS Server 9.3集群部署(多som+多soc)
    POJ2823 滑动窗口
    AOJ 0531 坐标离散化
    Office2010安装错误
    Cv运动分析与对象跟踪(转)
    FPS学习记录
    opencv基于HSV的肤色分割
    Haar特征
  • 原文地址:https://www.cnblogs.com/zhf123/p/14690111.html
Copyright © 2020-2023  润新知