• 数据库-容量(转)


    1. 典型数据库架构设计与实践

       1). 单库架构

       2). 分组架构

             什么是分组?

            答:分组架构是最常见的一主多从,主从同步,读写分离数据库架构:

    • user-service:依旧是用户中心服务

    • user-db-M(master):主库,提供数据库写服务

    • user-db-S(slave):从库,提供数据库读服务

         主和从构成的数据库集群称为“组”。

         分组有什么特点?

         答:同一个组里的数据库集群:

    • 主从之间通过binlog进行数据同步

    • 多个实例数据库结构完全相同

    • 多个实例存储的数据也完全相同,本质上是将数据进行复制

         分组架构究竟解决什么问题?

         答:大部分互联网业务读多写少,数据库的读往往最先成为性能瓶颈,如果希望:

               线性提升数据库读性能

    • 通过消除读写锁冲突提升数据库写性能

    • 通过冗余从库实现数据的“读高可用”

          此时可以使用分组架构,需要注意的是,分组架构中,数据库的主库依然是写单点。

          一句话总结,分组解决的是“数据库读写高并发量高”问题,所实施的架构设计。

     3). 分片架构

          什么是分片?

          答:分片架构是大伙常说的水平切分(sharding)数据库架构:

    • user-service:依旧是用户中心服务

    • user-db1:水平切分成2份中的第一份

    • user-db2:水平切分成2份中的第二份

          分片后,多个数据库实例也会构成一个数据库集群。

          水平切分,到底是分库还是分表?

          答:强烈建议分库,而不是分表,因为:

    • 分表依然公用一个数据库文件,仍然有磁盘IO的竞争

    • 分库能够很容易的将数据迁移到不同数据库实例,甚至数据库机器上,扩展性更好

          水平切分,用什么算法?

          答:常见的水平切分算法有“范围法”和“哈希法”:

          范围法如上图:以用户中心的业务主键uid为划分依据,将数据水平切分到两个数据库实例上去:

    • user-db1:存储0到1千万的uid数据

    • user-db2:存储0到2千万的uid数据

          哈希法如上图:也是以用户中心的业务主键uid为划分依据,将数据水平切分到两个数据库实例上去:

    • user-db1:存储uid取模得1的uid数据

    • user-db2:存储uid取模得0的uid数据

          这两种方法在互联网都有使用,其中哈希法使用较为广泛。

          分片有什么特点?

          答:同一个分片里的数据库集群:

    • 多个实例之间本身不直接产生联系,不像主从间有binlog同步

    • 多个实例数据库结构,也完全相同

    • 多个实例存储的数据之间没有交集,所有实例间数据并集构成全局数据

          分片架构究竟解决什么问题?

          答:大部分互联网业务数据量很大,单库容量容易成为瓶颈,此时通过分片可以:

    • 线性提升数据库写性能,需要注意的是,分组架构是不能线性提升数据库写性能的

    • 降低单库数据容量

          一句话总结,分片解决的是“数据库数据量大”问题,所实施的架构设计。

      4). 分组+分片架构

         如果业务读写并发量很高,数据量也很大,通常需要实施分组+分片的数据库架构:

    • 通过分片来降低单库的数据量,线性提升数据库的写性能

    • 通过分组来线性提升数据库的读性能,保证读库的高可用

     5). 垂直切分

          除了水平切分,垂直切分也是一类常见的数据库架构设计,垂直切分一般和业务结合比较紧密。

          还是以用户中心为例,可以这么进行垂直切分:

          User(uid, uname, passwd, sex, age, …)

          User_EX(uid, intro, sign, …)

    • 垂直切分开的表,主键都是uid

    • 登录名,密码,性别,年龄等属性放在一个垂直表(库)里

    • 自我介绍,个人签名等属性放在另一个垂直表(库)里

          如何进行垂直切分?

          答:根据业务对数据进行垂直切分时,一般要考虑属性的“长度”和“访问频度”两个因素:

    • 长度较短,访问频率较高的放在一起

    • 长度较长,访问频度较低的放在一起

          这是因为,数据库会以行(row)为单位,将数load到内存(buffer)里,在内存容量有限的情况下,长度短且访问频度高的属性,内存能够load更多的数据,命中率会更高,磁盘IO会减少,数据库的性能会提升。

          垂直切分有什么特点?

          答:垂直切分和水平切有相似的地方,又不太相同:

    • 多个实例之间也不直接产生联系,即没有binlog同步

    • 多个实例数据库结构,都不一样

    • 多个实例存储的数据之间至少有一列交集,一般来说是业务主键,所有实例间数据并集构成全局数据

          垂直切分解决什么问题?

          答:垂直切分即可以降低单库的数据量,还可以降低磁盘IO从而提升吞吐量,但它与业务结合比较紧密,并不是所有业务都能够进行垂直切分的。

     6). 总结

           文章较长,希望至少记住这么几点:

    • 业务初期用单库

    • 读压力大,读高可用,用分组

    • 数据量大,写线性扩容,用分片

    • 属性短,访问频度高的属性,垂直拆分到一起

     2. 1对多业务,数据库水平切分架构一次搞定

         1). 在数据量较大,并发量较大的时候,通常通过元数据与索引数据分离的架构来满足不同类型的需求:

               tid和uid上的查询需求,可以由tiezi-center从元数据读取并返回

               其他类检索需求,可以由tiezi-search从索引数据检索并返回

         2). 帖子中心元数据设计

              数据库设计上,在业务初期,单库就能满足元数据存储要求,

              在相关字段上建立索引,就能满足相关业务需求:

              帖子记录查询,通过tid查询,约占读请求量90%

              select * from t_tiezi where tid=$tid

              帖子列表查询,通过uid查询其发布的所有帖子,约占读请求量10%

              select * from t_tiezi where uid=$uid

        3). 帖子中心水平切分-tid切分法

             当数据量越来越大时,需要对帖子数据的存储进行线性扩展。

             既然是帖子中心,并且帖子记录查询量占了总请求的90%,很容易想到通过tid字段取模来进行水平切分:

             这个方法简单直接,

             优点

             a.100%写请求可以直接定位到库

             b.90%的读请求可以直接定位到库

             缺点:一个用户发布的所有帖子可能会落到不同的库上,10%的请求通过uid来查询会比较麻烦

       4). 帖子中心水平切分-uid切分法

            有没有一种切分方法,确保同一个用户发布的所有帖子都落在同一个库上,而在查询一个用户发布的所有帖子时,不需要去遍历所有的库呢?

            答:使用uid来分库可以解决这个问题。

            新出现的问题:如果使用uid来分库,确保了一个用户的帖子数据落在同一个库上,那通过tid来查询,就不知道这个帖子落在哪个库上了,岂不是还需要遍历全库,需要怎么优化呢?

            答:tid的查询是单行记录查询,只要在数据库(或者缓存)记录tid到uid的映射关系,就能解决这个问题。

            新增一个索引库:

            t_mapping(tid, uid);

            这个库只有两列,可以承载很多数据

            即使数据量过大,索引库可以利用tid水平切分

            这类kv形式的索引结构,可以很好的利用cache优化查询性能

            一旦帖子发布,tid和uid的映射关系就不会发生变化,cache的命中率会非常高

           使用uid分库,并增加索引库记录tid到uid的映射关系之后,每当有uid上的查询:

           可以通过uid直接定位到库。

           每当有tid上的查询:

           先查询索引表,通过tid查询到对应的uid

           再通过uid定位到库

           这个方法的优点:一个用户发布的所以帖子落在同一个库上; 10%的请求过过uid来查询列表,可以直接定位到库 ; 索引表cache命中率非常高,因为tid与uid的映射关系不会变

           缺点:90%的tid请求,以及100%的修改请求,不能直接定位到库,需要先进行一次索引表的查询,当然这个查询非常块,通常在5ms内可以返回; 

                      数据插入时需要操作元数据与索引表,可能引发潜在的一致性问题

      5). 帖子中心水平切分-基因法

           有没有一种方法,既能够通过uid定位到库,又不需要建立索引表来进行二次查询呢,这就是本文要叙述的“1对多”业务分库最佳实践,基因法。

           什么是分库基因?

           通过uid分库,假设分为16个库,采用uid%16的方式来进行数据库路由,这里的uid%16,其本质是uid的最后4个bit决定这行数据落在哪个库上,这4个bit,就是分库基因。

           什么是基因法分库?

           在“1对多”的业务场景,使用“1”分库,在“多”的数据id生成时,id末端加入分库基因,就能同时满足“1”和“多”的分库查询需求。

           如上图所示,uid=666的用户发布了一条帖子(666的二进制表示为:1010011010):

           使用uid%16分库,决定这行数据要插入到哪个库中

           分库基因是uid的最后4个bit,即1010

           在生成tid时,先使用一种分布式ID生成算法生成前60bit(上图中绿色部分)

           将分库基因加入到tid的最后4个bit(上图中粉色部分)

           拼装成最终的64bit帖子tid(上图中蓝色部分) (怎么生成60bit分布式唯一ID,请参见《分布式ID生成算法》)

           这般,保证了同一个用户发布的所有帖子的tid,都落在同一个库上,tid的最后4个bit都相同,于是:

           通过uid%16能够定位到库

           通过tid%16也能定位到库

           潜在问题一:同一个uid发布的tid落在同一个库上,会不会出现数据不均衡?

           答:只要uid是均衡的,每个用户发布的平均帖子数是均衡的,每个库的数据就是均衡的。

           潜在问题二:最开始分16库,分库基因是4bit,未来要扩充成32库,分库基因变成了5bit,那怎么办?

           答:需要提前做好容量预估,例如事先规划好5年内数据增长256库足够,就提前预留8bit基因。

      6). 总结

           将以“帖子中心”为典型的“1对多”类业务,在架构上,采用元数据与索引数据分离的架构设计方法:

           帖子服务,元数据满足uid和tid的查询需求

           搜索服务,索引数据满足复杂搜索寻求

           对于元数据的存储,在数据量较大的情况下,有三种常见的切分方法:

           tid切分法,按照tid分库,同一个用户发布的帖子落在不同的库上,通过uid来查询要遍历所有库

           uid切分法,按照uid分库,同一个用户发布的帖子落在同一个库上,需要通过索引表或者缓存来记录tid与uid的映射关系,通过tid来查询时,先查到uid,再通过uid定位库

           基因法,按照uid分库,在生成tid里加入uid上的分库基因,保证通过uid和tid都能直接定位到库

           对于1对多的业务场景,分库架构不再是瓶颈。

    3. 多对多业务,数据库水平切分架构一次搞定

        文字较多,希望尽量记住如下几点:

    • 好友业务是一个典型的多对多关系,又分为强好友与弱好友

    • 数据冗余是一个常见的多对多业务数据水平切分实践

    • 冗余数据的常见方案有三种

               (1)服务同步冗余

               (2)服务异步冗余

               (3)线下异步冗余

    • 数据冗余会带来一致性问题,高吞吐互联网业务,要想完全保证事务一致性很难,常见的实践是最终一致性

    • 最终一致性的常见实践是,尽快找到不一致,并修复数据,常见方案有三种

               (1)线下全量扫描法

               (2)线下增量扫描法

               (3)线上实时检测法

    4. 多key业务,数据库水平切分架构一次搞定

        任何复杂难题的解决,都是一个化繁为简,逐步击破的过程。

        对于像订单中心一样复杂的“多key”类业务,在数据量较大,需要对数据库进行水平切分时,对于后台需求,采用“前台与后台分离”的架构设计方法

        前台、后台系统web/service/db分离解耦,避免后台低效查询引发前台查询抖动

        采用前台与后台数据冗余的设计方式,分别满足两侧的需求

        采用“外置索引”(例如ES搜索系统)或者“大数据处理”(例如HIVE)来满足后台变态的查询需求

        对于前台需求,化繁为简的设计思路,将“多key”类业务,分解为“1对多”类业务和“多对多”类业务分别解决:

    • 使用“基因法”,解决“1对多”分库需求:使用buyer_uid分库,在oid中加入分库基因,同时满足oid和buyer_uid上的查询需求

    • 使用“数据冗余法”,解决“多对多”分库需求:使用buyer_uid和seller_uid来分别分库,冗余数据,满足buyer_uid和seller_uid上的查询需求

    • 如果oid/buyer_uid/seller_uid同时存在,可以使用上述两种方案的综合方案,来解决“多key”业务的数据库水平切分难题。

         数据冗余会带来一致性问题,高吞吐互联网业务,要想完全保证事务一致性很难,常见的实践是最终一致性

    内容转自公众号:架构师之路

  • 相关阅读:
    Android ListView 列表视图
    android handler msg的使用 实现进度条
    Intent 传递数据
    微服务-springcloud
    微服务-dubbo学习
    日志收集系统
    微服务追踪
    链表有环判断,快慢指针两种方法/合并链表/删除重复元素/二分递归和while
    算法练习,链表二分最大n个
    池以及barrier简单
  • 原文地址:https://www.cnblogs.com/Jtianlin/p/8904187.html
Copyright © 2020-2023  润新知