• CMU Database Systems


    Database Storage

    存储分为volatile和non-volatile,越快的越贵越小

    那么所以要解决的第一个问题就是,如果尽量在有限的成本下,让读写更快些

    意思就是,尽量读写volatile存储,但是volatile比较很有限,所以需要合理的在两种存储上去swap

    但是技术是在飞速的进步的,所以现在有Non-volatile memory

    所以最近流行内存数据库,因为当前的memory和磁盘间的IO瓶颈已经消除,所以当前的瓶颈是CPU cache和Memory之前的问题

    这个问题会在下一门课里面说

    所以继续前面的问题,怎么解决disk和memory之间的IO瓶颈

    一个直觉的想法就是,交给操作系统去做,使用虚拟内存,Virtual Memory

    mmap可以产生内存文件,把磁盘文件的内容map到内存的地址空间,这样有个问题就是如果有多个并发写,需要同步机制,系统也提供右图这些同步指令

    但是数据库管理系统往往希望做的更精细,因为操作系统是个通用方案,一定达不到性能最优

    下面我们来看第二个问题,DBMS如何将数据库的数据放到磁盘文件上? 

    这里有个选择,DBMS是否要用系统的文件系统,还是拿一块raw storage自己管理,现在一般的选择是还是使用文件系统,毕竟方便

    既然用文件系统,那么DBMS就需要把数据库数据存成一个或多个文件

    这里有个概念,Page,文件是由一堆page组成的

    page其实就是固定大小的数据块,那为什么要有这层抽象?

    这个和我们使用的存储有关,当前用的磁盘,除了慢,还有个特点是对顺序读写比较友好,因为随机读需要磁头不断的机械移动的,这个想想也很慢

    所以文件系统和磁盘间的IO,需要尽量批量读,读写数据的最小单位称为数据块,一般是4K,为什么是4K,应该是因为比较经济

    而数据库的page是基于文件系统的,所以设计成4k的倍数会比较合理

    数据库会自己维护一个page id到实际存储地址(文件+offset)的映射

    那么如何在磁盘文件上管理page?

    有三种方式,最常见的是Heap FIle

    HeapFile就是用来放page的文件,当然我们可以通过文件名+offset,访问某个page

    同时我们需要可以遍历所有的page,知道哪些page有free space可以用来存放tuples

    所以这里heap file也有两种实现方式,

    继续看看Page的构造是怎么样的?

    可以看到在page中的header,存储了一些元数据,如果需要self-contained,就需要包含scheam,编码信息等

     

    那么data,是如何组织的了?

    其实有两种方式存储数据库的数据,

    Tuple-oriented和Log-structured

    Tuple-oriented主要的存储方式是,slotted pages

    这个方法关键就是加入了slot array来索引各个tuple,这样就可以兼容变长的tuples,不然怎么知道每个tuple从哪里开始,删除tuple也更简单

    如果是Log-structured,写数据会比较简单

    但读数据就比较麻烦了,需要replay出数据,因为你只记录了log吗

    提供读性能的方式有两种,尽量减少replay的数据,就是打snapshot或建index

    比较常用的就是定期的做compaction,比如HBase, Cassandra,LevelDB,RocksDB

    Compaction分为两种,按层逐级compact,或是universal

    最后,tuple本身的存储结构是怎么样的?

    同样Tuple也有一个header,里面包含元数据,比如这个tuple可见性,BitMap表示哪些是NULL
    注意这里一般是不会包含schema,因为在每个tuple都包含没有必要,一个table的schema是固定的,单独存就好

    Denormalized Tuple Data

    这是一种针对查询的优化,

    Denormalized,都知道关系模型有范式,冗余数据一定是会打破范式的,所以是de-

    两个表join,把需要的字段冗余到一张表中,称为pre join,读的时候会比较快,单纯从当前page就可以完成,但是写就麻烦了,因为打破范式了吗

    总结一下上面的说的,如下图

    这里page管理用的是direction的方式,所以读取page2,

    首先要把direction page加载到buffer里面,这样读到page2的地址然后再去读出page2,然后Execute engine需求去解析page

    Page中就是tuple的集合,tuple是a sequence of bytes,但如果我们要使用这些数据,首先要把这些bytes转化为相应类型的数据

    主要的类型如下,

    需要特别关注的,

    浮点数和定点数

    定点数就是小数点是固定的,所以我们用int分别存储小数点前后的数字就可以实现,定点数是可以做到精确计算的,但是局限也很明显,只能表示固定精度

    浮点数就比较复杂了,因为小数是连续的,无限的,而计算机实现是离散的,有限的

    所以要在计算机里面表示浮点小数,就需要用trick的方法去近似,定义出的标准就是IEEE-754,浮点运算是近似的,非精确的

     

     VARCHAR,BLOB

    由于tuple大小不能超过page,比如对于varchar,如果大于page,需要把多的存放到overflow page里面

    而对于blob这样的类型,干脆就需要存放到外部文件中,这里注意对于存放到外部文件的数据,是不保证transaction等语义的

    那么现在有个关键的问题,数据库的元数据是存储在什么地方的?

    Catalogs,Catalogs的信息可以从Information_schema表中读取到

    不同的库,对于元数据读取有不同的shortcuts,

     最后再看下,行列存的区别,

    行存,row storage,称为n-ary storage model

    对于左图的OLTP的需求,行存很适合,插入和更新比较简单,整行的查询

    但对于右图,OLAP的需求,行存会比较慢,BI需求往往需要扫描大量的行,但只是用其中的部分字段

    列存,column store,decmposition storage model 

    相对于行存,列存是把一列的数据集中存储在一个page中,

    这样上面的例子,就只需要读包含这两个列的page,其他page就不用读了

    列存关键的问题是如何恢复成行?

    这里给的方法也很简单,如果列中的每个value都是等长的,那直接根据length除就知道是第几行的
    或者,就是在每个列里面记录下tupleid

    BufferPool

    bufferPool是一种cache机制,读磁盘慢,所以把读到的page缓存在bufferPool的frame里面

    并且用Page Table来记录,到底哪些page在bufferpool中;page table中还会记录meta,比如dirty flag,这个page被改过,不能直接drop掉,需要写回磁盘;Pin,这个page正在被读,不能被swap out

    上面的锁的形状,表示latch,
    我要读page2,table中miss,那么先用latch锁定一个slot,然后等page2被load到bufferPool的frame的时候,link上,这个过程中别人不能来修改或读取这个slot

    下图,表示在数据库领域,lock和latch的区别,
    lock是应用层面的,对逻辑内容的互斥,比如行,表,库,事务
    latch是应用不可见的,内部数据结构的互斥

    同时,如果一个数据库只有一个bufferPool,因为所有和磁盘间的数据交换都要通过他,很容易争抢,解决的方式,

    我们可以用多个bufferPool,按不同的用途,维度区分开

    BufferPool在cache的时候有些优化

    Pre-Fetching

    预取,这个就是dbms自己做cache的好处,你让os做cache,它没法去知道你下面可能要读什么

    Scan Sharing

    简单的说,就是Query之间可以共享已经cache的page

    Buffer Pool ByPass

    防止scan操作会污染buffer pool,所以单独开块内存去cache query级别的缓存

    OS Page Cache

    OS在文件系统操作的时候,本身会有page cache

    既然dbms在buffer pool已经自己管理了page cache,那么os的这封cache显的有些多余,所以一般数据库都会用direct IO,把OS的page cache给关掉

    不关掉有个好处,比如db进程重启了,但这个时候os的page cache还在,可以避免冷启动

     

    Buffer Replacement Policy

    LRU,这个每个page都有个最后访问的时间戳,淘汰最老的,但这个需要按时间排序;
    Clock,对LRU的近似,更简单

    LRU和Clock对于sequential scan都支持不好,scan很容易就会把之前的buffer给冲掉

    所以可以用LRU-K,记录下history,算访问interval,这样scan这种只访问一次的,就很容易被淘汰掉

    更特化的策略,比如priority hints,dbms知道哪些page比较重要,经常访问,打上标签

    Dirty Page

    page被修改过,就不能直接drop掉,主要flush回disk;

    如果每次等eviction的时候再去flush脏页,会让eviction的过程非常的慢,所以一般会有个后台进程定期批量的去刷脏页

    最后dbms除了有buffer pool来cache tuples和indexes,还有其他的一些memory pool,

  • 相关阅读:
    菜根谭#54
    菜根谭#53
    svn 的权限配置及命令
    linux部署git环境
    百度编辑器造成无用图片解决方案
    php无限极分类的实现
    phpstudy 升级mysql 5.7
    yii2常用查询
    mysql创建外键注意事项
    阿里云短信
  • 原文地址:https://www.cnblogs.com/fxjwind/p/10818814.html
Copyright © 2020-2023  润新知