• Linux块设备驱动详解


    <机械硬盘>
    a:磁盘结构
    -----传统的机械硬盘一般为3.5英寸硬盘,并由多个圆形蝶片组成,每个蝶片拥有独立的机械臂和磁头,每个堞片的圆形平面被划分了不同的同心圆,每一个同心圆称为一个磁道,位于最外面的道的周长最长称为外道,最里面的道称为内道,通常硬盘厂商会将圆形蝶片最靠里面的一些内道(速度较慢,影响性能)封装起来不用;道又被划分成不同的块单元称为扇区,每个道周长不同,现代硬盘不同长度的道划分出来的扇区数也是不相同的,而磁头不工作的时候一般位于内道,如果追求响应时间,则数据可存储在硬盘的内道,如果追求大的吞吐量,则数据应存储在硬盘的外道;
     
    注意:;一个弧道被划分成多个段,每一个段就是一个扇区
    b:磁盘访问
    ------SATA硬盘实现的是串行ATA协议,ATA下盘命令中记录有LBA(Logic Block Address)起始地址和扇区数;LBA地址实际上是一个ATA协议逻辑地址,硬盘的固件会解析收到的ATA命令,并将要访问的LBA地址映射至某个磁道中的某个物理块即扇区。操作系统暂可认为LBA地址就是硬盘的物理地址。
    c:扇区
    ------硬盘的基本访问单位,扇区的大小一般是512B(对于现在的有些磁盘的扇区>512B,比如光盘的一个扇区就是2048B,Linux将其看成4个扇区,无非就是需要完成4次的读写)。
    d:块
    ------扇区是硬件传输数据的基本单位,硬件一次传输一个扇区的数据到内存中。但是和扇区不同的是,块是虚拟文件系统传输数据的基本单位。在Linux中,块的大小必须是2的幂,但是不能超过一个页的大小(4k)。(在X86平台,一个页的大小是4094个字节,所以块大小可以是512,1024,2048,4096
    e:段
    ------主要为了做scatter/gather DMA操作使用,同一个物理页面中的在硬盘存储介质上连续的多个块组成一个。段的大小只与块有关,必须是块的整数倍。所以块通常包括多个扇区,段通常包括多个块,物理段通常包括多个段;在内核中由结构struct bio_vec来描述,多个段的信息存放于struct bio结构中的bio_io_vec指针数组中,段数组在后续的块设备处理流程中会被合并成物理段,段结构定义如下:
    struct bio_vec {
           struct page      *bv_page;  // 段所在的物理页面结构,即bh->b_page
           unsigned int    bv_len;    // 段的字节数,即bh->b_size
           unsigned int    bv_offset;  // 段在bv_page页面中的偏移,即bh->b_data
    };
    f:文件块
    ------大小定义和文件系统块一样;只是相对于文件的一个偏移逻辑块,需要通过具体文件系统中的此文件对应的inode所记录的间接块信息,换算成对应的文件系统块;此做法是为了将一个文件的内容存于硬盘的不同位置,以提高访问速度;即一个文件的内容在硬盘是一般是不连续的;EXT2中,ext2_get_block()完成文件块到文件系统块的映射。
     
    g:总结
    ------扇区磁盘的物理特性决定;块缓冲区由内核代码决定缓冲区决定,是块缓冲区大小的整数倍(但是不能超过一个页)。三者关系如下:
     
    所以:扇区(512)≤块≤页(4096) 块=n*扇区(n为整数)
    注意:段(struct bio_vec{})由多个块组成,一个段就是一个内存页(如果一个块是两个扇区大小,也就是1024B,那么一个段的大小可以是1024,2018,3072,4096,也就是说段的大小只与块有关,而且是整数倍)。Linux系统一次读取磁盘的大小是一个块,而不是一个扇区,块设备驱动由此得名。
     
    <块设备处理过程>
    a:linux 内核中,块设备将数据存储与固定的大小的块中,每个块都有自己的固定地址。Linux内核中块设备和其他模块的关系如下。
    a:块设备的处理过程涉及Linux内核中的很多模块,下面简单描述之间的处理过过程。
    (1)当一个用户程序要向磁盘写入数据时,会发发出write()系统调用给内核。
    (2)内核会调用虚拟文件系统相应的函数,将需要写入发文件描述符和文件内容指针传递给该函数。
    (3)内核需要确定写入磁盘的位置,通过映射层知道需要写入磁盘的哪一块。
    (4)根据磁盘的文件系统的类型,调用不同文件格式的写入函数,江苏数据发送给通用块层(比如ext2和ext3文件系统的写入函数是不同的,这些函数由内核开发者实现,驱动开发者不用实现这类函数)
    (5)数据到达通用块层后,就对块设备发出写请求。内核利用通用块层的启动I/O调度器,对数据进行排序。
    (6)同用块层下面是"I/O调度器"。调度器作用是把物理上相邻的读写合并在一起,这样可以加快访问速度。
    (7)最后快设备驱动向磁盘发送指令和数据,将数据写入磁盘。
     
     

    <基本概念>

    a:块设备(block device)
    -----是一种具有一定结构的随机存取设备,对这种设备的读写是按块进行的,他使用缓冲区来存放暂时的数据,待条件成熟后,从缓存一次性写入设备或者从设备一次性读到缓冲区。
    b:字符设备(Character device)
    ---是一个顺序的数据流设备,对这种设备的读写是按字符进行的,而且这些字符是连续地形成一个数据流。他不具备缓冲区,所以对这种设备的读写是实时的。
    <linux 块设备驱动架构图>
     a:架构分析
    1)struct bio
    ------当一个进程被Read时,首先读取cache 中有没有相应的文件,这个cache由一个buffer_head结构读取。如果没有,文件系统就会利用块设备驱动去读取磁盘扇区的数据。于是read()函数就会初始化一个bio结构体,并提交给通用块层。通常用一个bio结构体来对应一个I/O请求
    (1)内核结构如下:
     
     
    1 struct bio {
    2 sector
    _t bi_sector; /* 要传输的第一个扇区 */
    3 struct bio
    *bi_next; /* 下一个 bio */
    4 struct block
    _device*bi_bdev;
    5 unsigned long bi
    _flags; /* 状态、命令等 */
    6 unsigned long bi
    _rw; /* 低位表示 READ/WRITE,高位表示优先级*/
    7
    8 unsigned short bi
    _vcnt; /* bio_vec 数量 */
    9 unsigned short bi
    _idx; /* 当前 bvl_vec 索引 */
    10
    11 /
    * 执行物理地址合并后 sgement 的数目 */
    12 unsigned short bi
    _phys_segments;
    13
    14 unsigned int bi
    _size;
    15
    16 /
    * 为了明了最大的 segment 尺寸,我们考虑这个 bio 中第一个和最后一个
    17 可合并的 segment 的尺寸 */
    18 unsigned int bi
    _hw_front_size;
    19 unsigned int bi
    _hw_back_size;
    20
    21 unsigned int bi
    _max_vecs; /* 我们能持有的最大 bvl_vecs */
    22 unsigned int bi
    _comp_cpu; /* completion CPU */
    23
    24 struct bio
    _vec *bi_io_vec; /* 实际的 vec 列表 */
    25
    26 bio
    _end_io_t *bi_end_io;
    27 atomic
    _t bi_cnt;
    28
    29 void
    *bi_private;
    30 #if defined(CONFIG
    _BLK_DEV_INTEGRITY)
    31 struct bio
    _integrity_payload *bi_integrity; /* 数据完整性 */
    32 #endif
    33
    34 bio
    _destructor_t *bi_destructor; /* 析构 */
    35 };
    (2)bio的核心是一个被称为bi_io_vec的数组,它由bio_vec组成(也就是说bio由许多bio_vec组成)。内核定义如下:
    1 struct bio_vec {
    2 struct page
    *bv_page; /* 页指针 */
    3 unsigned int bv
    _len; /* 传输的字节数 */
    4 unsigned int bv
    _offset; /* 偏移位置 */
    5 };
    bio_vec描述一个特定的片段,片段所在的物理页,块在物理页中的偏移页,整个bio_io_vec结构表示一个完整的缓冲区。当一个块被调用内存时,要储存在一个缓冲区,每个缓冲区与一个块对应,所以每一个缓冲区独有一个对应的描述符,该描述符用buffer_head结构表示:
    • struct buffer_head 
    •     unsigned long b_state;                    /* buffer state bitmap (see above) */
    •     struct buffer_head *b_this_page;      /* circular list of page's buffers */
    •     struct page *b_page;                       /* the page this bh is mapped to */
    •  
    •     sector_t b_blocknr;                          /* start block number */
    •     size_t b_size;                                   /* size of mapping */
    •     char *b_data;                                  /* pointer to data within the page */
    •  
    •    struct block_device *b_bdev;
    •    bh_end_io_t *b_end_io;                   /* I/O completion */
    •   void *b_private;                              /* reserved for b_end_io */
    •   struct list_head b_assoc_buffers;     /* associated with another mapping */
    •   struct address_space *b_assoc_map;    /* mapping this buffer is
    •                                                              associated with */
    •    atomic_t b_count;                          /* users using this buffer_head */
    • };
    (3)bio和buffer_head之间的使用关系
    核心ll_rw_block函数:
    • void ll_rw_block(int rw, int nr, struct buffer_head *bhs[])
    • {
    •     int i;
    •  
    •     for (= 0; i < nr; i ) {
    •         struct buffer_head *bh = bhs[i];
    •  
    •         if (!trylock_buffer(bh))
    •             continue;
    •         if (rw == WRITE) {
    •             if (test_clear_buffer_dirty(bh)) {
    •                 bh->b_end_io = end_buffer_write_sync;
    •                 get_bh(bh);
    •                 submit_bh(WRITE, bh);
    •                 continue;
    •             }
    •         } else {
    •             if (!buffer_uptodate(bh)) {
    •                 bh->b_end_io = end_buffer_read_sync;
    •                 get_bh(bh);
    •                 submit_bh(rw, bh);
    •                 continue;
    •             }
    •         }
    •         unlock_buffer(bh);
    •     }
    • }
       
    核心submit_bh()函数:
     
    • int submit_bh(int rw, struct buffer_head * bh)
    • {
    •     struct bio *bio;
    •     int ret = 0;
    •  
    •     BUG_ON(!buffer_locked(bh));
    •     BUG_ON(!buffer_mapped(bh));
    •     BUG_ON(!bh->b_end_io);
    •     BUG_ON(buffer_delay(bh));
    •     BUG_ON(buffer_unwritten(bh));
    •  
    •     /*
    •      * Only clear out a write error when rewriting
    •      */
    •     if (test_set_buffer_req(bh) && (rw & WRITE))
    •         clear_buffer_write_io_error(bh);
    •  
    •     /*
    •      * from here on down, it's all bio -- do the initial mapping,
    •      * submit_bio -> generic_make_request may further map this bio around
    •      */
    •     bio = bio_alloc(GFP_NOIO, 1);
    •  
    •     bio->bi_sector = bh->b_blocknr * (bh->b_size >> 9);
    •     bio->bi_bdev = bh->b_bdev;
    •     bio->bi_io_vec[0].bv_page = bh->b_page;
    •     bio->bi_io_vec[0].bv_len = bh->b_size;
    •     bio->bi_io_vec[0].bv_offset = bh_offset(bh);
    •  
    •     bio->bi_vcnt = 1;
    •     bio->bi_idx = 0;
    •     bio->bi_size = bh->b_size;
    •  
    •     bio->bi_end_io = end_bio_bh_io_sync;
    •     bio->bi_private = bh;
    •  
    •     bio_get(bio);
    •     submit_bio(rw, bio);
    •  
    •     if (bio_flagged(bio, BIO_EOPNOTSUPP))
    •         ret = -EOPNOTSUPP;
    •  
    •     bio_put(bio);
    •     return ret;
    • }
    这个函数主要是调用submit_bio,最终调用generic_make_request去完成将bio传递给驱动去处理。如下所示:
     
    • void generic_make_request(struct bio *bio)
    • {
    •     struct bio_list bio_list_on_stack;
    •  
    •     if (!generic_make_request_checks(bio))
    •         return;
    •  
    •  
    •     if (current->bio_list) {
    •         bio_list_add(current->bio_list, bio);
    •         return;
    •     }
    •  
    •     BUG_ON(bio->bi_next);
    •     bio_list_init(&bio_list_on_stack);
    •     current->bio_list = &bio_list_on_stack;
    •     do {
    •         struct request_queue *= bdev_get_queue(bio->bi_bdev);
    •  
    •         q->make_request_fn(q, bio);
    •  
    •         bio = bio_list_pop(current->bio_list);
    •     } while (bio);
    •     current->bio_list = NULL; /* deactivate */
    • }
       
    这个函数主要是取出块设备相应的队列中的每个设备,在调用块设备驱动的make_request,如果没有指定make_request就调用内核默认的__make_request,这个函数主要作用就是调用I/O调度算法将bio合并,或插入到队列中合适的位置中去。
     
    2)struct request
    ------提交工作由submit_bio()去完成,通用层在调用相应的设备IO调度器,这个调度器的调度算法,将这个bio合并到已经存在的request中,或者创建一个新的request,并将创建的插入到请求队列中。最后就剩下块设备驱动层来完成后面的所有工作。(Linux系统中,对块设备的IO请求,都会向块设备驱动发出一个请求,在驱动中用request结构体描述)
    内核结构如下:
    1 struct request {
    2 struct list
    _head queuelist;
    3 struct call
    _single_data csd;
    4 int cpu;
    5
    6 struct request
    _queue *q;
    7
    8 unsigned int cmd
    _flags;
    9 enum rq
    _cmd_type_bits cmd_type;
    10 unsigned long atomic
    _flags;
    11
    12 /
    * 维护 I/O submission BIO 遍历状态
    13 * hard_开头的成员仅用于块层内部,驱动不应该改变它们
    14 */
    15
    16 sector
    _t sector; /* 要提交的下一个 sector */
    17 sector
    _t hard_sector; /* 要完成的下一个 sector */
    18 unsigned long nr
    _sectors; /* 剩余需要提交的 sector */
    19 unsigned long hard
    _nr_sectors; /*剩余需要完成的 sector */
    20 /
    * 在当前 segment 中剩余的需提交的 sector */
    21 unsigned int current
    _nr_sectors;
    22
    23 /
    *在当前 segment 中剩余的需完成的 sector */
    24 unsigned int hard
    _cur_sectors;
    25
    26 struct bio
    *bio;
    27 struct bio
    *biotail;
    28
    29 struct hlist
    _node hash;
    30 union {
    31 struct rb
    _node rb_node; /* sort/lookup */
    32 void
    *completion_data;
    33 };
    34
    35 /
    *
    36 * I/O 调度器可获得的两个指针,如果需要更多,请动态分配
    37 */
    38 void
    *elevator_private;
    39 void
    *elevator_private2;
    40
    41 struct gendisk
    *rq_disk;
    42 unsigned long start
    _time;
    43
    44 /
    * scatter-gather DMA 方式下 addr+len 对的数量(执行物理地址合并后)
    45
    */
    46 unsigned short nr
    _phys_segments;
    47
    48 unsigned short ioprio;
    49
    50 void
    *special;
    51 char
    *buffer;
    52
    53 int tag;
    54 int errors;
    55
    56 int ref
    _count;
    57
    58 unsigned short cmd
    _len;
    59 unsigned char
    __cmd[BLK_MAX_CDB];
    60 unsigned char
    *cmd;
    61
    62 unsigned int data
    _len;
    63 unsigned int extra
    _len;
    64 unsigned int sense
    _len;
    65 void
    *data;
    66 void
    *sense;
    67
    68 unsigned long deadline;
    69 struct list
    _head timeout_list;
    70 unsigned int timeout;
    71 int retries;
    72
    73 /
    *
    74 * 完成回调函数
    75 */
    76 rq
    _end_io_fn *end_io;
    77 void
    *end_io_data;
    78
    79 struct request
    *next_rq;
    80 };
    30 return 0;
    31 out
    _queue: unregister_blkdev(XXX_MAJOR, "xxx");
    32 out: put
    _disk(xxx_disks);
    33 blk
    _cleanup_queue(xxx_queue);
    34
    35 return -ENOMEM;
    36 }
    (3)请求队列初始化:
    (3)-1:请求队列数据结构
    (3)-2:request_queue_t *blk_init_queue(request_fn_proc *rfn, spinlock_t *lock)
    第一个参数是指向"请求处理函数"的指针,该函数直接和硬盘打交道,用来处理数据在内存和硬盘之间的传输。该函数整体的作用就是为了分配请求队列,并初始化。
    (3)-3:typedef void (request_fn_proc)(struct reqest_queue *q)
    该函数作为上述函数(request_queue_t *blk_init_queue(request_fn_proc *rfn,spinlock_t *lock))的参数,主要作用就是处理请求队列中的bio,完成数据在内存和硬盘之间的传递。(注意:该函数参数中的bio都是经过i/o调度器的
    (3)-4:typedef int (make_request_fn)(struct request_queue *q,struct bio *bio)
    该函数是的第一个参数是请求队列,第二个参数是bio,该函数的作用是根据bio生成一个request(所以叫制造请求函数)。
    注意:在想不使用I/O调度器的时候,就应该在该函数中实现,对每一传入该函数的bio之间进行处理,完成数据在内存和硬盘的之间的传输,这样就可以不使用"request_fn_proc"函数了。(所以可以看出来,如果使用i/o调度器,make_request_fn函数是在request_fn_proc函数之前执行)
     
    <I/O调度器的使用与否>
    a:背景
    ------I/O调度器看起来可以提高访问速度,但是这是并不是最快的,因为I/O调度过程会花费很多时间。最快的方式就是不使用I/O调度器
    b:请求队列和I/O调度器
    ------要脱离I/O调度器,就必须了解请求队列request_queue,因为I/O调度器和请求队列是绑定在一起的。其关系如下:
     如山图所示,请求队列request_queue 中的elevator指针式指向I/O调度函数的。
     
    b:通用块层函数调用关系(对bio的处理过程)
    b-1:调用框图
     
    b-2:具体分析
    (1)当需要读写一个数据的时候,通用块层,会根据用户空间的请求,生成一个bio结构体。
    (2)准备好bio后,会调用函数generic_make_request()函数,函数原形如下:
    void generic_make_request(struct bio *bio)
    (3)该函数会调用底层函数:
    static inline void _generic_make_request(struct bio *bio);
    (4)到这里会分层两种情况:
    第一种,调用请求队列中自己定义的make_request_fn()函数,那问题来了,系统怎么知道这个自己定义函数在哪里呢?由内核函数blk_queue_make_request()函数指定,函数原形:
    void blk_queue_make_request(struct request_queue *q,make_request_fn *mfn);
     
    第二种,使用请求队列中系统默认__make_request()函数,函数原形“
    static int __make_request(struct request_queue *q,struct bio *bio);
    该函数会启动I/O调度器,对bio进行调度处理,bio结构或被合并到请求队列的一个请求结构的request中。最后调用request_fn_proc()将数据写入或读出块块设备。
     
    c:使用I/O调度器和不使用I/O调度器
    c-1:不使用i/o调度器(blk_alloc_queue())
    bio的流程完全由驱动开发人员控制,要达到这个目的,必须使用函数blk_alloc_queue()来申请请求队列,然后使用函数blk_queue_make_requset()给bio指定具有request_fn_proc()功能的函数Virtual_blkdev_make_request来完成数据在内存和硬盘之间的传输(该函数本来是用来将bio加入request中的)。
    static int Virtual_blkdev_make_request(struct requset_queue *q,structb bio *bio)
    {
       //因为不使用I/O调度算法,直接在该函数中完成数据在内存和硬盘之间的数据传输,该函数
       //代替了request_fn_proc()函数的功能
       ............
    }
    Virtual_blkdev_queue = blk_alloc_queue(GFP_KERNEL)
    if(!Virtual_blkdev_queue)
    {
       ret=-ENOMEN;
       goto err_alloc_queue;
    }
    blk_queue_make_request(Virtual_blkdev_queue,Virtual_blkdev_make_request);
    c-2:使用i/o调度器(blk_init_queue())
    bio先经过__make_request()函数,I/O调度器,和request_fn_proc()完成内存和硬盘之间的数据传输。该过程使用函数blk_init_queue()函数完成队列的初始化,并指定request_fn_proc():
    struct request_queue* blk_inti_queue(request_fn_proc *rfn,spinlock_t *lock)

    <总结驱动框架>
     a:块设备驱动加载过程
    (1)使用alloc_disk()函数分配通用磁盘gendisk的结构体。
    (2)通过内核函数register_blkdev()函数注册设备,该过程是一个可选过程。
       (也可以不用注册设备,驱动一样可以工作,该函数和字符设备的register_chrdev()函数相对应,对于大多数的块设备,第一个工作就是相内核注册自己,但是在Linux2.6以后,register_blkdev()函数的调用变得可选,内核中register_blkdev()函数的功能正在逐渐减少。基本上就只有如下作用:
    1)分局major分配一个块设备号
    2)在/proc/devices中新增加一行数据,表示块设备的信息
    (3)根据是否需要I/O调度,将情况分为两种情况,一种是使用请求队列进行数据传输,一种是不使用请求队列进行数据传输。
    (4)初始化gendisk结构体的数据成员,包括major,fops,queue等赋初值。
    (5)使用add_disk()函数激活磁盘设备(当调用该函数后就可以对磁盘进行操作(访问),所以调用该函数之前必须所有的准备工作就绪)
    b:块设备驱动卸载过程
    (1)使用del_gendisk()函数删除gendisk设备,并使用put_disk()删除对gendisk设备的引用;
    (2)使用blk_clean_queue()函数清楚请求队列,并释放请求队列所占用的资源。
    (3)如果在模块加载函数中使用register_blkdev()注册设备,那么就需要调用unregister_blkdev()函数注销设备并释放对设备的引用。
     
    <块设备驱动代码示例(不使用I/O调度器)>
    制造请求函数(在这里完成数据的读写)
     
    卸载函数
     
     

    <wiz_tmp_tag id="wiz-table-range-border" contenteditable="false" style="display: none;">

  • 相关阅读:
    sql注入漏洞与防范
    微信小程序-工具,弹出当前系统代理不是安全代理处理方法
    微信小程序-02 小程序关注组件
    微信小程序-01 小数保留二位
    http 转hhttps
    php 函数-ksort
    iOS 原生二维码扫描
    iOS 打包错误 all-product-headers.yaml' not found
    iOS Tableview点击cell 会往上跳
    WKWebView 使用
  • 原文地址:https://www.cnblogs.com/big-devil/p/8590007.html
Copyright © 2020-2023  润新知