友情提示:非原文链接可能会影响您的阅读体验,欢迎查看原文。(http://blog.geekcome.com)
软件平台:Ubuntu 14.04
容器有效地将由单个操作系统管理的资源划分到孤立的组中,以更好的在孤立的组之间有冲突的资源使用需求。与其它的虚拟化比較,这样既不须要指令级模拟。也不须要即时编译。
容器能够在寒心CPU本地运行指令,而不须要不论什么专门的解释机制。此外半虚拟化和系统调用替换的复杂性。
LXC的实现是基于内核中的namespace和cgroup实现的。
namespace:
和C++中的namespace概念类似。在Linux操作系统中,系统资源如:进程、用户账户、文件系统、网络都是属于某个namespace。
每个namespace下的资源对于其它的namespace资源是透明的,不可见的。由于在操作系统层上就会出现同样的pid的进程。多个同样uid的不同账号。
内核中的实现:
namespace是针对每个进程而言的,所以在task_struct结构的定义中有一个指向nsproxy的指针
2 | struct nsproxy *nsproxy; |
该结构体的定义例如以下:
19 | struct uts_namespace *uts_ns; |
20 | struct ipc_namespace *ipc_ns; |
21 | struct mnt_namespace *mnt_ns; |
22 | struct pid_namespace *pid_ns_for_children; |
当中第一个属性count表示的是该命名空间被进程引用的次数。后面的几个各自是不同类型的命名空间。以pid_namespace为例。
其结构例如以下所看到的:
03 | struct pidmap pidmap[PIDMAP_ENTRIES]; |
06 | unsigned int nr_hashed; |
07 | struct task_struct *child_reaper; |
08 | struct kmem_cache *pid_cachep; |
10 | struct pid_namespace *parent; |
12 | struct vfsmount *proc_mnt; |
13 | struct dentry *proc_self; |
15 | #ifdef CONFIG_BSD_PROCESS_ACCT |
16 | struct bsd_acct_struct *bacct; |
18 | struct user_namespace *user_ns; |
19 | struct work_struct proc_work; |
23 | unsigned int proc_inum; |
内核中的pid结构表示:
6 | struct hlist_head tasks[PIDTYPE_MAX]; |
8 | struct upid numbers[1]; |
上面的结构体就是内核中进程的标示符,能够用于标识内核中的tasks、process groups和sessions。这个结构体和详细的task通过hash来关联。通过详细的task相应的pid的值能够获得绑定的pid结构体。
属于详细的namespace的pid结构upid:
4 | struct pid_namespace *ns; |
5 | struct hlist_node pid_chain; |
该结构体是用来获得结构体pid的详细的id,它仅仅对特定的namespace可见。会通过函数find_pid_ns(int nr,pid_namespace *ns)函数来获得详细的PID结构。
总体结构例如以下图:
Cgroup:
Cgroup是control groups的缩写,是Linux内核提供的一种能够限制、记录、隔离进程组所使用的物理资源(CPU,内存,IO等等)的机制。Cgroup也是LXC位实现虚拟化所使用的资源管理的手段。
能够说没有Cgroup就没有LXC,也就没有Docker。
Cgroup提供的功能:
Cgroup子系统:
- blkio:设定输入输出限制
- cpu:使用调度程序对CPU的Cgroup任务訪问
- cpuacct:自己主动生成Cgroup任务所使用的CPU报告
- cpuset:为Cgroup中的任务分配独立的CPU(多核系统中)和内存节点
- devices:同意或拒绝Cgroup中的任务訪问设备
- freezer:挂起或回复Cgroup中的任务
- memory:Cgroup中任务使用内存的限制
- net_cls:同意Linux流量控制程序识别从cgroup中生成的数据包
- ns:命名空间子系统
Cgroup中的概念:
Cgroup使用控制CPU:
在Ubuntu中。cgroup默认挂载位置/sys/fs/cgroup目录。
ls查看一下:
1 | yan@yan-Z400:/sys/fs/cgroup$ ls |
2 | blkio cpu cpuset freezer memory systemd |
3 | cgmanager cpuacct devices hugetlb perf_event |
能够看到cgroup的不同子系统目录。
在CPU目录中新建一个geekcome目录,默认ubuntu已经将子系统所有挂载了:
进入cpu目录新建一个geekcome目录,然后查看:
1 | yan@yan-Z400: /sys/fs/cgroup/cpu $ ls |
2 | cgroup.clone_children cgroup.sane_behavior cpu.shares lxc tasks |
3 | cgroup.event_control cpu.cfs_period_us cpu.stat notify_on_release |
4 | cgroup.procs cpu.cfs_quota_us geekcome release_agent |
新建目录后在目录里会自己主动生成相应的文件:
02 | ├── cgroup.clone_children |
03 | ├── cgroup.event_control |
以下就跑一个死循环程序。导致CPU使用率到达100%。
1 | PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND |
2 | 5046 yan 20 0 25928 4848 2324 R 100.0 0.1 0:22.47 python |
如今运行例如以下的命令:
1 | echo "50000" >/sys/fs/cgroup/cpu/geekcome/cpu.cfs_quota_us |
2 | echo "5046" >/sys/fs/group/cpu/geekcome/tasks |
再top查看一下:
1 | PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND |
2 | 5046 yan 20 0 25928 4844 2324 R 49.8 0.1 0:49.27 python |
进程5046的cpu使用率从100%减少到50%。在Cgroup里。能够使用cpu.cfs_period_us和cpu.cfs.quota_ua来限制在单位时间里能够使用的cpu时间。这里cfs的含义是Completely Fair Scheduler(全然公平调度器)。cpu.cfs_period_us是时间周期,默认是100000(百毫秒)。cpu.cfs_quota_us是在这期间能够使用的cpu时间。默认-1(无限制)。
在上面的实例中。通过改动cpu.cfs_period_us文件,将百毫秒改动为一半,成功将CPU使用率减少到50%。cfs.quota_us文件主要对于多核的机器,当有n个核心时。一个控制组的进程最多能用到n倍的cpu时间。
Cgroup除了资源控制功能外,还有资源统计功能。云计算的按需计费能够通过它来实现。这里仅仅实例CPU的控制,其它的子系统控制请自行实验。
LXC使用:
创建一个容器:
1 | lxc-create -n name [-f config_file] [-t template] |
2 | sudo lxc-create -n ubuntu01 -t ubuntu |
-n就是虚拟机的名字,-t是创建的模板。保存路径在/usr/lib/lxc/templates。模板就是一个脚本文件,运行一系列安装命令和配置(穿件容器的挂载文件系统。配置网络,安装必要软件。创建用户并设置password等)。
显示已经创建的容器:
启动一个容器:
1 | lxc-start -n name [-f config_file] [-s KEY=VAL] [command] |
启动一个容器。能够指定要运行的命令,假设没有指定,lxc-start会默认运行/sbin/init命令,启动这个容器。
关闭一个容器:
高速启动一个任务,任务运行完成后删除容器:
1 | lxc-execute -n name [-f config_file] [-s KEY=VAL ] [--] command |
它会依照配置文件运行lxc-create创建容器。假设没有指定的配置文件,则选择默认。该命令一般用于高速使用容器环境运行摸个任务。任务运行完成后删除掉容器。
(完)
提示:本文版权归作者。欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接。
假设对文章有不论什么问题。都能够在评论中留言,我会尽可能的答复您。谢谢你的阅读