一、新瓶装旧酒
首先我们需要知道,Docker是一个“箩筐”:
1.存储:Device Mapper、BtrFS、AUFS
2.名字空间:UTS、IPC、Mount、PID、Network、User
3.网络:Veth、Bridge、Iptables
4.Cgroups:CPU、CPUset、Memory、Device
5.安全:Capability、SELinux、Seccomp
……
二、又是Jeffrey Dean
Docker的诞生其实跟Google有很大的渊源:那年,Jeffrey Dean还是一枚鲜肉。
众所周知MapReduce是现在通用大数据处理的理论基石,在Jeffrey Dean提出这个模型后,Google内部率先用这个模型在内部实现了大数据计算的统一模型。Jeffrey Dean在2004年的OSDI(Operating Systems Design and Implementation)会议上发表MapReduce论文之后,Hadoop按图索骥慢慢成为了开源界最为流行的大数据处理框架。
甚至在后面,Hadoop变成了一个生态系统和Android一起养活了一大批Java程序员。
Java程序在饭前都祷告:
“噢,感谢伟大的Hadoop,感谢Android赐予我们食物,Amen!”
但和Hadoop不一样的一点是:Hadoop需要搭建专属的集群,而Google的MapReduce离线计算是和线上的业务是共享计算资源的。
首先说一下Google这么做的必要性:
绝大多数线上的业务的繁忙程度是和业务类型、用户的作息、地理位置相关的。 例如:在中国`11.11`是一个大日子,所有电商都拼了命的在搞促销,而在欧美国家与之相对应是圣诞节;
传统的办法为了应对高峰期的流量往往要预备很多硬件资源备用,但这些资源在平时基本上是闲置状态。对于更新速度极快的IT设备来说,闲置就是浪费。
Google这样做的好处自然是能大大的提高计算资源的利用率。但之所以大多数公司没有这么做,是由于Linux Kernel对资源(CPU、内存、I/O)隔离设施的缺乏。谁也不愿意看到一个日志挖掘的任务导致线上业务宕机。
三、Google爸爸改内核
但Google毕竟是Google,Kernel不支持,那就改Kernel!!
于是Google的工程师就在Kernel里增加了一种可以做资源隔离的设施:Control Groups,再配合chroot实现了一套较为完善的机制来保证进程之间可以不互相影响。
作为这套系统的某后英雄之一的Borg就是Google内部的分布式计算调度系统,负责统一调度各种MapReduce的资源分配和线上服务。
当时Google之所以选择了这条路,也一定程度上是由于Xen、KVM这些虚拟化技术还不成熟。但即使后来外面的公司广泛的用Xen、KVM来做资源隔离,Google也并没有跟风,正是因为Google的这种方式省去了额外的Hypervisor和Guest OS的开销,可以达到更高的资源利用率。
四、Google Borg rocks!
Google几乎所有的机器都是混部的,在一台机器上,可能运行着不同jobs的tasks。根据Google在Borg论文里披露的数据:
Google的50%的机器运行了9个甚至更多的tasks;90%的机器运行着25个tasks,达到4500个线程。
当然Google也并不排斥KVM、Xen等虚拟化技术。对于外部运行在GAE(Google App Engine)和GCE(Google Compute Engine)上的代码,Google的做法就是让它们运行在虚拟机(KVM)上,KVM进程被作为Borg的task运行。也就是说,Borg是作为下层的,KVM运行在它之上。
资源隔离机制在Google内部使用的比较稳定了之后,就被毫无保留地贡献给了开源社区,并把它命名为Cgroups。
五、Docker
Cgroups出现后,Docker所需要的各种原材料就齐备了:
2010年,几个雄心勃勃的年轻人怀揣1000万美元的融资在旧金山成立了一家做PaaS平台的公司,起名为dotCloud。目标是做世界上最好的PaaS,打败他们:
Amazon AWS
Google GAE
IBM Bluemix
RedHat OpenShift
Microsoft Azure
VMware Cloud Foundry
Heroku
……
面对这些动辄千亿市值的大佬,绝大多数人都跟他们说:『呵呵