十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
Swarm 是使用 Objective C语言开发的,在早期的版本中编写Swarm的应用程序也使Objective C,从Swarm 2.0版开始提供了对Java语言的支持,将来可能支持JavaScript、C++、Python、Perl等语言。Swarm的最新版本 Swarm 2.1.1可以在不同版本的Unix、Linux、Windows95、Windows98、WindowsNT、Windows2000环境下运行。
创新互联建站服务项目包括昭平网站建设、昭平网站制作、昭平网页制作以及昭平网络营销策划等。多年来,我们专注于互联网行业,利用自身积累的技术优势、行业经验、深度合作伙伴关系等,向广大中小型企业、政府机构等提供互联网行业的解决方案,昭平网站推广取得了明显的社会效益与经济效益。目前,我们服务的客户以成都为中心已经辐射到昭平省份的部分城市,未来相信会继续扩大服务区域并继续获得客户的支持与信任!
社会经济系统的仿真,是建立在复杂适应系统(Complex Adaptive System 简称CAS)理论研究基础上的。通过"相对简单的微观个体活动可以突现出宏观层面的复杂行为",给社会科学的研究与实践乘上当代新技术的航班打开了通路。
Docker 客户端通过 Docker API 向 Swarm 管理端发送请求,Swarm Manager 通过守护进程调用集群中的某个节点来执行任务。因为容器都是运行在节点上,Swarm 作为一个独立的集群管理工具,故并不会因某些原因导致不能正常工作而影响集群内所有节点的正常运行。当服务恢复正常后,Swarm 会读取日志来执行集群的恢复动作。架构图如图 1:
图 1.Docker Swarm 架构图
从1994年开始,桑塔费研究所(SFI)开展了一个研究项目,以开发一个工具集用来帮助科学家们分析复杂适应系统,这个模拟工具集就叫做Swarm。1995年,SFI发布了Swarm的beta版。
用户可以使用Swarm提供的类库构建模拟系统,使系统中的主体和元素通过离散事件进行交互。由于Swarm没有对模型和模型要素之间的交互作任何约束,Swarm应当可以模拟任何物理系统或社会系统。事实上,在各个广泛的研究领域都有人在用Swarm编写程序,这些领域包括生物学、经济学、物理学、化学和生态学等。
Swarm项目的目的就是通过科学家和软件工程师的合作制造一个高效率的、可信的、可重用的软件实验仪器。它能给予科学家们一个标准的软件工具集,就象提供了一个设备精良的软件实验室,帮助人们集中精力于研究工作而非制造工具。
Swarm实际上是一组用Objective-C语言写成的类库,这是一种面向对象的C语言。一部分图形界面,如图表、按钮和窗口是用TCL/TK描述的。Swarm最初只能在Unix操作系统和X Windows界面下运行,1998年四月,伴随着 1.1版的发布,Swarm推出了可以在Windows 95/98/NT上运行的版本。1999年,Swarm又提供了对Java的支持,从而使Swarm越来越有利于非计算机专业的人士使用。
Swarm的负载非常低。据我观察,Swarm进行调度和通信的CPU负载非常低。因此,Swarm的管理节点(Manager)可以同时作为工作节点(Worker)。如果你需要搭建一个非常大的集群(1000+ 节点),管理节点需要更多资源,但是对于中小型集群来说,管理节点需要的资源可以忽略不计。
Swarm集群的网络通信(服务发现,负载均衡以及容器间通信)非常可靠。当你开启一个服务的端口之后,在Swarm集群中的任何一个节点都可以访问它。负载均衡也是由Swarm提供的。后文会提到一些之前遇到的问题,但是Docker 1.13之后,这些问题都解决了。
主机 | IP地址 | 服务 |
---|---|---|
docker01 | 192.168.1.11 | swarm+overlay+webUI |
docker02 | 192.168.1.13 | nginx |
docker03 | 192.168.1.20 | nginx |
三台主机都关闭防火墙,禁用selinux,修改主机名,时间同步,并添加域名解析。
docker版本必须是:v1.12版本开始(可使用docker version查看版本)
[root@localhost ~]# systemctl stop firewalld
[root@localhost ~]# hostnamectl set-hostname docker03
[root@localhost ~]# su -
mv /etc/localtime /etc/localtime.bk
cp /usr/share/zoneinfo/Asia/Shanghai/etc/localtime
[root@localhost ~]# hostnamectl set-hostname docker01
[root@localhost ~]# su -
[root@docker01 ~]# vim /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.1.11 docker01
192.168.1.13 docker02
192.168.1.20 docker03
swarm:作用运行docker engin的多个主机组成的集群
node:每一个docker engin都是一个node(节点),分为manager和worker。
manager node:负责执行容器的编排和集群的管理工作,保持并维护swarm处于期望的状态。swarm可以有多个manager node,他们会自动协调并选举一个leader执行编排任务。但相反,不能没有manager node。
worker node:接受并执行由manager node派发的任务,并且默认manager node也是一个worker node,不过可以将它设置为manager-only node,让他只负责编排和管理工作。
service:用来定义worker上执行的命令。
docker swarm leave:申请离开一个集群,之后查看节点状态会变成down,然后可通过manager node 将其删除
docker node rm xxx:删除某个节点docker swarm join-token [manager|worker]:生成令牌,可以是manager或worker身份。
docker node demote(降级):将swarm节点的为manager降级为worker
docker node promote(升级):将swarm节点的work升级为manager
docker node ls:查看群集的信息(只可以在manager角色的主机上查看)
docker service scale web05=6:容器的动态扩容及缩容
docker service ps web01: 查看创建的容器运行在哪些节点
docker service ls: 查看创建的服务
docker swarm leave: 脱离这个群集
docker node rm docker03: 在manager角色的服务器上移除docker03
docker node update --availability drain docker01: 设置主机docker01以后不运行容器,但已经运行的容器并不会停止
docker node update --label-add mem=max docker03: 更改docker03主机的标签为mem=max
docker service update --replicas 8 --image 192.168.20.6:5000/lvjianzhao:v2.0 --container-label-add 'node.labels.mem==max' lvjianzhao05: 将服务升级为8个容器,并且指定在mem=max标签的主机上运行
[root@docker01 ~]# docker swarm init --advertise-addr 192.168.1.11
--advertise-addr:指定与其它docker通信的地址。
上边返回的结果告诉我们:初始化成功,并且,如果想要添加work节点运行下面的命令:
注意:token令牌只有24小时的有效期
上面命令执行后,该机器自动加入到swarm集群。这个会创建一个集群token,获取全球唯一的 token,作为集群唯一标识。后续将其他节点加入集群都会用到这个token值。 其中,--advertise-addr参数表示其它swarm中的worker节点使用此ip地址与manager联系。命令的输出包含了其它节点如何加入集群的命令。
如果想要添加manager节点:运行下面命令
[root@docker03 ~]# docker swarm join --token SWMTKN-1-5kxn9wloh7npnytklwbfciesr9di7uvu521gwnqm9h2n0pbokj-1e60wt0yr5583e4mzwbxnn3a8 192.168.1.11:2377
[root@docker01 ~]# docker node ls
注意:这里的”*****“代表的是当前所属的节点
[root@docker02 ~]# docker swarm leave
[root@docker01 ~]# docker node rm docker02
[root@docker01 ~]# docker node rm docker03
[root@docker01 ~]# docker node ls
[root@docker01 ~]# docker swarm join-token manager
docker swarm join --token SWMTKN-1-5kxn9wloh7npnytklwbfciesr9di7uvu521gwnqm9h2n0pbokj-cz6hbyv9r5htyqwj5tfol65aa 192.168.1.11:2377
[root@docker01 ~]# docker node ls
[root@docker01 ~]# docker node demote docker02
[root@docker01 ~]# docker node demote docker03
[root@docker01 ~]# docker node ls
overlay networks 管理Swarm中docker守护进程间的通信。可以将容器附加到一个或多个已存在的overlay网络上,使容器与容器之间能够通信;
[root@docker01 ~]# docker network create -d overlay --attachable docker
//attachable:这个参数必须要加,否则不能用于容器。
在创建网络的时候,我们并没有部署一个存储服务,比如consul,那是因为docker swarm自带存储。
但是会发现其他两台并不会发现此网络,需等基于此网络创建service服务就可以看到了
[root@docker01 ~]# docker network ls
[root@docker01~]# docker pull dockersamples/visualizer
[root@docker01 ~]# docker run -d -p 8080:8080 -e HOST=192.168.1.100 -e PORT=8080 -v /var/run/docker.sock:/var/run/docker.sock --name visualiaer dockersamples/visualizer
如果访问不到网页,需开启路由转发
[root@docker01 ~]# echo net.ipv4.ip_forward = 1 >> /etc/sysctl.conf
[root@docker01 ~]# sysctl -p
[root@docker01 ~]#docker pull nginx
//下载nginx镜像(三台都要)
[root@docker01 ~]# docker service create --replicas 1 --network docker --name web1 -p 80:80 nginx:latest
[root@docker01 ~]# docker service create --replicas 1 --network docker --name web2 -p 80 nginx:latest
//--replicas:副本数量
大概可以理解为一个副本等于一个容器
[root@docker01 ~]# docker service ls
[root@docker01 ~]# docker service ps web1
[root@docker01 ~]# docker service ps web2
[root@docker01 ~]# docker service create --replicas 5 --network docker --name web -p 80 nginx:latest
[root@docker01 ~]# docker service rm web1 web2
(1)扩容
[root@docker01 ~]# docker service scale web=8
(2)缩减
[root@docker01 ~]# docker service scale web=3
[root@docker01 ~]# docker node update docker01 --availability drain
设置主机docker01以后不运行容器,但已经运行的容器并不会停止
“--availability”选项后面共有三个选项可配置,如下:
“active”:工作;“pause”:暂时不工作;“drain”:永久性的不工作
[root@docker01 ~]# docker node ls