默认状况下,Compose会为咱们的应用建立一个网络,服务的每一个容器都会加入该网络中。这样,容器就可被该网络中的其余容器访问,不只如此,该容器还能以服务名称做为hostname被其余容器访问。node
默认状况下,应用程序的网络名称基于Compose的工程名称,而项目名称基于docker-compose.yml所在目录的名称。如需修改工程名称,可以使用--project-name标识或COMPOSE_PORJECT_NAME环境变量。mysql
举个例子,假如一个应用程序在名为myapp的目录中,而且docker-compose.yml以下所示:nginx
version: '2'
services:
web:
build: .
ports:
- "8000:8000"
db:
image: postgres
复制代码
当咱们运行docker-compose up时,将会执行如下几步:web
容器间可以使用服务名称(web或db)做为hostname相互访问。例如,web这个服务可以使用postgres://db:5432
访问db容器。redis
当服务的配置发生更改时,可以使用docker-compose up命令更新配置。sql
此时,Compose会删除旧容器并建立新容器。新容器会以不一样的IP地址加入网络,名称保持不变。任何指向旧容器的链接都会被关闭,容器会从新找到新容器并链接上去。docker
前文讲过,默认状况下,服务之间可以使用服务名称相互访问。links容许咱们定义一个别名,从而使用该别名访问其余服务。举个例子:shell
version: '2'
services:
web:
build: .
links:
- "db:database"
db:
image: postgres
复制代码
这样web服务就可以使用db或database做为hostname访问db服务了。json
一些场景下,默认的网络配置知足不了咱们的需求,此时咱们可以使用networks命令自定义网络。networks命令容许咱们建立更加复杂的网络拓扑并指定自定义网络驱动和选项。不只如此,咱们还可以使用networks将服务链接到不是由Compose管理的、外部建立的网络。缓存
以下,咱们在其中定义了两个自定义网络。
version: '2'
services:
proxy:
build: ./proxy
networks:
- front
app:
build: ./app
networks:
- front
- back
db:
image: postgres
networks:
- back
networks:
front:
# Use a custom driver
driver: custom-driver-1
back:
# Use a custom driver which takes special options
driver: custom-driver-2
driver_opts:
foo: "1"
bar: "2"
复制代码
其中,proxy服务与db服务隔离,二者分别使用本身的网络;app服务可与二者通讯。
由本例不难发现,使用networks命令,便可方便实现服务间的网络隔离与链接。
除自定义网络外,咱们也可为默认网络自定义配置。
version: '2'
services:
web:
build: .
ports:
- "8000:8000"
db:
image: postgres
networks:
default:
# Use a custom driver
driver: custom-driver-1
复制代码
这样,就可为该应用指定自定义的网络驱动。
一些场景下,咱们并不须要建立新的网络,而只需加入已存在的网络,此时可以使用external选项。示例:
networks:
default:
external:
name: my-pre-existing-network复制代码
在Docker中,容器之间的连接是一种很常见的操做:它提供了访问其中的某个容器的网络服务而不须要将所需的端口暴露给Docker Host主机的功能。Docker Compose中对该特性的支持一样是很方便的。然而,若是须要连接的容器没有定义在同一个docker-compose.yml
中的时候,这个时候就稍微麻烦复杂了点。
在不使用Docker Compose的时候,将两个容器连接起来使用—link
参数,相对来讲比较简单,以nginx
镜像为例子:
docker run --rm --name test1 -d nginx #开启一个实例test1
docker run --rm --name test2 --link test1 -d nginx #开启一个实例test2并与test1创建连接
复制代码
这样,test2
与test1
便创建了连接,就能够在test2
中使用访问test1
中的服务了。
若是使用Docker Compose,那么这个事情就更简单了,仍是以上面的nginx
镜像为例子,编辑docker-compose.yml
文件为:
version: "3"
services:
test2:
image: nginx
depends_on:
- test1
links:
- test1
test1:
image: nginx
复制代码
最终效果与使用普通的Docker命令docker run xxxx
创建的连接并没有区别。这只是一种最为理想的状况。
docker-compose.yml
文件中,应该如何连接它们呢?docker-compose.yml
文件中的容器须要与docker run xxx
启动的容器连接,须要如何处理?针对这两种典型的状况,下面给出我我的测试可行的办法:
咱们仍是使用nginx镜像来模拟这样的一个情景:假设咱们须要将两个使用Docker Compose管理的nignx容器(test1
和test2
)连接起来,使得test2
可以访问test1
中提供的服务,这里咱们以能ping通为准。
首先,咱们定义容器test1
的docker-compose.yml
文件内容为:
version: "3"
services:
test2:
image: nginx
container_name: test1
networks:
- default
- app_net
networks:
app_net:
external: true
复制代码
容器test2
内容与test1
基本同样,只是多了一个external_links
,须要特别说明的是:最近发布的Docker版本已经不须要使用external_links来连接容器,容器的DNS服务能够正确的做出判断,所以若是你你须要兼容较老版本的Docker的话,那么容器test2
的docker-compose.yml
文件内容为:
version: "3"
services:
test2:
image: nginx
networks:
- default
- app_net
external_links:
- test1
container_name: test2
networks:
app_net:
external: true复制代码
不然的话,test2
的docker-compose.yml
和test1
的定义彻底一致,不须要额外多指定一个external_links
。相关的问题请参见stackoverflow上的相关问题:docker-compose + external container
正如你看到的那样,这里两个容器的定义里都使用了同一个外部网络app_net
,所以,咱们须要在启动这两个容器以前经过如下命令再建立外部网络:
docker network create app_net复制代码
以后,经过docker-compose up -d
命令启动这两个容器,而后执行docker exec -it test2 ping test1
,你将会看到以下的输出:
docker exec -it test2 ping test1
PING test1 (172.18.0.2): 56 data bytes
64 bytes from 172.18.0.2: icmp_seq=0 ttl=64 time=0.091 ms
64 bytes from 172.18.0.2: icmp_seq=1 ttl=64 time=0.146 ms
64 bytes from 172.18.0.2: icmp_seq=2 ttl=64 time=0.150 ms
64 bytes from 172.18.0.2: icmp_seq=3 ttl=64 time=0.145 ms
64 bytes from 172.18.0.2: icmp_seq=4 ttl=64 time=0.126 ms
64 bytes from 172.18.0.2: icmp_seq=5 ttl=64 time=0.147 ms
复制代码
证实这两个容器是成功连接了,反过来在test1
中pingtest2
也是可以正常ping通的。
若是咱们经过docker run --rm --name test3 -d nginx
这种方式来先启动了一个容器(test3
)而且没有指定它所属的外部网络,而须要将其与test1
或者test2
连接的话,这个时候手动连接外部网络便可:
docker network connect app_net test3复制代码
这样,三个容器均可以相互访问了。
经过更改你想要相互连接的容器的网络模式为bridge
,并指定须要连接的外部容器(external_links
)便可。与同属外部网络的容器能够相互访问的连接方式一不一样,这种方式的访问是单向的。
仍是以nginx容器镜像为例子,若是容器实例nginx1
须要访问容器实例nginx2
,那么nginx2
的doker-compose.yml
定义为:
version: "3"
services:
nginx2:
image: nginx
container_name: nginx2
network_mode: bridge
复制代码
与其对应的,nginx1
的docker-compose.yml
定义为:
version: "3"
services:
nginx1:
image: nginx
external_links:
- nginx2
container_name: nginx1
network_mode: bridge
复制代码
须要特别说明的是,这里的
external_links
是不能省略的,并且nginx1
的启动必需要在nginx2
以后,不然可能会报找不到容器nginx2
的错误。
接着咱们使用ping来测试下连通性:
$ docker exec -it nginx1 ping nginx2 # nginx1 to nginx2
PING nginx2 (172.17.0.4): 56 data bytes
64 bytes from 172.17.0.4: icmp_seq=0 ttl=64 time=0.141 ms
64 bytes from 172.17.0.4: icmp_seq=1 ttl=64 time=0.139 ms
64 bytes from 172.17.0.4: icmp_seq=2 ttl=64 time=0.145 ms
$ docker exec -it nginx2 ping nginx1 #nginx2 to nginx1
ping: unknown host复制代码
以上也能充分证实这种方式是属于单向联通的。
在实际应用中根据本身的须要灵活的选择这两种连接方式,若是想偷懒的话,大可选择第二种。不过我更推荐第一种,不难看出不管是联通性仍是灵活性,较为更改网络模式的第二种都更为友好。
附docker-compose.yml文件详解
Compose和Docker兼容性:
Compose 文件格式有3个版本,分别为1, 2.x 和 3.x
目前主流的为 3.x 其支持 docker 1.13.0 及其以上的版本
经常使用参数:
version # 指定 compose 文件的版本
services # 定义全部的 service 信息, services 下面的第一级别的 key 既是一个 service 的名称
build # 指定包含构建上下文的路径, 或做为一个对象,该对象具备 context 和指定的 dockerfile 文件以及 args 参数值
context # context: 指定 Dockerfile 文件所在的路径
dockerfile # dockerfile: 指定 context 指定的目录下面的 Dockerfile 的名称(默认为 Dockerfile)
args # args: Dockerfile 在 build 过程当中须要的参数 (等同于 docker container build --build-arg 的做用)
cache_from # v3.2中新增的参数, 指定缓存的镜像列表 (等同于 docker container build --cache_from 的做用)
labels # v3.3中新增的参数, 设置镜像的元数据 (等同于 docker container build --labels 的做用)
shm_size # v3.5中新增的参数, 设置容器 /dev/shm 分区的大小 (等同于 docker container build --shm-size 的做用)
command # 覆盖容器启动后默认执行的命令, 支持 shell 格式和 [] 格式
configs # 不知道怎么用
cgroup_parent # 不知道怎么用
container_name # 指定容器的名称 (等同于 docker run --name 的做用)
credential_spec # 不知道怎么用
deploy # v3 版本以上, 指定与部署和运行服务相关的配置, deploy 部分是 docker stack 使用的, docker stack 依赖 docker swarm
endpoint_mode # v3.3 版本中新增的功能, 指定服务暴露的方式
vip # Docker 为该服务分配了一个虚拟 IP(VIP), 做为客户端的访问服务的地址
dnsrr # DNS轮询, Docker 为该服务设置 DNS 条目, 使得服务名称的 DNS 查询返回一个 IP 地址列表, 客户端直接访问其中的一个地址
labels # 指定服务的标签,这些标签仅在服务上设置
mode # 指定 deploy 的模式
global # 每一个集群节点都只有一个容器
replicated # 用户能够指定集群中容器的数量(默认)
placement # 不知道怎么用
replicas # deploy 的 mode 为 replicated 时, 指定容器副本的数量
resources # 资源限制
limits # 设置容器的资源限制
cpus: "0.5" # 设置该容器最多只能使用 50% 的 CPU
memory: 50M # 设置该容器最多只能使用 50M 的内存空间
reservations # 设置为容器预留的系统资源(随时可用)
cpus: "0.2" # 为该容器保留 20% 的 CPU
memory: 20M # 为该容器保留 20M 的内存空间
restart_policy # 定义容器重启策略, 用于代替 restart 参数
condition # 定义容器重启策略(接受三个参数)
none # 不尝试重启
on-failure # 只有当容器内部应用程序出现问题才会重启
any # 不管如何都会尝试重启(默认)
delay # 尝试重启的间隔时间(默认为 0s)
max_attempts # 尝试重启次数(默认一直尝试重启)
window # 检查重启是否成功以前的等待时间(即若是容器启动了, 隔多少秒以后去检测容器是否正常, 默认 0s)
update_config # 用于配置滚动更新配置
parallelism # 一次性更新的容器数量
delay # 更新一组容器之间的间隔时间
failure_action # 定义更新失败的策略
continue # 继续更新
rollback # 回滚更新
pause # 暂停更新(默认)
monitor # 每次更新后的持续时间以监视更新是否失败(单位: ns|us|ms|s|m|h) (默认为0)
max_failure_ratio # 回滚期间容忍的失败率(默认值为0)
order # v3.4 版本中新增的参数, 回滚期间的操做顺序
stop-first #旧任务在启动新任务以前中止(默认)
start-first #首先启动新任务, 而且正在运行的任务暂时重叠
rollback_config # v3.7 版本中新增的参数, 用于定义在 update_config 更新失败的回滚策略
parallelism # 一次回滚的容器数, 若是设置为0, 则全部容器同时回滚
delay # 每一个组回滚之间的时间间隔(默认为0)
failure_action # 定义回滚失败的策略
continue # 继续回滚
pause # 暂停回滚
monitor # 每次回滚任务后的持续时间以监视失败(单位: ns|us|ms|s|m|h) (默认为0)
max_failure_ratio # 回滚期间容忍的失败率(默认值0)
order # 回滚期间的操做顺序
stop-first # 旧任务在启动新任务以前中止(默认)
start-first # 首先启动新任务, 而且正在运行的任务暂时重叠
注意:
支持 docker-compose up 和 docker-compose run 但不支持 docker stack deploy 的子选项
security_opt container_name devices tmpfs stop_signal links cgroup_parent
network_mode external_links restart build userns_mode sysctls
devices # 指定设备映射列表 (等同于 docker run --device 的做用)
depends_on # 定义容器启动顺序 (此选项解决了容器之间的依赖关系, 此选项在 v3 版本中 使用 swarm 部署时将忽略该选项)
示例:
docker-compose up 以依赖顺序启动服务,下面例子中 redis 和 db 服务在 web 启动前启动
默认状况下使用 docker-compose up web 这样的方式启动 web 服务时,也会启动 redis 和 db 两个服务,由于在配置文件中定义了依赖关系
version: '3'
services:
web:
build: .
depends_on:
- db
- redis
redis:
image: redis
db:
image: postgres
dns # 设置 DNS 地址(等同于 docker run --dns 的做用)
dns_search # 设置 DNS 搜索域(等同于 docker run --dns-search 的做用)
tmpfs # v2 版本以上, 挂载目录到容器中, 做为容器的临时文件系统(等同于 docker run --tmpfs 的做用, 在使用 swarm 部署时将忽略该选项)
entrypoint # 覆盖容器的默认 entrypoint 指令 (等同于 docker run --entrypoint 的做用)
env_file # 从指定文件中读取变量设置为容器中的环境变量, 能够是单个值或者一个文件列表, 若是多个文件中的变量重名则后面的变量覆盖前面的变量, environment 的值覆盖 env_file 的值
文件格式:
RACK_ENV=development
environment # 设置环境变量, environment 的值能够覆盖 env_file 的值 (等同于 docker run --env 的做用)
expose # 暴露端口, 可是不能和宿主机创建映射关系, 相似于 Dockerfile 的 EXPOSE 指令
external_links # 链接不在 docker-compose.yml 中定义的容器或者不在 compose 管理的容器(docker run 启动的容器, 在 v3 版本中使用 swarm 部署时将忽略该选项)
extra_hosts # 添加 host 记录到容器中的 /etc/hosts 中 (等同于 docker run --add-host 的做用)
healthcheck # v2.1 以上版本, 定义容器健康状态检查, 相似于 Dockerfile 的 HEALTHCHECK 指令
test # 检查容器检查状态的命令, 该选项必须是一个字符串或者列表, 第一项必须是 NONE, CMD 或 CMD-SHELL, 若是其是一个字符串则至关于 CMD-SHELL 加该字符串
NONE # 禁用容器的健康状态检测
CMD # test: ["CMD", "curl", "-f", "http://localhost"]
CMD-SHELL # test: ["CMD-SHELL", "curl -f http://localhost || exit 1"] 或者 test: curl -f https://localhost || exit 1
interval: 1m30s # 每次检查之间的间隔时间
timeout: 10s # 运行命令的超时时间
retries: 3 # 重试次数
start_period: 40s # v3.4 以上新增的选项, 定义容器启动时间间隔
disable: true # true 或 false, 表示是否禁用健康状态检测和 test: NONE 相同
image # 指定 docker 镜像, 能够是远程仓库镜像、本地镜像
init # v3.7 中新增的参数, true 或 false 表示是否在容器中运行一个 init, 它接收信号并传递给进程
isolation # 隔离容器技术, 在 Linux 中仅支持 default 值
labels # 使用 Docker 标签将元数据添加到容器, 与 Dockerfile 中的 LABELS 相似
links # 连接到其它服务中的容器, 该选项是 docker 历史遗留的选项, 目前已被用户自定义网络名称空间取代, 最终有可能被废弃 (在使用 swarm 部署时将忽略该选项)
logging # 设置容器日志服务
driver # 指定日志记录驱动程序, 默认 json-file (等同于 docker run --log-driver 的做用)
options # 指定日志的相关参数 (等同于 docker run --log-opt 的做用)
max-size # 设置单个日志文件的大小, 当到达这个值后会进行日志滚动操做
max-file # 日志文件保留的数量
network_mode # 指定网络模式 (等同于 docker run --net 的做用, 在使用 swarm 部署时将忽略该选项)
networks # 将容器加入指定网络 (等同于 docker network connect 的做用), networks 能够位于 compose 文件顶级键和 services 键的二级键
aliases # 同一网络上的容器可使用服务名称或别名链接到其中一个服务的容器
ipv4_address # IP V4 格式
ipv6_address # IP V6 格式
示例:
version: '3.7'
services:
test:
image: nginx:1.14-alpine
container_name: mynginx
command: ifconfig
networks:
app_net: # 调用下面 networks 定义的 app_net 网络
ipv4_address: 172.16.238.10
networks:
app_net:
driver: bridge
ipam:
driver: default
config:
- subnet: 172.16.238.0/24
pid: 'host' # 共享宿主机的 进程空间(PID)
ports # 创建宿主机和容器之间的端口映射关系, ports 支持两种语法格式
SHORT 语法格式示例:
- "3000" # 暴露容器的 3000 端口, 宿主机的端口由 docker 随机映射一个没有被占用的端口
- "3000-3005" # 暴露容器的 3000 到 3005 端口, 宿主机的端口由 docker 随机映射没有被占用的端口
- "8000:8000" # 容器的 8000 端口和宿主机的 8000 端口创建映射关系
- "9090-9091:8080-8081"
- "127.0.0.1:8001:8001" # 指定映射宿主机的指定地址的
- "127.0.0.1:5000-5010:5000-5010"
- "6060:6060/udp" # 指定协议
LONG 语法格式示例:(v3.2 新增的语法格式)
ports:
- target: 80 # 容器端口
published: 8080 # 宿主机端口
protocol: tcp # 协议类型
mode: host # host 在每一个节点上发布主机端口, ingress 对于群模式端口进行负载均衡
secrets # 不知道怎么用
security_opt # 为每一个容器覆盖默认的标签 (在使用 swarm 部署时将忽略该选项)
stop_grace_period # 指定在发送了 SIGTERM 信号以后, 容器等待多少秒以后退出(默认 10s)
stop_signal # 指定中止容器发送的信号 (默认为 SIGTERM 至关于 kill PID; SIGKILL 至关于 kill -9 PID; 在使用 swarm 部署时将忽略该选项)
sysctls # 设置容器中的内核参数 (在使用 swarm 部署时将忽略该选项)
ulimits # 设置容器的 limit
userns_mode # 若是Docker守护程序配置了用户名称空间, 则禁用此服务的用户名称空间 (在使用 swarm 部署时将忽略该选项)
volumes # 定义容器和宿主机的卷映射关系, 其和 networks 同样能够位于 services 键的二级键和 compose 顶级键, 若是须要跨服务间使用则在顶级键定义, 在 services 中引用
SHORT 语法格式示例:
volumes:
- /var/lib/mysql # 映射容器内的 /var/lib/mysql 到宿主机的一个随机目录中
- /opt/data:/var/lib/mysql # 映射容器内的 /var/lib/mysql 到宿主机的 /opt/data
- ./cache:/tmp/cache # 映射容器内的 /var/lib/mysql 到宿主机 compose 文件所在的位置
- ~/configs:/etc/configs/:ro # 映射容器宿主机的目录到容器中去, 权限只读
- datavolume:/var/lib/mysql # datavolume 为 volumes 顶级键定义的目录, 在此处直接调用
LONG 语法格式示例:(v3.2 新增的语法格式)
version: "3.2"
services:
web:
image: nginx:alpine
ports:
- "80:80"
volumes:
- type: volume # mount 的类型, 必须是 bind、volume 或 tmpfs
source: mydata # 宿主机目录
target: /data # 容器目录
volume: # 配置额外的选项, 其 key 必须和 type 的值相同
nocopy: true # volume 额外的选项, 在建立卷时禁用从容器复制数据
- type: bind # volume 模式只指定容器路径便可, 宿主机路径随机生成; bind 须要指定容器和数据机的映射路径
source: ./static
target: /opt/app/static
read_only: true # 设置文件系统为只读文件系统
volumes:
mydata: # 定义在 volume, 可在全部服务中调用
restart # 定义容器重启策略(在使用 swarm 部署时将忽略该选项, 在 swarm 使用 restart_policy 代替 restart)
no # 禁止自动重启容器(默认)
always # 不管如何容器都会重启
on-failure # 当出现 on-failure 报错时, 容器从新启动
其余选项:
domainname, hostname, ipc, mac_address, privileged, read_only, shm_size, stdin_open, tty, user, working_dir
上面这些选项都只接受单个值和 docker run 的对应参数相似
对于值为时间的可接受的值:
2.5s
10s
1m30s
2h32m
5h34m56s
时间单位: us, ms, s, m, h
对于值为大小的可接受的值:
2b
1024kb
2048k
300m
1gb
单位: b, k, m, g 或者 kb, mb, gb
networks # 定义 networks 信息
driver # 指定网络模式, 大多数状况下, 它 bridge 于单个主机和 overlay Swarm 上
bridge # Docker 默认使用 bridge 链接单个主机上的网络
overlay # overlay 驱动程序建立一个跨多个节点命名的网络
host # 共享主机网络名称空间(等同于 docker run --net=host)
none # 等同于 docker run --net=none
driver_opts # v3.2以上版本, 传递给驱动程序的参数, 这些参数取决于驱动程序
attachable # driver 为 overlay 时使用, 若是设置为 true 则除了服务以外,独立容器也能够附加到该网络; 若是独立容器链接到该网络,则它能够与其余 Docker 守护进程链接到的该网络的服务和独立容器进行通讯
ipam # 自定义 IPAM 配置. 这是一个具备多个属性的对象, 每一个属性都是可选的
driver # IPAM 驱动程序, bridge 或者 default
config # 配置项
subnet # CIDR格式的子网,表示该网络的网段
external # 外部网络, 若是设置为 true 则 docker-compose up 不会尝试建立它, 若是它不存在则引起错误
name # v3.5 以上版本, 为此网络设置名称
文件格式示例:
version: "3"
services:
redis:
image: redis:alpine
ports:
- "6379"
networks:
- frontend
deploy:
replicas: 2
update_config:
parallelism: 2
delay: 10s
restart_policy:
condition: on-failure
db:
image: postgres:9.4
volumes:
- db-data:/var/lib/postgresql/data
networks:
- backend
deploy:
placement:
constraints: [node.role == manager]复制代码