OCI/runc 系统路径约束如何工作以防止重新安装此类路径?

问题描述

我的问题的背景是我的 Linux-kernel Namespaces discovery Go package lxkns 的一组测试用例,我在其中创建了一个新的子用户命名空间以及一个测试容器内的新子 PID 命名空间。然后我需要重新挂载/proc,否则我会看到错误的进程信息并且无法查找正确的进程相关信息,例如新子用户+PID命名空间内的测试进程的命名空间(不采取游击策略)。

测试工具/测试设置本质上是这样,如果没有 --privileged 就会失败(我正在简化为所有大写并关闭 seccomp 和 apparmor,以便切入真正的肉):

docker run -it --rm --name closedBoxx --cap-add ALL --security-opt seccomp=unconfined --security-opt apparmor=unconfined busyBox unshare -Umpfr mount -t proc /proc proc
mount: permission denied (are you root?)

当然,阻力最小和美感最少的路径是使用--privileged,这将完成工作,因为这是一个扔掉的测试容器(也许有美在完全缺乏)。

最近,我意识到 Docker 的 --security-opt systempaths=unconfined,它 (afaik) 在生成的 OCI/runc 容器规范中转换为空的 readonlyPaths。以下 Docker 运行命令根据需要成功,在示例中它只是静返回,因此执行正确:

docker run -it --rm --name closedBoxx --cap-add ALL --security-opt seccomp=unconfined --security-opt apparmor=unconfined --security-opt systempaths=unconfined busyBox unshare -Umpfr mount -t proc /proc proc

如果设置失败,在没有 --privilege--security-opt systempaths=unconfined 的情况下运行时,子用户内的挂载和容器内的 PID 命名空间如下所示:

docker run -it --rm --name closedBoxx --cap-add ALL --security-opt seccomp=unconfined --security-opt apparmor=unconfined busyBox unshare -Umpfr cat /proc/1/mountinfo
693 678 0:46 / / rw,relatime - overlay overlay rw,lowerdir=/var/lib/docker/overlay2/l/AOY3ZSL2FQEO77CCDBKDOPEK7M:/var/lib/docker/overlay2/l/VNX7PING7ZLTIPXRDFSBMIOKKU,upperdir=/var/lib/docker/overlay2/60e8ad10362e49b621d2f3d603845ee24bda62d6d77de96a37ea0001c8454546/diff,workdir=/var/lib/docker/overlay2/60e8ad10362e49b621d2f3d603845ee24bda62d6d77de96a37ea0001c8454546/work,xino=off
694 693 0:50 / /proc rw,nosuid,nodev,noexec,relatime - proc proc rw
695 694 0:50 /bus /proc/bus ro,relatime - proc proc rw
696 694 0:50 /fs /proc/fs ro,relatime - proc proc rw
697 694 0:50 /irq /proc/irq ro,relatime - proc proc rw
698 694 0:50 /sys /proc/sys ro,relatime - proc proc rw
699 694 0:50 /sysrq-trigger /proc/sysrq-trigger ro,relatime - proc proc rw
700 694 0:51 /null /proc/kcore rw,nosuid - tmpfs tmpfs rw,size=65536k,mode=755
701 694 0:51 /null /proc/keys rw,mode=755
702 694 0:51 /null /proc/latency_stats rw,mode=755
703 694 0:51 /null /proc/timer_list rw,mode=755
704 694 0:51 /null /proc/sched_debug rw,mode=755
705 694 0:56 / /proc/scsi ro,relatime - tmpfs tmpfs ro
706 693 0:51 / /dev rw,mode=755
707 706 0:52 / /dev/pts rw,relatime - devpts devpts rw,gid=5,mode=620,ptmxmode=666
708 706 0:49 / /dev/mqueue rw,relatime - mqueue mqueue rw
709 706 0:55 / /dev/shm rw,relatime - tmpfs shm rw,size=65536k
710 706 0:52 /0 /dev/console rw,ptmxmode=666
711 693 0:53 / /sys ro,relatime - sysfs sysfs ro
712 711 0:54 / /sys/fs/cgroup rw,relatime - tmpfs tmpfs rw,mode=755
713 712 0:28 /docker/eebfacfdc6e0e34c4e62d9f162bdd7c04b232ba2d1f5327eaf7e00011d0235c0 /sys/fs/cgroup/systemd ro,relatime - cgroup cgroup rw,xattr,name=systemd
714 712 0:31 /docker/eebfacfdc6e0e34c4e62d9f162bdd7c04b232ba2d1f5327eaf7e00011d0235c0 /sys/fs/cgroup/cpuset ro,cpuset
715 712 0:32 /docker/eebfacfdc6e0e34c4e62d9f162bdd7c04b232ba2d1f5327eaf7e00011d0235c0 /sys/fs/cgroup/net_cls,net_prio ro,net_cls,net_prio
716 712 0:33 /docker/eebfacfdc6e0e34c4e62d9f162bdd7c04b232ba2d1f5327eaf7e00011d0235c0 /sys/fs/cgroup/memory ro,memory
717 712 0:34 /docker/eebfacfdc6e0e34c4e62d9f162bdd7c04b232ba2d1f5327eaf7e00011d0235c0 /sys/fs/cgroup/perf_event ro,perf_event
718 712 0:35 /docker/eebfacfdc6e0e34c4e62d9f162bdd7c04b232ba2d1f5327eaf7e00011d0235c0 /sys/fs/cgroup/devices ro,devices
719 712 0:36 /docker/eebfacfdc6e0e34c4e62d9f162bdd7c04b232ba2d1f5327eaf7e00011d0235c0 /sys/fs/cgroup/blkio ro,blkio
720 712 0:37 /docker/eebfacfdc6e0e34c4e62d9f162bdd7c04b232ba2d1f5327eaf7e00011d0235c0 /sys/fs/cgroup/pids ro,pids
721 712 0:38 / /sys/fs/cgroup/rdma ro,rdma
722 712 0:39 /docker/eebfacfdc6e0e34c4e62d9f162bdd7c04b232ba2d1f5327eaf7e00011d0235c0 /sys/fs/cgroup/freezer ro,freezer
723 712 0:40 /docker/eebfacfdc6e0e34c4e62d9f162bdd7c04b232ba2d1f5327eaf7e00011d0235c0 /sys/fs/cgroup/cpu,cpuacct ro,cpu,cpuacct
724 711 0:57 / /sys/firmware ro,relatime - tmpfs tmpfs ro
725 693 8:2 /var/lib/docker/containers/eebfacfdc6e0e34c4e62d9f162bdd7c04b232ba2d1f5327eaf7e00011d0235c0/resolv.conf /etc/resolv.conf rw,relatime - ext4 /dev/sda2 rw,stripe=256
944 693 8:2 /var/lib/docker/containers/eebfacfdc6e0e34c4e62d9f162bdd7c04b232ba2d1f5327eaf7e00011d0235c0/hostname /etc/hostname rw,stripe=256
1352 693 8:2 /var/lib/docker/containers/eebfacfdc6e0e34c4e62d9f162bdd7c04b232ba2d1f5327eaf7e00011d0235c0/hosts /etc/hosts rw,stripe=256
  1. 究竟是什么机制阻止了 procfs/proc 的新安装?
  2. 是什么阻止我卸载 /proc/kcore 等?

解决方法

更多的挖掘发现这个 answer to "About mounting and unmounting inherited mounts inside a newly-created mount namespace" 指向正确的方向,但需要额外的解释(尤其是因为基于迈克尔·凯里斯(Michael Kerrisk)修复了一段时间的手册页中关于挂载命名空间分层的误导性段落之前)。

我们的出发点是当 runc 设置(测试)容器时,为了屏蔽系统路径,尤其是在容器未来的 /proc 树中,它会创建一组新的挂载来屏蔽单个文件使用 /dev/null 或使用 tmpfs 的子目录。这导致 procfs 安装在 /proc 上,以及进一步的子安装。

现在测试容器启动,并且在某个时刻一个进程取消共享到一个新的用户命名空间。请记住,这个新用户命名空间(再次)属于 UID 为 0 的(真实)root 用户,因为默认的 Docker 安装不会在新用户命名空间中启用运行容器。

接下来,测试过程也unshare到一个新的mount命名空间,所以这个新的mount命名空间属于新创建的用户命名空间,而不是初始用户命名空间。根据 mount_namespaces(7) 中的“挂载命名空间的限制”部分:

如果新的命名空间和从中复制挂载点列表的命名空间由不同的用户命名空间拥有,那么新的挂载命名空间被视为权限较低

请注意,这里的标准是:“donor”挂载命名空间和新挂载命名空间具有不同的用户命名空间;它们是否具有相同的所有者用户 (UID) 并不重要。

现在的重要线索是:

作为单个单元来自更高特权的挂载命名空间的挂载被锁定在一起,并且不能在低特权的挂载命名空间中分开。 (unshare(2) CLONE_NEWNS 操作将原始挂载命名空间中的所有挂载作为一个单元,并将在挂载命名空间之间传播的递归挂载作为一个单元传播。)

由于现在无法再将 /proc 挂载点与掩蔽子挂载分开,因此无法(重新)挂载 /proc(问题 1)。同样,也无法卸载 /proc/kcore,因为这将允许取消屏蔽(问题 2)。

现在,当使用 --security-opt systempaths=unconfined 部署测试容器时,这只会导致 单一 /proc 安装,没有任何掩蔽子安装。因此,根据上面引用的手册页规则,我们只允许(重新)挂载一个挂载,受制于 CAP_SYS_ADMIN 能力,还包括挂载(除了大量其他有趣的功能)。

请注意,可以在容器内卸载屏蔽的 /proc/ 路径,同时仍处于原始(=初始)用户命名空间并且拥有(并不奇怪){{1} }. (b)lock 只在一个单独的用户命名空间中启动,因此一些项目努力在他们自己的新用户命名空间中部署容器(不幸的是,这不仅对容器网络有影响)。

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...