-
-
[原创]浅析K8S各种未授权攻击方法
-
发表于: 2022-5-20 14:47 1109
-
这篇文章可能出现一些图文截图颜色或者命令端口不一样的情况,原因是因为这篇文章是我重复尝试过好多次才写的,所以比如正常应该是访问6443,但是截图中是显示大端口比如60123这种,不影响阅读和文章逻辑,无需理会即可,另外k8s基础那一栏。。。本来想写一下k8s的鉴权,后来想了想,太长了,不便于我查笔记,还不如分开写,所以K8S基础那里属于凑数???写了懒得删(虽然是粘贴的:))
吐槽一下:其实我发现K8S搭建失败的大部分原因,都是出于网络不同的原因,所以我建议直接上香港的服务器,不太建议在本地虚拟机搭建,当然我本地也搭建了虚拟机的k8s集群(我用公司的阿里云开的服务器,100M带宽,确实快哈哈哈)
在学习k8s安全的时候,大家花费最多时间的地方应该就是K8S的搭建了,当然大佬除外,我这种菜狗才会搭环境搭很久
香港服务器搭建
1、有成本(哪怕是按量付费,也有一定的成本)
2、好处就是能快速的搭建,不会出现网络导致搭建失败的问题
本地虚拟机搭建
1、0成本(但是有时间成本,可能在香港服务器上1个小时就能解决的事情,在本地要花很久)
2、好处就是配置好静态地址之后,以后在哪个网络环境都可以访问
K8S全称kubernetes,是由Google在2014年开源的生产级别的容器编排系统,或者说是微服务和云原生平台。虽说14年才开源,但实际上K8S是Google内部的容器编排系统Borg的开源版本,在Google内部已经用了十多年了。下面是一个关于K8S的Logo来源的小插曲。
Kubernetes由谷歌在2014年首次对外宣布 。它的开发和设计都深受谷歌的Borg系统的影响,它的许多顶级贡献者之前也是Borg系统的开发者。在谷歌内部,Kubernetes的原始代号曾经是Seven,即星际迷航中友好的Borg(博格人)角色。Kubernetes标识中舵轮有七个轮辐就是对该项目代号的致意。 不过也有一个说法是,Docker的Logo是一个驮着集装箱的鲸鱼,也就是运输船,K8S的Logo是一个船舵,旨在引领着Docker(或者说容器技术)走向远方。
Master节点是Kubernetes集群的控制节点,每个Kubernetes集群里至少有一个Master节点,它负责整个集群的决策(如调度),发现和响应集群的事件。Master节点可以运行在集群中的任意一个节点上,但是最好将Master节点作为一个独立节点,不在该节点上创建容器,因为如果该节点出现问题导致宕机或不可用,整个集群的管理就会失效。
在Master节点上,通常会运行以下服务:
etcd: 一致且高度可用的Key-Value存储,用作Kubernetes的所有群集数据的后备存储,在K8s中有两个服务需要用到etcd来协同和配置,分别如下
kube-scheduler: 调度器,运行在Master上,用于监控节点中的容器运行情况,并挑选节点来创建新的容器。调度决策所考虑的因素包括资源需求,硬件/软件/策略约束,亲和和排斥性规范,数据位置,工作负载间干扰和最后期限。
Node 节点是 Kubernetes 集群的工作节点,每个集群中至少需要一台Node节点,它负责真正的运行Pod,当某个Node节点出现问题而导致宕机时,Master会自动将该节点上的Pod调度到其他节点。Node节点可以运行在物理机上,也可以运行在虚拟机中。
在Node节点上,通常会运行以下服务:
Node节点可以在集群运行期间动态增加,只要整个节点已经正确安装配置和启动了上面的进程。在默认情况下,kubelet会向Master自动注册。一旦Node被接入到集群管理中,kubelet会定时向Master节点汇报自身的情况(操作系统,Docker版本,CPU内存使用情况等),这样Master便可以在知道每个节点的详细情况的同时,还能知道该节点是否是正常运行。当Node节点心跳超时时,Master节点会自动判断该节点处于不可用状态,并会对该Node节点上的Pod进行迁移。
Pod是Kubernetes最重要也是最基本的概念,一个Pod是一组共享网络和存储(可以是一个或多个)的容器。Pod中的容器都是统一进行调度,并且运行在共享上下文中。一个Pod被定义为一个逻辑的host,它包括一个或多个相对耦合的容器。
Pod的共享上下文,实际上是一组由namespace、cgroups, 其他资源的隔离的集合,意味着Pod中的资源已经是被隔离过了的,而在Pod中的每一个独立的container又对Pod中的资源进行了二次隔离。
(上图为:K8s实战攻击路径,·来自TSRC)
(上图为:K8s常见端口,图片有点糊,因为网上找的)
推荐这种方式搭建,目前能搜到的应该有以下几种K8S搭建方式
1、按照文档一步一步的安装docker,安装k8s
2、minikube
3、kind
4、metarget(推荐)
5、github上的一键安装脚本
但是这几种安装方式都充斥着一些问题,比如在安装的时候会遇到很多问题,而且如果我们想安装安装指定版本又非常麻烦,所以推荐metarget的方式进行安装
tips: 如果在centos下遇到pip 出现以下情况,并且更新之后没有用的话,那么就用下面的方法
不过这里建议Ubuntu安装,因为。。。
懒得搜了,所以直接换ubuntu
回到正题,比如我这里想安装一个1.16的k8s,使用以下命令即可
随后就会对k8s所需要的组件挨个进行安装并启动
不过值得注意的是,如果使用云服务器的话,为了保证端口安全组放通,但是又怕暴露在公网受到攻击,建议安全组端口全开,但是给到指定IP才能访问
环境
下载minikube
使用minikube快速启动,这里驱动选的是VMware,指定了k8s的版本
还可以通过minikube 快速启动k8s的dashboard
快速创建一个Nginx Pod
安装kubectl
下载kind(需要科学上网)
快速启动一个k8s集群
为了解决绑定在本地127.0.0.1的问题
创建pods
部署在Master上暴露Kubernetes API,是Kubernetes的控制面。Kubernetes API服务器为API对象验证和配置数据,这些对象包含Pod,Service,ReplicationController等等。API Server提供REST操作以及前端到集群的共享状态,所有其他组件可以通过这些共享状态交互。默认情况,Kubernetes API Server提供HTTP的两个端口:8080,6443。insecure-port: 默认端口8080,在HTTP中没有认证和授权检查。secure-port :默认端口6443, 认证方式,令牌文件或者客户端证书,如下图访问http://IP:8080
一个6443和一个8080,前者会进行鉴权,后者不会
测试了几个版本的k8s,发现在新版本后,–insecure-port=8080配置默认就关闭了
这里设置为0表示关闭,甚至在高版本的k8s中,直接将--insecure-port这个配置删除了,需要手动添加
这里将修改为8080,并添加配置
上述就是打开8080端口的方法
ps: 如果使用minikube搭建这里可能是随机的大端口
获取Pods
执行命令
Tips: 在高版本的k8s中,这种方法是不行的,连不上去
可以通过访问api来获取token
为什么会出现这个问题:因为在启动dashborad的时候,管理员为了方便,修改了配置,跳过了登录
安装dashborad
需要添加两个参数,一个是不需要登录,一个是绑定0.0.0.0地址
这里使用国际友人的配置快速启动
如果这种情况不能访问的话,就使用下面的命令
但是我们在这里看到了一个不安全的访问,无法登陆,只需要更换如下的命令即可
配置账号
这里有个坑。。。。就是端口转发然后会一直连接重置
不知道什么原因,如果有大佬知道,虚心请教!这里也有可能是香港服务器不稳定的原因造成的,因为在测试的时候发现有时候服务器的ssh也连不上,也会提示连接重置
通过创建dashboard创建pod并挂在宿主机的根目录
这里将宿主机的目录挂在到了/mnt目录下
ps: minikube 搭建如果此时点击上传返回错误信息the server could not find the requested resource,在网上看到文章说是kubectl的版本不一致的问题,那么也确实,因为minikube启动的是1.16的k8s,但是终端的是1.23,不过不要紧回到POD那里之后可以看到已经创建了
可以通过写crontab获取shell
或者通过chroot来获取终端
如果不小心,将"system:anonymous"用户绑定到"cluster-admin"用户组,从而使6443 端口允许匿名用户以管理员权限向集群内部下发指令
本来访问会返回403
但是使用下面的配置之后就可以了
可以通过访问API来获取pod
获取token
创建特权容器
随后执行命令的时候返回400
传统艺能,搜到了这种解决方案,可惜不行:(
安装wscat
不过这里还是没解决这个问题
并且还遇到一个问题
一开始我以为是本地的kubectl跟服务端的版本不同导致的,后来发现,并不是这样,哪怕我在k8s的服务器上使用该命令,还是会出现这个
不过我又发现一个新的方法,虽然不知道是为什么,但是这个方法确实可行
偶然发现,这里虽然会让你输入账号和密码,但是随便输入之后,还是会显示pods,那么我通过POST创建pods,然后我在用这里连上去,然后chroot去获取宿主机权限呢?
可以看到,我们这里已经创建了恶意的pods
可以看到已经通过挂在宿主机根目录到host目录,通过chroot来到的宿主机,那么也可以看到我们root目录下的metarget,创建一个文件看看
成功了,不过如果有k8s大佬知道这是为什么,可以告诉我,谢谢大佬,我的Github有我的微信二维码
正常访问该端口会提示未授权
并且如果直接访问这个端口会提示404
但是如果将/var/lib/kubelet/config.yml配置错误的修改为如下
随后将authorization.mode修改为AlwaysAllow
随后重启
再访问这个端口就会发现不需要认证,那么如何执行命令呢?
这里需要三个参数
1、namespace
2、pod
3、container
在这里获取
一个 pod 与一个服务账户相关联,该服务账户的凭证(token)被放入该pod中每个容器的文件系统树,在 /var/run/secrets/kubernetes.io/serviceaccount/token
如果服务账号(Service account )绑定了 cluster-admin (即集群的 admin 权限我们可以对所有namespace下实例进行操作) ,那么我们就可以通过 token 来进行一系列的操作
尝试了一下,这个token是可以登录dashboard的,那么如果绑定的权限够的话,完全可以通过这个token去登录dashboard
将这里的mode设置为AlwaysAllow之后,那么使用API就不需要鉴权了,默认是使用WebHook,在配置为WebHook请求的时候会返回如下
在启动etcd时,如果没有指定 --client-cert-auth 参数打开证书校验,并且把listen-client-urls监听修改为0.0.0.0那么也就意味着这个端口被暴露在外,如果没有通过安全组防火墙的限制,就会造成危害
etcd默认端口2379
ps: 不过在安装k8s之后默认的配置2379都只会监听127.0.0.1,而不会监听0.0.0.0,那么也就意味着最多就是本地访问,不能公网访问
那么我们看一下手动搭建的集群
可以发现,除了监听本地的私有地址之外,也就只有127.0.0.1了
etcd的配置文件在/etc/kubernetes/manifests/etcd.yaml
如果此时将--client-cert-auth写入到这个配置文件里面
在打开证书校验选项后,通过本地127.0.0.1:2379地址可以免认证访问Etcd服务,但通过其他地址访问要携带cert进行认证访问
在未使用client-cert-auth参数打开证书校验时,任意地址访问Etcd服务都不需要进行证书校验,此时Etcd服务存在未授权访问风险。
默认情况下用etcdctl 访问2379会需要证书
但是如果证书泄露了,就可以通过证书来获取etcd
获取token
通过该token可以获取k8s集群的权限
不过这里需要注意,在kubectl 1.2的版本没有insecure-skip-tls-verify这个参数
通过kubectl opthion也没有看到这个参数,但是我们在1.16.6版本中可以看到有这个参数
以下举例了两个docker会造成的问题,因为k8s+docker是比较常见的组合,所以docker上存在的问题,自然也会带到k8s中,更多docker逃逸到我的博客
因为现在常见的搭配还是K8s+docker的组合,那么docker上存在的问题,在这个组合中也必然会存在
漏洞原理:在使用docker swarm的时候,节点上会开放一个TCP端口2375,绑定在0.0.0.0上,如果我们使用HTTP的方式访问会返回404 利用思路:通过挂在宿主机的目录,写定时任务获取SHELL,从而逃逸
访问ip:2375/version
payload
/var/run/docker.sock是 Docker守护程序默认监听的 Unix 套接字。它也是一个用于从容器内与Docker守护进程通信的工具 取自StackOverflowUnix Sockets 术语套接字通常是指 IP 套接字。这些是绑定到端口(和地址)的端口,我们向其发送 TCP 请求并从中获取响应。
另一种类型的 Socket 是 Unix Socket,这些套接字用于IPC(进程间通信)。它们也称为 Unix 域套接字 ( UDS )。Unix 套接字使用本地文件系统进行通信,而 IP 套接字使用网络。
Docker 守护进程可以通过三种不同类型的 Socket 监听 Docker Engine API 请求:unix, tcp, and fd. 默认情况下,在 /var/run/docker.sock 中创建一个 unix 域套接字(或 IPC 套接字)
随后在docker容器中安装docker
安装完成之后我们使用docker ps就可以看到宿主机上的容器了
将宿主机的根目录挂载到容器
可以看到宿主机root目录上的图片,反弹shell也是修改crontab即可
通过修改Crontab定时任务来反弹shell
- 一、前言
- 重新发一下,反馈发现图片顺序有些乱
- 二、k8s基础
- 1、Master
- 2、Node
- 3、Pod
- 三、k8s\-漏洞环境搭建
- 1、metarget
- 2、minikube
- 3、kind
- 四、Api Server 未授权访问\(8080与6443)
- 1、8080端口未授权访问
- 1、如何打开和关闭8080端口
- 2、执行命令\-通过kubectl \-s命令
- 3、获取service\-account\-token
- 3、获取宿主机权限\-通过k8s dashboard,创建特权Pods
- 2、6443端口\-system:anonymous错误配置
- 五、**k8s kubelet 10250端口未授权**
- 1、执行命令
- 2、获取凭证
- 3、一些问题
- 3.1、authorization.mode.AlwaysAllow
- 六、etcd未授权
- 为什么会出现etcd未授权
- 错误的配置\-\-client\-cert\-auth
- 证书泄露
- 如何安装指定版本的kubectl
- 七、k8s\+Docker会存在的问题
- 1、Docker API未授权
- 2、挂载docker.sock
- 2.1、什么是docker.sock
- 2.2、创建docker
- 2.3、复现
- 2.4、反弹shell
- 参考
git clone https:
/
/
github.com
/
Metarget
/
metarget.git
cd metaget
/
pip3 install
-
r requirements.txt
git clone https:
/
/
github.com
/
Metarget
/
metarget.git
cd metaget
/
pip3 install
-
r requirements.txt
yum install python3
-
pip
yum install python3
-
pip
.
/
metarget gadget install k8s
-
-
version
=
1.16
.
5
.
/
metarget gadget install k8s
-
-
version
=
1.16
.
5
brew install minikube
brew install minikube
minikube start
-
-
kubernetes
-
version
=
v1.
16.3
-
-
driver
=
vmware
minikube start
-
-
kubernetes
-
version
=
v1.
16.3
-
-
driver
=
vmware
minikube kubectl
-
-
get pods
-
A
minikube kubectl
-
-
get pods
-
A
minikube kubectl get node
minikube kubectl get node
minikube dashboard
minikube dashboard
kubectl run nginxfromuzju
-
-
image
=
nginx
-
-
port
=
1112
kubectl run nginxfromuzju
-
-
image
=
nginx
-
-
port
=
1112
curl
-
LO https:
/
/
storage.googleapis.com
/
kubernetes
-
release
/
release
/
v1.
23.6
/
bin
/
linux
/
amd64
/
kubectl
chmod
+
x .
/
kubectl
mv .
/
kubectl
/
usr
/
local
/
bin
/
kubectl
curl
-
LO https:
/
/
storage.googleapis.com
/
kubernetes
-
release
/
release
/
v1.
23.6
/
bin
/
linux
/
amd64
/
kubectl
chmod
+
x .
/
kubectl
mv .
/
kubectl
/
usr
/
local
/
bin
/
kubectl
wget https:
/
/
github.com
/
kubernetes
-
sigs
/
kind
/
releases
/
download
/
v0.
12.0
/
kind
-
darwin
-
amd64
chmod
+
x kind
-
darwin
-
amd64
mv .
/
kind
-
darwin
-
amd64
/
usr
/
local
/
bin
/
kind
wget https:
/
/
github.com
/
kubernetes
-
sigs
/
kind
/
releases
/
download
/
v0.
12.0
/
kind
-
darwin
-
amd64
chmod
+
x kind
-
darwin
-
amd64
mv .
/
kind
-
darwin
-
amd64
/
usr
/
local
/
bin
/
kind
kind create cluster
-
-
name k8s
kind create cluster
-
-
name k8s
kind: Cluster
apiVersion: kind.x
-
k8s.io
/
v1alpha4
name: k8suzju
#集群名
nodes:
#节点配置,如下,启动一个master节点,一个worker节点
-
role: control
-
plane
#master节点
image: kindest
/
node:v1.
21.1
#指定镜像,同 kind create cluster参数--image
extraPortMappings:
-
containerPort:
6443
hostPort:
26443
listenAddress:
"0.0.0.0"
protocol: tcp
#默认值,可不设置
-
role: worker
kind: Cluster
apiVersion: kind.x
-
k8s.io
/
v1alpha4
name: k8suzju
#集群名
nodes:
#节点配置,如下,启动一个master节点,一个worker节点
-
role: control
-
plane
#master节点
image: kindest
/
node:v1.
21.1
#指定镜像,同 kind create cluster参数--image
extraPortMappings:
-
containerPort:
6443
hostPort:
26443
listenAddress:
"0.0.0.0"
protocol: tcp
#默认值,可不设置
-
role: worker
kind create cluster
-
-
config k8s.yaml
kind create cluster
-
-
config k8s.yaml
kubectl get node
kubectl get node
kubectl run nginxfromuzju
-
-
image
=
nginx
-
-
port
=
1112
kubectl run nginxfromuzju
-
-
image
=
nginx
-
-
port
=
1112
cd
/
etc
/
kubernetes
/
manifests
vim kube
-
apiserver.yaml
cd
/
etc
/
kubernetes
/
manifests
vim kube
-
apiserver.yaml
-
-
-
insecure
-
port
=
8080
-
-
-
insecure
-
bind
-
address
=
0.0
.
0.0
systemctl restart kubelet
-
-
-
insecure
-
port
=
8080
-
-
-
insecure
-
bind
-
address
=
0.0
.
0.0
systemctl restart kubelet
kubectl
-
s ip:
8080
get node
kubectl
-
s ip:
8080
get node
kubectl
-
s
127.0
.
0.1
:
8080
get pods
kubectl
-
s
127.0
.
0.1
:
8080
get pods
kubectl
-
s
127.0
.
0.1
:
8080
-
-
namespace
=
default
exec
-
it nginxfromuzju
-
59595f6ffc
-
p8xvk bash
kubectl
-
s
127.0
.
0.1
:
8080
-
-
namespace
=
default
exec
-
it nginxfromuzju
-
59595f6ffc
-
p8xvk bash
/
api
/
v1
/
namespaces
/
kube
-
system
/
secrets
/
/
api
/
v1
/
namespaces
/
kube
-
system
/
secrets
/
wget https:
/
/
raw.githubusercontent.com
/
kubernetes
/
dashboard
/
v2.
2.0
/
aio
/
deploy
/
recommended.yaml
vim recommended.yam
wget https:
/
/
raw.githubusercontent.com
/
kubernetes
/
dashboard
/
v2.
2.0
/
aio
/
deploy
/
recommended.yaml
vim recommended.yam
-
-
-
enable
-
skip
-
login
-
-
-
insecure
-
bind
-
address
=
0.0
.
0.0
kubectl
apply
-
f recommended.yaml
-
-
-
enable
-
skip
-
login
-
-
-
insecure
-
bind
-
address
=
0.0
.
0.0
kubectl
apply
-
f recommended.yaml
wget https:
/
/
gist.githubusercontent.com
/
tejaswigk
/
da57d7911284cbf56e7f99af0afd6884
/
raw
/
de38da2a7619890a72d643d2bbd94278221e5977
/
insecure
-
kubernetes
-
dashboard.yml
kubectl
apply
-
f insecure
-
kubernetes
-
dashboard.yml
kubectl
-
n kubernetes
-
dashboard port
-
forward svc
/
kubernetes
-
dashboard
9090
:
80
wget https:
/
/
gist.githubusercontent.com
/
tejaswigk
/
da57d7911284cbf56e7f99af0afd6884
/
raw
/
de38da2a7619890a72d643d2bbd94278221e5977
/
insecure
-
kubernetes
-
dashboard.yml
kubectl
apply
-
f insecure
-
kubernetes
-
dashboard.yml
kubectl
-
n kubernetes
-
dashboard port
-
forward svc
/
kubernetes
-
dashboard
9090
:
80
kubectl
-
n kubernetes
-
dashboard port
-
forward svc
/
kubernetes
-
dashboard
-
-
address
0.0
.
0.0
9090
:
80
kubectl
-
n kubernetes
-
dashboard port
-
forward svc
/
kubernetes
-
dashboard
-
-
address
0.0
.
0.0
9090
:
80
kubectl
-
n kubernetes
-
dashboard port
-
forward svc
/
kubernetes
-
dashboard
-
-
address
0.0
.
0.0
9090
:
443
kubectl
-
n kubernetes
-
dashboard port
-
forward svc
/
kubernetes
-
dashboard
-
-
address
0.0
.
0.0
9090
:
443
sudo vim account.yaml
# Creating a Service Account
apiVersion: v1
kind: ServiceAccount
metadata:
name: admin
-
user
namespace: kubernetes
-
dashboard
-
-
-
# Creating a ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io
/
v1
kind: ClusterRoleBinding
metadata:
name: admin
-
user
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: cluster
-
admin
subjects:
-
kind: ServiceAccount
name: admin
-
user
namespace: kubernetes
-
dashboard
kubectl
apply
-
f account.yaml
# 获取token
kubectl
-
n kubernetes
-
dashboard get secret $(kubectl
-
n kubernetes
-
dashboard get sa
/
admin
-
user
-
o jsonpath
=
"{.secrets[0].name}"
)
-
o go
-
template
=
"{{.data.token | base64decode}}"
sudo vim account.yaml
# Creating a Service Account
apiVersion: v1
kind: ServiceAccount
metadata:
name: admin
-
user
namespace: kubernetes
-
dashboard
-
-
-
# Creating a ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io
/
v1
kind: ClusterRoleBinding
metadata:
[培训]内核驱动高级班,冲击BAT一流互联网大厂工作,每周日13:00-18:00直播授课