实用教程 | 云原生安全平台 NeuVector 部署

网友投稿 445 2022-11-03

实用教程 | 云原生安全平台 NeuVector 部署

作者简介万绍远,CNCF 基金会官方认证 Kubernetes CKA&CKS 工程师,云原生解决方案架构师。对 ceph、Openstack、Kubernetes、prometheus 技术和其他云原生相关技术有较深入的研究。参与设计并实施过多个金融、保险、制造业等多个行业 IaaS 和 PaaS 平台设计和应用云原生改造指导。

​前 言​

NeuVector 是业界首个端到端的开源容器安全平台,唯一为容器化工作负载提供企业级零信任安全的解决方案。本文将从以下 5 个方面详细介绍如何部署 NeuVector:

NeuVector 概览NeuVector 安装高可用架构设计多云安全管理其他配置

​1.NeuVector 概览​

NeuVector 致力于保障企业级容器平台安全,可以提供实时深入的容器网络可视化、东西向容器网络监控、主动隔离和保护、容器主机安全以及容器内部安全,容器管理平台无缝集成并且实现应用级容器安全的自动化,适用于各种云环境、跨云或者本地部署等容器生产环境。

2021年, NeuVector 被 SUSE 收购,并在 2022 年 1 月完成开源,​​成为业界首个端到端的开源容器安全平台​​,唯一为容器化工作负载提供企业级零信任安全的解决方案。

项目地址:NeuVector 首个开源版 NeuVector:5.0.0-preview.1 进行介绍。

​1.1. 架构解析​

NeuVector 本身包含 Controller、Enforcer、Manager、Scanner 和 Updater 模块。

Controller :整个 NeuVector 的控制模块,API 入口,包括配置下发,高可用主要考虑 Controller 的 HA ,通常建议部署 3 个 Controller 模块组成集群。Enforcer :主要用于安全策略部署下发和执行,DaemonSet 类型会在每个节点部署。Manager:提供 web-UI(仅HTTPS) 和 CLI 控制台,供用户管理 NeuVector 。Scanner :对节点、容器、Kubernetes 、镜像进行 CVE 漏洞扫描Updater :cronjob ,用于定期更新 CVE 漏洞库

​1.2.主要功能概览​

安全漏洞扫描容器网络流量可视化网络安全策略定义L7 防火墙CICD 安全扫描合规分析

本文重点介绍安装部署,具体功能将在后续文章中深入介绍。

​2.NeuVector 安装​

安装环境

软件版本:

OS:Ubuntu18.04

Kubernetes:1.20.14

Rancher:2.5.12

Docker:19.03.15

NeuVector:5.0.0-preview.1

​2.1. 快速部署​

创建 namespace

kubectl create namespace neuvector

部署 CRD( Kubernetes 1.19+ 版本)

kubectl apply -f CRD(Kubernetes 1.18或更低版本)

kubectl apply -f RBAC

kubectl create clusterrole neuvector-binding-app --verb=get,list,watch,update --resource=nodes,pods,services,namespaceskubectl create clusterrole neuvector-binding-rbac --verb=get,list,watch --resource=rolebindings.rbac.authorization.k8s.io,roles.rbac.authorization.k8s.io,clusterrolebindings.rbac.authorization.k8s.io,clusterroles.rbac.authorization.k8s.iokubectl create clusterrolebinding neuvector-binding-app --clusterrole=neuvector-binding-app --serviceaccount=neuvector:defaultkubectl create clusterrolebinding neuvector-binding-rbac --clusterrole=neuvector-binding-rbac --serviceaccount=neuvector:defaultkubectl create clusterrole neuvector-binding-admission --verb=get,list,watch,create,update,delete --resource=validatingwebhookconfigurations,mutatingwebhookconfigurationskubectl create clusterrolebinding neuvector-binding-admission --clusterrole=neuvector-binding-admission --serviceaccount=neuvector:defaultkubectl create clusterrole neuvector-binding-customresourcedefinition --verb=watch,create,get --resource=customresourcedefinitionskubectl create clusterrolebinding neuvector-binding-customresourcedefinition --clusterrole=neuvector-binding-customresourcedefinition --serviceaccount=neuvector:defaultkubectl create clusterrole neuvector-binding-nvsecurityrules --verb=list,delete --resource=nvsecurityrules,nvclustersecurityruleskubectl create clusterrolebinding neuvector-binding-nvsecurityrules --clusterrole=neuvector-binding-nvsecurityrules --serviceaccount=neuvector:defaultkubectl create clusterrolebinding neuvector-binding-view --clusterrole=view --serviceaccount=neuvector:defaultkubectl create rolebinding neuvector-admin --clusterrole=admin --serviceaccount=neuvector:default -n neuvector

检查是否有以下 RBAC 对象

kubectl get clusterrolebinding | grep neuvectorkubectl get rolebinding -n neuvector | grep neuvectorkubectl get clusterrolebinding | grep neuvectorneuvector-binding-admission ClusterRole/neuvector-binding-admission 44hneuvector-binding-app ClusterRole/neuvector-binding-app 44hneuvector-binding-customresourcedefinition ClusterRole/neuvector-binding-customresourcedefinition 44hneuvector-binding-nvadmissioncontrolsecurityrules ClusterRole/neuvector-binding-nvadmissioncontrolsecurityrules 44hneuvector-binding-nvsecurityrules ClusterRole/neuvector-binding-nvsecurityrules 44hneuvector-binding-nvwafsecurityrules ClusterRole/neuvector-binding-nvwafsecurityrules 44hneuvector-binding-rbac ClusterRole/neuvector-binding-rbac 44hneuvector-binding-view ClusterRole/view 44h

kubectl get rolebinding -n neuvector | grep neuvectorneuvector-admin ClusterRole/admin 44hneuvector-binding-psp Role/neuvector-binding-psp 44h

部署 NeuVector

底层 Runtime 为 Docker

kubectl apply -f Runtime 为 Containerd(对于 k3s 和 rke2 可以使用此 yaml 文件)

kubectl apply -f 以下的 Kubernetes 版本会提示以下错误,将 yaml 文件下载将 batch/v1 修改为 batch/v1beta1

error: unable to recognize "no matches for kind "CronJob" in version "batch/v1"

1.20.x cronjob 还处于 beta 阶段,1.21 版本开始 cronjob 才正式 GA 。

默认部署web-ui使用的是loadblance类型的Service,为了方便访问修改为NodePort,也可以通过 Ingress 对外提供服务

kubectl patch svc neuvector-service-webui -n neuvector --type='json' -p '[{"op":"replace","path":"/spec/type","value":"NodePort"},{"op":"add","path":"/spec/ports/0/nodePort","value":30888}]'

访问 admin/admin

​2.2. Helm 部署​

添加 repo

helm repo add neuvector search repo neuvector/core

创建 namespace

kubectl create namespace neuvector

创建 ServiceAccount

kubectl create serviceaccount neuvector -n neuvector

helm 安装

helm install neuvector --namespace neuvector neuvector/core --set registry=docker.io --settag=5.0.0-preview.1 --set=controller.image.repository=neuvector/controller.preview --set=enforcer.image.repository=neuvector/enforcer.preview --set manager.image.repository=neuvector/manager.preview --set cve.scanner.image.repository=neuvector/scanner.preview --set cve.updater.image.repository=neuvector/updater.preview

Helm-chart 参数查看:

​​高可用架构设计​

NeuVector-HA 主要需要考虑 Controller 模块的 HA,只要有一个 Controller 处于打开状态,所有数据都将在 3 个副本之间之间同步。

Controller 数据主要存储在 /var/neuvector/ 目录中,但出现 POD 重建或集群重新部署时,会自动从此目录加载备份文件,进行集群恢复。

​3.1.部署策略​

NeuVector 官方提供四种 HA 部署模式

方式一:不进行任何调度限制,由 Kubernetes 进行自由调度管理管理。

方式二:NeuVector control 组件 (manager,controller)+enforce、scanner组件配置调度 label 限制和污点容忍,与 Kubernetes master 节点部署一起。

方式三:给 Kubernetes 集群中通过 Taint 方式建立专属的 NeuVector 节点,只允许 Neuvector control 组件部署。

方式四:NeuVector control 组件 (manager,controller)配置调度 label 限制和污点容忍,与 Kubernetes master 节点部署一起。k8s-master 不部署 enforce 和 scanner 组件,意味着 master 节点不在接受扫描和策略下发。

以方式二为例,进行部署

给 master 节点打上特定标签

kubectl label nodes nodename nvcontroller=true

获取节点 Taint

kubectl get node nodename -o yaml|grep -A 5 taint

以 Rancher 部署的节点 master 节点为例

taints: - effect: NoSchedule key: node-role.kubernetes.io/controlplane value: "true" - effect: NoExecute key: node-role.kubernetes.io/etcd

编辑部署的 yaml 给 NeuVector-control 组件(manager,controller)添加 nodeSelector 和 tolerations 给 enforce、scanner 组件只添加 tolerations 。

例如以 manager 组件为例:

kind: Deploymentmetadata: name: neuvector-manager-pod namespace: neuvectorspec: selector: matchLabels: app: neuvector-manager-pod replicas: 1 template: metadata: labels: app: neuvector-manager-pod spec: nodeSelector: nvcontroller: "true" containers: - name: neuvector-manager-pod image: neuvector/manager.preview:5.0.0-preview.1 env: - name: CTRL_SERVER_IP value: neuvector-svc-controller.neuvector restartPolicy: Always tolerations: - effect: NoSchedule key: "node-role.kubernetes.io/controlplane" operator: Equal value: "true" - effect: NoExecute operator: "Equal" key: "node-role.kubernetes.io/etcd" value: "true"

​3.2.数据持久化​

配置环境变量启用配置数据持久化

- env: - name: CTRL_PERSIST_CONFIG

配置此环境变量后,默认情况下 NeuVector-Controller 会将数据存储在 /var/neuvector 目录内,默认此目录是 hostpath 映射在 POD 所在宿主机的 /var/neuvector 目录内。

若需要更高级别数据可靠性也可以通过 PV 对接 nfs 或其他支出多读写的存储中。

这样当出现 NeuVector-Controller 三个 POD 副本同时都销毁,宿主机都完全不可恢复时,也不会有数据配置数据丢失。

以下以 NFS 为例。

部署 nfs

创建 pv 和 pvc

cat <

修改 NeuVector-Controller 部署 yaml,添加 pvc 信息,将 /var/neuvector 目录映射到 nfs 中(默认是hostpath映射到本地)

spec: template: spec: volumes: - name: nv-share# hostPath: // replaced by persistentVolumeClaim# path: /var/neuvector // replaced by persistentVolumeClaim persistentVolumeClaim: claimName: neuvector-data

或直接在 NeuVector 部署 yaml 中挂载 nfs 目录

volumes: - name: nv-share nfs: path: /opt/nfs-deployment server: 172.26.204.144

​4.多云安全管理​

在实际生产应用中,会存在对多个集群进行安全进行管理,NeuVector 支持集群联邦功能。

需要在一个集群上暴露 Federation Master 服务,在每个远端集群上部署 Federation Worker 服务。为了更好的灵活性,可以在每个集群同时启用 Federation Master 和 Federation Worker 服务。

在每个集群部署此 yaml

apiVersion: v1kind: Servicemetadata: name: neuvector-service-controller-fed-master namespace: neuvectorspec: ports: - port: 11443 name: fed nodePort: 30627 protocol: TCP type: NodePort selector: app: neuvector-controller-pod---apiVersion: v1kind: Servicemetadata: name: neuvector-service-controller-fed-worker namespace: neuvectorspec: ports: - port: 10443 name: fed nodePort: 31783 protocol: TCP type: NodePort selector: app: neuvector-controller-pod

将其中一个集群升级为主集群

将其中一个集群升级为主集群,配置连接远程暴露 ip 和对 remot cluster 可达的端口。

在主集群中,生成 token,用于其他 remote cluster 连接。

在 remote cluster 中配置加入主集群,配置 token 和连接端子

在界面可以对多个 NeuVector 集群进行管理

​5.其他配置​

​5.1.升级​

若是采用 yaml 文件方式部署的 NeuVector 直接更新对应的组件镜像 tag 即可完成升级。如

kubectl set imagedeployment/neuvector-controller-podneuvector-controller-pod=neuvector/controller:2.4.1 -n neuvector

kubectl set image -n neuvectords/neuvector-enforcer-pod neuvector-enforcer-pod=neuvector/enforcer:2.4.1

若是采用 Helm 部署的 NeuVector,则直接执行 helm update 配置对应参数即可。

​5.2.卸载​

删除部署的组件

kubectl delete -f RBAC

kubectl get clusterrolebinding | grep neuvector|awk '{print $1}'|xargs kubectl delete clusterrolebinding

kubectl get rolebinding -n neuvector | grep neuvector|awk '{print $1}'|xargs kubectl delete rolebinding -n neuvector

删除对应的 CRD

kubectl delete -f delete -f delete -f 此次开源的 NeuVector 是一个成熟稳定的容器安全管理平台,未来 NeuVector 会和 Rancher 产品更好地融合。

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:玩转SQLite7:基本语法与数据类型
下一篇:教你通过B+Tree平衡多叉树理解InnoDB引擎的聚集和非聚集索引
相关文章

 发表评论

暂时没有评论,来抢沙发吧~