用于集群远程访问的 Kube 配置和证书

问题描述

为了学习目的,我在 GCP 上使用 Kube-adm 创建了一个集群。一切正常,但我每次都需要使用 gcloud 命令进行连接以管理我的集群:

gcloud beta compute ssh --zone "europe-west1-b" "kevin@master-1" --project "test-kubernetes-xxx"

我想配置我的本地配置文件以远程访问我的集群。所以我已经把kube配置内容复制到了我本地配置文件的外部节点IP地址:

apiVersion: v1
clusters:
- cluster:
    certificate-authority-data: LS0tLS1CRUd.........
    server: https://35.xxx.xxx.xx:6443
  name: kubernetes

contexts:
- context:
    cluster: kubernetes
    user: kubernetes-admin
  name: kubernetes-admin@kubernetes

current-context: kubernetes-admin@kubernetes
kind: Config
preferences: {}

users:
- name: kubernetes-admin
  user:
    client-certificate-data: LS0tLS1CRUdJTiBDRV..........
    client-key-data: LS0tLS1CRUdJ...........

但是当我尝试运行 kubectl 命令 kubectl get nodes 时出现此错误

Unable to connect to the server: x509: certificate is valid for 10.96.0.1,10.132.0.2,not 35.xxx.xxx.xx

似乎生成的证书仅适用于内部 IP,而不适用于外部 IP 地址。

如何使其与外部 IP 地址一起使用并允许我远程连接到我的集群?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)