k8s - Использование Promethues с cAdvisor для мониторинга данных микросервиса / Pod

Я использую Prometheus operator в новом кластере Kubernetes и пытаюсь получить сведения о контейнере. Панель запросов Prometheus не предоставляет никаких данных контейнера, когда я смотрю на цель, я вижу следующее

введите здесь описание изображения

Возможно, это из-за ролей, но я не уверен, так как я новичок в этой теме, я также видел это: https://github.com/coreos/prometheus-operator/issues/867, и я добавляю authentication-token-webhook, который не помогает, но, возможно, я сделал это не в нужном месте. ..

Есть идеи, что мне здесь не хватает?

моя конфигурация operator.yml выглядит следующим образом

apiVersion: rbac.authorization.k8s.io/v1beta1
kind: ClusterRoleBinding
metadata:
  name: prometheus-operator
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: prometheus-operator
subjects:
- kind: ServiceAccount
  name: prometheus-operator
  namespace: default
---
apiVersion: rbac.authorization.k8s.io/v1beta1
kind: ClusterRole
metadata:
  name: prometheus-operator
rules:
- apiGroups:
  - extensions
  resources:
  - thirdpartyresources
  verbs:
  - "*"
- apiGroups:
  - apiextensions.k8s.io
  resources:
  - customresourcedefinitions
  verbs:
  - "*"
- apiGroups:
  - monitoring.coreos.com
  resources:
  - alertmanagers
  - prometheuses
  - prometheuses/finalizers
  - servicemonitors
  verbs:
  - "*"
- apiGroups:
  - apps
  resources:
  - statefulsets
  verbs: ["*"]
- apiGroups: [""]
  resources:
  - configmaps
  - secrets
  verbs: ["*"]
- apiGroups: [""]
  resources:
  - pods
  verbs: ["list", "delete"]
- apiGroups: [""]
  resources:
  - services
  - endpoints
  verbs: ["get", "create", "update"]
- apiGroups: [""]
  resources:
  - nodes
  verbs: ["list", "watch"]
- apiGroups: [""]
  resources:
  - namespaces
  verbs: ["list"]
---
apiVersion: v1
kind: ServiceAccount
metadata:
  name: prometheus-operator
---
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  labels:
    k8s-app: prometheus-operator
  name: prometheus-operator
spec:
  replicas: 1
  template:
    metadata:
      labels:
        k8s-app: prometheus-operator
    spec:
      containers:
      - args:
        - --kubelet-service=kube-system/kubelet
        - --config-reloader-image=quay.io/coreos/configmap-reload:v0.0.1
        - --authentication-token-webhook=true
        - --extra-config=kubelet.authentication-token-webhook=true
        image: quay.io/coreos/prometheus-operator:v0.17.0
        name: prometheus-operator
        ports:
        - containerPort: 8080
          name: http
        resources:
          limits:
            cpu: 200m
            memory: 100Mi
          requests:
            cpu: 100m
            memory: 50Mi
      securityContext:
        runAsNonRoot: true
        runAsUser: 65534
      serviceAccountName: prometheus-operator

мой rbac выглядит следующим образом

---
apiVersion: v1
kind: ServiceAccount
metadata:
  name: prometheus
---
apiVersion: rbac.authorization.k8s.io/v1beta1
kind: ClusterRole
metadata:
  name: prometheus
rules:
- apiGroups: [""]
  resources:
  - nodes
  - services
  - endpoints
  - pods
  verbs: ["get", "list", "watch"]
- apiGroups: [""]
  resources:
  - configmaps
  verbs: ["get"]
- nonResourceURLs: ["/metrics"]
  verbs: ["get"]
---
apiVersion: rbac.authorization.k8s.io/v1beta1
kind: ClusterRoleBinding
metadata:
  name: prometheus
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: prometheus
subjects:
- kind: ServiceAccount
  name: prometheus
  namespace: default
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  name: prometheus-k8s
rules:
  - apiGroups:
      - ""
    resources:
      - nodes/metrics
    verbs:
      - get
  - nonResourceURLs:
      - /metrics
    verbs:
      - get

Если какой-то файл конфигурации отсутствует, дайте мне знать, и я добавлю его.




Ответы (1)


Добавьте указанные ниже параметры в конфигурацию kubelet на каждом рабочем узле.

--authentication-token-webhook=true
--extra-config=kubelet.authorization-mode=Webhook

затем запустите следующие команды

systemctl daemon-reload
systemctl restart kubelet
person P Ekambaram    schedule 11.02.2019
comment
Спасибо, что вы имеете в виду под рабочим узлом? я должен добавить это в какой-нибудь ямл или что-то в этом роде? а где мне запускать команды systemctl? - person Jenny M; 11.02.2019
comment
Привет, я создал кластер и применил эти файлы, drive.google.com / диск / папки /, не могли бы вы взглянуть? - person Jenny M; 11.02.2019
comment
любая идея, чего может не хватать? - person Jenny M; 11.02.2019
comment
работаю в тесной сети. не могу получить доступ к Google Диску. вам необходимо добавить параметры аутентификации и дополнительные параметры конфигурации в файл конфигурации kubelet. С включенным веб-перехватчиком prometheus сможет очищать метрики cadvisor с узла. Именно это я и сделал в своем кластере. оно работает. - person P Ekambaram; 11.02.2019
comment
если ваш кластер находится на RHEL или centos, вам необходимо добавить указанные выше параметры в следующий файл (/etc/systemd/system/kubelet.service) - person P Ekambaram; 11.02.2019