Стоит ли создавать отказоустойчивый кластер на собственном железе на базе Ванильного Кубера (3 мастера + N воркеров) или лучше пользоваться решениями типа Microk8S / OpenStack / DeckHouse?
Правильная подготовка к переходу приложения в кубер от запуска в «голой» ос без контейнеров. Какие этапы? Технологии? Стоит ли сразу уходить в облако или поднимать свой кубер?
Если да, то на чем тренироваться перед переходом в managed решение в облаке? Как вообще понять, что пора проекту в кубер: какие метрики есть?
Подскажите, какой вы используете способ деплоя в k8s и какой способ правильный для 2024 года? Я использую обычный ci/cd с helm upgrade, стоит ли переходить на gitops подход с argocd/fluxcd?
Как сделать отказоустойчивый кластер k8s, если есть всего 2 ЦОДа? Необходимо чтобы при отключении любого ЦОДа все приложения продолжали работать.
Часто вижу в тематических чатах по «Кубу» сообщения, что многие разворачивают k8s кластер в виртуальных машинах (одну мощную «машину» делят на много мелких виртуалок).
Все это выглядит соблазнительно, но нет понимания как тогда обращаться к сервисам внутри этих самых виртуалок из интернета. Есть ли какая-нибудь рекомендация как это делают?
Как вы организуете безопасность в Kubernetes-кластерах на уровне сетевой политики и управления доступом (RBAC)?
Как вы реализуете сетевые политики для изоляции трафика между подами, особенно когда нужно разрешить доступ только внешнему сервису?
Сталкивались ли с проблемами в производительности или настройке при использовании ipBlock в Network Policy? Как решали?
На каком уровне должен разбираться в K8s системный аналитик?
Как по вашему лучше реализовывать сервис LoadBalancer в рамках bare-metal? (MetalLB, Calico/Cilium + BGP?).
Какие есть нюансы того или иного решения? Смотрю в сторону Calico+BGP
Какие правильные вопросы задавать и как разобраться в многообразии вариантов - ceph s3, ceph rbd, cephfs, glusterfs, cubefs, linstor, longhorn?..