Мы используем куки

Открытые консультации по Kubernetes от архитекторов Southbridge

Лекций по кубу в интернете много, а желающих потратить время и разобрать ваши вопросы — мало. Мы решили это исправить! Запускаем цикл мероприятий, где наши архитекторы ответят на ваши вопросы.
Записи вебинаров и статьи от наших инженеров. Говорим про эксплуатацию, DevOps и управление командами.
Бесплатные материалы

Предыдущие встречи

О чем говорим

Эксперты Southbridge

Архитекторы Southbridge обсуждают важные практические аспекты работы с Kubernetes, которые нужно учитывать при проектировании и управлении кластерами. Эксперты отвечают на вопросы аудитории, делятся рекомендациями и обсуждают проблемы, с которыми сталкиваются пользователи Kubernetes.
Если у вас есть вопросы по общей настройке и установке kubernetes, точечные проблемы с настройкой кластеров или широкие и концептуальные вопросы об использовании кубернетес — можете задать их в форме, и мы поговорим про это в следующем выпуске.

Примеры вопросов от зрителей

Стоит ли создавать отказоустойчивый кластер на собственном железе на базе Ванильного Кубера (3 мастера + N воркеров) или лучше пользоваться решениями типа Microk8S / OpenStack / DeckHouse?
Правильная подготовка к переходу приложения в кубер от запуска в «голой» ос без контейнеров. Какие этапы? Технологии? Стоит ли сразу уходить в облако или поднимать свой кубер?

Если да, то на чем тренироваться перед переходом в managed решение в облаке? Как вообще понять, что пора проекту в кубер: какие метрики есть?
Подскажите, какой вы используете способ деплоя в k8s и какой способ правильный для 2024 года? Я использую обычный ci/cd с helm upgrade, стоит ли переходить на gitops подход с argocd/fluxcd?
Как сделать отказоустойчивый кластер k8s, если есть всего 2 ЦОДа? Необходимо чтобы при отключении любого ЦОДа все приложения продолжали работать.
Часто вижу в тематических чатах по «Кубу» сообщения, что многие разворачивают k8s кластер в виртуальных машинах (одну мощную «машину» делят на много мелких виртуалок).
Все это выглядит соблазнительно, но нет понимания как тогда обращаться к сервисам внутри этих самых виртуалок из интернета. Есть ли какая-нибудь рекомендация как это делают?
Как вы организуете безопасность в Kubernetes-кластерах на уровне сетевой политики и управления доступом (RBAC)?
Как вы реализуете сетевые политики для изоляции трафика между подами, особенно когда нужно разрешить доступ только внешнему сервису?
Сталкивались ли с проблемами в производительности или настройке при использовании ipBlock в Network Policy? Как решали?
На каком уровне должен разбираться в K8s системный аналитик?
Как по вашему лучше реализовывать сервис LoadBalancer в рамках bare-metal? (MetalLB, Calico/Cilium + BGP?).
Какие есть нюансы того или иного решения? Смотрю в сторону Calico+BGP
Какие правильные вопросы задавать и как разобраться в многообразии вариантов - ceph s3, ceph rbd, cephfs, glusterfs, cubefs, linstor, longhorn?..

Southbridge – DevOps-аутсорсер

Напишите нам в Тelegram @southbridge_team, чтобы обсудить проект, задачу или задать вопрос.
Обслуживаем высоконагруженные проекты
Детальнее с нами и нашей работой можно познакомиться здесь:
Внедряем Kubernetes с 2018 года
Создали учебный центр Слёрм и первые в России курсы по Kubernetes