Открытые консультации по Kubernetes от архитекторов Southbridge
Лекций по кубу в интернете много, а желающих потратить время и разобрать ваши вопросы — мало. Мы решили это исправить! Запускаем цикл мероприятий, где наши архитекторы ответят на ваши вопросы.
Записи вебинаров и статьи от наших инженеров. Говорим про эксплуатацию, DevOps и управление командами.
Бесплатные материалы
Предыдущие встречи
https://vk.com/video/@slurm_io?z=video-59405817_456239123%2Fclub59405817; Архитекторы Southbridge про Kubernetes; 63:44.
https://vk.com/video-59405817_456239148?list=82ea74c2b40608b0b4; Открытая консультация по Kubernetes от архитекторов Southbridge; 50:40.
Архитекторы Southbridge обсуждают важные практические аспекты работы с Kubernetes, которые нужно учитывать при проектировании и управлении кластерами. Эксперты отвечают на вопросы аудитории, делятся рекомендациями и обсуждают проблемы, с которыми сталкиваются пользователи Kubernetes.
Если у вас есть вопросы по общей настройке и установке kubernetes, точечные проблемы с настройкой кластеров или широкие и концептуальные вопросы об использовании кубернетес — можете задать их в форме, и мы поговорим про это в следующем выпуске.
Стоит ли создавать отказоустойчивый кластер на собственном железе на базе Ванильного Кубера (3 мастера + N воркеров) или лучше пользоваться решениями типа Microk8S / OpenStack / DeckHouse?
Правильная подготовка к переходу приложения в кубер от запуска в «голой» ос без контейнеров. Какие этапы? Технологии? Стоит ли сразу уходить в облако или поднимать свой кубер?
Если да, то на чем тренироваться перед переходом в managed решение в облаке? Как вообще понять, что пора проекту в кубер: какие метрики есть?
Подскажите, какой вы используете способ деплоя в k8s и какой способ правильный для 2024 года? Я использую обычный ci/cd с helm upgrade, стоит ли переходить на gitops подход с argocd/fluxcd?
Как сделать отказоустойчивый кластер k8s, если есть всего 2 ЦОДа? Необходимо чтобы при отключении любого ЦОДа все приложения продолжали работать.
Часто вижу в тематических чатах по «Кубу» сообщения, что многие разворачивают k8s кластер в виртуальных машинах (одну мощную «машину» делят на много мелких виртуалок). Все это выглядит соблазнительно, но нет понимания как тогда обращаться к сервисам внутри этих самых виртуалок из интернета. Есть ли какая-нибудь рекомендация как это делают?
Как вы организуете безопасность в Kubernetes-кластерах на уровне сетевой политики и управления доступом (RBAC)?
Как вы реализуете сетевые политики для изоляции трафика между подами, особенно когда нужно разрешить доступ только внешнему сервису? Сталкивались ли с проблемами в производительности или настройке при использовании ipBlock в Network Policy? Как решали?
На каком уровне должен разбираться в K8s системный аналитик?
Как по вашему лучше реализовывать сервис LoadBalancer в рамках bare-metal? (MetalLB, Calico/Cilium + BGP?). Какие есть нюансы того или иного решения? Смотрю в сторону Calico+BGP
Какие правильные вопросы задавать и как разобраться в многообразии вариантов - ceph s3, ceph rbd, cephfs, glusterfs, cubefs, linstor, longhorn?..
Southbridge – DevOps-аутсорсер
Напишите нам в Тelegram @southbridge_team, чтобы обсудить проект, задачу или задать вопрос.