Стратегія
000
Назад до каталогу

Приватна інфраструктурна платформа

Infrastructure Cluster

Приватний серверний кластер для CI/CD, GitOps, AI tooling і контрольованих dev-деплойментів

OpenTofuTerragruntProxmox VE

Огляд проєкту

Цей проєкт є нашою власною інфраструктурною основою: не одноцільовим сервером, а приватним серверним кластером, який ми реально використовуємо для CI/CD-експериментів, контрольованих dev-деплойментів, GitOps rollout'ів, quality tooling, внутрішніх сервісів і AI-agent workflows. Репозиторій показує зрілий поділ на шари. OpenTofu та Terragrunt моделюють Proxmox-підкладку й VM-compositions, Ansible відповідає за last-mile provisioning і hardening, K3s виступає container-platform, FluxCD керує cluster state, а спеціалізовані машини закривають інфраструктурні сервіси, Linux і Windows runners, development sandbox та окремий OpenClaw AI control plane. По суті це компактна внутрішня платформа, спроєктована так, щоб робити експерименти відтворюваними, середовища передбачуваними, а подальший операційний ріст керованим без потреби щоразу спиратися на публічні cloud-primitive'и.

Поверхні продукту

platform core

Platform Core

Базовий infrastructure-layer, який поєднує VM-compositions поверх Proxmox, generated inventory, K3s bootstrap, Flux-managed base applications, internal PKI, ingress, monitoring, storage і service-routing у межах приватного домену кластера.

platform core
Rendering Diagram
runner fleet

CI/CD Runner Fleet

Delivery-шар із Linux і Kubernetes GitLab runners, окремим Windows runner для Unity/.NET та важчих build-сценаріїв, shared caches, SonarQube integration і безпечною доставкою CA всередину runner-hosts та pod'ів.

runner fleet
Rendering Diagram
ai control plane

AI Control Plane

Виділена AI VM, яка запускає OpenClaw як thin agent-control plane, отримує vault-backed runtime-конфігурацію, валідує доступність моделей через NVIDIA NIM і залишається готовою до agent workflows, tool execution та майбутніх local-model experiments.

ai control plane
Rendering Diagram

Виклик

Перетворити приватний серверний контур з ad hoc machine-management у відтворювану внутрішню платформу, яка охоплює VM, Kubernetes, CI/CD runners, внутрішні сервіси й AI tooling.

Запустити експерименти, delivery і платформені сервіси на одному self-hosted substrate так, щоб secrets, GPU allocation, runner scope і service ownership не перетворилися на операційний хаос.

Зберегти систему достатньо extensible для нових workload'ів і середовищ, але водночас детермінованою, testable та підтримуваною як реальний engineering foundation.

Реалізація

Спроєктували root infrastructure layer на базі OpenTofu та bpg/proxmox provider, використавши окремі VM profiles, feature toggles, GPU hardware mapping і composition modules, які збирають K3s cluster разом із спеціалізованими машинами для infra-core, Linux runner, Windows runner, development sandbox та AI platform.

Використали Terragrunt як DRY multi-environment wrapper, а Taskfile як operational entrypoint для init, plan, apply, deploy, diagnostics і targeted update flows, щоб платформа мала зрозумілу щоденну operating-модель, а не набір розрізнених shell-команд.

Застосували Ansible саме як модульний provisioner, а не як монолітний config-dump: hardening, Docker, K3s, internal PKI, GitLab runners, Flutter/Android/Node/Go/PHP toolchains, AI-platform deployment та infrastructure services розбиті на окремі ролі з vault-backed variables і idempotent execution.

Побудували cluster і service layer навколо K3s, FluxCD, Cilium, Traefik, CloudNativePG, External Secrets і object-store backups, завдяки чому кластер поводиться радше як невелика внутрішня платформа, а не як набір машин із ручними патчами.

Додали повноцінні CI/CD та AI-capabilities через Linux і Kubernetes runners, Windows runner з optional GPU passthrough, SonarQube quality-gate integration, доставку CA у контейнери та pod'и й thin OpenClaw control plane, який валідує свою upstream NVIDIA model policy під час деплойменту.

Результат

Реальна self-hosted внутрішня платформа, яка підтримує CI/CD-експерименти, хостинг внутрішніх сервісів, AI-agent workflows і контрольовані developer deployments з одного підтримуваного codebase.

Чіткіший поділ між IaC, provisioning, cluster state і service operations, що робить платформу значно простішою для росту, ніж conventional private cluster, зібраний через manual drift.

Довгострокова база для нових продуктів та експериментів, тому що runners, ingress, databases, secret flows, monitoring і AI control surfaces вже на місці, а не перебудовуються з нуля під кожну ініціативу.

Чіткий технічний напрям. Гостріший delivery.

Наступна версія ваших систем починається тут.

Почніть із bottleneck, брифу або нестабільної архітектури. Ми допоможемо перетворити це на чистіший технічний шлях.