otel-front
https://github.com/mesaglio/otel-front
A lightweight, single-binary OpenTelemetry viewer for local development. Visualize traces, logs, and metrics from your instrumented applications — no Docker, no databases, no complex setup.
https://github.com/mesaglio/otel-front
scion
https://github.com/GoogleCloudPlatform/scion
Run multiple agents in parallel — each in its own container, with its own workspace, collaborating on your code or project files simultaneously.
https://github.com/GoogleCloudPlatform/scion
atomic
https://github.com/kenforthewin/atomic
A personal knowledge base that turns markdown notes into a semantically-connected, AI-augmented knowledge graph.
Atomic stores knowledge as atoms — markdown notes that are automatically chunked, embedded, tagged, and linked by semantic similarity. Your atoms can be synthesized into wiki articles, explored on a spatial canvas, and queried through an agentic chat interface.
https://github.com/kenforthewin/atomic
Inside a Self-Hosted AI Coding Assistant: Architecture, Kubernetes Deployment, and llama.cpp Parallelism
https://medium.com/@ferraricorneloup.teo/inside-a-self-hosted-ai-coding-assistant-architecture-kubernetes-deployment-and-llama-cpp-158330a12441
More and more enterprises want the benefits of AI-assisted coding, automatic completions, suggestions, and inline generation, without sending their source code to external APIs.
This has naturally increased interest in self-hosted coding assistants, where all inference runs on internal hardware and all models stay inside a controlled environment.
We built a complete prototype of such a system. In this article, we walk through its architecture, explain how Kubernetes is used to deploy it, and how different system parameters interact to determine real-world performance. In a separate post, we study how the llama.cpp inference server behaves under increasing load.
https://medium.com/@ferraricorneloup.teo/inside-a-self-hosted-ai-coding-assistant-architecture-kubernetes-deployment-and-llama-cpp-158330a12441
Ручные операции съедают время: каждый запуск, каждая база данных, каждое изменение требует участия инженера. В итоге падает скорость разработки, растёт нагрузка, а инфраструктура перестаёт масштабироваться вместе с продуктом.
На открытом уроке разберём:
- как подход self-service позволяет разработчикам самостоятельно запускать сервисы и инфраструктуру.
- gокажем, какие задачи можно автоматизировать уже сейчас и как снизить поток ручных запросов без потери контроля.
Урок проходит в преддверии старта курса «Инженер платформенной инфраструктуры» (Platform Engineer) . Если вы хотите убрать рутину и выстроить устойчивую инфраструктуру — подключайтесь.
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576, erid: 2Vtzqv8jAsh
Please open Telegram to view this post
VIEW IN TELEGRAM
How My Client Hit Linux Kernel Network Limits on AWS EKS
https://dev.to/datton94/how-my-client-hit-linux-kernel-network-limits-on-aws-eks-3am5
This is a story about a tricky issue I resolved recently.
https://dev.to/datton94/how-my-client-hit-linux-kernel-network-limits-on-aws-eks-3am5
Naition — трёхмесячный буткемп по AI-разработке для senior-инженеров
Программа рассчитана на middle/senior-инженеров с 5+ годами опыта, которые уже используют AI для типовых задач и готовы перейти к продвинутым практикам: агенты, кастомные MCP-серверы, контекст-инжиниринг на больших кодовых базах, мультиагентные пайплайны.
Формат — 15 живых вебинаров по 2–3 часа. Один урок: 10–30 минут теории, час разбора реального кейса, полтора часа самостоятельной практики с поддержкой экспертов.
В программе:
— контекст-инжиниринг и работа с большими кодовыми базами
— агенты vs workflow: автоматизация через Cursor, Claude Code, n8n
— MCP-серверы для подключения AI к внутренним системам (вики, БД, метрики)
— мультиагентные системы и оркестрация
— восстановление архитектуры незнакомых и legacy-проектов
— массовый рефакторинг: миграции версий языка, смена фреймворков
— разделение монолита на микросервисы с AI-ассистентом
— внедрение AI-практик в команде
Буткем будут вести практикующие топы Google, Yandex Cloud, Сбер и других компаний.
Старт 27 апреля. По промокоду DEVOPS — скидка 20%.
Зарегистрироваться и ознакомиться с буткемпом
Команда также подготовила бесплатный план по внедрению 40+ навыков ИИ-разработки — лежит тут.
Программа рассчитана на middle/senior-инженеров с 5+ годами опыта, которые уже используют AI для типовых задач и готовы перейти к продвинутым практикам: агенты, кастомные MCP-серверы, контекст-инжиниринг на больших кодовых базах, мультиагентные пайплайны.
Формат — 15 живых вебинаров по 2–3 часа. Один урок: 10–30 минут теории, час разбора реального кейса, полтора часа самостоятельной практики с поддержкой экспертов.
В программе:
— контекст-инжиниринг и работа с большими кодовыми базами
— агенты vs workflow: автоматизация через Cursor, Claude Code, n8n
— MCP-серверы для подключения AI к внутренним системам (вики, БД, метрики)
— мультиагентные системы и оркестрация
— восстановление архитектуры незнакомых и legacy-проектов
— массовый рефакторинг: миграции версий языка, смена фреймворков
— разделение монолита на микросервисы с AI-ассистентом
— внедрение AI-практик в команде
Буткем будут вести практикующие топы Google, Yandex Cloud, Сбер и других компаний.
Старт 27 апреля. По промокоду DEVOPS — скидка 20%.
Зарегистрироваться и ознакомиться с буткемпом
Команда также подготовила бесплатный план по внедрению 40+ навыков ИИ-разработки — лежит тут.
Startup CPU Boost in Kubernetes with In-Place Pod Resize
https://piotrminkowski.com/2025/12/22/startup-cpu-boost-in-kubernetes-with-in-place-pod-resize/
This article explains how to use the In-Place Pod Resize feature in Kubernetes, combined with Kube Startup CPU Boost, to speed up Java application startup.
https://piotrminkowski.com/2025/12/22/startup-cpu-boost-in-kubernetes-with-in-place-pod-resize/
dynamo
https://github.com/ai-dynamo/dynamo
The open-source, datacenter-scale inference stack. Dynamo is the orchestration layer above inference engines — it doesn't replace SGLang, TensorRT-LLM, or vLLM, it turns them into a coordinated multi-node inference system. Disaggregated serving, intelligent routing, multi-tier KV caching, and automatic scaling work together to maximize throughput and minimize latency for LLM, reasoning, multimodal, and video generation workloads.
https://github.com/ai-dynamo/dynamo
helm-exporter
https://github.com/sstarcher/helm-exporter
Exports helm release, chart, and version statistics in the prometheus format.
https://github.com/sstarcher/helm-exporter
Inside Adobe's OpenTelemetry pipeline: simplicity at scale
https://opentelemetry.io/blog/2026/devex-adobe
As part of an ongoing series, the Developer Experience SIG interviews organizations about their real-world OpenTelemetry Collector deployments to share practical lessons with the broader community. This post features Adobe, a global software company whose observability team has built an OpenTelemetry-based telemetry pipeline designed for simplicity at massive scale, with thousands of collectors running per signal type across the company’s infrastructure.
https://opentelemetry.io/blog/2026/devex-adobe
traceway
https://github.com/tracewayapp/traceway
Traceway is a self-hosted observability platform that ingests OpenTelemetry traces and metrics, groups exceptions automatically, and gives you endpoint performance, distributed tracing, and alerts — all in a single binary. No OTel Collector or separate time-series database required.
https://github.com/tracewayapp/traceway
lynxdb
https://github.com/lynxbase/lynxdb
Log analytics in a single binary. No dependencies. Lynx Flow query language.
https://github.com/lynxbase/lynxdb
🎥 Вебинар: «Ansible: быстрый старт»
О чём поговорим:
- Как работает Ansible: архитектура, принципы и основные компоненты.
- Настройка Ansible и запуск базовых плейбуков для автоматизации рутинных задач.
- Основы написания YAML-плейбуков: команды, задачи, модули и переменные.
- Практические возможности автоматизации настройки серверов и развёртывания приложений.
- Лучшая практика управления изменениями в DevOps-процессах.
Что вы получите:
- Освоите базовые возможности Ansible и начнёте уверенно использовать его в своей работе.
- Попробуйте, как автоматизировать рутинные задачи, сократить количество ошибок и повысить производительность.
- Используйте инструменты для быстрого запуска автоматизации.
👉 Для участия зарегистрируйтесь: https://vk.cc/cWZiNv
🎁 Все участники вебинара получат специальные условия на полное обучение курса «DevOps практики и инструменты»
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576, www.otus.ru, erid: 2VtzqvKvo9H
О чём поговорим:
- Как работает Ansible: архитектура, принципы и основные компоненты.
- Настройка Ansible и запуск базовых плейбуков для автоматизации рутинных задач.
- Основы написания YAML-плейбуков: команды, задачи, модули и переменные.
- Практические возможности автоматизации настройки серверов и развёртывания приложений.
- Лучшая практика управления изменениями в DevOps-процессах.
Что вы получите:
- Освоите базовые возможности Ansible и начнёте уверенно использовать его в своей работе.
- Попробуйте, как автоматизировать рутинные задачи, сократить количество ошибок и повысить производительность.
- Используйте инструменты для быстрого запуска автоматизации.
👉 Для участия зарегистрируйтесь: https://vk.cc/cWZiNv
🎁 Все участники вебинара получат специальные условия на полное обучение курса «DevOps практики и инструменты»
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576, www.otus.ru, erid: 2VtzqvKvo9H
cardamon
https://github.com/dominikhei/cardamon
Cardamon is a metric auditor for Prometheus. It identifies metrics that exist in your TSDB but are never actually queried by dashboards, alerting rules, recording rules, or any other consumer. You can then generate Prometheus drop rules to remove them and reduce storage need.
https://github.com/dominikhei/cardamon
versitygw
https://github.com/versity/versitygw
Versity Gateway, a simple to use tool for seamless inline translation between AWS S3 object commands and storage systems. The Versity Gateway bridges the gap between S3-reliant applications and other storage systems, enabling enhanced compatibility and integration while offering exceptional scalability.
https://github.com/versity/versitygw
Terragrunt 1.0 Released!
https://www.gruntwork.io/blog/terragrunt-1-0-released
After nearly a decade of development, over 900 releases, and tens of millions of infrastructure deployments by platform teams, today we're happy to announce that Terragrunt 1.0 is officially here.
https://www.gruntwork.io/blog/terragrunt-1-0-released
Little Snitch for Linux
https://obdev.at/products/littlesnitch-linux/index.html
Every time an application on your computer opens a network connection, it does so quietly, without asking. Little Snitch for Linux makes that activity visible and gives you the option to do something about it. You can see exactly which applications are talking to which servers, block the ones you didn't invite, and keep an eye on traffic history and data volumes over time.
https://obdev.at/products/littlesnitch-linux/index.html
kumo
https://github.com/sivchari/kumo
A lightweight AWS service emulator written in Go. Works as both a CI/CD testing tool and a local development server with optional data persistence.
https://github.com/sivchari/kumo