🚀 Claude Cowork: 90% возможностей, о которых вы не знали
Большинство людей открывают Claude Desktop, задают вопрос, получают ответ и закрывают приложение. На следующий день повторяют то же самое. И так неделями, не понимая, почему ничего толком не меняется в их продуктивности.
Проблема в том, что так используется от силы 10% того, на что способен Claude Cowork. Остальные 90% просто игнорируются. Давайте разберемся, что именно вы упускаете.
Что такое Claude Cowork на самом деле
Это не просто чат-интерфейс. Это десктопный ИИ, который умеет читать ваши файлы, подключаться к приложениям, запоминать ваши рабочие процессы и запускать задачи по расписанию, пока вы спите. Разница между тем, как большинство людей его используют, и тем, как он задуман, колоссальная.
Четыре вещи раскрывают весь потенциал: файл claude.md, навыки (skills), коннекторы и запланированные задачи. Большинство пользователей не трогали ни одну из них.
Шаг ноль: укажите Claude на папку
Без привязки к папке Claude начинает каждый разговор с чистого листа. Никакой памяти, никакого контекста, никакого понятия о том, кто вы и что строите. Он не может получить доступ к вашим файлам и не запускает пользовательские команды.
С папкой все иначе. Claude помнит, кто вы, автоматически загружает навыки, читает файлы и становится умнее после каждой сессии. Думайте о каждой папке как об отдельном телефоне. На рабочем стоит Slack, Gmail и календарь. На личном - планирование питания, бюджет, дневник. Отдельные папки, отдельные идентичности, отдельные рабочие процессы.
Файл claude.md: хватит объяснять одно и то же каждый день
Каждый раз, когда вы открываете Claude, он понятия не имеет, кто вы. Ваш бизнес, ваш тон, ваши правила, чего избегать - все это приходится объяснять заново. Файл claude.md решает эту проблему раз и навсегда. Это обычный текстовый файл, который Claude читает до того, как прочитает хоть слово из вашего сообщения. Настраиваете один раз - и он никогда не забывает.
Skills: научите Claude один раз, он запомнит навсегда
Навыки (skills) - это пользовательские команды, которые запускают целые рабочие процессы одним словом. Вместо того чтобы каждый раз писать длинный промпт, вы пишете его один раз, упаковываете в навык и просто вводите одну команду для запуска. Все, что вы делаете повторно, можно превратить в навык. Генерация счетов, планирование уроков, еженедельные отчеты, черновики предложений. Если делаете что-то больше одного раза - вам нужен навык.
Коннекторы: дайте Claude доступ к вашим приложениям
Навыки мощные, но без коннекторов они живут в песочнице. С коннекторами Claude читает вашу Gmail напрямую, проверяет календарь, обращается к Google Drive и пишет в Slack от вашего имени. Сейчас в Claude от 30 до 50 встроенных коннекторов: Asana, Canva, GitHub, HubSpot, Notion, Slack, Google Calendar. Для всего остального есть Zapier MCP, который подключается к 8000+ приложениям.
Запланированные задачи: сотрудник, который работает 24/7
Здесь все складывается воедино. Навыки определяют "как". Коннекторы определяют "доступ". Запланированные задачи определяют "когда". Вы задаете время, выбираете частоту, и Claude выполняет весь рабочий процесс без вашего участия. Навыки + коннекторы + запланированные задачи = ИИ, который ведет ваш рабочий процесс на автопилоте. Обучаете один раз - работает всегда.
Cowork vs Claude Code: в чем разница
Claude Code и Claude Cowork - это один и тот же ИИ, но совершенно разные инструменты. Claude Code - это кодинг-агент. Он живет в терминале, читает всю кодовую базу, пишет и запускает код, деплоит в продакшен. Создан для разработчиков. Cowork - это золотая середина. Без терминала, без командной строки. Создан для всех, не только для разработчиков. Они не конкурируют, а дополняют друг друга.
https://uproger.com/claude-cowork-90-vozmozhnostej-o-kotoryh-vy-ne-znali/
Большинство людей открывают Claude Desktop, задают вопрос, получают ответ и закрывают приложение. На следующий день повторяют то же самое. И так неделями, не понимая, почему ничего толком не меняется в их продуктивности.
Проблема в том, что так используется от силы 10% того, на что способен Claude Cowork. Остальные 90% просто игнорируются. Давайте разберемся, что именно вы упускаете.
Что такое Claude Cowork на самом деле
Это не просто чат-интерфейс. Это десктопный ИИ, который умеет читать ваши файлы, подключаться к приложениям, запоминать ваши рабочие процессы и запускать задачи по расписанию, пока вы спите. Разница между тем, как большинство людей его используют, и тем, как он задуман, колоссальная.
Четыре вещи раскрывают весь потенциал: файл claude.md, навыки (skills), коннекторы и запланированные задачи. Большинство пользователей не трогали ни одну из них.
Шаг ноль: укажите Claude на папку
Без привязки к папке Claude начинает каждый разговор с чистого листа. Никакой памяти, никакого контекста, никакого понятия о том, кто вы и что строите. Он не может получить доступ к вашим файлам и не запускает пользовательские команды.
С папкой все иначе. Claude помнит, кто вы, автоматически загружает навыки, читает файлы и становится умнее после каждой сессии. Думайте о каждой папке как об отдельном телефоне. На рабочем стоит Slack, Gmail и календарь. На личном - планирование питания, бюджет, дневник. Отдельные папки, отдельные идентичности, отдельные рабочие процессы.
Файл claude.md: хватит объяснять одно и то же каждый день
Каждый раз, когда вы открываете Claude, он понятия не имеет, кто вы. Ваш бизнес, ваш тон, ваши правила, чего избегать - все это приходится объяснять заново. Файл claude.md решает эту проблему раз и навсегда. Это обычный текстовый файл, который Claude читает до того, как прочитает хоть слово из вашего сообщения. Настраиваете один раз - и он никогда не забывает.
Skills: научите Claude один раз, он запомнит навсегда
Навыки (skills) - это пользовательские команды, которые запускают целые рабочие процессы одним словом. Вместо того чтобы каждый раз писать длинный промпт, вы пишете его один раз, упаковываете в навык и просто вводите одну команду для запуска. Все, что вы делаете повторно, можно превратить в навык. Генерация счетов, планирование уроков, еженедельные отчеты, черновики предложений. Если делаете что-то больше одного раза - вам нужен навык.
Коннекторы: дайте Claude доступ к вашим приложениям
Навыки мощные, но без коннекторов они живут в песочнице. С коннекторами Claude читает вашу Gmail напрямую, проверяет календарь, обращается к Google Drive и пишет в Slack от вашего имени. Сейчас в Claude от 30 до 50 встроенных коннекторов: Asana, Canva, GitHub, HubSpot, Notion, Slack, Google Calendar. Для всего остального есть Zapier MCP, который подключается к 8000+ приложениям.
Запланированные задачи: сотрудник, который работает 24/7
Здесь все складывается воедино. Навыки определяют "как". Коннекторы определяют "доступ". Запланированные задачи определяют "когда". Вы задаете время, выбираете частоту, и Claude выполняет весь рабочий процесс без вашего участия. Навыки + коннекторы + запланированные задачи = ИИ, который ведет ваш рабочий процесс на автопилоте. Обучаете один раз - работает всегда.
Cowork vs Claude Code: в чем разница
Claude Code и Claude Cowork - это один и тот же ИИ, но совершенно разные инструменты. Claude Code - это кодинг-агент. Он живет в терминале, читает всю кодовую базу, пишет и запускает код, деплоит в продакшен. Создан для разработчиков. Cowork - это золотая середина. Без терминала, без командной строки. Создан для всех, не только для разработчиков. Они не конкурируют, а дополняют друг друга.
https://uproger.com/claude-cowork-90-vozmozhnostej-o-kotoryh-vy-ne-znali/
❤5👍1👎1🥰1
Forwarded from Анализ данных (Data analysis)
🔥 Милла Йовович теперь тоже Вайбкодер😱
Актриса выложила на GitHub опенсорс-инструмент MemPalace для работы с памятью ИИ-агентов. Делала его вместе с другом.
Фишка в том, что все данные хранятся локально, а система сама решает, какие факты о пользователе подтягивать под конкретный запрос. По бенчмарку LongMemEval инструмент уже обгоняет и платные, и бесплатные решения.
За сутки репозиторий набрал 2k+ звёзд.
Настоящий обитель зла💀
https://x.com/bensig/status/2041229266432733356
Актриса выложила на GitHub опенсорс-инструмент MemPalace для работы с памятью ИИ-агентов. Делала его вместе с другом.
Фишка в том, что все данные хранятся локально, а система сама решает, какие факты о пользователе подтягивать под конкретный запрос. По бенчмарку LongMemEval инструмент уже обгоняет и платные, и бесплатные решения.
За сутки репозиторий набрал 2k+ звёзд.
Настоящий обитель зла
https://x.com/bensig/status/2041229266432733356
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤17👍7😱5🥴1
💡McFly - это улучшенная история командной строки с возможностями поиска на основе временной оси, контекста и машинного обучения.
McFly заменяет стандартную историю bash с возможностью быстрого поиска по истории команд с учётом контекста текущего каталога, времени и других факторов. Он написан на Rust и работает в терминале с поддержкой fzf-подобного интерфейса.
• Поддерживает:
- Bash
- Zsh
- Fish
• Возможности:
- Умный поиск по истории команд.
- Учёт текущего каталога и других факторов.
- Простое подключение к вашему shell.
• Установка:
Доступен через Homebrew, AUR, Nix и другие.
https://github.com/cantino/mcfly
#devops #девопс
McFly заменяет стандартную историю bash с возможностью быстрого поиска по истории команд с учётом контекста текущего каталога, времени и других факторов. Он написан на Rust и работает в терминале с поддержкой fzf-подобного интерфейса.
• Поддерживает:
- Bash
- Zsh
- Fish
• Возможности:
- Умный поиск по истории команд.
- Учёт текущего каталога и других факторов.
- Простое подключение к вашему shell.
• Установка:
Доступен через Homebrew, AUR, Nix и другие.
https://github.com/cantino/mcfly
#devops #девопс
👍3🔥3❤1
Prometheus на пальцах: как устроен главный инструмент мониторинга 🔍
Разбираем архитектуру Prometheus без лишней теории - только суть:
1. Discovery & Retrieval
Автоматически находит сервисы (например, в Kubernetes) и начинает собирать с них метрики.
2. Prometheus Server
Главный мозг системы - ходит по таргетам, собирает данные, обрабатывает и управляет хранением.
3. TSDB
Встроенная time-series база, где лежат все метрики - быстро отвечает как на realtime, так и на исторические запросы.
4. Pushgateway
Нужен для короткоживущих задач - они пушат метрики перед завершением.
5. Exporters
Адаптеры для сторонних систем - превращают их метрики в понятный для Prometheus формат.
6. Alertmanager
Следит за правилами и шлёт алерты в Slack, почту и другие каналы.
7. PromQL + Grafana
Пишешь запросы, строишь графики, собираешь дашборды.
Итог простой:
Prometheus - это стандарт де-факто для мониторинга распределённых систем и cloud-native инфраструктуры.
https://github.com/iam-veeramalla/observability-zero-to-hero/tree/main/day-2
Разбираем архитектуру Prometheus без лишней теории - только суть:
1. Discovery & Retrieval
Автоматически находит сервисы (например, в Kubernetes) и начинает собирать с них метрики.
2. Prometheus Server
Главный мозг системы - ходит по таргетам, собирает данные, обрабатывает и управляет хранением.
3. TSDB
Встроенная time-series база, где лежат все метрики - быстро отвечает как на realtime, так и на исторические запросы.
4. Pushgateway
Нужен для короткоживущих задач - они пушат метрики перед завершением.
5. Exporters
Адаптеры для сторонних систем - превращают их метрики в понятный для Prometheus формат.
6. Alertmanager
Следит за правилами и шлёт алерты в Slack, почту и другие каналы.
7. PromQL + Grafana
Пишешь запросы, строишь графики, собираешь дашборды.
Итог простой:
Prometheus - это стандарт де-факто для мониторинга распределённых систем и cloud-native инфраструктуры.
https://github.com/iam-veeramalla/observability-zero-to-hero/tree/main/day-2
👍3❤2👎1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 5 главных AI coding агентов 2026 года
Сравнили всё: модели, контекст, цены, автономность
Claude Code, Codex, Cursor Agent, Gemini CLI, Deepagents. Пять инструментов, которые определяют, как пишется код прямо сейчас. Разложили по полочкам.
Claude Code работает на Sonnet/Opus, контекст 200K (1M на Max), закрытый код, $3/$15 за миллион токенов. Лучше всего для сложных мультифайловых задач.
Codex от OpenAI - терминал + облако, GPT 5.3/5.4 Codex, миллион токенов контекста, высокая автономность.
CLI открыт, облако нет. $1.50/$6. Заточен под асинхронные фоновые задачи.
Cursor Agent - единственный, кто встроен в IDE. Работает с несколькими моделями (Claude, GPT, Gemini), но автономность низкая, больше интерактивный. Закрытый код. ~$1.25/$6. Для повседневного кодинга.
Gemini CLI от Google - полностью open source (Apache 2.0), бесплатный (1K запросов в день), Gemini Flash/Pro, миллион токенов. Средняя автономность. Лучший бесплатный вариант.
Deepagents - MIT-лицензия, работает с любой LLM, SDK + CLI, конфигурируемая автономность. Бесплатен (платишь только за свою модель). Для кастомных пайплайнов.
Два опенсорсных, два закрытых, один гибрид. Выбор зависит от задачи, бюджета и того, насколько вы готовы отдать контроль агенту.
https://www.youtube.com/shorts/cvs93C4k-IQ
Сравнили всё: модели, контекст, цены, автономность
Claude Code, Codex, Cursor Agent, Gemini CLI, Deepagents. Пять инструментов, которые определяют, как пишется код прямо сейчас. Разложили по полочкам.
Claude Code работает на Sonnet/Opus, контекст 200K (1M на Max), закрытый код, $3/$15 за миллион токенов. Лучше всего для сложных мультифайловых задач.
Codex от OpenAI - терминал + облако, GPT 5.3/5.4 Codex, миллион токенов контекста, высокая автономность.
CLI открыт, облако нет. $1.50/$6. Заточен под асинхронные фоновые задачи.
Cursor Agent - единственный, кто встроен в IDE. Работает с несколькими моделями (Claude, GPT, Gemini), но автономность низкая, больше интерактивный. Закрытый код. ~$1.25/$6. Для повседневного кодинга.
Gemini CLI от Google - полностью open source (Apache 2.0), бесплатный (1K запросов в день), Gemini Flash/Pro, миллион токенов. Средняя автономность. Лучший бесплатный вариант.
Deepagents - MIT-лицензия, работает с любой LLM, SDK + CLI, конфигурируемая автономность. Бесплатен (платишь только за свою модель). Для кастомных пайплайнов.
Два опенсорсных, два закрытых, один гибрид. Выбор зависит от задачи, бюджета и того, насколько вы готовы отдать контроль агенту.
https://www.youtube.com/shorts/cvs93C4k-IQ
❤4👍2🔥2👎1
Media is too big
VIEW IN TELEGRAM
🐳 Docker: не пихай всё в один контейнер
Работает локально, но в проде это боль.
Частая ошибка 👇
запихнуть в один контейнер:
- приложение
- базу данных
- nginx
- очереди
Кажется проще… но на деле:
❌ сложно масштабировать
❌ невозможно нормально обновлять
❌ падает всё сразу
❌ сложнее дебажить
И самое неприятное:
👉 ты теряешь главный смысл Docker — изоляцию и независимость сервисов
Как правильно:
- 1 контейнер = 1 сервис
- база отдельно
- backend отдельно
- nginx отдельно
Используй:
- docker-compose для локалки
- Kubernetes / orchestration для прода
Docker — это не про “запихнуть всё вместе”
это про разделение и контроль
Работает локально, но в проде это боль.
Частая ошибка 👇
запихнуть в один контейнер:
- приложение
- базу данных
- nginx
- очереди
Кажется проще… но на деле:
❌ сложно масштабировать
❌ невозможно нормально обновлять
❌ падает всё сразу
❌ сложнее дебажить
И самое неприятное:
👉 ты теряешь главный смысл Docker — изоляцию и независимость сервисов
Как правильно:
- 1 контейнер = 1 сервис
- база отдельно
- backend отдельно
- nginx отдельно
Используй:
- docker-compose для локалки
- Kubernetes / orchestration для прода
Docker — это не про “запихнуть всё вместе”
это про разделение и контроль
👍4😁4❤3🤨3🔥2
Лучшие DevOps-проекты, которые можно собрать бесплатно в 2026:
End-to-End CI/CD Pipeline (GitHub Actions + EKS)
https://github.com/NotHarshhaa/CI-CD_EKS-GitHub_Actions
Terraform + EKS + GitHub Actions
https://github.com/AmanPathak-DevOps/EKS-Terraform-GitHub-Actions
Azure DevOps + Terraform CI/CD
https://github.com/Azure-Samples/azure-devops-terraform-oidc-ci-cd
Kubernetes 3-Tier DevSecOps проект
https://github.com/AmanPathak-DevOps/End-to-End-Kubernetes-Three-Tier-DevSecOps-Project
Terraform + Kubernetes (GCP)
https://github.com/Artemmkin/terraform-kubernetes
AWS VPC + Terraform + GitHub Actions
https://github.com/GovindSingh9447/VPC-Terraform-Github-Action
DevOps Journey (Azure DevOps + AKS)
https://github.com/thomast1906/DevOps-Journey-Using-Azure-DevOps
Подборка реальных DevOps-проектов
https://github.com/techiescamp/devops-projects
DevOps Mega Project (AWS + Kubernetes + ArgoCD)
https://github.com/Amitabh-DevOps/DevOps-mega-project
Репозиторий DevOps-проектов (от beginner до advanced)
https://github.com/NotHarshhaa/DevOps-Projects
End-to-End CI/CD Pipeline (GitHub Actions + EKS)
https://github.com/NotHarshhaa/CI-CD_EKS-GitHub_Actions
Terraform + EKS + GitHub Actions
https://github.com/AmanPathak-DevOps/EKS-Terraform-GitHub-Actions
Azure DevOps + Terraform CI/CD
https://github.com/Azure-Samples/azure-devops-terraform-oidc-ci-cd
Kubernetes 3-Tier DevSecOps проект
https://github.com/AmanPathak-DevOps/End-to-End-Kubernetes-Three-Tier-DevSecOps-Project
Terraform + Kubernetes (GCP)
https://github.com/Artemmkin/terraform-kubernetes
AWS VPC + Terraform + GitHub Actions
https://github.com/GovindSingh9447/VPC-Terraform-Github-Action
DevOps Journey (Azure DevOps + AKS)
https://github.com/thomast1906/DevOps-Journey-Using-Azure-DevOps
Подборка реальных DevOps-проектов
https://github.com/techiescamp/devops-projects
DevOps Mega Project (AWS + Kubernetes + ArgoCD)
https://github.com/Amitabh-DevOps/DevOps-mega-project
Репозиторий DevOps-проектов (от beginner до advanced)
https://github.com/NotHarshhaa/DevOps-Projects
❤9👍4👎1
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Qwen Code обновился - теперь это почти автономный DevOps-агент
Вышли версии v0.14.0 – v0.14.2 и это уже не просто тулза, а полноценная система для управления задачами, агентами и инфраструктурой.
Что добавили:
• Channels - управляешь Qwen Code прямо из Telegram, DingTalk или WeChat
Пишешь с телефона - выполняется на сервере
• Cron Jobs - регулярные AI-задачи
Тесты каждые 30 минут, билд по утрам, мониторинг логов по расписанию
• Qwen3.6-Plus - новый флагман
1M контекста и до 1000 бесплатных запросов в день
• Sub-agent Model Selection - разные модели под разные задачи
Тяжёлую модель на основную логику, быструю на подзадачи
Экономия токенов без потери качества
• /plan - режим планирования
Сначала AI строит план по файлам и шагам, потом ты подтверждаешь и он исполняет
• Follow-up Suggestions - после задачи предлагает следующие шаги
Типа «добавить тесты?» или «проверить похожие файлы»
• Adaptive Output Tokens - умный вывод
По умолчанию 8K, но сам расширяется до 64K если не хватает
• Ctrl+O - переключение режима ответа
Подробный для дебага или компактный для работы
https://github.com/QwenLM/qwen-code/releases
@ai_machinelearning_big_data
#qwen
Вышли версии v0.14.0 – v0.14.2 и это уже не просто тулза, а полноценная система для управления задачами, агентами и инфраструктурой.
Что добавили:
• Channels - управляешь Qwen Code прямо из Telegram, DingTalk или WeChat
Пишешь с телефона - выполняется на сервере
• Cron Jobs - регулярные AI-задачи
Тесты каждые 30 минут, билд по утрам, мониторинг логов по расписанию
• Qwen3.6-Plus - новый флагман
1M контекста и до 1000 бесплатных запросов в день
• Sub-agent Model Selection - разные модели под разные задачи
Тяжёлую модель на основную логику, быструю на подзадачи
Экономия токенов без потери качества
• /plan - режим планирования
Сначала AI строит план по файлам и шагам, потом ты подтверждаешь и он исполняет
• Follow-up Suggestions - после задачи предлагает следующие шаги
Типа «добавить тесты?» или «проверить похожие файлы»
• Adaptive Output Tokens - умный вывод
По умолчанию 8K, но сам расширяется до 64K если не хватает
• Ctrl+O - переключение режима ответа
Подробный для дебага или компактный для работы
https://github.com/QwenLM/qwen-code/releases
@ai_machinelearning_big_data
#qwen
👍7❤6🔥4
🚨 Сжали Docker-образ с 846 MB до 2.5 MB
Классическая проблема. Один Dockerfile, жирный базовый образ, внутри всё подряд. Билд-тулы, кэши, временные файлы, лишние пакеты. В прод улетает всё.
Результат понятен. Огромный образ, медленные pull, лишние деньги за хранение и увеличенная поверхность атаки.
Решение:
Первый шаг. Лёгкий builder. Переход с полного golang-образа на alpine сразу режет размер в разы.
Дальше главный приём. Multi-stage build. В первом этапе собираешь бинарник со всеми зависимостями. Во втором стартуешь с чистого минимального образа и копируешь только результат сборки.
В прод не попадает ничего лишнего. Ни компиляторов, ни кэшей, ни dev-пакетов.
Дополнительно вычищаются слои. Команды объединяются, временные файлы удаляются сразу. Через .dockerignore выкидывается весь мусор из контекста сборки.
Для Go это усиливается статической сборкой. CGO выключен, бинарь самодостаточный.
На выходе остаётся минимальный runtime с одним бинарником.
846 MB превращаются в 2.5 MB.
Классическая проблема. Один Dockerfile, жирный базовый образ, внутри всё подряд. Билд-тулы, кэши, временные файлы, лишние пакеты. В прод улетает всё.
Результат понятен. Огромный образ, медленные pull, лишние деньги за хранение и увеличенная поверхность атаки.
Решение:
Первый шаг. Лёгкий builder. Переход с полного golang-образа на alpine сразу режет размер в разы.
Дальше главный приём. Multi-stage build. В первом этапе собираешь бинарник со всеми зависимостями. Во втором стартуешь с чистого минимального образа и копируешь только результат сборки.
В прод не попадает ничего лишнего. Ни компиляторов, ни кэшей, ни dev-пакетов.
Дополнительно вычищаются слои. Команды объединяются, временные файлы удаляются сразу. Через .dockerignore выкидывается весь мусор из контекста сборки.
Для Go это усиливается статической сборкой. CGO выключен, бинарь самодостаточный.
На выходе остаётся минимальный runtime с одним бинарником.
846 MB превращаются в 2.5 MB.
🔥6👍4❤1👎1😱1
🔥 История, которая перевернула безопасность во всём мире и всё из-за одной «невидимой» ошибки
В 1979 году на АЭС Three Mile Island в США произошла одна из самых известных ядерных аварий.
Но самое страшное было не в поломке.
А в том, как люди её интерпретировали.
Операторы видели данные с приборов и сделали, казалось бы, логичный вывод:
👉 система переполнена водой
👉 нужно её уменьшить
Они действовали «по инструкции».
Но реальность была противоположной.
💥 Реальная проблема:
• реактор терял охлаждение
А действия операторов только усугубили ситуацию
Почему это произошло?
Потому что они опирались только на видимые сигналы, игнорируя то, чего не было видно напрямую.
🧠 Это тот же тип ошибки мышления, что и у Вальда:
**мы доверяем тому, что видим
и игнорируем то, чего не видим**
После аварии провели масштабное расследование.
И выяснилось:
- интерфейсы показывали слишком много лишнего
- ключевые сигналы были «спрятаны»
- операторы не понимали, что действительно важно
⚡️ Что изменилось после этого:
- появилось направление human-centered design в критических системах
- интерфейсы начали проектировать под стрессовые ситуации
- в авиации и энергетике внедрили симуляторы аварий
- появилась концепция:
👉 «если пользователь ошибается — виноват дизайн, а не пользователь»
📊 Интересный факт:
после внедрения новых подходов к интерфейсам и обучению
👉 количество критических ошибок операторов в авиации и энергетике снизилось в разы
💡 Где это встречается сегодня:
- дашборды в аналитике
- мониторинг в DevOps
- алерты в продакшене
- метрики в AI
Ты видишь график — и думаешь, что понимаешь систему.
Но настоящая проблема часто скрыта в том,
чего нет на графике
👉 Главный вывод:
самые опасные ошибки — не в данных
а в том, как ты их интерпретируешь
📌 Параллель с Вальдом:
- там не было данных о погибших самолётах
- здесь не было понимания реального состояния реактора
И в обоих случаях: невидимое оказалось важнее видимого
#thinking #engineering #ai #devops
В 1979 году на АЭС Three Mile Island в США произошла одна из самых известных ядерных аварий.
Но самое страшное было не в поломке.
А в том, как люди её интерпретировали.
Операторы видели данные с приборов и сделали, казалось бы, логичный вывод:
👉 система переполнена водой
👉 нужно её уменьшить
Они действовали «по инструкции».
Но реальность была противоположной.
💥 Реальная проблема:
• реактор терял охлаждение
А действия операторов только усугубили ситуацию
Почему это произошло?
Потому что они опирались только на видимые сигналы, игнорируя то, чего не было видно напрямую.
🧠 Это тот же тип ошибки мышления, что и у Вальда:
**мы доверяем тому, что видим
и игнорируем то, чего не видим**
После аварии провели масштабное расследование.
И выяснилось:
- интерфейсы показывали слишком много лишнего
- ключевые сигналы были «спрятаны»
- операторы не понимали, что действительно важно
⚡️ Что изменилось после этого:
- появилось направление human-centered design в критических системах
- интерфейсы начали проектировать под стрессовые ситуации
- в авиации и энергетике внедрили симуляторы аварий
- появилась концепция:
👉 «если пользователь ошибается — виноват дизайн, а не пользователь»
📊 Интересный факт:
после внедрения новых подходов к интерфейсам и обучению
👉 количество критических ошибок операторов в авиации и энергетике снизилось в разы
💡 Где это встречается сегодня:
- дашборды в аналитике
- мониторинг в DevOps
- алерты в продакшене
- метрики в AI
Ты видишь график — и думаешь, что понимаешь систему.
Но настоящая проблема часто скрыта в том,
чего нет на графике
👉 Главный вывод:
самые опасные ошибки — не в данных
а в том, как ты их интерпретируешь
📌 Параллель с Вальдом:
- там не было данных о погибших самолётах
- здесь не было понимания реального состояния реактора
И в обоих случаях: невидимое оказалось важнее видимого
#thinking #engineering #ai #devops
🔥3❤2👍2
Forwarded from Python/ django
🔥 Linux 7.0 - Торвальд и команда вычистили десятилетия грязного легаси и ОС стала реально быстрее!
Линус Торвальдс наконец пошёл на радикальный шаг и начал массовую зачистку старого кода. То, что копилось годами, просто выкинули. Итог - система стала заметно проще, чище и быстрее.
Что изменилось по факту:
XFS сильно прокачали - файловая система стала надёжнее, меньше рисков потери данных и лучше ведёт себя под нагрузкой
Работа с памятью ускорилась примерно на 20%, плюс подтянули сетевой стек - соединения стабильнее при высоких нагрузках
Контейнеры теперь стартуют быстрее за счёт улучшений в open_tree - меньше оверхеда при разворачивании
В Kconfig наконец дали больше свободы кастомизации - можно заменить Tux на свой логотип
Поддержка железа тоже прокачана - AMD и Intel работают эффективнее без ручных оптимизаций
Главное здесь не список фич, а тренд. Ядро постепенно избавляется от исторического балласта и становится более предсказуемым и удобным для современных нагрузок.
https://github.com/torvalds/linux/releases/tag/v7.0
🐍 Python полезные ресурсы 🚀Max
@pythonl
Линус Торвальдс наконец пошёл на радикальный шаг и начал массовую зачистку старого кода. То, что копилось годами, просто выкинули. Итог - система стала заметно проще, чище и быстрее.
Что изменилось по факту:
XFS сильно прокачали - файловая система стала надёжнее, меньше рисков потери данных и лучше ведёт себя под нагрузкой
Работа с памятью ускорилась примерно на 20%, плюс подтянули сетевой стек - соединения стабильнее при высоких нагрузках
Контейнеры теперь стартуют быстрее за счёт улучшений в open_tree - меньше оверхеда при разворачивании
В Kconfig наконец дали больше свободы кастомизации - можно заменить Tux на свой логотип
Поддержка железа тоже прокачана - AMD и Intel работают эффективнее без ручных оптимизаций
Главное здесь не список фич, а тренд. Ядро постепенно избавляется от исторического балласта и становится более предсказуемым и удобным для современных нагрузок.
https://github.com/torvalds/linux/releases/tag/v7.0
🐍 Python полезные ресурсы 🚀Max
@pythonl
❤19🔥16👍6
⚡️ 20 kubectl команд, которые экономят часы в проде
Когда что-то падает — не нужен весь kubectl.
Достаточно этих команд 👇
🧪 Быстрый дебаг
• kubectl get pods -A --field-selector=status.phase!=Running
• kubectl get pods -A --sort-by=.status.containerStatuses[*].restartCount
• kubectl describe pod <pod> -n <ns>
• kubectl get pods -A | grep Pending
📜 Логи и ресурсы
• kubectl logs <pod> -n <ns> --previous
• kubectl top pods -A
• kubectl describe node <node>
🧭 Сеть и размещение
• kubectl get pod <pod> -n <ns> -o wide
• kubectl get pods -A -o wide | grep <node>
• kubectl get svc -A -o wide
• kubectl run tmp-shell -it --rm --image=busybox -- /bin/sh
🚀 Роллауты и откаты
• kubectl port-forward svc/<svc> 8080:80
• kubectl rollout history deployment/<name>
• kubectl rollout undo deployment/<name>
• kubectl get deployment <name> -o yaml
🧩 События и конфиг
• kubectl get events -A --sort-by=.metadata.creationTimestamp
• kubectl describe svc <svc>
• kubectl get endpoints <svc>
• kubectl get ingress -A
Освоишь эти команды - будешь закрывать 90% проблем в проде намного быстрее.
Сохрани, чтобы не искать потом 🔖
Когда что-то падает — не нужен весь kubectl.
Достаточно этих команд 👇
🧪 Быстрый дебаг
• kubectl get pods -A --field-selector=status.phase!=Running
• kubectl get pods -A --sort-by=.status.containerStatuses[*].restartCount
• kubectl describe pod <pod> -n <ns>
• kubectl get pods -A | grep Pending
📜 Логи и ресурсы
• kubectl logs <pod> -n <ns> --previous
• kubectl top pods -A
• kubectl describe node <node>
🧭 Сеть и размещение
• kubectl get pod <pod> -n <ns> -o wide
• kubectl get pods -A -o wide | grep <node>
• kubectl get svc -A -o wide
• kubectl run tmp-shell -it --rm --image=busybox -- /bin/sh
🚀 Роллауты и откаты
• kubectl port-forward svc/<svc> 8080:80
• kubectl rollout history deployment/<name>
• kubectl rollout undo deployment/<name>
• kubectl get deployment <name> -o yaml
🧩 События и конфиг
• kubectl get events -A --sort-by=.metadata.creationTimestamp
• kubectl describe svc <svc>
• kubectl get endpoints <svc>
• kubectl get ingress -A
Освоишь эти команды - будешь закрывать 90% проблем в проде намного быстрее.
Сохрани, чтобы не искать потом 🔖
👍10❤5
This media is not supported in your browser
VIEW IN TELEGRAM
Установка браузера Firefox на Linux и Windows
🤣19👍4❤2🥱1
GitHub stars больше не показатель. Их просто покупают
Исследование показало: около 6 миллионов звёзд, поставленных недавно на GitHub могут быть накрученными. Это 18 617 репозиториев и 300 000+ аккаунтов.
Рынок уже сформировался:
• звезда стоит от $0.03 до $0.85
• продаётся через фриланс-платформы, вроде Fiverr и через Telegram
• накрутка делается пачками под запуск или «рост» проекта
Проблема в том, что инвесторы и алгоритмы до сих пор смотрят на звёзды как на сигнал качества и популярности.
Реальный показатель сейчас - разрыв между метриками:
• если звёзд много, а форков и watchers почти нет
• если никто не копирует код и не следит за обновлениями
• если нет активности в issues и PR
https://awesomeagents.ai/news/github-fake-stars-investigation/
Исследование показало: около 6 миллионов звёзд, поставленных недавно на GitHub могут быть накрученными. Это 18 617 репозиториев и 300 000+ аккаунтов.
Рынок уже сформировался:
• звезда стоит от $0.03 до $0.85
• продаётся через фриланс-платформы, вроде Fiverr и через Telegram
• накрутка делается пачками под запуск или «рост» проекта
Проблема в том, что инвесторы и алгоритмы до сих пор смотрят на звёзды как на сигнал качества и популярности.
Реальный показатель сейчас - разрыв между метриками:
• если звёзд много, а форков и watchers почти нет
• если никто не копирует код и не следит за обновлениями
• если нет активности в issues и PR
https://awesomeagents.ai/news/github-fake-stars-investigation/
❤3👍2🥰1
🔥 Что на самом деле хотят услышать на DevOps собесе
На собеседованиях по DevOps очень любят спрашивать: "Как у вас устроен мониторинг в проекте?"
И многие отвечают слишком коротко:
Prometheus, Grafana, CloudWatch.
Ответ вроде правильный.
Но для сильного собеседования этого мало.
Интервьюеру обычно важно понять не просто названия инструментов, а всю цепочку:
- как собираются логи
- куда они попадают дальше
- как долго хранятся
- как собираются метрики
- как считается SLA
- и почему архитектура сделана именно так
Именно это показывает разницу между человеком, который просто пользовался готовым стеком, и тем, кто реально поднимал мониторинг в production.
Например, в enterprise-проекте на EKS мониторинг может выглядеть так:
Есть два типа нагрузок:
- микросервисы на Fargate
- stateful-приложение в StatefulSet
И подход к ним разный.
Для Fargate удобно использовать OpenTelemetry add-on.
Он автоматически собирает логи со всех Fargate-подов и отправляет их в CloudWatch. Это простой и удобный вариант, когда не хочется отдельно городить сбор логов внутри каждого сервиса.
Для StatefulSet чаще нужен более гибкий контроль.
Тут можно использовать Fluent Bit как sidecar-контейнер:
он читает логи из общего тома, фильтрует их, форматирует и отправляет в CloudWatch.
Это особенно важно в банках и других регулируемых системах, где есть требования к структуре логов, аудиту и хранению данных.
Дальше пайплайн может быть таким:
CloudWatch → Lambda для форматирования → Kinesis Firehose → OpenSearch
Зачем это нужно:
- Lambda может нормализовать и обогащать логи
- Firehose умеет батчить и стабильно доставлять данные
- OpenSearch удобен для поиска и анализа
- S3 подходит для долгого и дешёвого хранения
Пример хранения:
- 7 дней в OpenSearch
- 30 дней в CloudWatch
- полный архив в S3
С метриками история другая.
Обычно используют Prometheus, который ходит в
Чтобы Prometheus понимал, что именно скрейпить в Kubernetes, для сервисов настраивают
Дальше Grafana показывает всё в дашбордах.
Хорошая практика - свести в Grafana сразу несколько источников:
- Prometheus для технических метрик
- CloudWatch для инфраструктуры и логов
- OpenSearch для поиска по событиям и ошибкам
Тогда в одном месте можно увидеть:
- CPU и memory
- latency и error rate
- логи по времени инцидента
- состояние сервиса по SLA
И вот тут начинается взрослая часть мониторинга.
SLA - это не абстрактная цифра на слайде.
Это конкретный лимит простоя.
Например, 99.1% uptime в месяц означает, что сервис может быть недоступен примерно 6.4 часа за месяц.
Если это вынесено в Grafana, то и команда, и бизнес видят состояние системы в реальном времени, а не узнают о проблеме постфактум.
Поэтому на собеседовании лучше рассказывать не просто набор инструментов, а целую историю:
не "у нас Prometheus и Grafana",
а "вот как у нас собираются логи, вот куда они идут, вот почему выбран именно такой маршрут, вот как мы храним данные, вот как считаем SLA и что видит бизнес".
Именно такой ответ звучит как опыт production-уровня.
https://uproger.com/samyj-populyarnyj-vopros-na-sobesedovaniyah-devops-kak-u-vas-ustroen-monitoring-v-proekte/
На собеседованиях по DevOps очень любят спрашивать: "Как у вас устроен мониторинг в проекте?"
И многие отвечают слишком коротко:
Prometheus, Grafana, CloudWatch.
Ответ вроде правильный.
Но для сильного собеседования этого мало.
Интервьюеру обычно важно понять не просто названия инструментов, а всю цепочку:
- как собираются логи
- куда они попадают дальше
- как долго хранятся
- как собираются метрики
- как считается SLA
- и почему архитектура сделана именно так
Именно это показывает разницу между человеком, который просто пользовался готовым стеком, и тем, кто реально поднимал мониторинг в production.
Например, в enterprise-проекте на EKS мониторинг может выглядеть так:
Есть два типа нагрузок:
- микросервисы на Fargate
- stateful-приложение в StatefulSet
И подход к ним разный.
Для Fargate удобно использовать OpenTelemetry add-on.
Он автоматически собирает логи со всех Fargate-подов и отправляет их в CloudWatch. Это простой и удобный вариант, когда не хочется отдельно городить сбор логов внутри каждого сервиса.
Для StatefulSet чаще нужен более гибкий контроль.
Тут можно использовать Fluent Bit как sidecar-контейнер:
он читает логи из общего тома, фильтрует их, форматирует и отправляет в CloudWatch.
Это особенно важно в банках и других регулируемых системах, где есть требования к структуре логов, аудиту и хранению данных.
Дальше пайплайн может быть таким:
CloudWatch → Lambda для форматирования → Kinesis Firehose → OpenSearch
Зачем это нужно:
- Lambda может нормализовать и обогащать логи
- Firehose умеет батчить и стабильно доставлять данные
- OpenSearch удобен для поиска и анализа
- S3 подходит для долгого и дешёвого хранения
Пример хранения:
- 7 дней в OpenSearch
- 30 дней в CloudWatch
- полный архив в S3
С метриками история другая.
Обычно используют Prometheus, который ходит в
/metrics каждого приложения, например каждые 30 секунд.Чтобы Prometheus понимал, что именно скрейпить в Kubernetes, для сервисов настраивают
ServiceMonitor.Дальше Grafana показывает всё в дашбордах.
Хорошая практика - свести в Grafana сразу несколько источников:
- Prometheus для технических метрик
- CloudWatch для инфраструктуры и логов
- OpenSearch для поиска по событиям и ошибкам
Тогда в одном месте можно увидеть:
- CPU и memory
- latency и error rate
- логи по времени инцидента
- состояние сервиса по SLA
И вот тут начинается взрослая часть мониторинга.
SLA - это не абстрактная цифра на слайде.
Это конкретный лимит простоя.
Например, 99.1% uptime в месяц означает, что сервис может быть недоступен примерно 6.4 часа за месяц.
Если это вынесено в Grafana, то и команда, и бизнес видят состояние системы в реальном времени, а не узнают о проблеме постфактум.
Поэтому на собеседовании лучше рассказывать не просто набор инструментов, а целую историю:
не "у нас Prometheus и Grafana",
а "вот как у нас собираются логи, вот куда они идут, вот почему выбран именно такой маршрут, вот как мы храним данные, вот как считаем SLA и что видит бизнес".
Именно такой ответ звучит как опыт production-уровня.
https://uproger.com/samyj-populyarnyj-vopros-na-sobesedovaniyah-devops-kak-u-vas-ustroen-monitoring-v-proekte/
❤6👍2