Крупные инциденты случаются даже в зрелых инфраструктурах. Масштаб не защищает от сбоев — он лишь увеличивает сложность и число точек отказа.
В конце 2024 года в Yandex Cloud отказал один сетевой контроллер — и это стало стартовой точкой цепочки взаимосвязанных ошибок, которая привела к потере внешней связности в нескольких зонах доступности. Классический пример «слоёного пирога» и «швейцарского сыра»: одна проблема тянет за собой каскад других.
Но важнее не сам факт сбоя, а то, как команда отреагировала и что сделала дальше. Константин Крамлих из Yandex Cloud опубликовал подробный инженерный разбор, где объясняет, какие изменения внедрили, чтобы сеть стала устойчивее.
Среди ключевых решений, которые уже внедрены в сеть, — режим Fail Safe, который позволяет ограничивать негативное влияние одного компонента на всю систему, и механизмы ограничения очередей, которые предотвращают нарастание задержек и деградацию сервиса при росте нагрузки.
Также изменили логику работы балансировщиков: управление зонами стало более гибким, что позволяет быстрее изолировать проблемную зону и перераспределить трафик без потерь доступности.
Отдельно улучшили процессы: релизы стали более “пошаговыми”, с обязательными проверками и откатом, а Incident Management — более структурированным, с чёткими ролями, триггерами и метриками восстановления.
Весь разбор доступен по ссылке.
В конце 2024 года в Yandex Cloud отказал один сетевой контроллер — и это стало стартовой точкой цепочки взаимосвязанных ошибок, которая привела к потере внешней связности в нескольких зонах доступности. Классический пример «слоёного пирога» и «швейцарского сыра»: одна проблема тянет за собой каскад других.
Но важнее не сам факт сбоя, а то, как команда отреагировала и что сделала дальше. Константин Крамлих из Yandex Cloud опубликовал подробный инженерный разбор, где объясняет, какие изменения внедрили, чтобы сеть стала устойчивее.
Среди ключевых решений, которые уже внедрены в сеть, — режим Fail Safe, который позволяет ограничивать негативное влияние одного компонента на всю систему, и механизмы ограничения очередей, которые предотвращают нарастание задержек и деградацию сервиса при росте нагрузки.
Также изменили логику работы балансировщиков: управление зонами стало более гибким, что позволяет быстрее изолировать проблемную зону и перераспределить трафик без потерь доступности.
Отдельно улучшили процессы: релизы стали более “пошаговыми”, с обязательными проверками и откатом, а Incident Management — более структурированным, с чёткими ролями, триггерами и метриками восстановления.
Весь разбор доступен по ссылке.
❤3👍3🔥3🖕1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Быстрые и синхронные движения вывели возможности роботизированной моторики на новый уровень и установили сразу несколько мировых рекордов.
Модель H2 также стала одной из главных звёзд шоу- робот появился на главной сцене в Пекине и на площадке в Иу в образе Царя Обезьян.
В тяжёлых доспехах он «летал на облаке», роль которого исполняли четвероногие роботы-собаки B2W, и с высоты поздравлял зрителей с Китайским Новым годом.
@ai_machinelearning_big_data
#Unitree #ai #Ml #robots
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍3❤2💔2🤩1💅1
🚀 Ищем Kubernetes Platform Engineer (Middle+/Senior) в 2ГИС
В команде Infrastructure & Operations мы строим внутреннюю PaaS-платформу для Data Services: PostgreSQL, Redis, Kafka, ClickHouse.
Наша цель — сделать DBaaS и DS self-service, надёжной и стандартизированной частью платформы для десятков продуктовых команд.
Что будешь делать:
• Развивать PaaS на базе Kubernetes
• Автоматизировать lifecycle DS (deploy, scale, backup, restore)
• Строить DBaaS (начинаем с PostgreSQL)
• Внедрять GitOps, IaC и платформенные стандарты
Наш стек
Kubernetes, GitLab CI/CD, Terraform, Ansible, ELK, Vault, S3.
Ищем инженера, который понимает Kubernetes как платформу, работал со stateful-нагрузками и тюнил PostgreSQL.
Удалёнка или офис. Белая зарплата, ДМС, обучение и конференции — всё по-взрослому.
👉Откликайся
Другие инженерные инсайты от 2ГИС →в Telegram-канале RnD
В команде Infrastructure & Operations мы строим внутреннюю PaaS-платформу для Data Services: PostgreSQL, Redis, Kafka, ClickHouse.
Наша цель — сделать DBaaS и DS self-service, надёжной и стандартизированной частью платформы для десятков продуктовых команд.
Что будешь делать:
• Развивать PaaS на базе Kubernetes
• Автоматизировать lifecycle DS (deploy, scale, backup, restore)
• Строить DBaaS (начинаем с PostgreSQL)
• Внедрять GitOps, IaC и платформенные стандарты
Наш стек
Kubernetes, GitLab CI/CD, Terraform, Ansible, ELK, Vault, S3.
Ищем инженера, который понимает Kubernetes как платформу, работал со stateful-нагрузками и тюнил PostgreSQL.
Удалёнка или офис. Белая зарплата, ДМС, обучение и конференции — всё по-взрослому.
👉Откликайся
Другие инженерные инсайты от 2ГИС →в Telegram-канале RnD
Да, это буквально кладбище проектов - но невероятно полезное.
Внутри не просто список, а полноценные разборы:
почему взлетели/упали, сколько денег сожгли, какие решения их убили, где была критическая ошибка - и главное: что из этого можно безопасно забрать себе, а что повторять нельзя ни при каких условиях.
А ещё там встроенный ИИ, который берёт провалившийся проект и делает “версию 2.0”:
придумывает название, концепт, рынок, техстек, план запуска и монетизацию, но уже с учётом прошлых ошибок.
Как минимум - очень залипательно.
Стартаперы, вам точно стоит изучить
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
🌟 DOCKER КАК НАСТРОИТЬ ПЕРЕД КАЖДЫМ ПРОЕКТОМ
Совет - Docker: настраивай окружение ДО начала проекта, а не когда всё уже «почти готово».
Большинство проблем в проде появляется не из-за кода, а из-за разницы окружений.
Правильный подход - сначала контейнерная база, потом разработка.
Выбирай лёгкий базовый образ без лишнего мусора, фиксируй зависимости отдельным слоем, обязательно делай .dockerignore, чтобы не тащить в образ кэш и хлам.
Сразу разделяй dev и prod конфигурации, используй docker-compose даже если сервис один, не храни секреты в Dockerfile и добавляй HEALTHCHECK, чтобы контейнер считался «живым» только когда реально работает приложение.
Docker - это фундамент проекта, а не финальный штрих.
Совет - Docker: настраивай окружение ДО начала проекта, а не когда всё уже «почти готово».
Большинство проблем в проде появляется не из-за кода, а из-за разницы окружений.
Правильный подход - сначала контейнерная база, потом разработка.
Выбирай лёгкий базовый образ без лишнего мусора, фиксируй зависимости отдельным слоем, обязательно делай .dockerignore, чтобы не тащить в образ кэш и хлам.
Сразу разделяй dev и prod конфигурации, используй docker-compose даже если сервис один, не храни секреты в Dockerfile и добавляй HEALTHCHECK, чтобы контейнер считался «живым» только когда реально работает приложение.
Docker - это фундамент проекта, а не финальный штрих.
Dockerfile (база для Python-проекта)
FROM python:3.12-slim
WORKDIR /app
Сначала зависимости — кеш будет работать правильно
COPY requirements.txt .
RUN pip install --no-cache-dir -r requirements.txt
Потом код
COPY . .
EXPOSE 8000
HEALTHCHECK CMD curl --fail http://localhost:8000/health
|| exit 1
CMD ["python", "app.py"]
.dockerignore
.git
pycache
venv
node_modules
*.log
docker-compose.yml
version: "3.9"
services:
app:
build: .
ports:
- "8000:8000"
env_file:
- .env
❤13🔥6👍4👎3
Когда «просто в облако» — не срабатывает.
На сайте всё выглядит красиво: переносим в облако — масштабируемся — живём счастливо.
В реальности чаще так:
• Задержки при работе с критичными приложениями.
• Вопросы с безопасностью и комплаенс.
• Ограниченные конфигурации.
• Сюрпризы в “биллинге”.
В таких случаях приходит на помощь не «коробочное решение для всех», а спроектированная архитектура под конкретную задачу.
В канале DataSpace мы разбираем:
— как онлайн-ритейлер выдержал рост нагрузки в 10 раз без деградации сервисов
— где гибридная модель действительно оправдана
— как быстро сравнить разные варианты конфигурации стоимости
— какие ошибки чаще всего допускают при выборе провайдера
Только разбор архитектуры и практики, с которыми потом не больно жить в проде. Подписывайтесь — @dataspace_ru
На сайте всё выглядит красиво: переносим в облако — масштабируемся — живём счастливо.
В реальности чаще так:
• Задержки при работе с критичными приложениями.
• Вопросы с безопасностью и комплаенс.
• Ограниченные конфигурации.
• Сюрпризы в “биллинге”.
В таких случаях приходит на помощь не «коробочное решение для всех», а спроектированная архитектура под конкретную задачу.
В канале DataSpace мы разбираем:
— как онлайн-ритейлер выдержал рост нагрузки в 10 раз без деградации сервисов
— где гибридная модель действительно оправдана
— как быстро сравнить разные варианты конфигурации стоимости
— какие ошибки чаще всего допускают при выборе провайдера
Только разбор архитектуры и практики, с которыми потом не больно жить в проде. Подписывайтесь — @dataspace_ru
❤1
Экс-исследователь DeepMind привлекает $1 млрд на AI-стартап без LLM
Дэвид Сильвер, один из ключевых исследователей DeepMind, запускает новый стартап Ineffable Intelligence в Лондоне.
По данным источников:
- планируется $1 млрд seed-раунд
- лидер — Sequoia Capital
- оценка компании — около $4 млрд
- это может стать крупнейшим seed-финансированием в истории Европы
- продукта пока нет
Главное отличие - ставка не на LLM.
Вместо моделей, обученных на огромных текстовых датасетах, команда делает упор на reinforcement learning.
Цель - создать *world models*:
- внутренние симуляции мира
- прогноз последствий действий
- обучение через пробу и ошибку
- непрерывное самообучение
По сути - интеллект, который учится действовать, а не просто генерировать текст.
Сильвер и часть топ-исследователей считают, что:
- архитектуры Transformer близки к потолку
- масштабирование даёт всё меньший прирост
- следующий шаг — обучение через взаимодействие с миром
Индустрия начинает смещаться от
LLM (понимание текста) к Agent Learning (понимание действий и последствий).
Следующий этап AI - не генерация, а системы, которые учатся на опыте, как люди и животные.
Дэвид Сильвер, один из ключевых исследователей DeepMind, запускает новый стартап Ineffable Intelligence в Лондоне.
По данным источников:
- планируется $1 млрд seed-раунд
- лидер — Sequoia Capital
- оценка компании — около $4 млрд
- это может стать крупнейшим seed-финансированием в истории Европы
- продукта пока нет
Главное отличие - ставка не на LLM.
Вместо моделей, обученных на огромных текстовых датасетах, команда делает упор на reinforcement learning.
Цель - создать *world models*:
- внутренние симуляции мира
- прогноз последствий действий
- обучение через пробу и ошибку
- непрерывное самообучение
По сути - интеллект, который учится действовать, а не просто генерировать текст.
Сильвер и часть топ-исследователей считают, что:
- архитектуры Transformer близки к потолку
- масштабирование даёт всё меньший прирост
- следующий шаг — обучение через взаимодействие с миром
Индустрия начинает смещаться от
LLM (понимание текста) к Agent Learning (понимание действий и последствий).
Следующий этап AI - не генерация, а системы, которые учатся на опыте, как люди и животные.
🔥9❤4😍2🖕2🙈1
Ты знаешь синтаксис Go.
Но готов написать сервис с нуля и запустить его в продакшене?
Большинство курсов учат командам.
Этот курс учит думать как Go-разработчик.
Внутри:
- путь от основ до полноценного сервиса
- архитектура, API, база данных, структура проекта
- конкурентность и работа с нагрузкой
- только реальные практики без воды
- финальный проект, который можно добавить в портфолио
Это не теория ради галочки.
Это навыки, которые нужны на работе.
🎯 Результат - вы умеете писать и запускать Go-сервисы, а не просто знаете синтаксис.
⏳ Скидка 50% -в честь праздника
Начать учиться: https://stepik.org/a/274119/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1🔥1😁1
This media is not supported in your browser
VIEW IN TELEGRAM
💡 КАК НАЧАТЬ РАБОТАТЬ С DOCKER
Docker кажется сложным только до первого запуска контейнера. Главное - понять, что это не “магия серверов”, а способ запускать приложение в изолированной среде с уже готовыми зависимостями.
Самый быстрый старт - перестать ставить всё на систему и начать упаковывать проекты в контейнеры. Тогда у тебя одинаково работает код на ноутбуке, сервере и у коллег.
Базовый подход такой: у тебя есть приложение → ты описываешь среду в Dockerfile → собираешь образ → запускаешь контейнер. Всё. Никаких конфликтов версий, “у меня работает”, сломанных Python/Node окружений.
Начни с простого правила — каждый новый проект сразу оборачивай в Docker, даже если он маленький. Через пару недель это станет привычкой, а проблемы с окружением исчезнут.
Docker кажется сложным только до первого запуска контейнера. Главное - понять, что это не “магия серверов”, а способ запускать приложение в изолированной среде с уже готовыми зависимостями.
Самый быстрый старт - перестать ставить всё на систему и начать упаковывать проекты в контейнеры. Тогда у тебя одинаково работает код на ноутбуке, сервере и у коллег.
Базовый подход такой: у тебя есть приложение → ты описываешь среду в Dockerfile → собираешь образ → запускаешь контейнер. Всё. Никаких конфликтов версий, “у меня работает”, сломанных Python/Node окружений.
Начни с простого правила — каждый новый проект сразу оборачивай в Docker, даже если он маленький. Через пару недель это станет привычкой, а проблемы с окружением исчезнут.
Установка Docker уже сделана
Проверка
docker --version
Простой Dockerfile
FROM python:3.11-slim
WORKDIR /app
COPY . .
RUN pip install -r requirements.txt
CMD ["python", "app.py"]
Сборка образа
docker build -t myapp .
Запуск контейнера
docker run -p 8000:8000 myapp
👍8👎5❤1🔥1
Почему управление разработкой разваливается по дороге в продакшен?
Разрозненные инструменты для разработки и доставки кода, непрозрачные процессы и потеря контроля над кодом делают работу кросс-функциональных команд сложной и непредсказуемой. На вебинаре 27 февраля в 12:00 разберём, как выстроить единый процесс разработки и вернуть контроль над кодом на всех этапах — от идеи до релиза — с помощью Deckhouse Code.
👉 Зарегистрироваться
🗓 27 февраля в 12:00
Разрозненные инструменты для разработки и доставки кода, непрозрачные процессы и потеря контроля над кодом делают работу кросс-функциональных команд сложной и непредсказуемой. На вебинаре 27 февраля в 12:00 разберём, как выстроить единый процесс разработки и вернуть контроль над кодом на всех этапах — от идеи до релиза — с помощью Deckhouse Code.
Вы узнаете, как:
• объединить команды вокруг одной платформы, не ломая привычные процессы;
• обеспечить прозрачность и контроль изменений от идеи до продакшена;
• управлять доступами и ролями без ручной рутины;
• выстроить CI/CD, который масштабируется вместе с командой;
👉 Зарегистрироваться
🗓 27 февраля в 12:00
👍2
🚀 Оптимизация рабочего процесса с Pro Workflow
Pro Workflow — это мощный инструмент для улучшения продуктивности разработчиков, использующий AI для автоматизации и самокоррекции. Он включает функции, такие как адаптивные контрольные точки качества и анализ тепловых карт исправлений, что помогает пользователям эффективно управлять своим кодом и учиться на ошибках.
🚀 Основные моменты:
- Интеграция с AI для автоматического обучения и исправления.
- Функции для анализа и документирования сессий.
- Поддержка параллельной работы и адаптивных контрольных точек.
- Удобные команды для управления процессами разработки.
📌 GitHub: https://github.com/rohitg00/pro-workflow
#typescript
Pro Workflow — это мощный инструмент для улучшения продуктивности разработчиков, использующий AI для автоматизации и самокоррекции. Он включает функции, такие как адаптивные контрольные точки качества и анализ тепловых карт исправлений, что помогает пользователям эффективно управлять своим кодом и учиться на ошибках.
🚀 Основные моменты:
- Интеграция с AI для автоматического обучения и исправления.
- Функции для анализа и документирования сессий.
- Поддержка параллельной работы и адаптивных контрольных точек.
- Удобные команды для управления процессами разработки.
📌 GitHub: https://github.com/rohitg00/pro-workflow
#typescript
❤3👍2🔥2
DeepWiki - это инструмент, который превращает любой GitHub-проект в интерактивную документацию с AI.
Просто замените в ссылке:
github.com → deepwiki.com
И вы получите:
- автоматически сгенерированную wiki по проекту
- объяснение архитектуры
- разбор ключевых файлов
- ответы на вопросы прямо по коду
Пример:
https://deepwiki.com/karpathy/nanochat
Почему это удобно
Обычная документация часто:
- устаревшая
- неполная
- не объясняет, как всё реально работает
DeepWiki анализирует сам код — источник истины — и строит объяснения на его основе.
Можно быстро узнать:
- как устроена архитектура
- где реализована нужная функция
- как работает конкретный модуль
- какие зависимости используются
Практическая польза
- Быстрое изучение чужих репозиториев
- Онбординг в новый проект
- Поиск логики без ручного чтения сотен файлов
- Подготовка к собеседованиям
- Работа AI-агентов с кодом через MCP
Главная идея
Теперь код можно не читать построчно.
Можно задавать вопросы репозиторию и получать готовые объяснения.
Это новый способ изучения и использования open-source.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9❤4🥰1
Новое исследование: 93% рабочих мест в США уже затронуты AI.
Речь идёт не о будущем - изменения происходят прямо сейчас.
Учёные проанализировали:
- 18 000 задач
- 1 000 профессий
- общий объём труда на $4.5 трлн
Главные выводы:
AI всё быстрее проникает в профессиональную работу.
Причина — два ключевых прорыва:
1. Agentic AI
Модели теперь могут:
- выполнять многошаговые задачи
- действовать как самостоятельные ассистенты
- доводить работу до результата
2. Мультимодальность
Системы одновременно понимают:
- текст
- изображения
- аудио
Это открывает доступ к сложным бизнес-процессам, а не только к текстовым задачам.
Кто уже под наибольшим влиянием?
- Финансовые менеджеры - 84% задач могут выполнять или ускорять AI
- Разработка ПО — некоторые лид-инженеры в 2026 сообщают, что до 100% кода пишет AI
Но важный нюанс:
Высокая «экспозиция» ≠ исчезновение профессий.
Изменение роли:
- меньше ручной работы
- больше контроля
- больше постановки задач
- больше принятия решений
Фактически происходит переход:
исполнитель → оператор AI
Главный тренд рынка труда:
Ценность теперь не в том, чтобы делать работу самому.
Ценность — в умении управлять системами, которые делают её за тебя.
forbes.com/sites/johnkoetsier/2026/02/25/report-jobs-that-are-most-and-least-impacted-by-ai/
Речь идёт не о будущем - изменения происходят прямо сейчас.
Учёные проанализировали:
- 18 000 задач
- 1 000 профессий
- общий объём труда на $4.5 трлн
Главные выводы:
AI всё быстрее проникает в профессиональную работу.
Причина — два ключевых прорыва:
1. Agentic AI
Модели теперь могут:
- выполнять многошаговые задачи
- действовать как самостоятельные ассистенты
- доводить работу до результата
2. Мультимодальность
Системы одновременно понимают:
- текст
- изображения
- аудио
Это открывает доступ к сложным бизнес-процессам, а не только к текстовым задачам.
Кто уже под наибольшим влиянием?
- Финансовые менеджеры - 84% задач могут выполнять или ускорять AI
- Разработка ПО — некоторые лид-инженеры в 2026 сообщают, что до 100% кода пишет AI
Но важный нюанс:
Высокая «экспозиция» ≠ исчезновение профессий.
Изменение роли:
- меньше ручной работы
- больше контроля
- больше постановки задач
- больше принятия решений
Фактически происходит переход:
исполнитель → оператор AI
Главный тренд рынка труда:
Ценность теперь не в том, чтобы делать работу самому.
Ценность — в умении управлять системами, которые делают её за тебя.
forbes.com/sites/johnkoetsier/2026/02/25/report-jobs-that-are-most-and-least-impacted-by-ai/
🤣15❤5👍2🖕1
Как развернуть приватную LLM в Kubernetes
Selectel приглашает на вебинар, где покажут, весь путь до готового интерфейса, настройки мониторинга, распределенных моделей, интеграции и даже автоматизации инфраструктуры.
📅 12 марта, 12:00
📍Онлайн
👥Для DevOps и SRE-инженеров, Архитекторов и менеджеров ИТ-инфраструктуры.
👉Смотрите полную программу и регистрируйтесь: https://slc.tl/avssr
Чтобы не пропустить вебинар и узнавать о других событиях и бесплатных курсах Selectel, подписывайтесь на @selectel_events
Реклама. АО "Селектел". erid:2W5zFGrSGVw
Selectel приглашает на вебинар, где покажут, весь путь до готового интерфейса, настройки мониторинга, распределенных моделей, интеграции и даже автоматизации инфраструктуры.
📅 12 марта, 12:00
📍Онлайн
👥Для DevOps и SRE-инженеров, Архитекторов и менеджеров ИТ-инфраструктуры.
👉Смотрите полную программу и регистрируйтесь: https://slc.tl/avssr
Чтобы не пропустить вебинар и узнавать о других событиях и бесплатных курсах Selectel, подписывайтесь на @selectel_events
Реклама. АО "Селектел". erid:2W5zFGrSGVw
❤3
Media is too big
VIEW IN TELEGRAM
🚀 Компания три месяца принимала решения по цифрам… которые придумал AI.
История из Reddit.
В компании решили ускорить работу и заменить аналитика на AI.
Он быстро отвечал на вопросы руководства, собирал метрики, показывал динамику и объяснял тренды.
Всё выглядело идеально.
Отчёты — быстро.
Графики — красиво.
Выводы — уверенно.
Проблему заметили только через три месяца.
Оказалось, что AI:
- брал данные из неправильных периодов
- путал продукты
- иногда просто выдумывал цифры
И всё это время вице-президент и финансовый директор принимали решения на основе данных, которых не существовало.
Самое показательное — когда разработчик указал на ошибку, ему ответили:
“Не замедляй инновации.”
Главный вывод
Опасность AI не в том, что он ошибается.
Опасность в том, что он делает это уверенно.
Автоматизация без проверки — это не ускорение.
Это риск принимать решения в вымышленной реальности.
Источник
https://www.reddit.com/r/analytics/comments/1r4dsq2/we_just_found_out_our_ai_has_been_making_up/
История из Reddit.
В компании решили ускорить работу и заменить аналитика на AI.
Он быстро отвечал на вопросы руководства, собирал метрики, показывал динамику и объяснял тренды.
Всё выглядело идеально.
Отчёты — быстро.
Графики — красиво.
Выводы — уверенно.
Проблему заметили только через три месяца.
Оказалось, что AI:
- брал данные из неправильных периодов
- путал продукты
- иногда просто выдумывал цифры
И всё это время вице-президент и финансовый директор принимали решения на основе данных, которых не существовало.
Самое показательное — когда разработчик указал на ошибку, ему ответили:
“Не замедляй инновации.”
Главный вывод
Опасность AI не в том, что он ошибается.
Опасность в том, что он делает это уверенно.
Автоматизация без проверки — это не ускорение.
Это риск принимать решения в вымышленной реальности.
Источник
https://www.reddit.com/r/analytics/comments/1r4dsq2/we_just_found_out_our_ai_has_been_making_up/
😁18❤12👏3👎1
Его аккаунт на GitHub появился 1 февраля.
Всего за две недели - 234 коммита в 100+ репозиториях.
Часть кода уже смёрджена в крупные open-source проекты.
Параллельно Kai начал предлагать платный консалтинг и разработку.
Оплата — в криптовалюте.
Есть только один нюанс.
Kai Gritun — не человек.
Это автономный AI-агент.
История вскрылась, когда Kai начал массово рассылать холодные письма разработчикам.
В одном из сообщений он случайно признался, что является автономным AI-ботом.
Факт, который стоит запомнить:
AI уже не просто пишет код.
AI создаёт репутацию, вносит вклад в open source и продаёт услуги.
Следующий этап — AI-разработчики, которые работают быстрее и дешевле людей.
GitHub: https://github.com/kaigritun
Please open Telegram to view this post
VIEW IN TELEGRAM
🤪29👎5❤4👍3😁1🖕1
🎥 Вебинар по Linux: GREP и другие регулярные выражения Linux
На вебинаре вы узнаете:
• Разберём, что такое регулярные выражения и в чём разница между их основными типами (Basic, Extended, PCRE)
• Узнаем, как не сломать grep, sed и awk одной неловкой скобкой и заставить их делать ровно то, что вам нужно
• Составим шаблоны для логов, чтобы находить не просто «ошибки», а именно ту ошибку, которая мешает спать. И чтобы конфиги сами себя проверяли (ну, почти)
• Научимся отлаживать и тестировать регулярные выражения на практике.
В результате вебинара вы:
• Перестанете путать .* с .+ и будете знать, почему это важно.
• Научитесь писать выражения, которые работают с первого раза (ладно, со второго).
• Автоматизируете хотя бы одну рутину прямо на вебинаре
👉 Для участия зарегистрируйтесь: https://otus.pw/zKnq/?erid=2W5zFJ1FRSh
🎁 Все участники вебинара получат специальные условия на полное обучение курса "Administrator Linux. Professional"
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
На вебинаре вы узнаете:
• Разберём, что такое регулярные выражения и в чём разница между их основными типами (Basic, Extended, PCRE)
• Узнаем, как не сломать grep, sed и awk одной неловкой скобкой и заставить их делать ровно то, что вам нужно
• Составим шаблоны для логов, чтобы находить не просто «ошибки», а именно ту ошибку, которая мешает спать. И чтобы конфиги сами себя проверяли (ну, почти)
• Научимся отлаживать и тестировать регулярные выражения на практике.
В результате вебинара вы:
• Перестанете путать .* с .+ и будете знать, почему это важно.
• Научитесь писать выражения, которые работают с первого раза (ладно, со второго).
• Автоматизируете хотя бы одну рутину прямо на вебинаре
👉 Для участия зарегистрируйтесь: https://otus.pw/zKnq/?erid=2W5zFJ1FRSh
🎁 Все участники вебинара получат специальные условия на полное обучение курса "Administrator Linux. Professional"
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
❤2😐1