[1/3] Google's AI‑powered next‑generation global network: Built for the Gemini era - Эволюция сети (Рубрика #Infrastructure)
Прочитал интересную статью от Google про эволюцию их сети за авторством Bikash Koley, VP по глобальным сетям и инфраструктуре. Основная идея статьи - показать эволюцию частной глобальной сети Google и новые принципы её дизайна, призванные удовлетворить стремительно растущие потребности ИИ-эры (а заодно порекламировать доступность этой сети Google клиентам GCP в качестве продукта CloudWAN).
Вот какие эпохи проходила сетевая архитектура Google
🌐 Internet era (2000-e)
Фокус был на быстром и надёжном получении результатов поиска, почты Gmail, карт и пр. Для этого Google строила собственные датацентры и каналы связи, а также изобретала технологии, позволявшие масштабировать сеть: частная магистраль, первый программно-определяемый WAN B4, контроллер трафика Orion и датацентровый коммутатор Jupiter
📱 Streaming era (конец 2000-х)
С ростом YouTube и потокового видео Google адаптировала сеть под видеостриминг - снизила задержки и jitters благодаря развитию своей CDN (Google Global Cache - кэширующие узлы у операторов связи) и новым протоколам передачи данных (Espresso, QUIC, TCP BBR и др.)
💭 Cloud era (2010-e)
Дальше наступил бурный рост облачных сервисов, а это потребовало усилить надёжность, изоляцию клиентов и безопасность сети. Google в ответ внедрила SDN (программно-определённые сети) везде: от виртуальной сети датацентра Andromeda до нового RPC-протокола gRPC и систем защиты трафика (PSP, Swift и др.).
Сейчас сеть Google очень масштабна
- 2 миллионов миль оптоволокна, инвестиции в 33 подводных кабеля через океаны, которые соденяют compute инфраструктуру
- 200+ узлов Point of Presence, 3000+ CDN-локаций по всему миру, 42 облачных региона, 127 зон
В продолжении я расскажу а как и куда дальше Google планирует развивать свои сети и сравню с подходом от запрещенной в России Meta.
#Software #DevOps #Architecture #Economics #DistributedSystem #SystemDesign
Прочитал интересную статью от Google про эволюцию их сети за авторством Bikash Koley, VP по глобальным сетям и инфраструктуре. Основная идея статьи - показать эволюцию частной глобальной сети Google и новые принципы её дизайна, призванные удовлетворить стремительно растущие потребности ИИ-эры (а заодно порекламировать доступность этой сети Google клиентам GCP в качестве продукта CloudWAN).
Вот какие эпохи проходила сетевая архитектура Google
Фокус был на быстром и надёжном получении результатов поиска, почты Gmail, карт и пр. Для этого Google строила собственные датацентры и каналы связи, а также изобретала технологии, позволявшие масштабировать сеть: частная магистраль, первый программно-определяемый WAN B4, контроллер трафика Orion и датацентровый коммутатор Jupiter
С ростом YouTube и потокового видео Google адаптировала сеть под видеостриминг - снизила задержки и jitters благодаря развитию своей CDN (Google Global Cache - кэширующие узлы у операторов связи) и новым протоколам передачи данных (Espresso, QUIC, TCP BBR и др.)
Дальше наступил бурный рост облачных сервисов, а это потребовало усилить надёжность, изоляцию клиентов и безопасность сети. Google в ответ внедрила SDN (программно-определённые сети) везде: от виртуальной сети датацентра Andromeda до нового RPC-протокола gRPC и систем защиты трафика (PSP, Swift и др.).
Сейчас сеть Google очень масштабна
- 2 миллионов миль оптоволокна, инвестиции в 33 подводных кабеля через океаны, которые соденяют compute инфраструктуру
- 200+ узлов Point of Presence, 3000+ CDN-локаций по всему миру, 42 облачных региона, 127 зон
В продолжении я расскажу а как и куда дальше Google планирует развивать свои сети и сравню с подходом от запрещенной в России Meta.
#Software #DevOps #Architecture #Economics #DistributedSystem #SystemDesign
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12🔥2👍1
[2/3] Google's AI‑powered next‑generation global network: Built for the Gemini era - Вызовы на сети в эру AI (Рубрика #Infrastructure)
Продолжая рассказ про эволюцию сетей Google, стоит сказать, что сейчас они видят новый поворотный момент - взрывное развитие искусственного интеллекта, что предъявляет к сети беспрецедентные требования (например, обучение больших моделей резко меняют профиль нагрузки на сеть). На самом деле там есть целых четыре отдельных вызова, что приводят к изменению дизайн-принципов развертывания сетей
1. WAN как новая LAN
Обучение современных foundation models требует объединения тысяч TPU/GPU. И то, что раньше размещалось в пределах одного датацентра, теперь распределено географически (континент как датацентр - примерно тот же посыл у запрещенной в России Meta). Сеть должна масштабироваться на порядок больше прежнего, чтобы связать удалённые кластеры так, словно они в одном локальном сегменте. При этом трафик от распределённого обучения идёт всплесками, которые нужно эффективно обнаруживать и маршрутизировать без потери производительности.
2. Нулевая терпимость к сбоям
Процессы обучения моделей ИИ и крупномасштабный inference очень чувствительны к перебоям. Остановка обучения из-за сетевого сбоя - неприемлема из-за простев дорого железа. От сети теперь ожидают практически 100% доступности, без ощутимых перерывов, а значит сеть должна быть спроектирована так, чтобы любые отказоустойчивые механизмы срабатывали мгновенно и вообще не влияли на долгий процесс обучения.
3. Повышенные требования безопасности и контроля
Данные, на которых обучаются модели, и сами модели - ценный и чувствительный ресурс. Их нужно защищать как от утечек, так и от несанкционированных изменений. Кроме того, по мере распространения ИИ растут требования к соблюдению региональных регуляторных норм и к контролю данных "на лету" (в транзите). Сеть должна обеспечивать изоляцию, шифрование, соответствие политикам разных стран и компаний, чтобы ИИ-сервисы оставались надёжными и законопослушными.
4. Операционное совершенство при возросшей сложности
Масштаб, растущий на порядок, не может управляться по-старому. Google применяет лучшие практики SRE и уже использует машинное обучение для управления сетью, но теперь ставится цель минимизировать человеческий фактор. Сеть должна работать с минимумом ручного вмешательства, потому что линейное наращивание инфраструктуры иначе приведёт к неуправляемому росту сложности и затрат. Новые подходы требуются для автоматизации, быстрого выявления и устранения проблем, оптимизации емкости.
Отсюда появляются новые дизайн принципы сетей, которые мы обсудим в следующий раз.
#Software #DevOps #Architecture #Economics #DistributedSystem #SystemDesign
Продолжая рассказ про эволюцию сетей Google, стоит сказать, что сейчас они видят новый поворотный момент - взрывное развитие искусственного интеллекта, что предъявляет к сети беспрецедентные требования (например, обучение больших моделей резко меняют профиль нагрузки на сеть). На самом деле там есть целых четыре отдельных вызова, что приводят к изменению дизайн-принципов развертывания сетей
1. WAN как новая LAN
Обучение современных foundation models требует объединения тысяч TPU/GPU. И то, что раньше размещалось в пределах одного датацентра, теперь распределено географически (континент как датацентр - примерно тот же посыл у запрещенной в России Meta). Сеть должна масштабироваться на порядок больше прежнего, чтобы связать удалённые кластеры так, словно они в одном локальном сегменте. При этом трафик от распределённого обучения идёт всплесками, которые нужно эффективно обнаруживать и маршрутизировать без потери производительности.
2. Нулевая терпимость к сбоям
Процессы обучения моделей ИИ и крупномасштабный inference очень чувствительны к перебоям. Остановка обучения из-за сетевого сбоя - неприемлема из-за простев дорого железа. От сети теперь ожидают практически 100% доступности, без ощутимых перерывов, а значит сеть должна быть спроектирована так, чтобы любые отказоустойчивые механизмы срабатывали мгновенно и вообще не влияли на долгий процесс обучения.
3. Повышенные требования безопасности и контроля
Данные, на которых обучаются модели, и сами модели - ценный и чувствительный ресурс. Их нужно защищать как от утечек, так и от несанкционированных изменений. Кроме того, по мере распространения ИИ растут требования к соблюдению региональных регуляторных норм и к контролю данных "на лету" (в транзите). Сеть должна обеспечивать изоляцию, шифрование, соответствие политикам разных стран и компаний, чтобы ИИ-сервисы оставались надёжными и законопослушными.
4. Операционное совершенство при возросшей сложности
Масштаб, растущий на порядок, не может управляться по-старому. Google применяет лучшие практики SRE и уже использует машинное обучение для управления сетью, но теперь ставится цель минимизировать человеческий фактор. Сеть должна работать с минимумом ручного вмешательства, потому что линейное наращивание инфраструктуры иначе приведёт к неуправляемому росту сложности и затрат. Новые подходы требуются для автоматизации, быстрого выявления и устранения проблем, оптимизации емкости.
Отсюда появляются новые дизайн принципы сетей, которые мы обсудим в следующий раз.
#Software #DevOps #Architecture #Economics #DistributedSystem #SystemDesign
Telegram
Книжный куб
[1/3] Google's AI‑powered next‑generation global network: Built for the Gemini era - Эволюция сети (Рубрика #Infrastructure)
Прочитал интересную статью от Google про эволюцию их сети за авторством Bikash Koley, VP по глобальным сетям и инфраструктуре. Основная…
Прочитал интересную статью от Google про эволюцию их сети за авторством Bikash Koley, VP по глобальным сетям и инфраструктуре. Основная…
❤4👍4🔥4
[3/3] Google's AI‑powered next‑generation global network: Built for the Gemini era - Новые принципы дизайна сетей (Рубрика #Infrastructure)
Продолжая рассказ про эволюцию сетей Google, стоит рассказать про то как новые подходы к архитектуре сетей решает вызовы, озвученные в прошлом посте
1. Экспоненциальная масштабируемость
Сеть должна гибко выдерживать лавинообразный рост трафика и данных, особенно в регионах, где сосредоточены ИИ-вычисления. Принцип "WAN - это новая LAN" реализуется через отказ от монолитна в пользу горизонтального масштабирования (архитектура multi-shard network). Шарды независимы - у каждого свой набор контроллеров и каналов. Это позволяет параллельно наращивать пропускную способность - с 2020 по 2025 год пропускная способность глобального WAN Google увеличилась в 7 раз. Кроме того, такая сегментация упрощает управление: каждая «шардинговая» подсеть более контролируема по размеру.
2. Надёжность выше традиционных “пяти девяток”.
В индустрии обычно говорят о 99.9% или 99.99% доступности, но для критичных AI нагрузок выжны long tail выбросы (нужен детерминизм и бесперебойная работа сети). На практике сеть должна локализовать проблемы и автоматически их обходить до того, как пользователи или процессы заметят сбой. Для этого
- Шарды изолированы друг от друга (сбои не кореллируют)
- Дополнительно введена изоляция по регионам, чтобы локальные неполадки не каскадировались глобально
- Создана технология Protective ReRoute для быстрого обнаружения потерь связи и перенаправления трафика за секунды
После включения Protective ReRoute суммарное время простоев по инцидентам сократилось на до 93%.
3. Программируемость, управляемая намерениями (Intent-driven programmability)
Сеть Google обслуживает миллиарды пользователей и множество корпоративных клиентов с разными требованиями, например
- Кому-то критична задержка
- Кому-то важно шифрование
- А кто-то должен географически раскидывать данные (с учетом регуляторики)
Для удовлетворения таких разных требований ребята сделали сеть полностью программируемой (SDN) на основе высокоуровневых политик (intent), то есть созданы
- Единые модели представления сети (например, модель MALT - Multi-Abstraction-Layer Topology)
- Открытые API для управления
- Централизованные SDN-контроллеры, которые могут трактовать намерения операторов или приложений и применять их к сети.
Такая гибкость позволяет задать политики для конкретных приложений или данных (например, чтобы определённый тип трафика шёл только через узлы в заданной стране для соблюдения суверенитета данных, или чтобы критичные сервисы всегда имели резервные каналы). А высокоуровневое управление не требует ручного конфигурирования (как в SQL достаточно указать что нужно, а умная сеть подстроится под запрос)
4. Автономная сеть
Сети уже прошли путь вида: ручное управление -> автоматизированное (скрипты) -> автоматическое (по жестким правилам). Новая цель в том, чтобы сделать сеть самоуправляемой при помощи машинного обучения и "цифрового двойника", где модели постоянно обучаются на телеметрии.Так сеть сможет симулировать и предвидеть сбои, быстро локализовать причину неполадок и даже оптимизировать планирование ёмкости каналов на будущее.
После внедрения этих инструментов время реакции на сбой сократилось с часов до минут, что существенно повысило эффективность и устойчивость работы сети без участия человека.
Следуя этим четырём принципам, Google внедрила целый ряд технологических новшеств в своей следующей генерации сети. Всё это превращает её глобальную сеть в платформу, способную удовлетворять потребности ИИ без ущерба для опыта пользователей. В финале статьи подчёркивается, что такая сеть открывает возможности не только для Google, но и для клиентов облака (немного нативной рекламы не повредит )
В последнем посте мы сравним эту стать/ про инфру от Google и статью от запрещенной в России Meta.
#Software #DevOps #Architecture #Economics #DistributedSystem #SystemDesign
Продолжая рассказ про эволюцию сетей Google, стоит рассказать про то как новые подходы к архитектуре сетей решает вызовы, озвученные в прошлом посте
1. Экспоненциальная масштабируемость
Сеть должна гибко выдерживать лавинообразный рост трафика и данных, особенно в регионах, где сосредоточены ИИ-вычисления. Принцип "WAN - это новая LAN" реализуется через отказ от монолитна в пользу горизонтального масштабирования (архитектура multi-shard network). Шарды независимы - у каждого свой набор контроллеров и каналов. Это позволяет параллельно наращивать пропускную способность - с 2020 по 2025 год пропускная способность глобального WAN Google увеличилась в 7 раз. Кроме того, такая сегментация упрощает управление: каждая «шардинговая» подсеть более контролируема по размеру.
2. Надёжность выше традиционных “пяти девяток”.
В индустрии обычно говорят о 99.9% или 99.99% доступности, но для критичных AI нагрузок выжны long tail выбросы (нужен детерминизм и бесперебойная работа сети). На практике сеть должна локализовать проблемы и автоматически их обходить до того, как пользователи или процессы заметят сбой. Для этого
- Шарды изолированы друг от друга (сбои не кореллируют)
- Дополнительно введена изоляция по регионам, чтобы локальные неполадки не каскадировались глобально
- Создана технология Protective ReRoute для быстрого обнаружения потерь связи и перенаправления трафика за секунды
После включения Protective ReRoute суммарное время простоев по инцидентам сократилось на до 93%.
3. Программируемость, управляемая намерениями (Intent-driven programmability)
Сеть Google обслуживает миллиарды пользователей и множество корпоративных клиентов с разными требованиями, например
- Кому-то критична задержка
- Кому-то важно шифрование
- А кто-то должен географически раскидывать данные (с учетом регуляторики)
Для удовлетворения таких разных требований ребята сделали сеть полностью программируемой (SDN) на основе высокоуровневых политик (intent), то есть созданы
- Единые модели представления сети (например, модель MALT - Multi-Abstraction-Layer Topology)
- Открытые API для управления
- Централизованные SDN-контроллеры, которые могут трактовать намерения операторов или приложений и применять их к сети.
Такая гибкость позволяет задать политики для конкретных приложений или данных (например, чтобы определённый тип трафика шёл только через узлы в заданной стране для соблюдения суверенитета данных, или чтобы критичные сервисы всегда имели резервные каналы). А высокоуровневое управление не требует ручного конфигурирования (как в SQL достаточно указать что нужно, а умная сеть подстроится под запрос)
4. Автономная сеть
Сети уже прошли путь вида: ручное управление -> автоматизированное (скрипты) -> автоматическое (по жестким правилам). Новая цель в том, чтобы сделать сеть самоуправляемой при помощи машинного обучения и "цифрового двойника", где модели постоянно обучаются на телеметрии.Так сеть сможет симулировать и предвидеть сбои, быстро локализовать причину неполадок и даже оптимизировать планирование ёмкости каналов на будущее.
После внедрения этих инструментов время реакции на сбой сократилось с часов до минут, что существенно повысило эффективность и устойчивость работы сети без участия человека.
Следуя этим четырём принципам, Google внедрила целый ряд технологических новшеств в своей следующей генерации сети. Всё это превращает её глобальную сеть в платформу, способную удовлетворять потребности ИИ без ущерба для опыта пользователей. В финале статьи подчёркивается, что такая сеть открывает возможности не только для Google, но и для клиентов облака (
В последнем посте мы сравним эту стать/ про инфру от Google и статью от запрещенной в России Meta.
#Software #DevOps #Architecture #Economics #DistributedSystem #SystemDesign
Telegram
Книжный куб
[1/3] Google's AI‑powered next‑generation global network: Built for the Gemini era - Эволюция сети (Рубрика #Infrastructure)
Прочитал интересную статью от Google про эволюцию их сети за авторством Bikash Koley, VP по глобальным сетям и инфраструктуре. Основная…
Прочитал интересную статью от Google про эволюцию их сети за авторством Bikash Koley, VP по глобальным сетям и инфраструктуре. Основная…
❤5⚡2🔥1
Сравнение подходов Google и Meta к построению сетей и инфры (Рубрика #Architecture)
В этом посте я решил сравнить подходы Google запрещенной в России Meta к своей сетевой архитектуре. Суть в том, что обе эти компании в 2025 году написали статьи на тему того, как инфра меняется с учетом вызовов эры AI и я до этого разобрал обе
- Meta’s Hyperscale Infrastructure: Overview and Insights
- Google's AI‑powered next‑generation global network: Built for the Gemini era
Если обобщать, то обе компании сходятся во взгляде, что их глобальная инфраструктура должна работать как единый организм. У них похожи даже девизы
- Google: WAN – это новая LAN, континент стал датацентром
- Meta: все глобальные датацентры – это один компьютер
Но при реализация акценты у Google и Meta различаются:
1. Масштаб сети и для кого она
И Google, и Meta построили собственные глобальные сети на оптоволокне, связывающие датацентры напрямую, вместо зависимости от публичного интернета. Оба стремятся разместить узлы ближе к пользователям (кэши, PoP) для низких задержек. Но Google делает для себя и клиентов Google Cloud, а Meta только для себя и своих продуктов
2. Архитектура масштабирования
Подходы компаний к масштабируемости сети WAN очень схожи по концепции, хотя реализованы своими методами
- На уровне LAN внутри ДЦ все похоже и oversubscription нет - обе компании используют масштабируемые фабричные топологии (Clos/fat-tree) и добавляют коммутаторы на верхних уровнях
- На уровне WAN у Google шарды, у Meta отдельные planes, но у Google на уровне WAN нет oversubscription, а у Meta есть (а это влияет на возможность/невозможность распределенного обучени foundation models)
3. Надёжность и обновления
У обеих компаний сеть спроектирована с идеей локализации проблем и быстрого самовосстановления, но
- Google говорит об автономной сети - автоматическом реагировании самой сети на проблемы. Задача в том, чтобы сделать ультра-высокую надежность (beyond 9s) и для этого нужна автономная система, что обладает selfhealing возможностями
- Meta говорит об автоматизациях сетевой конфигурации - возможности быстро менять конфигурацию и софт без ущерба работе. То есть здесь закрыт уровень автоматизации, но изменения должен инициировать человек
4. Интеграция с AI-нагрузками
Оба гиганта осознают, что искусственный интеллект диктует новые требования к инфраструктуре. Однако подходы проявляются по-разному.
- У Google сеть позволяет делать распределенные тренировки и они могут горизонтально масштабироваться
- У Meta сеть позволяет распределенно гонять все нагрузки, кроме тренировок больших моделей. Там ребята ориентируютсяй на масштабирование через scale-up внутри ДЦ. Дальше они планируют допилить сеть для возможностей распределенных тренировок
5. Программируемость решений
Оба игрока применяют принципы software-defined networking и автоматизации управления. Но есть и разница
- У Google много разных клиентов (с учетом Google Cloud), поэтому им нужно было удобное централизованное управление политиками сети для разных задач (будь то обслуживание cloud-клиентов или внутренних сервисов)
- У Meta также центральные контроллеры для управления сетью - они постоянно оптимизируют распределение трафика от пользователей (PoP) к датацентрам с учётом загрузки и задержек, а в самих датацентрах контроллер может изменять маршруты при перегрузках или сбоях.
Итого, Google и Meta идут параллельными курсами: они решают схожие задачи гипер-масштабной сети, иногда разными методами, но общая цель одинакова - сеть, способная связать весь мир в единый “компьютер” для своих услуг и будущих AI-приложений. Но вот подход компаний к публикации результатов сильно отличается
- Google публикует научные статьи и продает коммерческие сервивсы, но не публикует код инструментов или дизайн железа
- Meta активно делится дизайнами аппаратного обеспечения через сообщество Open Compute Project, а также публикует многие свои наработки: фреймворки, базы данных
#Software #DevOps #Architecture #Economics #DistributedSystem #SystemDesign
В этом посте я решил сравнить подходы Google запрещенной в России Meta к своей сетевой архитектуре. Суть в том, что обе эти компании в 2025 году написали статьи на тему того, как инфра меняется с учетом вызовов эры AI и я до этого разобрал обе
- Meta’s Hyperscale Infrastructure: Overview and Insights
- Google's AI‑powered next‑generation global network: Built for the Gemini era
Если обобщать, то обе компании сходятся во взгляде, что их глобальная инфраструктура должна работать как единый организм. У них похожи даже девизы
- Google: WAN – это новая LAN, континент стал датацентром
- Meta: все глобальные датацентры – это один компьютер
Но при реализация акценты у Google и Meta различаются:
1. Масштаб сети и для кого она
И Google, и Meta построили собственные глобальные сети на оптоволокне, связывающие датацентры напрямую, вместо зависимости от публичного интернета. Оба стремятся разместить узлы ближе к пользователям (кэши, PoP) для низких задержек. Но Google делает для себя и клиентов Google Cloud, а Meta только для себя и своих продуктов
2. Архитектура масштабирования
Подходы компаний к масштабируемости сети WAN очень схожи по концепции, хотя реализованы своими методами
- На уровне LAN внутри ДЦ все похоже и oversubscription нет - обе компании используют масштабируемые фабричные топологии (Clos/fat-tree) и добавляют коммутаторы на верхних уровнях
- На уровне WAN у Google шарды, у Meta отдельные planes, но у Google на уровне WAN нет oversubscription, а у Meta есть (а это влияет на возможность/невозможность распределенного обучени foundation models)
3. Надёжность и обновления
У обеих компаний сеть спроектирована с идеей локализации проблем и быстрого самовосстановления, но
- Google говорит об автономной сети - автоматическом реагировании самой сети на проблемы. Задача в том, чтобы сделать ультра-высокую надежность (beyond 9s) и для этого нужна автономная система, что обладает selfhealing возможностями
- Meta говорит об автоматизациях сетевой конфигурации - возможности быстро менять конфигурацию и софт без ущерба работе. То есть здесь закрыт уровень автоматизации, но изменения должен инициировать человек
4. Интеграция с AI-нагрузками
Оба гиганта осознают, что искусственный интеллект диктует новые требования к инфраструктуре. Однако подходы проявляются по-разному.
- У Google сеть позволяет делать распределенные тренировки и они могут горизонтально масштабироваться
- У Meta сеть позволяет распределенно гонять все нагрузки, кроме тренировок больших моделей. Там ребята ориентируютсяй на масштабирование через scale-up внутри ДЦ. Дальше они планируют допилить сеть для возможностей распределенных тренировок
5. Программируемость решений
Оба игрока применяют принципы software-defined networking и автоматизации управления. Но есть и разница
- У Google много разных клиентов (с учетом Google Cloud), поэтому им нужно было удобное централизованное управление политиками сети для разных задач (будь то обслуживание cloud-клиентов или внутренних сервисов)
- У Meta также центральные контроллеры для управления сетью - они постоянно оптимизируют распределение трафика от пользователей (PoP) к датацентрам с учётом загрузки и задержек, а в самих датацентрах контроллер может изменять маршруты при перегрузках или сбоях.
Итого, Google и Meta идут параллельными курсами: они решают схожие задачи гипер-масштабной сети, иногда разными методами, но общая цель одинакова - сеть, способная связать весь мир в единый “компьютер” для своих услуг и будущих AI-приложений. Но вот подход компаний к публикации результатов сильно отличается
- Google публикует научные статьи и продает коммерческие сервивсы, но не публикует код инструментов или дизайн железа
- Meta активно делится дизайнами аппаратного обеспечения через сообщество Open Compute Project, а также публикует многие свои наработки: фреймворки, базы данных
#Software #DevOps #Architecture #Economics #DistributedSystem #SystemDesign
❤9🔥6⚡2
10 years of engineering at Nubank: Lessons from scaling to 122+ million customers (Рубрика #Architecture)
Недавно прочитал статью про эволюцию NuBank за 10 лет от Lucas Cavalcant, Distinguished Software Engineer and Senior Architect. Эта история эволюции мне показалась интересной, поэтому я решил рассказать про lessons learned
Лидерство вне кода
Техническое лидерство требует не только писать отличный код, но и умения ясно доносить идеи, вдохновлять команду и направлять её к решению - особенно когда у вас нет формальных "рычагов" руководителя (это особенность staff+ ветки IC). По мере роста роли инженера - ему приходится заниматься стратегическим планированием, координировать несколько команд и принимать крупные технические решения. У нас в Т тоже есть такая ветка, о которой я много рассказывал.
Карьерный путь (техника vs менеджмент)
В первые годы Nubank инженеры работали в режиме выживания - проблемы возникали ежедневно, и каждый бросался их чинить. Лишь к 2017 году появились первые менеджеры, и многие сеньоры (включая Лукаса Кавалканти) тогда осознали, что им ближе трек IC (individual contributor) и компания это учла: в 2018-м Lucas стал первым Principal Engineer, а недавно поднялся до Distinguished Engineer.
Эволюция архитектуры под гиперрост
Масштабирование с нуля (в 2013 году) до десятков и сотен миллионов клиентов потребовало постоянных архитектурных переделок.
- Изначально система Nubank была написана на Clojure с базой Datomic и развёртывалась монолитно в AWS (CloudFormation + AMI). Подробнее в выступлении 2017 года на QCon. А про использование AWS здесь
- С ростом нагрузки перешли на Docker и Kubernetes, распилили монолит на микросервисы, а позже создали core-банкинг платформу, способную поддерживать множество продуктов в разных странах. Подробнее в статье 2019 года про микросервисы
- Международная экспансия внесла новые требования (локальные регуляции, языки и т.д.)
Но не все масштабные решения оказались долговечны: шардирование данных, введённое в 2016-м, сначала выручало, но в итоге уткнулось в физические пределы (AWS не успевало выдавать новые сервера). Сегодня, как отмечает спикер, для дальнейшего роста нужны уже принципиально новые архитектурные подходы.
Стандарты vs инновации
На заре Nubank инженеры сами объединялись в "гильдии" для экспериментов с технологиями и инструментами помимо основной продуктовой работы. Такой подход породил культуру инноваций, но плохо масштабировался. Сейчас в компании есть отдельные платформенные команды, создающие общие инструменты и инфраструктуру - это позволяет продуктовым командам фокусироваться на своих фичах. Причем платформенным командам приходится изобретать новые подходы, инструменты и операционные практики, т.к. на масштабе Nubank часто нет готовых решений
Производительность команды без выгорания
Спикер делит свой путь на два этапа: ранние стартап-годы с бешеным темпом (постоянный "пожарный режим") и более структурированное настоящее, где выстроены процессы, не допускающие бесконечного тушения инцидентов. Его совет: на старте карьеры или продукта стоит выкладываться по максимуму, но постоянно так работать невозможно. Со временем Nubank сознательно улучшил work-life balance команд.
Взгляд в будущее (AI и финтех)
В качестве следующего большого рывка названы технологии искусственного интеллекта - прежде всего большие языковые модели (LLM). Они могут резко повысить продуктивность разработчиков, но есть риск генерировать больше изменений, чем команды смогут осмысленно потребить и сопровождать. Вызов в том, чтобы найти правильные кейсы, где AI действительно даёт стабильную пользу, а не тонны лишнего кода. Параллельно в самом финтехе происходят прорывы: например, запущенная в Бразилии система мгновенных платежей Pix радикально изменила то, как люди обращаются с деньгами . Подобные инновации, по мнению спикера, будут и дальше стирать границы между рынками и странами, задавая новые требования к масштабируемой архитектуре финансовых сервисов.
#Software #Engineering #Management #Architecture #Processes #Staff #SRE #DevOps
Недавно прочитал статью про эволюцию NuBank за 10 лет от Lucas Cavalcant, Distinguished Software Engineer and Senior Architect. Эта история эволюции мне показалась интересной, поэтому я решил рассказать про lessons learned
Лидерство вне кода
Техническое лидерство требует не только писать отличный код, но и умения ясно доносить идеи, вдохновлять команду и направлять её к решению - особенно когда у вас нет формальных "рычагов" руководителя (это особенность staff+ ветки IC). По мере роста роли инженера - ему приходится заниматься стратегическим планированием, координировать несколько команд и принимать крупные технические решения. У нас в Т тоже есть такая ветка, о которой я много рассказывал.
Карьерный путь (техника vs менеджмент)
В первые годы Nubank инженеры работали в режиме выживания - проблемы возникали ежедневно, и каждый бросался их чинить. Лишь к 2017 году появились первые менеджеры, и многие сеньоры (включая Лукаса Кавалканти) тогда осознали, что им ближе трек IC (individual contributor) и компания это учла: в 2018-м Lucas стал первым Principal Engineer, а недавно поднялся до Distinguished Engineer.
Эволюция архитектуры под гиперрост
Масштабирование с нуля (в 2013 году) до десятков и сотен миллионов клиентов потребовало постоянных архитектурных переделок.
- Изначально система Nubank была написана на Clojure с базой Datomic и развёртывалась монолитно в AWS (CloudFormation + AMI). Подробнее в выступлении 2017 года на QCon. А про использование AWS здесь
- С ростом нагрузки перешли на Docker и Kubernetes, распилили монолит на микросервисы, а позже создали core-банкинг платформу, способную поддерживать множество продуктов в разных странах. Подробнее в статье 2019 года про микросервисы
- Международная экспансия внесла новые требования (локальные регуляции, языки и т.д.)
Но не все масштабные решения оказались долговечны: шардирование данных, введённое в 2016-м, сначала выручало, но в итоге уткнулось в физические пределы (AWS не успевало выдавать новые сервера). Сегодня, как отмечает спикер, для дальнейшего роста нужны уже принципиально новые архитектурные подходы.
Стандарты vs инновации
На заре Nubank инженеры сами объединялись в "гильдии" для экспериментов с технологиями и инструментами помимо основной продуктовой работы. Такой подход породил культуру инноваций, но плохо масштабировался. Сейчас в компании есть отдельные платформенные команды, создающие общие инструменты и инфраструктуру - это позволяет продуктовым командам фокусироваться на своих фичах. Причем платформенным командам приходится изобретать новые подходы, инструменты и операционные практики, т.к. на масштабе Nubank часто нет готовых решений
Производительность команды без выгорания
Спикер делит свой путь на два этапа: ранние стартап-годы с бешеным темпом (постоянный "пожарный режим") и более структурированное настоящее, где выстроены процессы, не допускающие бесконечного тушения инцидентов. Его совет: на старте карьеры или продукта стоит выкладываться по максимуму, но постоянно так работать невозможно. Со временем Nubank сознательно улучшил work-life balance команд.
Взгляд в будущее (AI и финтех)
В качестве следующего большого рывка названы технологии искусственного интеллекта - прежде всего большие языковые модели (LLM). Они могут резко повысить продуктивность разработчиков, но есть риск генерировать больше изменений, чем команды смогут осмысленно потребить и сопровождать. Вызов в том, чтобы найти правильные кейсы, где AI действительно даёт стабильную пользу, а не тонны лишнего кода. Параллельно в самом финтехе происходят прорывы: например, запущенная в Бразилии система мгновенных платежей Pix радикально изменила то, как люди обращаются с деньгами . Подобные инновации, по мнению спикера, будут и дальше стирать границы между рынками и странами, задавая новые требования к масштабируемой архитектуре финансовых сервисов.
#Software #Engineering #Management #Architecture #Processes #Staff #SRE #DevOps
Building Nubank
10 years of engineering at Nubank: Lessons from scaling to 122+ million customers - Building Nubank
From first lines of code to massive architectural shifts, learn what it takes to scale engineering, culture, and innovation to 122+ million customers
❤8👍5🔥5
[2/2] Про Nubank (Рубрика #Business)
Продолжая рассказ про Nubank, я хотел кратко изложить тезисы Витора Оливейра, который рассказывал про технологии в Nubank в подкасте "Hippsters Ponto Tech #459" (правда, подкаст на португальском) в апреле 2025 года, а уже в августе 2025 года его сменил Eric Young (экс-VP Engineering Snap, Google, Amazon), что, как по мне, дало ясный знак инвесторам на то, что Nubank готов масштабировать свою инженерную ветку для глобальной экспании, о которой было рассказано в предыдущем посте.
1️⃣ Тесты как “первая линия обороны” Nubank
- В Nubank большой фокус на тестировании: юнит-тесты, интеграционные, multi-service-тесты и эксперименты с genAI генерацией тестов
- Обоснование в том, что для крупного финтеха это не “nice to have”, а "must have", чтобы защитить чувствительные финансовые данные клиентов и держать высокую планку по стабильности, безопасности и приватности
2️⃣ Эволюция архитектуры: от JVM-стека к cloud-first
- Исторически Nubank строился вокруг JVM-стека (Clojure + Kafka), что задавало определённый стиль архитектуры и инженерной культуры (подробнее про историю можно глянуть в посте "10 years of engineering at Nubank")
- Сейчас у ребят стратегия cloud-first, но не "cloud at any cost": они осознанно балансируют между облаком и on-prem, учитывая три критерия: стоимость, контроль и сущность бизнеса
3️⃣ Ключевые инженерные принципы
Витор подчеркнул фундаментальные принципы, которые направляют технические решения
- Иммутабельность - immutable инфраструктура и сервисы
- Стандартизация - однообразие подходов вместо зоопарка технологий
- Continuous Delivery - непрерыная поставка и безопасные релизы
- Минимизация сложности - сознательное сопротивление "архитектурному энтузиазму", который раздувает систему
4️⃣ Компания как система - это не только про технологии
- Nubank смотрит на себя как на целостную систему, где культура и люди не менее важны, чем код и кластеры
- Важно уметь масштабировать команды и процессы под глобальное развитие (новые рынки, разные регуляции, распределённые команды), а не просто "накидывать микросервисы"
- Витор упоминает Conway’s Law: как структура коммуникаций влияет на архитектуру, и почему без правильного оргдизайна хорошую архитектуру не получить
5️⃣ Generative AI - осторожный, прагматичный подход
- Nubank уже использует gen AU, но очень аккуратно: они не гонятся за хайпом, а ищут конкретные, измеримые проблемы, где ИИ реально улучшает эффективность
- У ребят есть отдельные бюджеты и команды, которые экспериментируют с AI-подходами в тестировании и других задачах, системно отсеивая то, что “не взлетает”.
- Главный фильтр: безопасность и приватность данных
6️⃣ Главная мысль выпуска примерно такая
Зрелый финтех строится не вокруг модной технологии, а вокруг
- Строгой инженерной дисциплины (тесты, стандарты, CD)
- Осознанных архитектурных решений (JVM-ядро, cloud-first, но с пониманием ограничений)
- Системного взгляда на организацию и культуру
- Осторожного, прагматичного внедрения AI, где безопасность и ценность важнее демонстраций "магии"
P.S.
Интересно потом будет сравнить эти тезисы Витора с выступлениями Eric Young, нового CTO, что вышел только в конце лета.
#Software #Engineering #Management #Architecture #Processes #SRE #DevOps #Leadership
Продолжая рассказ про Nubank, я хотел кратко изложить тезисы Витора Оливейра, который рассказывал про технологии в Nubank в подкасте "Hippsters Ponto Tech #459" (правда, подкаст на португальском) в апреле 2025 года, а уже в августе 2025 года его сменил Eric Young (экс-VP Engineering Snap, Google, Amazon), что, как по мне, дало ясный знак инвесторам на то, что Nubank готов масштабировать свою инженерную ветку для глобальной экспании, о которой было рассказано в предыдущем посте.
1️⃣ Тесты как “первая линия обороны” Nubank
- В Nubank большой фокус на тестировании: юнит-тесты, интеграционные, multi-service-тесты и эксперименты с genAI генерацией тестов
- Обоснование в том, что для крупного финтеха это не “nice to have”, а "must have", чтобы защитить чувствительные финансовые данные клиентов и держать высокую планку по стабильности, безопасности и приватности
2️⃣ Эволюция архитектуры: от JVM-стека к cloud-first
- Исторически Nubank строился вокруг JVM-стека (Clojure + Kafka), что задавало определённый стиль архитектуры и инженерной культуры (подробнее про историю можно глянуть в посте "10 years of engineering at Nubank")
- Сейчас у ребят стратегия cloud-first, но не "cloud at any cost": они осознанно балансируют между облаком и on-prem, учитывая три критерия: стоимость, контроль и сущность бизнеса
3️⃣ Ключевые инженерные принципы
Витор подчеркнул фундаментальные принципы, которые направляют технические решения
- Иммутабельность - immutable инфраструктура и сервисы
- Стандартизация - однообразие подходов вместо зоопарка технологий
- Continuous Delivery - непрерыная поставка и безопасные релизы
- Минимизация сложности - сознательное сопротивление "архитектурному энтузиазму", который раздувает систему
4️⃣ Компания как система - это не только про технологии
- Nubank смотрит на себя как на целостную систему, где культура и люди не менее важны, чем код и кластеры
- Важно уметь масштабировать команды и процессы под глобальное развитие (новые рынки, разные регуляции, распределённые команды), а не просто "накидывать микросервисы"
- Витор упоминает Conway’s Law: как структура коммуникаций влияет на архитектуру, и почему без правильного оргдизайна хорошую архитектуру не получить
5️⃣ Generative AI - осторожный, прагматичный подход
- Nubank уже использует gen AU, но очень аккуратно: они не гонятся за хайпом, а ищут конкретные, измеримые проблемы, где ИИ реально улучшает эффективность
- У ребят есть отдельные бюджеты и команды, которые экспериментируют с AI-подходами в тестировании и других задачах, системно отсеивая то, что “не взлетает”.
- Главный фильтр: безопасность и приватность данных
6️⃣ Главная мысль выпуска примерно такая
Зрелый финтех строится не вокруг модной технологии, а вокруг
- Строгой инженерной дисциплины (тесты, стандарты, CD)
- Осознанных архитектурных решений (JVM-ядро, cloud-first, но с пониманием ограничений)
- Системного взгляда на организацию и культуру
- Осторожного, прагматичного внедрения AI, где безопасность и ценность важнее демонстраций "магии"
P.S.
Интересно потом будет сравнить эти тезисы Витора с выступлениями Eric Young, нового CTO, что вышел только в конце лета.
#Software #Engineering #Management #Architecture #Processes #SRE #DevOps #Leadership
Telegram
Книжный куб
[1/2] Про Nubank (Рубрика #Business)
После изучения истории Lucas Cavalcant (distingueshed engineer @ Nubank) про развитие разработки в Nubank мне стало интересно, а какая у них глобальная стратегия и как IT поддерживает эту стратегию. В принципе, при текущем…
После изучения истории Lucas Cavalcant (distingueshed engineer @ Nubank) про развитие разработки в Nubank мне стало интересно, а какая у них глобальная стратегия и как IT поддерживает эту стратегию. В принципе, при текущем…
🔥5❤4👍1
State of Devops Russia 2025 (Рубрика #Devops)
Несколько дней назад были опубликованы результаты большого опроса про состояние DevOps в России. Наступили выходные, я его дочитал и решил написать тезисный разбор. Кстати, если этот разбор понравится, то можно его сравнить с глобальным DORA отчетом за 2025 год, о котром я уже писал. Но вернемся к этому опросу
- Производительность команд выросла: суммарная доля высокоэффективных команд (профили Elite и High) увеличилась на 6% по сравнению с прошлым годом, и ключевые показатели эффективности (частота релизов, скорость доставки, время восстановления, процент неудачных изменений) улучшились. Напомню, что в стандартном подходе все компании бьются на 4 кластера: low, medium, high, elite на основе 4 метрик DORA (deployment frequency, lead time for changes, change failure rate, mean time to restore).
- DevEx дает эффект: у высокоэффективных команд налажены быстрые и качественные циклы обратной связи, ниже когнитивная нагрузка и выше автономность инженеров (подробнее про модель DevEx я уже писал)
- Гибридная модель потребления: оркестраторы рабочих нагрузок не используют только ~15% опрошенных, остальные предпочитают c отрывом K8s (~51% разворачивают его on-prem, ~25% гибридно, еще 25% в облаке или нескольких). Данные треть хранит on-prem, треть гибридно, а треть в облаке.
- Повышение использования IDP: внутренние платформы разработки превращаются в обязательный атрибут крупных компаний с активной разработкой. Более 45% респондентов уже используют IDP для управления доступами и поиска необходимой информации. Главная цель развития внутренних платформ на 2025 год – максимальная автоматизация рутинных задач. Крупный бизнес рассматривает IDP как способ унификации процессов разработки и усиления контроля безопасности
- Информационная безопасность стала приоритетом: большинство команд теперь интегрируют её в процессы разработки (77% используют инструменты ИБ)
- Инструменты AI получили массовое распространение: ~71% опрошенных говорят, что применяют AI/ML в работе (чаще всего для генерации кода), при этом более половины уже отмечают рост продуктивности благодаря AI
- Продолжается импортозамещение: растёт использование российских OS и K8s-дистрибутивов вместо зарубежных аналогов
- Ситуация на рынке труда для devops инженеров изменилось: hh-индекс конкуренции (отношение резюме к вакансиям) вырос с 7,7 до 14,9 за год, то есть на одну позицию претендует больше инженеров
Исследование State of DevOps Russia 2025 проведено командой «Экспресс 42» (консалтинговое подразделение компании Flant) и стало пятым ежегодным отчётом о развитии DevOps в России. В опросе участвовало более 3300 специалистов из России и стран СНГ. Респонденты представляли широкий спектр отраслей и ролей в ИТ - среди них были как инженеры и DevOps-специалисты, так и руководители разных уровней из крупных, средних и небольших компаний. В общем, результаты можно с достаточной уверенностью считать репрезентативными для оценки текущего состояния DevOps практик.
#Processes #Management #Performance #Engineering #Software #SoftwareDevelopment
Несколько дней назад были опубликованы результаты большого опроса про состояние DevOps в России. Наступили выходные, я его дочитал и решил написать тезисный разбор. Кстати, если этот разбор понравится, то можно его сравнить с глобальным DORA отчетом за 2025 год, о котром я уже писал. Но вернемся к этому опросу
- Производительность команд выросла: суммарная доля высокоэффективных команд (профили Elite и High) увеличилась на 6% по сравнению с прошлым годом, и ключевые показатели эффективности (частота релизов, скорость доставки, время восстановления, процент неудачных изменений) улучшились. Напомню, что в стандартном подходе все компании бьются на 4 кластера: low, medium, high, elite на основе 4 метрик DORA (deployment frequency, lead time for changes, change failure rate, mean time to restore).
- DevEx дает эффект: у высокоэффективных команд налажены быстрые и качественные циклы обратной связи, ниже когнитивная нагрузка и выше автономность инженеров (подробнее про модель DevEx я уже писал)
- Гибридная модель потребления: оркестраторы рабочих нагрузок не используют только ~15% опрошенных, остальные предпочитают c отрывом K8s (~51% разворачивают его on-prem, ~25% гибридно, еще 25% в облаке или нескольких). Данные треть хранит on-prem, треть гибридно, а треть в облаке.
- Повышение использования IDP: внутренние платформы разработки превращаются в обязательный атрибут крупных компаний с активной разработкой. Более 45% респондентов уже используют IDP для управления доступами и поиска необходимой информации. Главная цель развития внутренних платформ на 2025 год – максимальная автоматизация рутинных задач. Крупный бизнес рассматривает IDP как способ унификации процессов разработки и усиления контроля безопасности
- Информационная безопасность стала приоритетом: большинство команд теперь интегрируют её в процессы разработки (77% используют инструменты ИБ)
- Инструменты AI получили массовое распространение: ~71% опрошенных говорят, что применяют AI/ML в работе (чаще всего для генерации кода), при этом более половины уже отмечают рост продуктивности благодаря AI
- Продолжается импортозамещение: растёт использование российских OS и K8s-дистрибутивов вместо зарубежных аналогов
- Ситуация на рынке труда для devops инженеров изменилось: hh-индекс конкуренции (отношение резюме к вакансиям) вырос с 7,7 до 14,9 за год, то есть на одну позицию претендует больше инженеров
Исследование State of DevOps Russia 2025 проведено командой «Экспресс 42» (консалтинговое подразделение компании Flant) и стало пятым ежегодным отчётом о развитии DevOps в России. В опросе участвовало более 3300 специалистов из России и стран СНГ. Респонденты представляли широкий спектр отраслей и ролей в ИТ - среди них были как инженеры и DevOps-специалисты, так и руководители разных уровней из крупных, средних и небольших компаний. В общем, результаты можно с достаточной уверенностью считать репрезентативными для оценки текущего состояния DevOps практик.
#Processes #Management #Performance #Engineering #Software #SoftwareDevelopment
State of DevOps Russia 2025
Результаты масштабного исследования состояния DevOps в России. Полная версия отчета!
👍10❤5🔥3
Postcriptum State of Devops Russia 2025 (Рубрика #Devops)
Отдельно поделюсь заключительной частью этого отчета, в которой приведена цитата Димы Гаевского, моего друга и коллеги, который у нас отвечает за развитие нашей внутренней платформы разработки.
#Processes #Management #Performance #Engineering #Software #SoftwareDevelopment
Отдельно поделюсь заключительной частью этого отчета, в которой приведена цитата Димы Гаевского, моего друга и коллеги, который у нас отвечает за развитие нашей внутренней платформы разработки.
Российский рынок ПО продолжает идти своим, местами парадоксальным путём: с одной стороны — жёсткое внешнее давление, с другой — необратимое взросление ИТ-ландшафта. В XL-сегменте тренд на интеграцию AI в производственные конвейеры только усилился. «Бигтехи» уже отстроили безопасные внутренние платформы, а теперь метят в AIOps и GenAI-копилотов, выжимая из DevOps максимум продуктивности. Но важно помнить, что даже крупнейшие игроки по-прежнему остаются «догоняющими» по
сравнению с США и Китаем — разрыв бюджетов и доступ к современным GPU остаются вопросом как минимум ближайших двух лет.
Средние и мелкие компании, пережившие кадровую турбулентность 2022 года, решали задачи автономно и почти поголовно выбрали проверенный OSS-стек — GitLab, Ansible, ELK, Kubernetes. Это был единственный рациональный путь на фоне дефицита зрелых российских предложений и высокой технологической неопределённости. Теперь же, когда регуляторика импортозамещения ужесточилась (реестр ПО, квоты в госзакупках, совместимость с «Альт»/Astra), к этому стеку постепенно добавляются отечественные надстройки — от SCA-плагинов с ГОСТ-крипто до репозиториев кода типа GitFlic.
Безопасность стала отдельным фронтом: массовый self-hosting GitLab без выстроенных процессов патч-менеджмента законсервировал множество уязвимостей. Компании начинают вкладываться в SBOM и DevSecOps, чтобы закрыть регуляторный и репутационный риск. Одновременно растёт популярность FinOps: стоимость GPU-кластеров растёт быстрее, чем ROI по экспериментальным AI-проектам, и советы директоров всё чаще спрашивают не «сколько мы натренируем моделей», а «сколько рублей мы сэкономим».
Аппаратные ограничения ощутимы: top-tier NVIDIA/AMD по-прежнему под экспортным контролем, китайские ASIC — решение рабочее, но ставит потолок производительности. Это подталкивает XL-компании к «федеративным» альянсам: банки и ритейл делятся дообученными LLM, промпредприятия — моделями предиктивного обслуживания; государство выступает ранним якорным заказчиком и субсидирует разработки, но объёмы субсидий пока несравнимы с глобальными CAPEX.
Прогноз на ближайшие годы — без паники, но и без иллюзий. Крупные продолжат апстримить AI-инновации и строить FinOps-офисы, страхуя TCO. SMB останутся на OSS-ядре, однако вынужденно потратятся на DevSecOps и аутсорс-SOC. Консолидация усилий пойдёт в двух плоскостях: горизонтальные коалиции гигантов для обмена моделями и вертикальная «надстройка» отечественных решений над универсальным OSS. В результате рынок получит не «западный стек против российского», а гибрид «OSS-база + локальные специализированные модули», что, пожалуй, и есть самый реалистичный сценарий 2025 – 2027 годов.
#Processes #Management #Performance #Engineering #Software #SoftwareDevelopment
Telegram
Книжный куб
State of Devops Russia 2025 (Рубрика #Devops)
Несколько дней назад были опубликованы результаты большого опроса про состояние DevOps в России. Наступили выходные, я его дочитал и решил написать тезисный разбор. Кстати, если этот разбор понравится, то можно…
Несколько дней назад были опубликованы результаты большого опроса про состояние DevOps в России. Наступили выходные, я его дочитал и решил написать тезисный разбор. Кстати, если этот разбор понравится, то можно…
👍10❤7🔥4
Atlassian покупает платформу DX (developer experience) за $1 млрд - причины и последствия (Рубрика #DevEx)
18 сентября 2025 года компания Atlassian официально объявила о приобретении платформы DX (Developer Experience) приблизительно за $1 млрд с оплатой наличными средствами и акциями Atlassian (крупнейшее поглощение в истории Atlassian). DX представляет собой платформу инженерной аналитики, которая позволяет организациям оценивать продуктивность команд разработки и выявлять "узкие места" в их процессах. Мне это поглощение интересно тем, что среди создателей DX есть авторы подходов DORA, SPACE, DevEx, про которые я много рассказывал.
Руководство Atlassian объясняет покупку DX стратегическим стремлением помочь своим клиентам эффективнее использовать инвестиции в ИИ и улучшить работу инженерных команд. Компания отмечает, что всё больше предприятий вкладываются в инструменты искусственного интеллекта, но сталкиваются с вопросом, приносят ли эти вложения реальную отдачу в ускорении разработки (DX недавно опубликовали методологию "Measuring AI code assistants and agents")
Дополнительным обоснованием сделки стал синергетический эффект: около 90% клиентов DX уже используют продукты Atlassian (Jira, Confluence, Bitbucket и др.), что сделало DX очевидным кандидатом для присоединения. Кэннон-Брукс, соучредитель и CEO Atlassian, отмечал, что Atlassian несколько лет пыталась создать собственный инструмент для анализа продуктивности инженеров, однако в итоге решила приобрести готовое решение (сам стартап DX был основан 5 лет назад)
Atlassian планирует глубоко интегрировать DX в свою экосистему. В октябре 2025 года CTO Atlassian представил новый комплект Atlassian Software Collection, куда DX вошла в качестве новейшего компонента: платформа DX дополняет существующие решения, объединяя качественные опросы разработчиков с количественными метриками такими, как время прохождения pull request, частота сбоев сборки и уровень использования AI-инструментов. Данные DX будут напрямую доступны в продуктах Atlassian, а также DX продолжит поддерживать интеграции и с сторонними инструментами, чтобы клиенты могли извлекать пользу из DX независимо от стека Atlassian.
В будущем пользователям Atlassian станут доступны следующие возможности благодаря интеграции DX
- Измерение продуктивности и узких мест: система автоматически собирает ключевые показатели развития софта (скорость цикла код-ревью, частоту неудачных билдов, время внедрения фич) и выявляет узкие места в процессе
- Аналитика использования ИИ: DX позволяет отслеживать, как активно и с каким эффектом разработчики применяют AI-инструменты (код-ассистентов, агентов и пр.), отсекая шум и показывая реальную отдачу от AI-внедрений.
- Оценка опыта разработчиков: Помимо технических метрик, DX регулярно собирает качественные данные об опыте инженеров (опросы удовлетворённости, индексы Developer Experience). Совмещая цифры с мнением самих разработчиков, платформа определяет, что мешает людям работать продуктивно, и где возникают точки напряжения в взаимодействии команд
В целом, покупка DX сигнализирует о появлении в линейке Atlassian нового класса функций - “инженерной аналитики” - благодаря которому разработчики и менеджеры смогут совместно измерять и улучшать продуктивность, основываясь на данных, а не интуиции. Atlassian позиционирует этот шаг как часть более широкой стратегии по созданию интегрированной платформы для управления разработкой в эпоху ИИ, где связаны воедино планирование (Jira/Confluence), выполнение (код и CI/CD) и анализ эффективности (DX) для непрерывного совершенствования процесса создания софта
#AI #ML #PlatformEngineering #Software #Architecture #Processes #DevEx #Devops
18 сентября 2025 года компания Atlassian официально объявила о приобретении платформы DX (Developer Experience) приблизительно за $1 млрд с оплатой наличными средствами и акциями Atlassian (крупнейшее поглощение в истории Atlassian). DX представляет собой платформу инженерной аналитики, которая позволяет организациям оценивать продуктивность команд разработки и выявлять "узкие места" в их процессах. Мне это поглощение интересно тем, что среди создателей DX есть авторы подходов DORA, SPACE, DevEx, про которые я много рассказывал.
Руководство Atlassian объясняет покупку DX стратегическим стремлением помочь своим клиентам эффективнее использовать инвестиции в ИИ и улучшить работу инженерных команд. Компания отмечает, что всё больше предприятий вкладываются в инструменты искусственного интеллекта, но сталкиваются с вопросом, приносят ли эти вложения реальную отдачу в ускорении разработки (DX недавно опубликовали методологию "Measuring AI code assistants and agents")
Дополнительным обоснованием сделки стал синергетический эффект: около 90% клиентов DX уже используют продукты Atlassian (Jira, Confluence, Bitbucket и др.), что сделало DX очевидным кандидатом для присоединения. Кэннон-Брукс, соучредитель и CEO Atlassian, отмечал, что Atlassian несколько лет пыталась создать собственный инструмент для анализа продуктивности инженеров, однако в итоге решила приобрести готовое решение (сам стартап DX был основан 5 лет назад)
Atlassian планирует глубоко интегрировать DX в свою экосистему. В октябре 2025 года CTO Atlassian представил новый комплект Atlassian Software Collection, куда DX вошла в качестве новейшего компонента: платформа DX дополняет существующие решения, объединяя качественные опросы разработчиков с количественными метриками такими, как время прохождения pull request, частота сбоев сборки и уровень использования AI-инструментов. Данные DX будут напрямую доступны в продуктах Atlassian, а также DX продолжит поддерживать интеграции и с сторонними инструментами, чтобы клиенты могли извлекать пользу из DX независимо от стека Atlassian.
В будущем пользователям Atlassian станут доступны следующие возможности благодаря интеграции DX
- Измерение продуктивности и узких мест: система автоматически собирает ключевые показатели развития софта (скорость цикла код-ревью, частоту неудачных билдов, время внедрения фич) и выявляет узкие места в процессе
- Аналитика использования ИИ: DX позволяет отслеживать, как активно и с каким эффектом разработчики применяют AI-инструменты (код-ассистентов, агентов и пр.), отсекая шум и показывая реальную отдачу от AI-внедрений.
- Оценка опыта разработчиков: Помимо технических метрик, DX регулярно собирает качественные данные об опыте инженеров (опросы удовлетворённости, индексы Developer Experience). Совмещая цифры с мнением самих разработчиков, платформа определяет, что мешает людям работать продуктивно, и где возникают точки напряжения в взаимодействии команд
В целом, покупка DX сигнализирует о появлении в линейке Atlassian нового класса функций - “инженерной аналитики” - благодаря которому разработчики и менеджеры смогут совместно измерять и улучшать продуктивность, основываясь на данных, а не интуиции. Atlassian позиционирует этот шаг как часть более широкой стратегии по созданию интегрированной платформы для управления разработкой в эпоху ИИ, где связаны воедино планирование (Jira/Confluence), выполнение (код и CI/CD) и анализ эффективности (DX) для непрерывного совершенствования процесса создания софта
#AI #ML #PlatformEngineering #Software #Architecture #Processes #DevEx #Devops
TechCrunch
Atlassian acquires DX, a developer productivity platform, for $1B | TechCrunch
Atlassian is making its largest acquisition yet by buying DX so it can offer a developer productivity tool.
❤5🔥5🤯2⚡1
The Infinite Software Crisis (Рубрика #AI)
Посмотрел на выходных интересный доклад Джейка Нэйшнса (Jake Nations), staff engineer из Netflix. Джейк занимается встраиванием AI инструментов в процессы разработки в Netflix, а в этом докладе он делится трезвым взглядом инженера о том, как генеративный код ломает архитектуру. Если говорить про ключевые тезисы, то они такие
1️⃣ Бесконечный кризис софта
Исторически (от Дейкстры в 60-х до Cloud Native) каждый новый инструмент обещал решить проблему сложности, но лишь позволял нам строить еще более запутанные системы. AI просто разогнал этот процесс до предела.
2️⃣ Vibe Coding => Tech Debt
Разработка через чат-интерфейс (conversational interface) - это ловушка. Архитектура начинает зеркалить вашу беседу: каждое уточнение "а поправь еще это" наслаивается поверх предыдущего, создавая спагетти-код с мертвыми ветками логики. Интересно, что я сейчас пробую разрабатывать в Lovable и вижу как мои запросы приводят к появлению архитектуры (правда, я еще и в привязанном GitHub вижу как и какой код появляется)
3️⃣ Simple vs Easy
Джейк цитирует Рича Хики:
- Easy - это то, что под рукой: скопировать со StackOverflow или попросить AI сгенерить портянку кода
- Simple - это отсутствие переплетений (entanglement)
AI делает часть про "easy" почти бесплатным, но убивает "simple", так как агенты не умеют отличать "существенную" сложность задачи от "случайной" (наследия костылей)
4️⃣ Решение что предлагает Джейк
Использовать трёхфазный метод, чтобы не утонуть в хаосе, нужно вернуть инженерную строгость и разделить процесс:
- Research. Скормить агенту доки и диаграммы, чтобы он составил карту системы. Обязательно вычитать и поправить вручную
- Planning. Написать спецификацию изменений (вплоть до сигнатур функций). План должен быть настолько детальным, чтобы джун мог реализовать его механически (paint-by-numbers).
- Implementation. Только теперь запускать генерацию. Вы ревьюите соответствие плану, а не пытаетесь угадать, что там нафантазировал AI.
Если подумать об этом, то мы входим в эпоху, где написание кода стоит примерно 0. И главным дефицитом становится понимание системы (context & understanding). Если раньше вы могли "прочитать" код и понять, как он работает, то в мире, где джун генерирует 10к строк за вечер, это становится невозможным. Техлидам придется сместить фокус с код-ревью на дизайн-ревью и валидацию планов. Те, кто продолжит просто "чатиться с кодом", скоро обнаружат у себя в проде системы, которые невозможно поддерживать и безопасно изменять.
В докладе Джейк опирается на классику Software Engineering, которую стоит перечитать:
- Fred Brooks, "No Silver Bullet" (1986)
- Rich Hickey, "Simple Made Easy" (2011)
- Edsger W. Dijkstra, "The Humble Programmer" (1972)
#DevOps #AI #Architecture #Culture #Engineering #ML #Future #Software
Посмотрел на выходных интересный доклад Джейка Нэйшнса (Jake Nations), staff engineer из Netflix. Джейк занимается встраиванием AI инструментов в процессы разработки в Netflix, а в этом докладе он делится трезвым взглядом инженера о том, как генеративный код ломает архитектуру. Если говорить про ключевые тезисы, то они такие
1️⃣ Бесконечный кризис софта
Исторически (от Дейкстры в 60-х до Cloud Native) каждый новый инструмент обещал решить проблему сложности, но лишь позволял нам строить еще более запутанные системы. AI просто разогнал этот процесс до предела.
2️⃣ Vibe Coding => Tech Debt
Разработка через чат-интерфейс (conversational interface) - это ловушка. Архитектура начинает зеркалить вашу беседу: каждое уточнение "а поправь еще это" наслаивается поверх предыдущего, создавая спагетти-код с мертвыми ветками логики. Интересно, что я сейчас пробую разрабатывать в Lovable и вижу как мои запросы приводят к появлению архитектуры (правда, я еще и в привязанном GitHub вижу как и какой код появляется)
3️⃣ Simple vs Easy
Джейк цитирует Рича Хики:
- Easy - это то, что под рукой: скопировать со StackOverflow или попросить AI сгенерить портянку кода
- Simple - это отсутствие переплетений (entanglement)
AI делает часть про "easy" почти бесплатным, но убивает "simple", так как агенты не умеют отличать "существенную" сложность задачи от "случайной" (наследия костылей)
4️⃣ Решение что предлагает Джейк
Использовать трёхфазный метод, чтобы не утонуть в хаосе, нужно вернуть инженерную строгость и разделить процесс:
- Research. Скормить агенту доки и диаграммы, чтобы он составил карту системы. Обязательно вычитать и поправить вручную
- Planning. Написать спецификацию изменений (вплоть до сигнатур функций). План должен быть настолько детальным, чтобы джун мог реализовать его механически (paint-by-numbers).
- Implementation. Только теперь запускать генерацию. Вы ревьюите соответствие плану, а не пытаетесь угадать, что там нафантазировал AI.
Если подумать об этом, то мы входим в эпоху, где написание кода стоит примерно 0. И главным дефицитом становится понимание системы (context & understanding). Если раньше вы могли "прочитать" код и понять, как он работает, то в мире, где джун генерирует 10к строк за вечер, это становится невозможным. Техлидам придется сместить фокус с код-ревью на дизайн-ревью и валидацию планов. Те, кто продолжит просто "чатиться с кодом", скоро обнаружат у себя в проде системы, которые невозможно поддерживать и безопасно изменять.
В докладе Джейк опирается на классику Software Engineering, которую стоит перечитать:
- Fred Brooks, "No Silver Bullet" (1986)
- Rich Hickey, "Simple Made Easy" (2011)
- Edsger W. Dijkstra, "The Humble Programmer" (1972)
#DevOps #AI #Architecture #Culture #Engineering #ML #Future #Software
YouTube
The Infinite Software Crisis – Jake Nations, Netflix
In 1968, the term ""Software Crisis"" emerged when systems grew beyond what developers could manage. Every generation since has ""solved"" it with more powerful tools, only to create even bigger problems.
Today, AI accelerates the pattern into the Infinite…
Today, AI accelerates the pattern into the Infinite…
👍24❤10🔥6🥱1
DORA 2025 - State of AI-assisted Software Development - Общая информация по отчету (Рубрика #Devops)
Я уже как-то кратко рассказывал про исследование "DORA Research: 2025" в одном из прошлых постов. Тогда я внимательно прочитал отчет, но тогда рассказал про его результаты очень кратко. А сейчас мне потребовался более подробный разбор для нашего исследования влияния AI на инженерную культуру и я решил расписать его и для своих подписчиков.
Отчет “State of AI-assisted Software Development 2025” подготовлен исследовательской командой программы DORA (DevOps Research and Assessment), что является частью Google Cloud. Ведущими авторами стали специалисты Google Cloud при участии приглашенных экспертов. Партнерами исследования были IT Revolution, GitHub, GitLab, SkillBench и Workhelix. Кроме того инициативу поддержал ряд спонсоров (Swarmia, Thoughtworks, Deloitte, Atlassian и др.).
В рамках исследования был проведен глобальный опрос почти 5 000 технических специалистов из разных стран и компаний. Респонденты включали инженеров-разработчиков, DevOps/SRE, тимлидов, продакт-менеджеров. Опрос охватил широкий спектр тем: от степени и способов использования ИИ (какие инструменты и LLM-модели применяются, для каких задач, сколько времени тратится, как часто доверяют советам ИИ) до характеристик команд и процессов (архитектура и платформы разработки, культура обучения, Value Stream Management, практики контроля версий, размер батчей изменений и т.п.). Также оценивались результаты работы команд: классические метрики DORA (например, скорость доставки и стабильность выпуска ПО), качество кода, продуктивность разработчиков, частота фрикций в работе и выгорание сотрудников. Для углубления анализа исследователи собрали и более 100 часов качественных данных – интервью и разборов практик, чтобы дополнить цифры живыми инсайтами.
Интересно, что полгода назад я рассказывал про то, как работает методология DORA для составления таких отчетов, но для отчета 2025 авторы отдельно описали "Measurement Framework" и то, как это можно использовать для управления изменениями в своей компании. Если же говорить про самих ребят и их отчет DORA 2025, то обработка данных сочетала статистические и аналитические методы. Масштабный опрос позволил провести корреляционный анализ и регрессионные модели, выявляя взаимосвязи между практиками и итоговыми показателями эффективности.
В итоге, получился отчет состоящий из следующих частей
- "Beyond the tools": обсуждается, почему успешное внедрение ИИ – это системная задача, а не просто выбор инструмента.
- Анализ текущего состояния AI-assisted разработки: представлены результаты опроса об уровне адаптации ИИ в индустрии, о практиках использования и влиянии на ключевые показатели.
- "Understanding your teams: 7 profiles": в этом разделе DORA представляет обнаруженные семь архетипов команд разработки
- "DORA AI Capabilities Model": центральная глава, вводящая новую модель способностей для успеха с ИИ. Здесь подробно перечисляются семь технических и культурных практик (системных факторов), которые статистически усиливают положительное влияние ИИ на эффективность команд
- "Directing AI’s potential": раздел, посвященный тому, как направить усилия по внедрению ИИ в правильное русло. В частности, разбирается роль Value Stream Management (VSM) как механизма, позволяющего конвертировать локальные улучшения от ИИ в конечный результат для бизнеса
- Рекомендации и выводы для лидеров: заключительная часть отчета переводит результаты в практическую плоскость. Здесь дается “дорожная карта” для внедрения ИИ – на каких направлениях сфокусироваться в первую очередь. В отчете прямо говорится, что руководители должны рассматривать внедрение AI как трансформацию организации, а не просто ИТ-проект
P.S.
В комментариях приложу сам PDF с отчетом.
#AI #Software #Engineering #Management #Whitepaper
Я уже как-то кратко рассказывал про исследование "DORA Research: 2025" в одном из прошлых постов. Тогда я внимательно прочитал отчет, но тогда рассказал про его результаты очень кратко. А сейчас мне потребовался более подробный разбор для нашего исследования влияния AI на инженерную культуру и я решил расписать его и для своих подписчиков.
Отчет “State of AI-assisted Software Development 2025” подготовлен исследовательской командой программы DORA (DevOps Research and Assessment), что является частью Google Cloud. Ведущими авторами стали специалисты Google Cloud при участии приглашенных экспертов. Партнерами исследования были IT Revolution, GitHub, GitLab, SkillBench и Workhelix. Кроме того инициативу поддержал ряд спонсоров (Swarmia, Thoughtworks, Deloitte, Atlassian и др.).
В рамках исследования был проведен глобальный опрос почти 5 000 технических специалистов из разных стран и компаний. Респонденты включали инженеров-разработчиков, DevOps/SRE, тимлидов, продакт-менеджеров. Опрос охватил широкий спектр тем: от степени и способов использования ИИ (какие инструменты и LLM-модели применяются, для каких задач, сколько времени тратится, как часто доверяют советам ИИ) до характеристик команд и процессов (архитектура и платформы разработки, культура обучения, Value Stream Management, практики контроля версий, размер батчей изменений и т.п.). Также оценивались результаты работы команд: классические метрики DORA (например, скорость доставки и стабильность выпуска ПО), качество кода, продуктивность разработчиков, частота фрикций в работе и выгорание сотрудников. Для углубления анализа исследователи собрали и более 100 часов качественных данных – интервью и разборов практик, чтобы дополнить цифры живыми инсайтами.
Интересно, что полгода назад я рассказывал про то, как работает методология DORA для составления таких отчетов, но для отчета 2025 авторы отдельно описали "Measurement Framework" и то, как это можно использовать для управления изменениями в своей компании. Если же говорить про самих ребят и их отчет DORA 2025, то обработка данных сочетала статистические и аналитические методы. Масштабный опрос позволил провести корреляционный анализ и регрессионные модели, выявляя взаимосвязи между практиками и итоговыми показателями эффективности.
В итоге, получился отчет состоящий из следующих частей
- "Beyond the tools": обсуждается, почему успешное внедрение ИИ – это системная задача, а не просто выбор инструмента.
- Анализ текущего состояния AI-assisted разработки: представлены результаты опроса об уровне адаптации ИИ в индустрии, о практиках использования и влиянии на ключевые показатели.
- "Understanding your teams: 7 profiles": в этом разделе DORA представляет обнаруженные семь архетипов команд разработки
- "DORA AI Capabilities Model": центральная глава, вводящая новую модель способностей для успеха с ИИ. Здесь подробно перечисляются семь технических и культурных практик (системных факторов), которые статистически усиливают положительное влияние ИИ на эффективность команд
- "Directing AI’s potential": раздел, посвященный тому, как направить усилия по внедрению ИИ в правильное русло. В частности, разбирается роль Value Stream Management (VSM) как механизма, позволяющего конвертировать локальные улучшения от ИИ в конечный результат для бизнеса
- Рекомендации и выводы для лидеров: заключительная часть отчета переводит результаты в практическую плоскость. Здесь дается “дорожная карта” для внедрения ИИ – на каких направлениях сфокусироваться в первую очередь. В отчете прямо говорится, что руководители должны рассматривать внедрение AI как трансформацию организации, а не просто ИТ-проект
P.S.
В комментариях приложу сам PDF с отчетом.
#AI #Software #Engineering #Management #Whitepaper
dora.dev
DORA | State of AI-assisted Software Development 2025
DORA is a long running research program that seeks to understand the capabilities that drive software delivery and operations performance. DORA helps teams apply those capabilities, leading to better organizational performance.
❤10👍3🔥3
[1/3] The Pragmatic Engineer 2025 Survey (Рубрика #DevEx)
Добрался до результатов летнего исследования Гергели Ороша (Gergely Orosz), известного инженера и автора популярной рассылки "The Pragmatic Engineer", одного из самых влиятельных источников аналитики в сфере технологий. Этот опрос проводился среди читателей рассылки "The Pragmatic Engineer" в апреле–мае 2025, причем в нем приняли участие 3k инженеров. Респондентами преимущественно являются инженеры-разработчики софта причем из компаний всех масштабов (от стартапа до бигтехов), причем так получилось, что половина работала в мелких и половина в крупных компаниях. Следует отметить, что выборка не случайна, а основана на подписчиках технического блога, поэтому она может смещаться в сторону продуктовых IT-компаний. Например, среди читателей заметно выше доля пользователей AWS и ниже - Azure по сравнению с традиционными корпоративными сегментами. В целом же охват опроса по ролям и компаниям очень широк, что даёт основание доверять тенденциям, выявленным в данных.
Результаты Гергели оформил в трех частях, каждая из которых посвящена определённым категориям инструментов разработки. Вот эти три части
1️⃣ Часть
Демография респондентов; использование AI-инструментов; наиболее используемые и любимые языки программирования; рейтинг самых нелюбимых и самых любимых инструментов; среды разработки (IDE) и терминалы; системы контроля версий и CI/CD; облачные платформы (IaaS/PaaS)
2️⃣ Часть
Наиболее часто упоминаемые инструменты (лидируют JIRA, VS Code и AWS); средства управления проектами; инструменты коммуникации и совместной работы (Slack, MS Teams, Confluence, Miro, Figma); базы данных и хранилища (PostgreSQL и мн. др.); бекенд-инфраструктура (Docker, Kubernetes, Terraform, облачные сервисы); балансировщики нагрузки; а также
3️⃣ Часть
Средства наблюдаемости, мониторинга и логирования; инструменты для дежурств и управления инцидентами; системы feature flags, аналитики и экспериментов; инструменты фронтенд- и мобильной разработки; различные утилиты для разработчиков; собственные (custom) внутренние инструменты команд; и нишевые любимые инструменты энтузиастов
Среди ключевых результатов можно выделить следующие
🤖 Широкое внедрение ИИ-инструментов
85% опрошенных инженеров используют в работе хотя бы один инструмент с элементами AI, например кодового помощника. Каждый второй респондент применяет GitHub Copilot – этот AI-помощник для программирования стал самым популярным средством из своего класса. Лишь около 4% принципиально не пользуются AI (по причинам корпоративного запрета, неэффективности или этических убеждений), что подчёркивает массовое проникновение данных технологий в разработку.
🐍 Популярные языки программирования
TypeScript вышел на первое место по частоте использования среди языков разработки (ожидаемо, учитывая его применение и в фронтенде, и в бекенде). Широко распространены также Python, JavaScript, Java, C# и другие языки, при этом все основные языковые экосистемы оцениваются разработчиками положительно - ни один язык не получил значимого перевеса негатива в отзывах. Это говорит о зрелости современных языков: откровенно "плохие" решения попросту не становятся массовыми. В топ-10 самых любимых языков неожиданно вошёл даже нишевый Elixir, а фреймворк Ruby on Rails оказался одновременно 5-м по использованию и 3-м по любви, что подчёркивает лояльность его сообщества (чтобы понять любовь к нему можно глянуть документалку про RoR)
Продолжение в следующем посте.
#AI #ML #PlatformEngineering #Software #Architecture #Processes #DevEx #Devops
Добрался до результатов летнего исследования Гергели Ороша (Gergely Orosz), известного инженера и автора популярной рассылки "The Pragmatic Engineer", одного из самых влиятельных источников аналитики в сфере технологий. Этот опрос проводился среди читателей рассылки "The Pragmatic Engineer" в апреле–мае 2025, причем в нем приняли участие 3k инженеров. Респондентами преимущественно являются инженеры-разработчики софта причем из компаний всех масштабов (от стартапа до бигтехов), причем так получилось, что половина работала в мелких и половина в крупных компаниях. Следует отметить, что выборка не случайна, а основана на подписчиках технического блога, поэтому она может смещаться в сторону продуктовых IT-компаний. Например, среди читателей заметно выше доля пользователей AWS и ниже - Azure по сравнению с традиционными корпоративными сегментами. В целом же охват опроса по ролям и компаниям очень широк, что даёт основание доверять тенденциям, выявленным в данных.
Результаты Гергели оформил в трех частях, каждая из которых посвящена определённым категориям инструментов разработки. Вот эти три части
1️⃣ Часть
Демография респондентов; использование AI-инструментов; наиболее используемые и любимые языки программирования; рейтинг самых нелюбимых и самых любимых инструментов; среды разработки (IDE) и терминалы; системы контроля версий и CI/CD; облачные платформы (IaaS/PaaS)
2️⃣ Часть
Наиболее часто упоминаемые инструменты (лидируют JIRA, VS Code и AWS); средства управления проектами; инструменты коммуникации и совместной работы (Slack, MS Teams, Confluence, Miro, Figma); базы данных и хранилища (PostgreSQL и мн. др.); бекенд-инфраструктура (Docker, Kubernetes, Terraform, облачные сервисы); балансировщики нагрузки; а также
3️⃣ Часть
Средства наблюдаемости, мониторинга и логирования; инструменты для дежурств и управления инцидентами; системы feature flags, аналитики и экспериментов; инструменты фронтенд- и мобильной разработки; различные утилиты для разработчиков; собственные (custom) внутренние инструменты команд; и нишевые любимые инструменты энтузиастов
Среди ключевых результатов можно выделить следующие
85% опрошенных инженеров используют в работе хотя бы один инструмент с элементами AI, например кодового помощника. Каждый второй респондент применяет GitHub Copilot – этот AI-помощник для программирования стал самым популярным средством из своего класса. Лишь около 4% принципиально не пользуются AI (по причинам корпоративного запрета, неэффективности или этических убеждений), что подчёркивает массовое проникновение данных технологий в разработку.
TypeScript вышел на первое место по частоте использования среди языков разработки (ожидаемо, учитывая его применение и в фронтенде, и в бекенде). Широко распространены также Python, JavaScript, Java, C# и другие языки, при этом все основные языковые экосистемы оцениваются разработчиками положительно - ни один язык не получил значимого перевеса негатива в отзывах. Это говорит о зрелости современных языков: откровенно "плохие" решения попросту не становятся массовыми. В топ-10 самых любимых языков неожиданно вошёл даже нишевый Elixir, а фреймворк Ruby on Rails оказался одновременно 5-м по использованию и 3-м по любви, что подчёркивает лояльность его сообщества (чтобы понять любовь к нему можно глянуть документалку про RoR)
Продолжение в следующем посте.
#AI #ML #PlatformEngineering #Software #Architecture #Processes #DevEx #Devops
Please open Telegram to view this post
VIEW IN TELEGRAM
Pragmaticengineer
The Pragmatic Engineer 2025 Survey: What’s in your tech stack? Part 1
Which tools do software engineers use for backend development, frontend, infrastructure, AI tooling, and more, today? Reader survey, with feedback and analysis, based on 3,000+ responses
❤5🔥2⚡1
Применение AI и LLM в разработке и управлении (Рубрика #AI)
Посмотрел на неделе выступление Александра Лукьянченко с конференции AvitoTechConf 2025, которую я посетил очно (но провел большую часть времени не за просмотром докладов, а общаясь со знакомыми и обсуждая примерно те же темы, но более открыто). Если же возвращаться к докладу Саши, то он поделился цифрами о том, как AI реально работает в процессах разработки внутри Авито. Сам Саша руководит разработкой PaaS внутри компании и его команда отвечает за эффективность 2000+ инженеров, внутренние инструменты, облако и SDLC.
Основные тезисы доклада примерно такие
⌨️ Кодинг - это не вся работа
Непосредственное написание кода занимает всего 20–40% времени инженера. Остальное - это коммуникация, дизайн систем, ревью и "археология" (разбор чужого кода). AI должен помогать именно здесь, а не только дописывать строки. Есть и другие сценарии, например
🗺 Авто-картирование архитектуры
В микросервисной архитектуре сложно понять, кто за что отвечает. В Avito использовали LLM, чтобы проанализировать код, API и README всех сервисов и разложить их по доменам.
Результат: Автоматика совпала с ручной разметкой экспертов на 80%. Сэкономлено ~200 человеко-дней ручной работы архитекторов.
☠️ Анализ постмортемов
Скормили LLM базу из 800+ инцидентов (postmortems). Модель нашла 22 системных паттерна проблем, которые не видели люди, и предложила сценарии для Chaos Engineering. Это позволило закрыть >1000 потенциальных уязвимостей.
⚙️ Эволюция инструментов
Ребята в индустрии переходят от фазы Copilot (автодополнение) к фазе Agents (автономное выполнение задач). В топе сейчас инструменты вроде Cline, Roo Code и режимы агентов в IDE, которые могут сами "ходить" по проекту и править файлы.
Что это значит для индустрии
1. Ощущение продуктивности обманчиво. Инженеры часто чувствуют, что стали работать быстрее с AI, но метрики говорят об обратном (особенно исследование METR на 16 инженеров, которое я разбирал). Если AI пишет много кода, который потом нужно долго дебажить - это не ускорение, а генерация техдолга.
2. Greenfield vs Brownfield. AI отлично бустит старт новых проектов (до 30-40%), но на старых, сложных легаси-проектах ("brownfield") прирост продуктивности падает до 0–10%, а иногда становится отрицательным из-за rework.
3. Сдвиг фокуса. Главная ценность AI сейчас не в написании кода, а в снижении когнитивной нагрузки (быстрый поиск по доке, саммари бесконечных тредов в Slack, объяснение легаси).
P.S.
Саша делал отсылку к исследованию Stanford на 120k инженеров. Недавно Егор Денисов-Бланш (Yegor Denisov-Blanch) рассказывал новый доклад "Can you prove AI ROI in Software Engineering?" на эту тему на AI Engineer кофне и я его уже разбирал, там много интересного, рекомендую к просмотру.
#AI #DevOps #Engineering #Management #Leadership #Software #Architecture #SRE
Посмотрел на неделе выступление Александра Лукьянченко с конференции AvitoTechConf 2025, которую я посетил очно (но провел большую часть времени не за просмотром докладов, а общаясь со знакомыми и обсуждая примерно те же темы, но более открыто). Если же возвращаться к докладу Саши, то он поделился цифрами о том, как AI реально работает в процессах разработки внутри Авито. Сам Саша руководит разработкой PaaS внутри компании и его команда отвечает за эффективность 2000+ инженеров, внутренние инструменты, облако и SDLC.
Основные тезисы доклада примерно такие
Непосредственное написание кода занимает всего 20–40% времени инженера. Остальное - это коммуникация, дизайн систем, ревью и "археология" (разбор чужого кода). AI должен помогать именно здесь, а не только дописывать строки. Есть и другие сценарии, например
В микросервисной архитектуре сложно понять, кто за что отвечает. В Avito использовали LLM, чтобы проанализировать код, API и README всех сервисов и разложить их по доменам.
Результат: Автоматика совпала с ручной разметкой экспертов на 80%. Сэкономлено ~200 человеко-дней ручной работы архитекторов.
Скормили LLM базу из 800+ инцидентов (postmortems). Модель нашла 22 системных паттерна проблем, которые не видели люди, и предложила сценарии для Chaos Engineering. Это позволило закрыть >1000 потенциальных уязвимостей.
Ребята в индустрии переходят от фазы Copilot (автодополнение) к фазе Agents (автономное выполнение задач). В топе сейчас инструменты вроде Cline, Roo Code и режимы агентов в IDE, которые могут сами "ходить" по проекту и править файлы.
Что это значит для индустрии
1. Ощущение продуктивности обманчиво. Инженеры часто чувствуют, что стали работать быстрее с AI, но метрики говорят об обратном (особенно исследование METR на 16 инженеров, которое я разбирал). Если AI пишет много кода, который потом нужно долго дебажить - это не ускорение, а генерация техдолга.
2. Greenfield vs Brownfield. AI отлично бустит старт новых проектов (до 30-40%), но на старых, сложных легаси-проектах ("brownfield") прирост продуктивности падает до 0–10%, а иногда становится отрицательным из-за rework.
3. Сдвиг фокуса. Главная ценность AI сейчас не в написании кода, а в снижении когнитивной нагрузки (быстрый поиск по доке, саммари бесконечных тредов в Slack, объяснение легаси).
P.S.
Саша делал отсылку к исследованию Stanford на 120k инженеров. Недавно Егор Денисов-Бланш (Yegor Denisov-Blanch) рассказывал новый доклад "Can you prove AI ROI in Software Engineering?" на эту тему на AI Engineer кофне и я его уже разбирал, там много интересного, рекомендую к просмотру.
#AI #DevOps #Engineering #Management #Leadership #Software #Architecture #SRE
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Применение AI и LLM в разработке и управлении | Александр Лукьянченко. AvitoTechConf 2025
GenAI инструменты позволяют решать и ускорять многие задачи, которые раньше было сложно автоматизировать. Мы часто слышим как AI заменяет целый класс задач в разработке, что инструменты вида Cursor сильно ускоряют вывод продуктов на рынок. Но как выглядит…
2👍16❤8🔥3👏1🤩1
[2/3] The Pragmatic Engineer 2025 Survey (Рубрика #DevEx)
Продолжая рассказ про опрос Гергели, рассмотрим оставшиеся темы
❤🔥 Инструменты разработки: любовь и ненависть
Список самых часто используемых инструментов возглавил неожиданно JIRA (чаще даже VS Code или AWS). Парадоксально, но JIRA же стал и самым ненавидимым инструментом (разработчики не любят JIRA за медлительность и громоздкость), а вот более лёгкий конкурент, Linear, напротив, попал в число самых любимых инструментов (№4) и рассматривается инженерами как желанная замена JIRA. В целом, два этих инструмента сейчас доминируют в управлении проектами (вместе 75% упоминаний project management инструментов). JIRA в крупных компаниях, а Linear в малых.
✈ Командная коммуникация и сотрудничество
Среди средств коммуникации лидируют проверенные решения: Slack - самый используемый чат для разработки, а Microsoft Teams - наиболее распространён для видеозвонков. Для хранения документации чаще всего применяют Confluence, для совместного brainstorming - онлайн-доску Miro, а для дизайна интерфейсов - Figma. Примечательно, что Figma упоминалась разработчиками даже чаще, чем такой профильный инструмент, как K8s. Это свидетельствует о глубоком вовлечении команд разработки в процесс проектирования UX/UI и тесной междисциплинарной работе с дизайнерами.
😶🌫️ Облачные платформы
В облачной инфраструктуре опрос подтвердил безусловное лидерство Amazon Web Services (AWS) - эту платформу используют ~44% респондентов, тогда как у ближайшего преследователя, Microsoft Azure, ~30%. Доля Google Cloud Platform составляет оставшиеся ~26%.
🐘 Инфраструктура и базы данных
Практически повсеместно используются контейнеры Docker и оркестратор K8s - де-факто стандарт развёртывания приложений. Для управления инфраструктурой как кодом лидирует Terraform. Кроме того, широко востребованы управляемые облачные сервисы (например, от AWS) для типовых задач backend. Что касается хранения данных, опрос показал безоговорочную популярность PostgreSQL (1/3 респондентов упоминало ее). Тем не менее, выбор технологий хранения невероятно разнообразен: профессионалы упомянули десятки разных баз данных (SQL, NoSQL, NewSQL, специализированные хранилища и т. д.). Это говорит о том, что современный стек данных очень неоднороден, и команды подбирают БД строго под свои задачи.
♾️ Мониторинг и надежность (DevOps)
В сфере observability данных наиболее популярны платформы Datadog, Grafana и Sentry - каждая из них используется примерно у 15-25% участников опроса. Эти инструменты (соответственно, облачный сервис мониторинга, open-source система дашбордов и сервис отслеживания ошибок) стали привычной частью инфраструктуры многих команд. Для оповещений и реагирования на инциденты подавляющее число инженеров применяют классические решения PagerDuty и OpsGenie.
📱 Фронтенд и мобильные технологии
Здесь наблюдается большая консолидация вокруг нескольких фреймворков. React практически без конкурентов доминирует как основной фронтенд-фреймворк (упоминается большинством веб-разработчиков), а Next.js стал самым популярным "мета"-фреймворком для React-приложений. Для мобильной разработки кроссплатформенно лидирует React Native - опрошенные отмечают его гораздо чаще любых альтернатив. Иными словами, стек фронтенда в 2025 году у большинства команд выглядит схоже. На бекенде разброс решений больше, но и там многие используют единый стек на TypeScript/Node.js либо популярные фреймворки вроде .NET и Spring.
🎌 Feature flags и внутренние инструменты
Практика feature flags и a/b тестирования прочно вошла в жизнь: для этого многие используют готовые сервисы, главным из которых является LaunchDarkly. Тем не менее, опрос показал, что весьма часто компании создают собственные системы фичефлагов, платформы экспериментов и кастомные конвейеры деплоя. Это может указывать на то, что существующие продукты не полностью покрывают нужды команд, либо на желание сэкономить на лицензиях, либо на требования безопасности.
Выводы из исследования в финальном посте.
#AI #ML #PlatformEngineering #Software #Architecture #Processes #DevEx #Devops
Продолжая рассказ про опрос Гергели, рассмотрим оставшиеся темы
Список самых часто используемых инструментов возглавил неожиданно JIRA (чаще даже VS Code или AWS). Парадоксально, но JIRA же стал и самым ненавидимым инструментом (разработчики не любят JIRA за медлительность и громоздкость), а вот более лёгкий конкурент, Linear, напротив, попал в число самых любимых инструментов (№4) и рассматривается инженерами как желанная замена JIRA. В целом, два этих инструмента сейчас доминируют в управлении проектами (вместе 75% упоминаний project management инструментов). JIRA в крупных компаниях, а Linear в малых.
Среди средств коммуникации лидируют проверенные решения: Slack - самый используемый чат для разработки, а Microsoft Teams - наиболее распространён для видеозвонков. Для хранения документации чаще всего применяют Confluence, для совместного brainstorming - онлайн-доску Miro, а для дизайна интерфейсов - Figma. Примечательно, что Figma упоминалась разработчиками даже чаще, чем такой профильный инструмент, как K8s. Это свидетельствует о глубоком вовлечении команд разработки в процесс проектирования UX/UI и тесной междисциплинарной работе с дизайнерами.
😶🌫️ Облачные платформы
В облачной инфраструктуре опрос подтвердил безусловное лидерство Amazon Web Services (AWS) - эту платформу используют ~44% респондентов, тогда как у ближайшего преследователя, Microsoft Azure, ~30%. Доля Google Cloud Platform составляет оставшиеся ~26%.
Практически повсеместно используются контейнеры Docker и оркестратор K8s - де-факто стандарт развёртывания приложений. Для управления инфраструктурой как кодом лидирует Terraform. Кроме того, широко востребованы управляемые облачные сервисы (например, от AWS) для типовых задач backend. Что касается хранения данных, опрос показал безоговорочную популярность PostgreSQL (1/3 респондентов упоминало ее). Тем не менее, выбор технологий хранения невероятно разнообразен: профессионалы упомянули десятки разных баз данных (SQL, NoSQL, NewSQL, специализированные хранилища и т. д.). Это говорит о том, что современный стек данных очень неоднороден, и команды подбирают БД строго под свои задачи.
♾️ Мониторинг и надежность (DevOps)
В сфере observability данных наиболее популярны платформы Datadog, Grafana и Sentry - каждая из них используется примерно у 15-25% участников опроса. Эти инструменты (соответственно, облачный сервис мониторинга, open-source система дашбордов и сервис отслеживания ошибок) стали привычной частью инфраструктуры многих команд. Для оповещений и реагирования на инциденты подавляющее число инженеров применяют классические решения PagerDuty и OpsGenie.
📱 Фронтенд и мобильные технологии
Здесь наблюдается большая консолидация вокруг нескольких фреймворков. React практически без конкурентов доминирует как основной фронтенд-фреймворк (упоминается большинством веб-разработчиков), а Next.js стал самым популярным "мета"-фреймворком для React-приложений. Для мобильной разработки кроссплатформенно лидирует React Native - опрошенные отмечают его гораздо чаще любых альтернатив. Иными словами, стек фронтенда в 2025 году у большинства команд выглядит схоже. На бекенде разброс решений больше, но и там многие используют единый стек на TypeScript/Node.js либо популярные фреймворки вроде .NET и Spring.
🎌 Feature flags и внутренние инструменты
Практика feature flags и a/b тестирования прочно вошла в жизнь: для этого многие используют готовые сервисы, главным из которых является LaunchDarkly. Тем не менее, опрос показал, что весьма часто компании создают собственные системы фичефлагов, платформы экспериментов и кастомные конвейеры деплоя. Это может указывать на то, что существующие продукты не полностью покрывают нужды команд, либо на желание сэкономить на лицензиях, либо на требования безопасности.
Выводы из исследования в финальном посте.
#AI #ML #PlatformEngineering #Software #Architecture #Processes #DevEx #Devops
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Книжный куб
[1/3] The Pragmatic Engineer 2025 Survey (Рубрика #DevEx)
Добрался до результатов летнего исследования Гергели Ороша (Gergely Orosz), известного инженера и автора популярной рассылки "The Pragmatic Engineer", одного из самых влиятельных источников аналитики…
Добрался до результатов летнего исследования Гергели Ороша (Gergely Orosz), известного инженера и автора популярной рассылки "The Pragmatic Engineer", одного из самых влиятельных источников аналитики…
❤6🔥4👍3
[3/3] The Pragmatic Engineer 2025 Survey (Рубрика #DevEx)
Если финализировать разбор этого отчета Гергели (начало в 1 и 2), то видны следующие ключевые тренды
1️⃣ Инструменты с искусственным интеллектом из разряда эксперимента перешли в категорию повседневных - подавляющее большинство разработчиков теперь пользуется AI-помощниками. Это означает, что продуктивность инженеров всё больше будет зависеть от интеграции AI в их рабочие процессы, а компании должны учитывать данную тенденцию при выборе инструментов.
2️⃣ Технологический стек продолжает унифицироваться вокруг лучших решений: TypeScript и React стали фактическим стандартом веб-разработки, Kubernetes – стандартом развёртывания, GitHub - стандартом хостинга кода и т. д. Популярные языки и фреймворки достигли такой зрелости, что разработчики в целом ими довольны и не испытывают острой необходимости срочно искать им замену
3️⃣ Позиции крупных экосистемных игроков остаются сильны. Так, Microsoft контролирует заметную часть инструментов разработчика (4 из 15 самых распространённых, включая VS Code, GitHub и Azure DevOps), Amazon - облачную инфраструктуру, Atlassian - управление проектами и т.д. Для индустрии это означает стабильность базового инструментария и продолжение инвестиций со стороны гигантов рынка.
Одновременно опрос показал и точки напряжения, которые можно рассматривать как ниши для инноваций.
Разработчики явно фрустрированы от "тяжеловесных" корпоративных решений – яркий пример тому JIRA, которую вынужденно используют повсеместно, но называют худшим инструментом. Запрос на более продуктивные, быстрые и удобные инструменты налицо, что подтверждается успехом конкурента Linear и других облегённых аналогов. Когда две системы (JIRA и Linear) охватывают порядка 75% всех командных процессов планирования, рынок фактически монополизирован парой игроков - и в то же время открывается возможность для новых продуктов, способных потеснить устоявшиеся, но нелюбимые решения.
Похожая ситуация складывается и в других категориях: например, появление специализированных стартапов в области oncall, фичефлагов, observability говорит о том, что существующие крупные продукты удовлетворяют не всех. Многие компании продолжают строить критически важные инструменты "in-house", и это сигнал вендорам о незакрытых потребностях. С другой стороны, столь богатый и разнообразный ландшафт инструментов - благо для инженеров, но и вызов для технологических лидеров.
В 2025 году перед командами стоит задача грамотной интеграции множества инструментов: от AI-помощников до облачных сервисов, от мониторинга до экспериментальных платформ. Те компании, которые сумеют подобрать оптимальный набор технологий и процессов, получают конкурентное преимущество в эффективности разработки и скорости вывода продукта на рынок.
#AI #ML #PlatformEngineering #Software #Architecture #Processes #DevEx #Devops
Если финализировать разбор этого отчета Гергели (начало в 1 и 2), то видны следующие ключевые тренды
1️⃣ Инструменты с искусственным интеллектом из разряда эксперимента перешли в категорию повседневных - подавляющее большинство разработчиков теперь пользуется AI-помощниками. Это означает, что продуктивность инженеров всё больше будет зависеть от интеграции AI в их рабочие процессы, а компании должны учитывать данную тенденцию при выборе инструментов.
2️⃣ Технологический стек продолжает унифицироваться вокруг лучших решений: TypeScript и React стали фактическим стандартом веб-разработки, Kubernetes – стандартом развёртывания, GitHub - стандартом хостинга кода и т. д. Популярные языки и фреймворки достигли такой зрелости, что разработчики в целом ими довольны и не испытывают острой необходимости срочно искать им замену
3️⃣ Позиции крупных экосистемных игроков остаются сильны. Так, Microsoft контролирует заметную часть инструментов разработчика (4 из 15 самых распространённых, включая VS Code, GitHub и Azure DevOps), Amazon - облачную инфраструктуру, Atlassian - управление проектами и т.д. Для индустрии это означает стабильность базового инструментария и продолжение инвестиций со стороны гигантов рынка.
Одновременно опрос показал и точки напряжения, которые можно рассматривать как ниши для инноваций.
Разработчики явно фрустрированы от "тяжеловесных" корпоративных решений – яркий пример тому JIRA, которую вынужденно используют повсеместно, но называют худшим инструментом. Запрос на более продуктивные, быстрые и удобные инструменты налицо, что подтверждается успехом конкурента Linear и других облегённых аналогов. Когда две системы (JIRA и Linear) охватывают порядка 75% всех командных процессов планирования, рынок фактически монополизирован парой игроков - и в то же время открывается возможность для новых продуктов, способных потеснить устоявшиеся, но нелюбимые решения.
Похожая ситуация складывается и в других категориях: например, появление специализированных стартапов в области oncall, фичефлагов, observability говорит о том, что существующие крупные продукты удовлетворяют не всех. Многие компании продолжают строить критически важные инструменты "in-house", и это сигнал вендорам о незакрытых потребностях. С другой стороны, столь богатый и разнообразный ландшафт инструментов - благо для инженеров, но и вызов для технологических лидеров.
В 2025 году перед командами стоит задача грамотной интеграции множества инструментов: от AI-помощников до облачных сервисов, от мониторинга до экспериментальных платформ. Те компании, которые сумеют подобрать оптимальный набор технологий и процессов, получают конкурентное преимущество в эффективности разработки и скорости вывода продукта на рынок.
#AI #ML #PlatformEngineering #Software #Architecture #Processes #DevEx #Devops
Telegram
Книжный куб
[1/3] The Pragmatic Engineer 2025 Survey (Рубрика #DevEx)
Добрался до результатов летнего исследования Гергели Ороша (Gergely Orosz), известного инженера и автора популярной рассылки "The Pragmatic Engineer", одного из самых влиятельных источников аналитики…
Добрался до результатов летнего исследования Гергели Ороша (Gergely Orosz), известного инженера и автора популярной рассылки "The Pragmatic Engineer", одного из самых влиятельных источников аналитики…
👍5❤3🔥2
RepoSwarm - Giving AI Agents Architecture Context Across All Your Repos (Рубрика #Architecture)
Интересный доклад про восстановление архитектурного контекста при помощи AI агентов от Roy Osherove, Chief AI Architect в Verbit AI (компания с ~90 разработчиками, 12 командами и 400+ репозиториями). Интересно, что Roy написал три книги: The Art of Unit Testing, Elastic Leadership, Pipeline Driven (пока в разработке, но про его доклад с таким названием я уже рассказывал). У Роя есть и интересный блог robotpaper.ai, где он документирует AI-паттерны для разработчиков. Из интересного - его книги попали в обучающие датасеты LLM, поэтому промпт "review my tests in Roy Osherove style" работает из коробки в Cursor:)
Если же говорить про основные тезисы доклада изложены ниже
Документация в enterprise - проигрышная битва
В компаниях с 400+ репозиториями реальность такова
- 90% README-файлов устаревшие или неполные
- Архитектурные диаграммы существуют как кот Шредингера (пока не посмотришь не знаешь они еще живы или уже нет)
- Критические вопросы требуют недель ручного анализа: "что за инструменты мониторинга используются", "где хранятся определенные данные", "кто пользуется устаревшими API "
Не только люди страдают от такого качества документации - AI-агенты страдают тоже, так как им нужен контекст для правильных решений (какой UI-компонент использовать, как вызывать внутренний сервис).
Автор доклада в качестве решения создал RepoSwarm, живой архитектурный репозиторий, который доступен в виде open source. Он работает примерно следующим образом
1. Ежедневно сканирует GitHub-репозитории (приватные/публичные) с коммитами за последние 12 месяцев (это настраивается)
2. Генерирует markdown-документацию (один repo.md на репозиторий) через Claude Code SDK
3. Сохраняет в централизованный Architecture Hub — Git-репозиторий с полной историей изменений
4. Никогда не устаревает: при новом прогоне файлы полностью перезатираются (нет никакой backward compatibility)
Ключевое отличие от статической документации в том, что документы сделаны AI-readable (markdown) и у нас есть git-история
Если говорить про то, что автор решил добавить в repo.md, то это такой список инфомрации
- Базовая информация - High-level overview, Dependencies (package.json/requirements.txt), Security checks (top 10 OWASP), Monitoring tools
- Данные и API - Database schemas, API versioning, Events/messaging (pub/sub), Data mapping (GDPR/HIPAA flows)
- Инфраструктура - CI/CD deployment, Authentication/Authorization, Feature flags, ML/LLM usage (Gemini/Claude endpoints)
- Специализированные - Prompt security (injection checks), Mobile UI patterns (для repo_type: mobile), IaC analysis (для Terraform/K8s)
В каких реальных кейсах этот инструмент использовался автором
1. Cross-repo анализ - ответы на вопрос вида "какие monitoring tools используются?"
2. Large-scale migrations - обновление Python, консолидация API gateways (переход на Kong), deprecation внутреннего сервиса (поиск всех зависимостей)
3. Архитектурная история - генерация ретроспективно ADR с ответом на вопросы вида "why we moved to serverless in Q2 2024"
4. AI-агентам как контекст - использование Architecture Hub в Cursor → автоконтекст для features/bugs
Что использование значит для разработки
1. Смещение роли архитектора - от ручной работы к построению и использованию таких инструментов
2. Новый workflow для compliance - проще выстроить соответствие внешним требованиям
3. Эволюция AI-агентов - улучшениие AI-assisted разработки за счет интеграции архитектурной информации в контекст агентов
4. Следование философии "живой документации" - генерация ее из кода и гарантированный freshness
#DevOps #AI #Architecture #Culture #Engineering #ML #Future #Software #SystemDesign
Интересный доклад про восстановление архитектурного контекста при помощи AI агентов от Roy Osherove, Chief AI Architect в Verbit AI (компания с ~90 разработчиками, 12 командами и 400+ репозиториями). Интересно, что Roy написал три книги: The Art of Unit Testing, Elastic Leadership, Pipeline Driven (пока в разработке, но про его доклад с таким названием я уже рассказывал). У Роя есть и интересный блог robotpaper.ai, где он документирует AI-паттерны для разработчиков. Из интересного - его книги попали в обучающие датасеты LLM, поэтому промпт "review my tests in Roy Osherove style" работает из коробки в Cursor:)
Если же говорить про основные тезисы доклада изложены ниже
Документация в enterprise - проигрышная битва
В компаниях с 400+ репозиториями реальность такова
- 90% README-файлов устаревшие или неполные
- Архитектурные диаграммы существуют как кот Шредингера (пока не посмотришь не знаешь они еще живы или уже нет)
- Критические вопросы требуют недель ручного анализа: "что за инструменты мониторинга используются", "где хранятся определенные данные", "кто пользуется устаревшими API "
Не только люди страдают от такого качества документации - AI-агенты страдают тоже, так как им нужен контекст для правильных решений (какой UI-компонент использовать, как вызывать внутренний сервис).
Автор доклада в качестве решения создал RepoSwarm, живой архитектурный репозиторий, который доступен в виде open source. Он работает примерно следующим образом
1. Ежедневно сканирует GitHub-репозитории (приватные/публичные) с коммитами за последние 12 месяцев (это настраивается)
2. Генерирует markdown-документацию (один repo.md на репозиторий) через Claude Code SDK
3. Сохраняет в централизованный Architecture Hub — Git-репозиторий с полной историей изменений
4. Никогда не устаревает: при новом прогоне файлы полностью перезатираются (нет никакой backward compatibility)
Ключевое отличие от статической документации в том, что документы сделаны AI-readable (markdown) и у нас есть git-история
Если говорить про то, что автор решил добавить в repo.md, то это такой список инфомрации
- Базовая информация - High-level overview, Dependencies (package.json/requirements.txt), Security checks (top 10 OWASP), Monitoring tools
- Данные и API - Database schemas, API versioning, Events/messaging (pub/sub), Data mapping (GDPR/HIPAA flows)
- Инфраструктура - CI/CD deployment, Authentication/Authorization, Feature flags, ML/LLM usage (Gemini/Claude endpoints)
- Специализированные - Prompt security (injection checks), Mobile UI patterns (для repo_type: mobile), IaC analysis (для Terraform/K8s)
В каких реальных кейсах этот инструмент использовался автором
1. Cross-repo анализ - ответы на вопрос вида "какие monitoring tools используются?"
2. Large-scale migrations - обновление Python, консолидация API gateways (переход на Kong), deprecation внутреннего сервиса (поиск всех зависимостей)
3. Архитектурная история - генерация ретроспективно ADR с ответом на вопросы вида "why we moved to serverless in Q2 2024"
4. AI-агентам как контекст - использование Architecture Hub в Cursor → автоконтекст для features/bugs
Что использование значит для разработки
1. Смещение роли архитектора - от ручной работы к построению и использованию таких инструментов
2. Новый workflow для compliance - проще выстроить соответствие внешним требованиям
3. Эволюция AI-агентов - улучшениие AI-assisted разработки за счет интеграции архитектурной информации в контекст агентов
4. Следование философии "живой документации" - генерация ее из кода и гарантированный freshness
#DevOps #AI #Architecture #Culture #Engineering #ML #Future #Software #SystemDesign
YouTube
RepoSwarm - Giving AI Agents Architecture Context Across All Your Repos - Roy Osherove
more info at https://robotpaper.ai by Roy Osherove.
This talk explores RepoSwarm, an AI-first developer tool for giving LLM-powered coding agents deep, accurate context across large multi-repository codebases. Instead of relying on stale READMEs or static…
This talk explores RepoSwarm, an AI-first developer tool for giving LLM-powered coding agents deep, accurate context across large multi-repository codebases. Instead of relying on stale READMEs or static…
🔥7❤5👍3☃1🎄1
Developer Experience in the Age of AI Coding Agents (Рубрика #Agents)
Посмотрел интересное выступление Max Kanat-Alexander, Executive Distinguished Engineer в Capital One, где он рассказывал про DevEx в эпоху AI-агентов или как не утонуть в уже существующем legacy и новосозданном legacy, генерящегося агентами в ускоренном режиме:) Макс ранее работал Tech Lead в Google (над Code Health) и Principal Staff Engineer в LinkedIn (над Developer Productivity). Также он написал книги "Code Simplicity" и "Understanding Software", которые я пока не прочел:)
Основные тезисы доклада такие
1️⃣ Не сражайтесь с Training Set
Используйте стандартные инструменты. Если вы написали свой пакетный менеджер или используете редкий язык — агент будет тупить. Он обучен на open source стандартах. Чем "скучнее" и стандартнее ваш стек, тем умнее на нём работает AI.
2️⃣ CLI > GUI
Агентам нужны API и CLI, а не браузер. Заставлять агента "кликать" через GUI — дорого и ненадежно. Если у инструмента есть текстовый интерфейс, агент справится с ним быстрее и точнее.
3️⃣ Тесты должны быть детерминированными
Агенту ничего не говорит ошибка `500 Internal Error`. Ему нужны четкие сообщения валидаторов. Инвестиция в качественные сообщения об ошибках в тестах и линтерах — это инвестиция в автономность агента. Критично что тесты должны бежать быстро (30 секунд, а не 20 минут). Агент запускает их в цикле. Медленный CI убьёт продуктивность агента.
4️⃣ Документируйте "Зачем", а не "Что"
Агент видит код и понимает, что он делает. Но он не был на ваших митингах и не умеет читать мысли.
В документации теперь нужно писать контекст: бизнес-цели, внешние ограничения, форму данных на входе. То, чего нет в коде.
5️⃣ Проблема Code Review (Порочный цикл)
Написание кода превращается в чтение. Количество PR-ов растет экспоненциально.
Но, если у вас слабый процесс ревью, вы начнете "штамповать" (LGTM) плохой код от агентов. Кодовая база деградирует, агенту становится сложнее в ней работать, он пишет еще больше чуши → получается порочный круг. Решение в том, чтобы распределять нагрузку по ревью (не слать всё в общий канал "кто-нибудь гляньте") и жестко держать планку качества.
🚀 Что это значит для разработки?
- Рефакторинг легаси обязателен. Если человек не может понять структуру проекта без "тайных знаний", агент там просто галлюцинирует. Хорошая структура кода теперь — экономическая необходимость.
- Сдвиг парадигмы. Мы переходим от написания кода к верификации. Навык быстро читать и валидировать чужой код становится важнее навыка быстро печатать.
- Золотое правило. Всё, что хорошо для AI-агента (быстрые тесты, внятные ошибки, стандартные инструменты), хорошо и для человека. Даже если AI завтра исчезнет, эти инвестиции окупятся для людей. Забавно, что это очень похоже на "золотое правило морали", универсальный этический принцип, который гласит: «Поступай с другими так, как хочешь, чтобы поступали с тобой»,
#Engineering #AI #Metrics #Software #DevEx #Productivity #DevOps #Architecture #Culture #Engineering #ML #SystemDesign
Посмотрел интересное выступление Max Kanat-Alexander, Executive Distinguished Engineer в Capital One, где он рассказывал про DevEx в эпоху AI-агентов или как не утонуть в уже существующем legacy и новосозданном legacy, генерящегося агентами в ускоренном режиме:) Макс ранее работал Tech Lead в Google (над Code Health) и Principal Staff Engineer в LinkedIn (над Developer Productivity). Также он написал книги "Code Simplicity" и "Understanding Software", которые я пока не прочел:)
Основные тезисы доклада такие
1️⃣ Не сражайтесь с Training Set
Используйте стандартные инструменты. Если вы написали свой пакетный менеджер или используете редкий язык — агент будет тупить. Он обучен на open source стандартах. Чем "скучнее" и стандартнее ваш стек, тем умнее на нём работает AI.
2️⃣ CLI > GUI
Агентам нужны API и CLI, а не браузер. Заставлять агента "кликать" через GUI — дорого и ненадежно. Если у инструмента есть текстовый интерфейс, агент справится с ним быстрее и точнее.
3️⃣ Тесты должны быть детерминированными
Агенту ничего не говорит ошибка `500 Internal Error`. Ему нужны четкие сообщения валидаторов. Инвестиция в качественные сообщения об ошибках в тестах и линтерах — это инвестиция в автономность агента. Критично что тесты должны бежать быстро (30 секунд, а не 20 минут). Агент запускает их в цикле. Медленный CI убьёт продуктивность агента.
4️⃣ Документируйте "Зачем", а не "Что"
Агент видит код и понимает, что он делает. Но он не был на ваших митингах и не умеет читать мысли.
В документации теперь нужно писать контекст: бизнес-цели, внешние ограничения, форму данных на входе. То, чего нет в коде.
5️⃣ Проблема Code Review (Порочный цикл)
Написание кода превращается в чтение. Количество PR-ов растет экспоненциально.
Но, если у вас слабый процесс ревью, вы начнете "штамповать" (LGTM) плохой код от агентов. Кодовая база деградирует, агенту становится сложнее в ней работать, он пишет еще больше чуши → получается порочный круг. Решение в том, чтобы распределять нагрузку по ревью (не слать всё в общий канал "кто-нибудь гляньте") и жестко держать планку качества.
🚀 Что это значит для разработки?
- Рефакторинг легаси обязателен. Если человек не может понять структуру проекта без "тайных знаний", агент там просто галлюцинирует. Хорошая структура кода теперь — экономическая необходимость.
- Сдвиг парадигмы. Мы переходим от написания кода к верификации. Навык быстро читать и валидировать чужой код становится важнее навыка быстро печатать.
- Золотое правило. Всё, что хорошо для AI-агента (быстрые тесты, внятные ошибки, стандартные инструменты), хорошо и для человека. Даже если AI завтра исчезнет, эти инвестиции окупятся для людей. Забавно, что это очень похоже на "золотое правило морали", универсальный этический принцип, который гласит: «Поступай с другими так, как хочешь, чтобы поступали с тобой»,
#Engineering #AI #Metrics #Software #DevEx #Productivity #DevOps #Architecture #Culture #Engineering #ML #SystemDesign
YouTube
Developer Experience in the Age of AI Coding Agents – Max Kanat-Alexander, Capital One
It feels like every two weeks, the world of software engineering is being turned on its head. Are there any principles we can rely on that will continue to hold true, and that can help us prepare for the future, no matter what happens? Max uses research,…
👍11❤6🔥3
Dispatch from the Future: building an AI-native Company (Рубрика #AI)
Посмотерл претенциозный доклад Dan Shipper, сооснователя и CEO Every. Он запустил Every в 2020 году вместе с Nathan Baschez, а сегодня Every — это команда из 15 человек, которая управляет 6 бизнес-юнитами и 4 продуктами, публикует ежедневную рассылку об AI и консалтит.
Как по мне масштаб компании небольшой, но тезисы амбициозные и интересные, поэтому я привел их здесь
1️⃣ Квантовый скачок при 100% adoption
Разница между организацией, где 90% инженеров используют AI, и организацией со 100% adoption — это не 10%, а 10x. Если хотя бы 10% команды использует традиционные методы разработки, вся организация откатывается к старым процессам. Физика разработки меняется только при полном переходе.
2️⃣ 2. Один разработчик = продакшн-приложение
В Every каждый из четырех продуктов построен одним инженером. Это не игрушки: Cora (AI email assistant) обрабатывает тысячи почтовых ящиков, Monologue (speech-to-text) используют для написания миллионов слов в неделю, Spiral (AI writing partner) генерирует контент с миллионами показов. 99% кода написано AI-агентами — никто не пишет код руками.
3️⃣ От code editor к делегированию агентнам
Ключевое изменение — переход от редактора кода к terminal-based workflow с Claude Code, который убирает традиционный code editor и позволяет делегировать задачи агентам. Это открывает возможность параллельного выполнения: разработчики запускают 4 окна с агентами одновременно, работая над разными фичами.
4️⃣ Demo culture vs Memo culture
Когда код становится дешевым, компании переходят от "memo culture" (писать документы и убеждать коллег) к "demo culture" — можно за пару часов сделать прототип и показать. Это позволяет делать более странные и интересные вещи, которые сложно описать словами, но легко почувствовать.
5️⃣ Compounding Engineering
Every разработала методологию Compounding Engineering: каждая фича делает следующую фичу проще, а не сложнее. Цикл состоит из 4 этапов:
- Plan (40%): агенты изучают кодовую базу и создают детальные планы
- Work (20%): агенты пишут код и тесты
- Review (20%): оценка качества через тесты, код-ревью, субагентов
- Compound (20%): кодификация всех learnings в промпты, субагентов, slash-команды
6️⃣ Вторичные эффекты
Полный AI-adoption разблокирует неочевидные преимущества:
- Tacit code sharing: агенты могут читать репо соседних проектов и переносить паттерны в другой стек без явных библиотек
- Новички продуктивны с первого дня: вся организационная база знаний закодирована в claude.md файлах
- Cross-app commits: разработчики фиксят баги в чужих продуктах, потому что это просто
- Polyglot stack: каждый продукт может использовать свой язык и фреймворк — AI справляется с трансляцией
- Менеджеры коммитят код: даже CEO может коммитить production code между встречами
7️⃣ Fractured Attention Programming
AI позволяет работать с "раздробленным вниманием", когда раньше нужен был 3-4 часовой фокус-блок. Теперь: вышел из встречи → дал задачу агенту → пошел на другую встречу → вернулся к готовому результату → сделал PR.
Это влечет за собой следующие изменения для разработки
1) Изменения экономики разработки
- Параллелизм вместо последовательности: с агентами разработчик работает с 3-4 задачами одновременно в разных worktrees, а не с одной, как было раньше
- Снижение стоимости старта: prototype-first подход становится доминирующим
- Инверсия роли разработчика: код пишут агенты, разработчики становятся "оркестраторами"
2) Трансформация процессов
- Новые примитивы: появляются agents.md файлы с контекстом проекта, кастомные субагенты для специфичных задач и т.д (это способ кодификации знаний организации)
- Сдвиг от документации к артефактам: агенты читают код и другие примитивы напрямую
- Изменение hiring: больше не нужны недели на онбординг и не так важно знание конкретного стека
#Engineering #AI #Metrics #Software #DevEx #Productivity #DevOps #Architecture #Culture #Engineering #ML #SystemDesign
Посмотерл претенциозный доклад Dan Shipper, сооснователя и CEO Every. Он запустил Every в 2020 году вместе с Nathan Baschez, а сегодня Every — это команда из 15 человек, которая управляет 6 бизнес-юнитами и 4 продуктами, публикует ежедневную рассылку об AI и консалтит.
Как по мне масштаб компании небольшой, но тезисы амбициозные и интересные, поэтому я привел их здесь
1️⃣ Квантовый скачок при 100% adoption
Разница между организацией, где 90% инженеров используют AI, и организацией со 100% adoption — это не 10%, а 10x. Если хотя бы 10% команды использует традиционные методы разработки, вся организация откатывается к старым процессам. Физика разработки меняется только при полном переходе.
2️⃣ 2. Один разработчик = продакшн-приложение
В Every каждый из четырех продуктов построен одним инженером. Это не игрушки: Cora (AI email assistant) обрабатывает тысячи почтовых ящиков, Monologue (speech-to-text) используют для написания миллионов слов в неделю, Spiral (AI writing partner) генерирует контент с миллионами показов. 99% кода написано AI-агентами — никто не пишет код руками.
3️⃣ От code editor к делегированию агентнам
Ключевое изменение — переход от редактора кода к terminal-based workflow с Claude Code, который убирает традиционный code editor и позволяет делегировать задачи агентам. Это открывает возможность параллельного выполнения: разработчики запускают 4 окна с агентами одновременно, работая над разными фичами.
4️⃣ Demo culture vs Memo culture
Когда код становится дешевым, компании переходят от "memo culture" (писать документы и убеждать коллег) к "demo culture" — можно за пару часов сделать прототип и показать. Это позволяет делать более странные и интересные вещи, которые сложно описать словами, но легко почувствовать.
5️⃣ Compounding Engineering
Every разработала методологию Compounding Engineering: каждая фича делает следующую фичу проще, а не сложнее. Цикл состоит из 4 этапов:
- Plan (40%): агенты изучают кодовую базу и создают детальные планы
- Work (20%): агенты пишут код и тесты
- Review (20%): оценка качества через тесты, код-ревью, субагентов
- Compound (20%): кодификация всех learnings в промпты, субагентов, slash-команды
6️⃣ Вторичные эффекты
Полный AI-adoption разблокирует неочевидные преимущества:
- Tacit code sharing: агенты могут читать репо соседних проектов и переносить паттерны в другой стек без явных библиотек
- Новички продуктивны с первого дня: вся организационная база знаний закодирована в claude.md файлах
- Cross-app commits: разработчики фиксят баги в чужих продуктах, потому что это просто
- Polyglot stack: каждый продукт может использовать свой язык и фреймворк — AI справляется с трансляцией
- Менеджеры коммитят код: даже CEO может коммитить production code между встречами
7️⃣ Fractured Attention Programming
AI позволяет работать с "раздробленным вниманием", когда раньше нужен был 3-4 часовой фокус-блок. Теперь: вышел из встречи → дал задачу агенту → пошел на другую встречу → вернулся к готовому результату → сделал PR.
Это влечет за собой следующие изменения для разработки
1) Изменения экономики разработки
- Параллелизм вместо последовательности: с агентами разработчик работает с 3-4 задачами одновременно в разных worktrees, а не с одной, как было раньше
- Снижение стоимости старта: prototype-first подход становится доминирующим
- Инверсия роли разработчика: код пишут агенты, разработчики становятся "оркестраторами"
2) Трансформация процессов
- Новые примитивы: появляются agents.md файлы с контекстом проекта, кастомные субагенты для специфичных задач и т.д (это способ кодификации знаний организации)
- Сдвиг от документации к артефактам: агенты читают код и другие примитивы напрямую
- Изменение hiring: больше не нужны недели на онбординг и не так важно знание конкретного стека
#Engineering #AI #Metrics #Software #DevEx #Productivity #DevOps #Architecture #Culture #Engineering #ML #SystemDesign
YouTube
Dispatch from the Future: building an AI-native Company – Dan Shipper, Every, AI & I
The central thesis is that there is a "10x difference" between an organization where 90% of engineers use AI versus one where 100% do. At 100% adoption, the fundamental physics of software engineering change: a single developer can build and maintain complex…
🔥8❤6😱2⚡1😁1
[1/2] State of Web Dev AI 2025 - Анализ результатов для инженеров (Рубрика #AI)
Почти год назад платформа Devographics провела первый опрос разработчиков, чтобы оценить состояние AI для веб разработки. Этот отчет я изучил еще осенью, но как-то забыл написать про него, поэтому исправлю это сейчас.
Методология отчета
Опрос проходил с 10 февраля по 10 марта 2025 года, участие приняли 4 181 веб-разработчик. Анкета изучала, как программисты применяют ИИ в работе, какие инструменты самые полезные и с какими проблемами сталкиваются. Опрос был открытым для всех желающих, поэтому в выборке, вероятно, больше энтузиастов ИИ (аудитория набрана в том числе из подписчиков State of JS/CSS). По итогам получились такие результаты
Как разработчики используют ИИ
🤖 Генерация кода – главный сценарий применения: ~82% опрошенных используют AI для написания программного кода. Для сравнения, генерацию изображений применяет лишь 38% – несмотря на шум вокруг Midjourney и др., визуальные инструменты остаются нишевыми в веб-разработке.
😑 Доля AI-кода пока невелика. У 69% респондентов ИИ генерирует меньше четверти итогового кода, и только 8% получают с помощью AI более 75% своего кода. Иными словами, для большинства разработчиков ассистенты пока пишут отдельные фрагменты, а не весь проект целиком.
⚙️ Частота и эффективность: почти половина (46%) программистов запускают генерацию кода с помощью AI несколько раз в день или чаще. Многие включили такие инструменты в свой ежедневный workflow. Более того, большинство опрошенных согласны, что AI-помощники заметно повысили их продуктивность
Популярные AI-инструменты
🤖 ChatGPT от OpenAI – абсолютный лидер по охвату: 91% веб-разработчиков хотя бы попробовали его в работе. Другие крупные модели тоже набирают пользователей: ~55–60% респондентов экспериментировали с Anthropic Claude, Microsoft Copilot (модельным бэкендом) или Google Gemini. Для сравнения, у нового xAI Grok этот показатель лишь ~25%.
🧑💻 GitHub Copilot – самый популярный coding assistant (AI-плагин для автодополнения кода). Им пользуются ~71% участников опроса, и он лидирует по доле положительных отзывов. Для сравнения, остальные ассистенты типа Tabnine или JetBrains AI сильно отстают (порядка 10–15% пользователей). Зато Supermaven выделяется: им пока пробовали <10%, но отзывы очень высокие – возможная «темная лошадка», способная выстрелить в ближайшем будущем.
Проблемные точки
⚠️ Надежность и качество кода. Галлюцинации, фактические ошибки и ограниченный контекст модели – главные препятствия для широкого применения AI-инструментов. В итоге 76% разработчиков переписывают минимум половину кода, сгенерированного ИИ, прежде чем использовать его. Нередко причина проста: полученный фрагмент не работает так, как задумано. Без тщательного ревью и тестов доверять AI-коду пока нельзя.
💰 Расходы на инструменты. Большинство разработчиков пользуются бесплатными версиями AI-сервисов: свыше 90% тратят меньше $50 в месяц, в том числе 52% не платят ничего. Компании тоже осторожны с бюджетом: ~38% команд не инвестируют в AI совсем, а ~12% уже расходуют большие суммы (> $5000 ежемесячно). Пока многие выжидают, оценивая реальную отдачу от AI-инструментов.
В продолжении рассказ про результаты опроса, что могут быть интересны техническим лидерам
#Engineering #AI #Metrics #Software #DevEx #Productivity #DevOps
Почти год назад платформа Devographics провела первый опрос разработчиков, чтобы оценить состояние AI для веб разработки. Этот отчет я изучил еще осенью, но как-то забыл написать про него, поэтому исправлю это сейчас.
Методология отчета
Опрос проходил с 10 февраля по 10 марта 2025 года, участие приняли 4 181 веб-разработчик. Анкета изучала, как программисты применяют ИИ в работе, какие инструменты самые полезные и с какими проблемами сталкиваются. Опрос был открытым для всех желающих, поэтому в выборке, вероятно, больше энтузиастов ИИ (аудитория набрана в том числе из подписчиков State of JS/CSS). По итогам получились такие результаты
Как разработчики используют ИИ
⚙️ Частота и эффективность: почти половина (46%) программистов запускают генерацию кода с помощью AI несколько раз в день или чаще. Многие включили такие инструменты в свой ежедневный workflow. Более того, большинство опрошенных согласны, что AI-помощники заметно повысили их продуктивность
Популярные AI-инструменты
🤖 ChatGPT от OpenAI – абсолютный лидер по охвату: 91% веб-разработчиков хотя бы попробовали его в работе. Другие крупные модели тоже набирают пользователей: ~55–60% респондентов экспериментировали с Anthropic Claude, Microsoft Copilot (модельным бэкендом) или Google Gemini. Для сравнения, у нового xAI Grok этот показатель лишь ~25%.
🧑💻 GitHub Copilot – самый популярный coding assistant (AI-плагин для автодополнения кода). Им пользуются ~71% участников опроса, и он лидирует по доле положительных отзывов. Для сравнения, остальные ассистенты типа Tabnine или JetBrains AI сильно отстают (порядка 10–15% пользователей). Зато Supermaven выделяется: им пока пробовали <10%, но отзывы очень высокие – возможная «темная лошадка», способная выстрелить в ближайшем будущем.
Проблемные точки
⚠️ Надежность и качество кода. Галлюцинации, фактические ошибки и ограниченный контекст модели – главные препятствия для широкого применения AI-инструментов. В итоге 76% разработчиков переписывают минимум половину кода, сгенерированного ИИ, прежде чем использовать его. Нередко причина проста: полученный фрагмент не работает так, как задумано. Без тщательного ревью и тестов доверять AI-коду пока нельзя.
💰 Расходы на инструменты. Большинство разработчиков пользуются бесплатными версиями AI-сервисов: свыше 90% тратят меньше $50 в месяц, в том числе 52% не платят ничего. Компании тоже осторожны с бюджетом: ~38% команд не инвестируют в AI совсем, а ~12% уже расходуют большие суммы (> $5000 ежемесячно). Пока многие выжидают, оценивая реальную отдачу от AI-инструментов.
В продолжении рассказ про результаты опроса, что могут быть интересны техническим лидерам
#Engineering #AI #Metrics #Software #DevEx #Productivity #DevOps
Please open Telegram to view this post
VIEW IN TELEGRAM
2025.stateofai.dev
State of AI 2025
1❤5👍3👎1🔥1
[2/2] State of Web Dev AI 2025 - Анилиз для руководителей (Рубрика #AI)
Продолжая рассказ про отчет, надо отметить, что AI-инструменты влияют не только на код, но и на организацию работы команд разработки. Ниже – ключевые инсайты для технических лидеров о том, как интеграция ИИ меняет рабочие процессы, роли и затраты.
AI в процессах и продуктивности команды
🤖 Часть ежедневного workflow. AI-инструменты прочно вошли в повседневную практику: 59% опрошенных согласны, что ИИ стал неотъемлемой частью их разработки. Почти половина инженеров (46%) запускают генерацию кода с помощью AI несколько раз в день – фактически AI уже выступает “вторым пилотом” для разработчиков на многих задачах.
📈 ROI – рост производительности. Большинство инженеров отмечают, что AI-средства сделали их продуктивнее. Для менеджера это означает ускорение доставки: рутинные этапы (шаблонный код, документация, тесты) можно поручить ИИ и выполнить быстрее, освободив команду для творчества и решения сложных проблем.
🛠 Интеграция инструментов. Специализированные AI-IDE пока нишевы – лишь ~42% респондентов пробовали такие среды. Команды предпочитают добавлять AI-функции в знакомые IDE (VS Code, IntelliJ и др.), а не переходить на новые редакторы, поэтому эффективнее внедрять AI-плагины в существующий стек, чем заставлять всех осваивать совершенно новые решения.
💰 Бюджеты на AI. Многие компании осторожничают: ~38% вообще не тратят на AI-сервисы, тогда как ~12% уже инвестируют серьёзно (> $5000 в месяц). Большинство разработчиков также ограничивается бесплатными инструментами (94% платят <$50 в мес, из них ~52% — $0).
Кадры, структура и риски
🧑💼 Навыки и новые роли. Важный новый skill – умение эффективно пользоваться AI. Средний разработчик уже попробовал почти 4 разных AI-модели, экспериментируя в поисках лучших инструментов. Навык написания грамотных промптов и проверки AI-результатов становится частью профессии. В некоторых компаниях появляются роли вроде AI-евангелиста или внутреннего эксперта, обучающего команду работе с ИИ.
🎓 Поддержание экспертизы. Нельзя допустить деградации навыков из-за чрезмерной зависимости от AI. 60% респондентов согласны, что переизбыток автоматизации может снизить общий уровень квалификации разработчиков. Чтобы этого не случилось, лидерам стоит поощрять полноценные ревью и разбор AI-кода – особенно для роста джунов. Обсуждение решений, полученных от ИИ, должно стать частью обучения: инженеры должны понимать, почему код работает, а не только получать ответ от машины.
🔒 Контроль качества и риски. Руководителю важно встроить AI в процесс контроля. Нужно определить правила: требовать автотесты и ревью для кода, сгенерированного AI, и ограничивать применение генерации в критичных модулях. Основные проблемы ИИ никуда не делись: модель все еще может галлюцинировать, упускать контекст или выдавать уязвимый код. Поэтому ясно обозначьте, где команда может полагаться на AI, а где обязателен ручной контроль.
🚀 Конкурентное преимущество. Правильно внедренный AI – это ускоритель для команды, а не замена живым инженерам. Опрос показывает, что AI по-прежнему дополнение, а не угроза: он ускоряет написание кода, но не отнимает рабочие места (лишь около четверти специалистов видят в ИИ угрозу для своей работы). Как отметил один из экспертов, «те, кто научатся использовать AI, получат преимущество»
#Engineering #AI #Metrics #Software #DevEx #Productivity #DevOps
Продолжая рассказ про отчет, надо отметить, что AI-инструменты влияют не только на код, но и на организацию работы команд разработки. Ниже – ключевые инсайты для технических лидеров о том, как интеграция ИИ меняет рабочие процессы, роли и затраты.
AI в процессах и продуктивности команды
🤖 Часть ежедневного workflow. AI-инструменты прочно вошли в повседневную практику: 59% опрошенных согласны, что ИИ стал неотъемлемой частью их разработки. Почти половина инженеров (46%) запускают генерацию кода с помощью AI несколько раз в день – фактически AI уже выступает “вторым пилотом” для разработчиков на многих задачах.
📈 ROI – рост производительности. Большинство инженеров отмечают, что AI-средства сделали их продуктивнее. Для менеджера это означает ускорение доставки: рутинные этапы (шаблонный код, документация, тесты) можно поручить ИИ и выполнить быстрее, освободив команду для творчества и решения сложных проблем.
🛠 Интеграция инструментов. Специализированные AI-IDE пока нишевы – лишь ~42% респондентов пробовали такие среды. Команды предпочитают добавлять AI-функции в знакомые IDE (VS Code, IntelliJ и др.), а не переходить на новые редакторы, поэтому эффективнее внедрять AI-плагины в существующий стек, чем заставлять всех осваивать совершенно новые решения.
💰 Бюджеты на AI. Многие компании осторожничают: ~38% вообще не тратят на AI-сервисы, тогда как ~12% уже инвестируют серьёзно (> $5000 в месяц). Большинство разработчиков также ограничивается бесплатными инструментами (94% платят <$50 в мес, из них ~52% — $0).
Кадры, структура и риски
🧑💼 Навыки и новые роли. Важный новый skill – умение эффективно пользоваться AI. Средний разработчик уже попробовал почти 4 разных AI-модели, экспериментируя в поисках лучших инструментов. Навык написания грамотных промптов и проверки AI-результатов становится частью профессии. В некоторых компаниях появляются роли вроде AI-евангелиста или внутреннего эксперта, обучающего команду работе с ИИ.
🎓 Поддержание экспертизы. Нельзя допустить деградации навыков из-за чрезмерной зависимости от AI. 60% респондентов согласны, что переизбыток автоматизации может снизить общий уровень квалификации разработчиков. Чтобы этого не случилось, лидерам стоит поощрять полноценные ревью и разбор AI-кода – особенно для роста джунов. Обсуждение решений, полученных от ИИ, должно стать частью обучения: инженеры должны понимать, почему код работает, а не только получать ответ от машины.
🔒 Контроль качества и риски. Руководителю важно встроить AI в процесс контроля. Нужно определить правила: требовать автотесты и ревью для кода, сгенерированного AI, и ограничивать применение генерации в критичных модулях. Основные проблемы ИИ никуда не делись: модель все еще может галлюцинировать, упускать контекст или выдавать уязвимый код. Поэтому ясно обозначьте, где команда может полагаться на AI, а где обязателен ручной контроль.
🚀 Конкурентное преимущество. Правильно внедренный AI – это ускоритель для команды, а не замена живым инженерам. Опрос показывает, что AI по-прежнему дополнение, а не угроза: он ускоряет написание кода, но не отнимает рабочие места (лишь около четверти специалистов видят в ИИ угрозу для своей работы). Как отметил один из экспертов, «те, кто научатся использовать AI, получат преимущество»
#Engineering #AI #Metrics #Software #DevEx #Productivity #DevOps
Telegram
Книжный куб
[1/2] State of Web Dev AI 2025 - Анализ результатов для инженеров (Рубрика #AI)
Почти год назад платформа Devographics провела первый опрос разработчиков, чтобы оценить состояние AI для веб разработки. Этот отчет я изучил еще осенью, но как-то забыл написать…
Почти год назад платформа Devographics провела первый опрос разработчиков, чтобы оценить состояние AI для веб разработки. Этот отчет я изучил еще осенью, но как-то забыл написать…
❤4🔥3⚡1