Конструктор орбитальной станции
Где-то полгодика назад я купил себе конструктор с космической станцией, но никак не доходили руки его собрать. Но в каникулы я сделал над собой усилие и собрал его - теперь он стоит у меня в кабинете. А рядом с ним лего фигурки космонавта и Маленького Принца (в некотором роде тоже космического путешественника). В общем, выглядит стильно и мне нравится:)
Где-то полгодика назад я купил себе конструктор с космической станцией, но никак не доходили руки его собрать. Но в каникулы я сделал над собой усилие и собрал его - теперь он стоит у меня в кабинете. А рядом с ним лего фигурки космонавта и Маленького Принца (в некотором роде тоже космического путешественника). В общем, выглядит стильно и мне нравится:)
1👍19🔥10❤7
[1/3] Octoverse 2025: A new developer joins GitHub every second as AI leads TypeScript to #1 (Рубрика #Engineering)
В конце октября появился очередной отчет Octoverse от GitHub, где авторы рассказывают про состояние дел в мире OSS (Open Source Software), а точнее о состоянии экосистемы разработки софта на GitHub. В 2025 году в отчете рассказывают про рекордный рост сообщества разработчиков в 2025 году и кардинальное влияние инструментов искусственного интеллекта на процесс разработки и выбор технологий.
Но начать стоит с методологии, так как она в отличие от многих других похожих отчетов основана не на опросах (что хорошо и позволяет оценить что происходит реально с репозиториями, кодом, разработчиками):
- Источник и период данных: отчет основан на анализе всех активностей пользователей на платформе GitHub за период с 1 сентября 2024 года по 31 августа 2025 (это так называемый Octoverse Year). Данные получены непосредственно из событий на платформе (коммиты, pull request’ы, issue и др.) – преимущественно из публичных репозиториев, если не оговорено иначе. Такой подход позволил сопоставлять метрики год к году с учётом сезонности (для трендов использовали сравнение одного и того же месяца в 2024 и 2025).
- Охват и размер выборки: тут тоже все здорово - отчет Octoverse опирается на всю популяцию разработчиков на GitHub, которых в 2025 году стало больше 180 миллионов (на 36 млн больше, чем годом ранее).
- Географическая представленность: данные отражают глобальное распределение разработчиков. Быстрее всего сообщество растёт в Азии и других развивающихся регионах, а Индия вышла на первое место по скорости добавления разработчиков (более 5.2 млн за год), а также на второе место по размеру сообщества (сразу после США).
- Отраслевая представленность: в конексте отчета разработчиком считают любого пользователя GitHub, связанный с созданием ПО. Отчёт охватывает как открытые проекты, так и корпоративные: хотя 81,5% всех зафиксированных вкладов пришлось на приватные репозитории (внутренние компании разработки), более 63% всех репозиториев на GitHub остаются публичными или open source. Иными словами, анализ учитывает и повседневную корпоративную разработку, и масштабную открытую экосистему, на которую она опирается.
- Дополнительные исследования: Отчёт носит количественный характер, основанный на телеметрии GitHub, а не на анкетировании. Однако авторы включили точечные качественные данные – например, серии интервью с разработчиками о практике ревью кода, чтобы оценить пользу нового инструмента GitHub Copilot Code Review. Результаты этих интервью встроены в анализ, например, 72,6% опрошенных отметили рост эффективности кода-ревью благодаря ИИ.
Ну а теперь, когда стало ясно почему отчет так интересен, стоит перейти к его результатами и ключевым выводам
👀 Основные показатели экосистемы Octoverse 2025
- Общее число проектов достигло 630 миллионов, AI-проектов – 4,3 млн, а разработчиков –-более 180 миллионов
- Количество публичных contributions (commits, PRs, gits, ...) - 1,12 млрд, в среднем 43,2 млн слияний pull request’ов в месяц (+23% г/г)
- Самыми популярными языками стали TypeScript и Python
Эти рекордные цифры отражают главные тренды 2025 года - беспрецедентный рост сообщества и широкое внедрение ИИ-технологий в разработку
Ну а в следующих постах мы обсудим ключевые результаты более подробно.
#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
В конце октября появился очередной отчет Octoverse от GitHub, где авторы рассказывают про состояние дел в мире OSS (Open Source Software), а точнее о состоянии экосистемы разработки софта на GitHub. В 2025 году в отчете рассказывают про рекордный рост сообщества разработчиков в 2025 году и кардинальное влияние инструментов искусственного интеллекта на процесс разработки и выбор технологий.
Но начать стоит с методологии, так как она в отличие от многих других похожих отчетов основана не на опросах (что хорошо и позволяет оценить что происходит реально с репозиториями, кодом, разработчиками):
- Источник и период данных: отчет основан на анализе всех активностей пользователей на платформе GitHub за период с 1 сентября 2024 года по 31 августа 2025 (это так называемый Octoverse Year). Данные получены непосредственно из событий на платформе (коммиты, pull request’ы, issue и др.) – преимущественно из публичных репозиториев, если не оговорено иначе. Такой подход позволил сопоставлять метрики год к году с учётом сезонности (для трендов использовали сравнение одного и того же месяца в 2024 и 2025).
- Охват и размер выборки: тут тоже все здорово - отчет Octoverse опирается на всю популяцию разработчиков на GitHub, которых в 2025 году стало больше 180 миллионов (на 36 млн больше, чем годом ранее).
- Географическая представленность: данные отражают глобальное распределение разработчиков. Быстрее всего сообщество растёт в Азии и других развивающихся регионах, а Индия вышла на первое место по скорости добавления разработчиков (более 5.2 млн за год), а также на второе место по размеру сообщества (сразу после США).
- Отраслевая представленность: в конексте отчета разработчиком считают любого пользователя GitHub, связанный с созданием ПО. Отчёт охватывает как открытые проекты, так и корпоративные: хотя 81,5% всех зафиксированных вкладов пришлось на приватные репозитории (внутренние компании разработки), более 63% всех репозиториев на GitHub остаются публичными или open source. Иными словами, анализ учитывает и повседневную корпоративную разработку, и масштабную открытую экосистему, на которую она опирается.
- Дополнительные исследования: Отчёт носит количественный характер, основанный на телеметрии GitHub, а не на анкетировании. Однако авторы включили точечные качественные данные – например, серии интервью с разработчиками о практике ревью кода, чтобы оценить пользу нового инструмента GitHub Copilot Code Review. Результаты этих интервью встроены в анализ, например, 72,6% опрошенных отметили рост эффективности кода-ревью благодаря ИИ.
Ну а теперь, когда стало ясно почему отчет так интересен, стоит перейти к его результатами и ключевым выводам
👀 Основные показатели экосистемы Octoverse 2025
- Общее число проектов достигло 630 миллионов, AI-проектов – 4,3 млн, а разработчиков –-более 180 миллионов
- Количество публичных contributions (commits, PRs, gits, ...) - 1,12 млрд, в среднем 43,2 млн слияний pull request’ов в месяц (+23% г/г)
- Самыми популярными языками стали TypeScript и Python
Эти рекордные цифры отражают главные тренды 2025 года - беспрецедентный рост сообщества и широкое внедрение ИИ-технологий в разработку
Ну а в следующих постах мы обсудим ключевые результаты более подробно.
#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
The GitHub Blog
Octoverse: A new developer joins GitHub every second as AI leads TypeScript to #1
In this year’s Octoverse, we uncover how AI, agents, and typed languages are driving the biggest shifts in software development in more than a decade.
❤8👍2🔥2
[2/3] Octoverse 2025: A new developer joins GitHub every second as AI leads TypeScript to #1 (Рубрика #Engineering)
Продолжая рассказ про очередной ежегодный отчет от GitHub о состоянии экосистемы разработки софта на платформе, расскажу подробнее про его результаты.
📈 Беспрецедентный рост сообщества
- Платформа пополнилась более чем 36 миллионами новых разработчиков - это самый высокий абсолютный рост за всю историю наблюдений
- азработчики создали около 121 млн новых репозиториев за год (до 630 млн всего)
- Число коммитов достигло почти 1 миллиарда в 2025 году (+25% к 2024)
- Ежемесячно сливалось порядка 43,2 млн pull request’ов (+23% к 2024)
Такая динамика совпала с запуском бесплатной версии GitHub Copilot в конце 2024, которая привлекла волну новых пользователей и проектов.
🤖 ИИ стал неотъемлемой частью разработки
Генеративный ИИ за год превратился из новинки в стандартный инструмент разработчика.
- На GitHub уже насчитывается порядка 4,3 миллиона репозиториев, связанных с AI (расчет через проставление тегов репозиториям и выделение части тегов как относящихся к AI проектам).
- Свыше 1,1 млн публичных проектов используют SDK для работы с большими языковыми моделями (LLM) - и 693 тыс. из них созданы всего за последние 12 месяцев (рост +178% год к году)
- Новички сразу внедряют AI в работу: почти 80% новых разработчиков начинают использовать автодополнение GitHub Copilot уже в первую неделю работы с кодом
Всё это подтверждает, что ИИ-инструменты теперь ожидаемы “по умолчанию” в среде разработчиков. Рост использования AI-средств сопровождается и ростом вклада в код: за год было слито рекордные 518,7 млн pull request’ов (+29% к предыдущему году), а общее число вкладов в открытые проекты превысило 1,12 млрд (+13% г/г).
🚀 TypeScript вышел на 1-е место среди языков
Впервые за последнее десятилетие сменился лидер по популярности языков программирования на GitHub: в августе 2025 года TypeScript обогнал Python (а также давнего лидера JavaScript) и стал самым используемым языком на платформе. Стремительный рост TypeScript обусловлен сразу двумя факторами
1. Современные фронтенд-фреймворки (React, Angular и др.) генерируют шаблоны проектов на TS по умолчанию
2. Команды всё чаще предпочитают строго типизированный код при использовании ИИ: развитая типизация TypeScript делает автосгенерированный AI-код более надежным
За год сообщество TypeScript выросло на ≈1,05 млн разработчиков (+66% г/г), тогда как Python прибавил ~850 тыс. (+48% г/г). Несмотря на потерю первого места, Python остаётся ключевым языком для задач ИИ и науки о данных - у него 2,6 млн активных контрибьюторов, а Jupyter Notebook по-прежнему служит основной средой экспериментов (≈403 тыс. репозиториев внутри AI-проектов). Совокупно сообщества TypeScript и Python теперь насчитывают >5,2 млн разработчиков (около 3% всех активных пользователей GitHub).
Такой сдвиг подтверждает: ИИ влияет не только на скорость кодинга, но и на выбор технологий - команды охотнее доверяют AI-сгенерированный код языкам со строгой типизацией, особенно для продакшн-систем.
💯 ИИ меняет предпочтения и практики разработки
Данные Octoverse указывают на явную связь между внедрением AI-инструментов и эволюцией стека технологий разработчиков
- Начиная с 2025 года, рост популярности Python идёт почти параллельно с JavaScript/TypeScript, что свидетельствует об универсальном влиянии ИИ на разные экосистемы - от веб-разработки до анализа данных.
- Появляются новые подходы к работе с кодом, такие как "vibe coding"
- AI-ассистенты заметно снизили порог входа: если ИИ продолжит упрощать создание ПО, число людей, способных “кодить”, может резко возрасти
- На горизонте эра автономных помощников (AI agents). Уже появились инструменты, которые могут самостоятельно сгенерировать код, запустить тесты и даже открыть pull request для проверки человеком
В заключении погорим про мир open source и влиянии AI на продуктивность разработки, а также приведем выводы.
#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
Продолжая рассказ про очередной ежегодный отчет от GitHub о состоянии экосистемы разработки софта на платформе, расскажу подробнее про его результаты.
📈 Беспрецедентный рост сообщества
- Платформа пополнилась более чем 36 миллионами новых разработчиков - это самый высокий абсолютный рост за всю историю наблюдений
- азработчики создали около 121 млн новых репозиториев за год (до 630 млн всего)
- Число коммитов достигло почти 1 миллиарда в 2025 году (+25% к 2024)
- Ежемесячно сливалось порядка 43,2 млн pull request’ов (+23% к 2024)
Такая динамика совпала с запуском бесплатной версии GitHub Copilot в конце 2024, которая привлекла волну новых пользователей и проектов.
🤖 ИИ стал неотъемлемой частью разработки
Генеративный ИИ за год превратился из новинки в стандартный инструмент разработчика.
- На GitHub уже насчитывается порядка 4,3 миллиона репозиториев, связанных с AI (расчет через проставление тегов репозиториям и выделение части тегов как относящихся к AI проектам).
- Свыше 1,1 млн публичных проектов используют SDK для работы с большими языковыми моделями (LLM) - и 693 тыс. из них созданы всего за последние 12 месяцев (рост +178% год к году)
- Новички сразу внедряют AI в работу: почти 80% новых разработчиков начинают использовать автодополнение GitHub Copilot уже в первую неделю работы с кодом
Всё это подтверждает, что ИИ-инструменты теперь ожидаемы “по умолчанию” в среде разработчиков. Рост использования AI-средств сопровождается и ростом вклада в код: за год было слито рекордные 518,7 млн pull request’ов (+29% к предыдущему году), а общее число вкладов в открытые проекты превысило 1,12 млрд (+13% г/г).
🚀 TypeScript вышел на 1-е место среди языков
Впервые за последнее десятилетие сменился лидер по популярности языков программирования на GitHub: в августе 2025 года TypeScript обогнал Python (а также давнего лидера JavaScript) и стал самым используемым языком на платформе. Стремительный рост TypeScript обусловлен сразу двумя факторами
1. Современные фронтенд-фреймворки (React, Angular и др.) генерируют шаблоны проектов на TS по умолчанию
2. Команды всё чаще предпочитают строго типизированный код при использовании ИИ: развитая типизация TypeScript делает автосгенерированный AI-код более надежным
За год сообщество TypeScript выросло на ≈1,05 млн разработчиков (+66% г/г), тогда как Python прибавил ~850 тыс. (+48% г/г). Несмотря на потерю первого места, Python остаётся ключевым языком для задач ИИ и науки о данных - у него 2,6 млн активных контрибьюторов, а Jupyter Notebook по-прежнему служит основной средой экспериментов (≈403 тыс. репозиториев внутри AI-проектов). Совокупно сообщества TypeScript и Python теперь насчитывают >5,2 млн разработчиков (около 3% всех активных пользователей GitHub).
Такой сдвиг подтверждает: ИИ влияет не только на скорость кодинга, но и на выбор технологий - команды охотнее доверяют AI-сгенерированный код языкам со строгой типизацией, особенно для продакшн-систем.
Данные Octoverse указывают на явную связь между внедрением AI-инструментов и эволюцией стека технологий разработчиков
- Начиная с 2025 года, рост популярности Python идёт почти параллельно с JavaScript/TypeScript, что свидетельствует об универсальном влиянии ИИ на разные экосистемы - от веб-разработки до анализа данных.
- Появляются новые подходы к работе с кодом, такие как "vibe coding"
- AI-ассистенты заметно снизили порог входа: если ИИ продолжит упрощать создание ПО, число людей, способных “кодить”, может резко возрасти
- На горизонте эра автономных помощников (AI agents). Уже появились инструменты, которые могут самостоятельно сгенерировать код, запустить тесты и даже открыть pull request для проверки человеком
В заключении погорим про мир open source и влиянии AI на продуктивность разработки, а также приведем выводы.
#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Книжный куб
[1/3] Octoverse 2025: A new developer joins GitHub every second as AI leads TypeScript to #1 (Рубрика #Engineering)
В конце октября появился очередной отчет Octoverse от GitHub, где авторы рассказывают про состояние дел в мире OSS (Open Source Software)…
В конце октября появился очередной отчет Octoverse от GitHub, где авторы рассказывают про состояние дел в мире OSS (Open Source Software)…
❤4⚡1🔥1
[3/3] Octoverse 2025: A new developer joins GitHub every second as AI leads TypeScript to #1 (Рубрика #Engineering)
В заключении разбора отчета от GitHub погорим про мир open source и влиянии AI на продуктивность разработки, а также приведем заключительные выводы
🌐 Open source в эпоху ИИ: рост и новые лидеры
- Активность в открытых репозиториях достигла исторических максимумов. В 2025 году было зафиксировано 1,128 млрд вкладов в публичные и open source-проекты (+13% г/г). В целом на GitHub уже 395 млн открытых репозиториев (+20% г/г), а за год сообщество слило 518,7 млн pull request’ов в публичных проектах (+29% г/г).
- Бурный рост связан, в том числе, с ИИ-бумом: 6 из 10 самых быстрорастущих проектов года - это инструменты для ИИ-инфраструктуры (фреймворки для запуска моделей, оркестрации и т.п.). Например, vllm, ollama, ComfyUI, Continue и т.д.
- При этом 60% из топ-10 самых популярных репозиториев по числу контрибьюторов тоже связаны с ИИ – сообщество вкладывается в базовые AI-библиотеки и движки вроде HuggingFace Transformers, llama.cpp, а также в AI-функции популярных инструментов (например, OpenAI Codex для VS Code)
- Но open source-экосистема не ограничивается одной лишь сферой AI. Рядом с взлётом ИИ-проектов сохраняют сильные позиции и классические направления: например, открытый игровой движок Godot, домашняя IoT-платформа Home Assistant и фреймворк Expo для мобильной разработки стабильно входят в топ проектов по числу контрибьюторов
- Анализ показывает, что помимо ИИ, разработчики проявляют повышенный интерес к инструментам повышения эффективности
-- Средствам для детерминированной сборки и управления зависимостями (Nix, UV) – “чтобы код работал на любой машине”
-- Высокопроизводительным фреймворкам (Tailwind CSS, Ghostty) для получения быстрых результатов
-- К проектам, дающим больший контроль над средой (например, защищённые браузеры как Zen Browser)
- Продолжается и тренд на децентрализацию соцсетей: успех платформы Bluesky показывает спрос на открытые протоколы и независимость
🚀 ИИ повышает продуктивность разработки.
2025-й ознаменовался скачком продуктивности: по всем ключевым метрикам разработчики стали делать больше и быстрее, отчасти благодаря новым AI-инструментам. Ежемесячно на GitHub теперь
- Закрывается ≈4,25 млн issue (против ~3,4 млн в 2024)
- Слияний pull request’ов стало 43,2 млн (против ~35 млн в 2024)
- Объём коммитов увеличился с ~65 млн до 82 млн в месяц
Весной 2025, после запуска превью Copilot “coding agent” (март) и релиза Copilot Code Review (апрель), эти показатели резко пошли вверх. В марте разработчики закрыли на 1,4 млн issue больше, чем в феврале, а в июле 2025 было закрыто рекордные 5,5 млн issue за месяц. Сами разработчики подтверждают эффективность AI-помощников: по результатам интервью, 72,6% пользователей Copilot Code Review сообщили, что авто-рекомендации ИИ улучшили их процесс ревью кода. В целом, рост активности (на +25–30% г/г по разным сигналам) говорит о том, что ИИ-инструменты не только экономят время при написании кода, но и позволяют быстрее доводить задачи до завершения, снижая "трение" в командной работе.
В общем, из этого отчета видно, что
- Сообщество разработчиков растёт и меняется стремительнее, чем когда-либо, и одна из главных причин - интеграция AI в ежедневную практику программирования
- Искусственный интеллект уже стал стандартным помощником, ускоряя развитие проектов и влияя на выбор языков (первое место TypeScript во многом обязано AI-трендам).
- AI-проекты захватывают центр внимания в open source сообществе, но одновременно экосистема остаётся многообразной: наряду с ИИ, востребованы инструменты для надёжных сборок, производительности и свободы пользователей
Дальше будует еще веселее - по мере развития AI-инструментов мы уже видим с какой скоростью меняется индустрия разработки софта и профессии инженеров, технических руководителей, продуктовых менеджеров и т.д. Жить в эпоху технологических революций жутко интересно:)
#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
В заключении разбора отчета от GitHub погорим про мир open source и влиянии AI на продуктивность разработки, а также приведем заключительные выводы
- Активность в открытых репозиториях достигла исторических максимумов. В 2025 году было зафиксировано 1,128 млрд вкладов в публичные и open source-проекты (+13% г/г). В целом на GitHub уже 395 млн открытых репозиториев (+20% г/г), а за год сообщество слило 518,7 млн pull request’ов в публичных проектах (+29% г/г).
- Бурный рост связан, в том числе, с ИИ-бумом: 6 из 10 самых быстрорастущих проектов года - это инструменты для ИИ-инфраструктуры (фреймворки для запуска моделей, оркестрации и т.п.). Например, vllm, ollama, ComfyUI, Continue и т.д.
- При этом 60% из топ-10 самых популярных репозиториев по числу контрибьюторов тоже связаны с ИИ – сообщество вкладывается в базовые AI-библиотеки и движки вроде HuggingFace Transformers, llama.cpp, а также в AI-функции популярных инструментов (например, OpenAI Codex для VS Code)
- Но open source-экосистема не ограничивается одной лишь сферой AI. Рядом с взлётом ИИ-проектов сохраняют сильные позиции и классические направления: например, открытый игровой движок Godot, домашняя IoT-платформа Home Assistant и фреймворк Expo для мобильной разработки стабильно входят в топ проектов по числу контрибьюторов
- Анализ показывает, что помимо ИИ, разработчики проявляют повышенный интерес к инструментам повышения эффективности
-- Средствам для детерминированной сборки и управления зависимостями (Nix, UV) – “чтобы код работал на любой машине”
-- Высокопроизводительным фреймворкам (Tailwind CSS, Ghostty) для получения быстрых результатов
-- К проектам, дающим больший контроль над средой (например, защищённые браузеры как Zen Browser)
- Продолжается и тренд на децентрализацию соцсетей: успех платформы Bluesky показывает спрос на открытые протоколы и независимость
2025-й ознаменовался скачком продуктивности: по всем ключевым метрикам разработчики стали делать больше и быстрее, отчасти благодаря новым AI-инструментам. Ежемесячно на GitHub теперь
- Закрывается ≈4,25 млн issue (против ~3,4 млн в 2024)
- Слияний pull request’ов стало 43,2 млн (против ~35 млн в 2024)
- Объём коммитов увеличился с ~65 млн до 82 млн в месяц
Весной 2025, после запуска превью Copilot “coding agent” (март) и релиза Copilot Code Review (апрель), эти показатели резко пошли вверх. В марте разработчики закрыли на 1,4 млн issue больше, чем в феврале, а в июле 2025 было закрыто рекордные 5,5 млн issue за месяц. Сами разработчики подтверждают эффективность AI-помощников: по результатам интервью, 72,6% пользователей Copilot Code Review сообщили, что авто-рекомендации ИИ улучшили их процесс ревью кода. В целом, рост активности (на +25–30% г/г по разным сигналам) говорит о том, что ИИ-инструменты не только экономят время при написании кода, но и позволяют быстрее доводить задачи до завершения, снижая "трение" в командной работе.
В общем, из этого отчета видно, что
- Сообщество разработчиков растёт и меняется стремительнее, чем когда-либо, и одна из главных причин - интеграция AI в ежедневную практику программирования
- Искусственный интеллект уже стал стандартным помощником, ускоряя развитие проектов и влияя на выбор языков (первое место TypeScript во многом обязано AI-трендам).
- AI-проекты захватывают центр внимания в open source сообществе, но одновременно экосистема остаётся многообразной: наряду с ИИ, востребованы инструменты для надёжных сборок, производительности и свободы пользователей
Дальше будует еще веселее - по мере развития AI-инструментов мы уже видим с какой скоростью меняется индустрия разработки софта и профессии инженеров, технических руководителей, продуктовых менеджеров и т.д. Жить в эпоху технологических революций жутко интересно:)
#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Книжный куб
[1/3] Octoverse 2025: A new developer joins GitHub every second as AI leads TypeScript to #1 (Рубрика #Engineering)
В конце октября появился очередной отчет Octoverse от GitHub, где авторы рассказывают про состояние дел в мире OSS (Open Source Software)…
В конце октября появился очередной отчет Octoverse от GitHub, где авторы рассказывают про состояние дел в мире OSS (Open Source Software)…
❤8👍2🔥2
[1/2] Архитектура платформы Lovable (Рубрика AI)
Раньше я уже рассказывал историю стартапа Lovable, что вырос в оценке с нуля до $6.6 млрд всего за один год. А в этой серии постов я хотел рассказать про то, что умеет этот продукт и как концептуально выглядит его архитектура. История собрана на основании публичных выступлений представителей компании (типа таких), а также утечек промптов навроде такой. Кроме того, можно почитать исходники проекта, с которого начинался Lovable, а именно gpt-engineer (и точечно промпты оттуда).
⚙️ Технологический стек и инфраструктура
Платформа Lovable генерирует полноценный исходный код веб-приложений и опирается на современные веб-технологии:
- На фронте используется React/TypeScript, а для стилизации по умолчанию применяется Tailwind CSS и блоки дизайн-системы на основе shadcn/ui (на базе Radix), а для иконок - lucide-react
- Для управления данными на клиенте встроены современные инструменты, например React Query (TanStack) для работы с серверными данными
- Генерируемый код следует принятым практикам: компоненты небольшие (до ~50 строк), приложение сразу адаптивное (responsive) и структурировано в духе атомарного дизайна Atomic Design
На бэкенде Lovable интегрируется с Supabase - это облачная платформа на базе PostgreSQL, которая
- Предоставляет базу данных
- Аутентификацию пользователей
- Хранение файлов и серверлесс-функции
Благодаря этой интеграции Lovable может автоматически создавать таблицы БД, настроивать авторизацию и даже развёртывать серверный код (например, обработчики оплаты или обращения к внешним API) в виде Edge Functions Supabase. Интересно, что не только Lovable хорошо получил денег на дальнейшее развитие, но и Supabase получил суммарно $300 млн (Series D + E) - я рассказывал про это при обзоре "Databases in 2025: A Year in Review by Andy Pavlo "
В итоге, архитектура приложения, создаваемого в Lovable, выглядит так: фронтенд на React/TypeScript/Tailwind/Atomic Desing + Supabase-бэкенд. Все это генерируется и настраивается AI в рамках единого процесса, без необходимости вручную поднимать что-то. Одновременно это можно опубликовать прямо на поддомене *.lovable.app (или кастомном домене) и пошарить пользователям. Для всего это не нужно обладать техническими знаниями - справится даже продакт.
Во втором посте я расскажу про агентскую архитектуру + инфраструктуру и устройство самой платформы.
#AI #Software #Engineering #Future #Architecture #Startup #SystemDesign
Раньше я уже рассказывал историю стартапа Lovable, что вырос в оценке с нуля до $6.6 млрд всего за один год. А в этой серии постов я хотел рассказать про то, что умеет этот продукт и как концептуально выглядит его архитектура. История собрана на основании публичных выступлений представителей компании (типа таких), а также утечек промптов навроде такой. Кроме того, можно почитать исходники проекта, с которого начинался Lovable, а именно gpt-engineer (и точечно промпты оттуда).
Платформа Lovable генерирует полноценный исходный код веб-приложений и опирается на современные веб-технологии:
- На фронте используется React/TypeScript, а для стилизации по умолчанию применяется Tailwind CSS и блоки дизайн-системы на основе shadcn/ui (на базе Radix), а для иконок - lucide-react
- Для управления данными на клиенте встроены современные инструменты, например React Query (TanStack) для работы с серверными данными
- Генерируемый код следует принятым практикам: компоненты небольшие (до ~50 строк), приложение сразу адаптивное (responsive) и структурировано в духе атомарного дизайна Atomic Design
На бэкенде Lovable интегрируется с Supabase - это облачная платформа на базе PostgreSQL, которая
- Предоставляет базу данных
- Аутентификацию пользователей
- Хранение файлов и серверлесс-функции
Благодаря этой интеграции Lovable может автоматически создавать таблицы БД, настроивать авторизацию и даже развёртывать серверный код (например, обработчики оплаты или обращения к внешним API) в виде Edge Functions Supabase. Интересно, что не только Lovable хорошо получил денег на дальнейшее развитие, но и Supabase получил суммарно $300 млн (Series D + E) - я рассказывал про это при обзоре "Databases in 2025: A Year in Review by Andy Pavlo "
В итоге, архитектура приложения, создаваемого в Lovable, выглядит так: фронтенд на React/TypeScript/Tailwind/Atomic Desing + Supabase-бэкенд. Все это генерируется и настраивается AI в рамках единого процесса, без необходимости вручную поднимать что-то. Одновременно это можно опубликовать прямо на поддомене *.lovable.app (или кастомном домене) и пошарить пользователям. Для всего это не нужно обладать техническими знаниями - справится даже продакт.
Во втором посте я расскажу про агентскую архитектуру + инфраструктуру и устройство самой платформы.
#AI #Software #Engineering #Future #Architecture #Startup #SystemDesign
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥7⚡1
[2/2] Архитектура платформы Lovable (Рубрика AI)
Продолжая рассказ про архитектуру Lovable расскажу про агентский workflow + инфраструктуру и устройство самой платформы.
🤖 AI-движок и агентская архитектура
В основе Lovable – мощные модели генерации кода на естественном языке. Платформа использует несколько крупных языковых моделей (LLM) от ведущих провайдеров для кодогенерации(в 2025 году говорилось про модели от OpenAI и Anthropic). Особенностью Lovable является агентная архитектура AI (кстати: сам workflow можно увидеть в системном промпте, также полезно глянуть промпт с описанием инструментов)
- Система не просто дописывает код построчно, а воспринимает проект целиком и планирует решение прежде, чем писать код
- Сначала система анализирует запрос пользователя и формирует план приложения, затем пошагово генерирует фронтэнд, бэкэнд, API и даже документацию в соответствии с этим планом
Такой подход "смотрит на приложение в целом" позволяет получить согласованную архитектуру проекта и избежать ситуаций, когда AI ломается на середине задачи. Например, в этом обзоре отмечается, что Lovable способен из одного промпта создать полнофункциональный прототип (UI, база данных, авторизация, API) за считанные часы. Это стало возможным благодаря тому, что AI-агент “понимает” спецификацию целиком перед кодированием.
🚀 Инфраструктура платформы
- Сам сервис Lovable представляет собой облачное веб-приложение с собственным редактором и механизмом генерации кода. Фронтенд платформы (интерфейс, с которым работает пользователь) вероятно тоже написан на React/TS.
- Для хранения проектов и контроля версий Lovable использует интеграцию с Git-репозиториями. Каждому проекту соответствует репозиторий исходного кода: изменения, которые вносит AI, автоматически коммитятся, и пользователь при желании может подключить GitHub и синхронизировать проект для работы вне Lovable. Такая архитектура обеспечивает full code ownership: разработчик может в любой момент вывести код из платформы, продолжить работу локально и развернуть на своей инфраструктуре
- Масштабируемость обеспечивается за счёт вышеупомянутых облачных сервисов - Supabase берёт на себя хранение данных и выполнение серверных функций, а для хостинга фронтенда можно задействовать, например, Netlify или встроенный хостинг Lovable.
- Платформа генерирует проект как набор реальных файлов (включая package.json со всеми зависимостями, README и т.д.), поэтому развёртывание не требует проприетарного рантайма - код совместим с обычными Node.js-инструментами. В FAQ Lovable подчёркивается, что сгенерированный код продакшен-готов и следует лучшим практикам по масштабируемости, безопасности и поддерживаемости.
В будущем я еще расскажу про то, как выглядит процесс работы с Lovable и что происходит под капотом.
#AI #Software #Engineering #Future #Architecture #Startup #SystemDesign
Продолжая рассказ про архитектуру Lovable расскажу про агентский workflow + инфраструктуру и устройство самой платформы.
В основе Lovable – мощные модели генерации кода на естественном языке. Платформа использует несколько крупных языковых моделей (LLM) от ведущих провайдеров для кодогенерации(в 2025 году говорилось про модели от OpenAI и Anthropic). Особенностью Lovable является агентная архитектура AI (кстати: сам workflow можно увидеть в системном промпте, также полезно глянуть промпт с описанием инструментов)
- Система не просто дописывает код построчно, а воспринимает проект целиком и планирует решение прежде, чем писать код
- Сначала система анализирует запрос пользователя и формирует план приложения, затем пошагово генерирует фронтэнд, бэкэнд, API и даже документацию в соответствии с этим планом
Такой подход "смотрит на приложение в целом" позволяет получить согласованную архитектуру проекта и избежать ситуаций, когда AI ломается на середине задачи. Например, в этом обзоре отмечается, что Lovable способен из одного промпта создать полнофункциональный прототип (UI, база данных, авторизация, API) за считанные часы. Это стало возможным благодаря тому, что AI-агент “понимает” спецификацию целиком перед кодированием.
- Сам сервис Lovable представляет собой облачное веб-приложение с собственным редактором и механизмом генерации кода. Фронтенд платформы (интерфейс, с которым работает пользователь) вероятно тоже написан на React/TS.
- Для хранения проектов и контроля версий Lovable использует интеграцию с Git-репозиториями. Каждому проекту соответствует репозиторий исходного кода: изменения, которые вносит AI, автоматически коммитятся, и пользователь при желании может подключить GitHub и синхронизировать проект для работы вне Lovable. Такая архитектура обеспечивает full code ownership: разработчик может в любой момент вывести код из платформы, продолжить работу локально и развернуть на своей инфраструктуре
- Масштабируемость обеспечивается за счёт вышеупомянутых облачных сервисов - Supabase берёт на себя хранение данных и выполнение серверных функций, а для хостинга фронтенда можно задействовать, например, Netlify или встроенный хостинг Lovable.
- Платформа генерирует проект как набор реальных файлов (включая package.json со всеми зависимостями, README и т.д.), поэтому развёртывание не требует проприетарного рантайма - код совместим с обычными Node.js-инструментами. В FAQ Lovable подчёркивается, что сгенерированный код продакшен-готов и следует лучшим практикам по масштабируемости, безопасности и поддерживаемости.
В будущем я еще расскажу про то, как выглядит процесс работы с Lovable и что происходит под капотом.
#AI #Software #Engineering #Future #Architecture #Startup #SystemDesign
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥5👍2
[1/2] John Schulman on dead ends, scaling RL, and building research institutions (Рубрика #AI)
Посмотрел очередной эпизод подкаста "Cafe Cursor", в котором общались Michael Truell и John Schulman. Майкл - это со-основатель Cursor, а John - со-основатель OpenAI и человек, предложивший RLHF (reinforcement learning from human feedback), технологию, лежащую в основе ChatGPT. Сейчас Джлн в Thinking Machines в роли chief scientist. В этом подкасте Джон делится инсайтами о том, как всё было устроено в OpenAI с 2016 года, что пошло не так, и куда движется reinforcement learning. Основные моменты интервью ниже
1️⃣ Speedrunning ChatGPT: могли бы сделать в 2018
Шульман считает, что с полным hindsight ChatGPT-3.5 можно было собрать ещё в 2018–2019 силами 2–3 человек на паре GPU-боксов. Секрет не в масштабе compute, а в умном post-training: правильный fine-tuning датасет компенсирует меньшую модель. Сравнивает с nanoGPT (один человек, один бокс, полгода). Вывод: масштабирование важно, но умные трюк > брут форса.
2️⃣ Ранний OpenAI
В 2016–2017 OpenAI был как академическая группа люди работали по 1–3 человека над whitepapers по своему вкусу. Например, был интересный проект Universe как попытка создать универсального RL-агента на сотнях видеоигр и веб-задач. Идея была правильной, но на 10 лет опередила время - тогда модели не генерализовались, система была неукдюжей. Позже пришли результаты в Dota и Procgen (эмуляция игр). Направление роботов тогда тоже было тупиковым, но полезным - оно прокачало команду на больших engineering-проектах и обучило людей системной работе.
3️⃣ Почему value functions не в моде?
В современном RLHF и verifiable rewards (даже на 10k+ токенов) функции ценности (value functions) не сокращают вариативность. Шульман ждёт их камбека, но пока Policy Gradient-методы побеждают на коротких горизонтах.[1]
4️⃣ Continual learning: long context + LoRA
По мнению Джона для непрерывного обучения нужны два фактора
1. In-context learning (long context) - для быстрого, short-horizon.
2. Parameter fine-tuning (LoRA) - для long-horizon knowledge, требующего ёмкости.
Scaling может решить проблему и без новых идей, но Шульман ждёт прорывов, которые сдвинут scaling laws.
5️⃣ Brittle generalization: люди vs модели
Модели круты in-context (как люди), но хуже на длинных горизонтах - застревают, где человек способен к само-коррекции. Почему? Люди заточены эволюцией на 80-летний таймлайн. Неясно, это временное или фундаментальное ограничение. Тестировать на десятилетия эквивалентно запуску evals на декады, что проблематично
6️⃣ Будущее reinforcement learning: GANs 2.0 и multi-agent игры
Шульман ждёт возврата идей из 2010-х:
- Co-training generators + verifiers (как GANs) - это про самоусиливайщийся цикл: лучше reasoning → лучше verifier → лучше generator.[1]
- Multi-agent games** (zero-sum/debate) - автоматический curriculum + теоретические гарантии из complexity theory (polynomial judge создаёт стимулы для сложных проблем (условно, NP-проблем)). Debate game от OpenAI/Anthropic - недооценённая идея.
В продолжении я расскажу про другие интересные тезисы, навроде подходов к руководству исследованиями или замедления получения прорывных результатов.
#Engineering #AI #Metrics #Software #Architecture #RnD #ML
Посмотрел очередной эпизод подкаста "Cafe Cursor", в котором общались Michael Truell и John Schulman. Майкл - это со-основатель Cursor, а John - со-основатель OpenAI и человек, предложивший RLHF (reinforcement learning from human feedback), технологию, лежащую в основе ChatGPT. Сейчас Джлн в Thinking Machines в роли chief scientist. В этом подкасте Джон делится инсайтами о том, как всё было устроено в OpenAI с 2016 года, что пошло не так, и куда движется reinforcement learning. Основные моменты интервью ниже
1️⃣ Speedrunning ChatGPT: могли бы сделать в 2018
Шульман считает, что с полным hindsight ChatGPT-3.5 можно было собрать ещё в 2018–2019 силами 2–3 человек на паре GPU-боксов. Секрет не в масштабе compute, а в умном post-training: правильный fine-tuning датасет компенсирует меньшую модель. Сравнивает с nanoGPT (один человек, один бокс, полгода). Вывод: масштабирование важно, но умные трюк > брут форса.
2️⃣ Ранний OpenAI
В 2016–2017 OpenAI был как академическая группа люди работали по 1–3 человека над whitepapers по своему вкусу. Например, был интересный проект Universe как попытка создать универсального RL-агента на сотнях видеоигр и веб-задач. Идея была правильной, но на 10 лет опередила время - тогда модели не генерализовались, система была неукдюжей. Позже пришли результаты в Dota и Procgen (эмуляция игр). Направление роботов тогда тоже было тупиковым, но полезным - оно прокачало команду на больших engineering-проектах и обучило людей системной работе.
3️⃣ Почему value functions не в моде?
В современном RLHF и verifiable rewards (даже на 10k+ токенов) функции ценности (value functions) не сокращают вариативность. Шульман ждёт их камбека, но пока Policy Gradient-методы побеждают на коротких горизонтах.[1]
4️⃣ Continual learning: long context + LoRA
По мнению Джона для непрерывного обучения нужны два фактора
1. In-context learning (long context) - для быстрого, short-horizon.
2. Parameter fine-tuning (LoRA) - для long-horizon knowledge, требующего ёмкости.
Scaling может решить проблему и без новых идей, но Шульман ждёт прорывов, которые сдвинут scaling laws.
5️⃣ Brittle generalization: люди vs модели
Модели круты in-context (как люди), но хуже на длинных горизонтах - застревают, где человек способен к само-коррекции. Почему? Люди заточены эволюцией на 80-летний таймлайн. Неясно, это временное или фундаментальное ограничение. Тестировать на десятилетия эквивалентно запуску evals на декады, что проблематично
6️⃣ Будущее reinforcement learning: GANs 2.0 и multi-agent игры
Шульман ждёт возврата идей из 2010-х:
- Co-training generators + verifiers (как GANs) - это про самоусиливайщийся цикл: лучше reasoning → лучше verifier → лучше generator.[1]
- Multi-agent games** (zero-sum/debate) - автоматический curriculum + теоретические гарантии из complexity theory (polynomial judge создаёт стимулы для сложных проблем (условно, NP-проблем)). Debate game от OpenAI/Anthropic - недооценённая идея.
В продолжении я расскажу про другие интересные тезисы, навроде подходов к руководству исследованиями или замедления получения прорывных результатов.
#Engineering #AI #Metrics #Software #Architecture #RnD #ML
YouTube
John Schulman on dead ends, scaling RL, and building research institutions
A conversation with John Schulman on the first year LLMs could have been useful, building research teams, and where RL goes from here.
00:00 - Speedrunning ChatGPT
09:22 - Archetypes of research managers
11:56 - Was OpenAI inspired by Bell Labs?
16:54 -…
00:00 - Speedrunning ChatGPT
09:22 - Archetypes of research managers
11:56 - Was OpenAI inspired by Bell Labs?
16:54 -…
❤6👍6🔥2
[2/2] John Schulman on dead ends, scaling RL, and building research institutions (Рубрика #AI)
Продолжая рассказ об этом крутом интервью, хочется рассказать о тезисах, что связаны с руководством исследовательскими командами, а также подсветить основные мысли, что показались мне полезными.
7️⃣ Как строить исследовательские команды: hands-on vs hands-off
Интересные размышления про архетипы руководителей исследований
- Hands-on (кодит, читает код, deep technical feedback) - он ориентирован на проекты для достижения целей, может рулить командами с начинающими специалистами, работает в режиме execution этого проекта
- Hands-off (работает как консультант, дает советы по карьере, мотивирует) - больше работает в формате exploratory research, а в команде должны быть senior люди
Но основной ключ в адаптивности - исследования меняются и что работало 7 лет назад, может не сработать сейчас. Ранний OpenAI был peacetime (exploratory), новые labs (Thinking Machines) - wartime (надо догнать SOTA (state of the art результаты) + выстроить исследовательскую культуру)
8️⃣ День из жизни исследователя
Шульман работает в кофейнях (шум вокруг + ноутбук + идеи), потом execution: код, review docs/plots/код коллег. Использует Cursor и Claude Code для кодинга, GPT-5 Pro для литературы/детализации идей/обратной связи по поводу написания. Совет от Джона: держите research notebook (ещё важнее с LLM для контекста)
9️⃣Замедление прогресса: 10x исследователей ≠ 10x идей
За 10 лет число ML-researchers выросло в 10–100x, но "consequential" идеи (типа scaling laws) не ускорились. Причины:
- Низковисящие результаты исчерпаны
- Выше уровень (больше baselines, экспериментов)
- Сдвиг типов: раньше был рисковые люди, а сейчас более традиционные (engineering > research taste)
Но качество растёт: старые papers (70–90-е) имели слабую строгость.
🔟 Thinking Machines: philosophy и Tinker
Новая лаборатория Шульмана. Философия не только в том, чтобы догнать SOTA, но и прокачать исследовательскую мышцу и заложить культур. У этой лабы уже есть инструмент Tinker - low-level API для fine-tuning (Python scripts без GPU hassle), для продвинутых ML-инженеров. План эволюционировать в full-stack продукт для менее продвинутых инженеров.
Мне показалось это интересным с разных сторон
1. Для лидеров тут есть идеи про переключение между hands-on и hands-off в зависимости от фазы проекта и зрелости людей
2. Для инженеров объяснение, что ИИ-лаборатории это не магия - в работе много тупиков, предвзятости и то, что культура важнее процессов.
3. Для исследователей есть мысли про возвращение RL (verifiers, multi-agent), про движение в сторону непрерывного обучения, а также про важность новых исследований даже во время работы законов масштабирования (которые говорят, что больше данных и больше GPU - лучше результат)
#Engineering #AI #Metrics #Software #Architecture #RnD #ML
Продолжая рассказ об этом крутом интервью, хочется рассказать о тезисах, что связаны с руководством исследовательскими командами, а также подсветить основные мысли, что показались мне полезными.
7️⃣ Как строить исследовательские команды: hands-on vs hands-off
Интересные размышления про архетипы руководителей исследований
- Hands-on (кодит, читает код, deep technical feedback) - он ориентирован на проекты для достижения целей, может рулить командами с начинающими специалистами, работает в режиме execution этого проекта
- Hands-off (работает как консультант, дает советы по карьере, мотивирует) - больше работает в формате exploratory research, а в команде должны быть senior люди
Но основной ключ в адаптивности - исследования меняются и что работало 7 лет назад, может не сработать сейчас. Ранний OpenAI был peacetime (exploratory), новые labs (Thinking Machines) - wartime (надо догнать SOTA (state of the art результаты) + выстроить исследовательскую культуру)
8️⃣ День из жизни исследователя
Шульман работает в кофейнях (шум вокруг + ноутбук + идеи), потом execution: код, review docs/plots/код коллег. Использует Cursor и Claude Code для кодинга, GPT-5 Pro для литературы/детализации идей/обратной связи по поводу написания. Совет от Джона: держите research notebook (ещё важнее с LLM для контекста)
9️⃣Замедление прогресса: 10x исследователей ≠ 10x идей
За 10 лет число ML-researchers выросло в 10–100x, но "consequential" идеи (типа scaling laws) не ускорились. Причины:
- Низковисящие результаты исчерпаны
- Выше уровень (больше baselines, экспериментов)
- Сдвиг типов: раньше был рисковые люди, а сейчас более традиционные (engineering > research taste)
Но качество растёт: старые papers (70–90-е) имели слабую строгость.
🔟 Thinking Machines: philosophy и Tinker
Новая лаборатория Шульмана. Философия не только в том, чтобы догнать SOTA, но и прокачать исследовательскую мышцу и заложить культур. У этой лабы уже есть инструмент Tinker - low-level API для fine-tuning (Python scripts без GPU hassle), для продвинутых ML-инженеров. План эволюционировать в full-stack продукт для менее продвинутых инженеров.
Мне показалось это интересным с разных сторон
1. Для лидеров тут есть идеи про переключение между hands-on и hands-off в зависимости от фазы проекта и зрелости людей
2. Для инженеров объяснение, что ИИ-лаборатории это не магия - в работе много тупиков, предвзятости и то, что культура важнее процессов.
3. Для исследователей есть мысли про возвращение RL (verifiers, multi-agent), про движение в сторону непрерывного обучения, а также про важность новых исследований даже во время работы законов масштабирования (которые говорят, что больше данных и больше GPU - лучше результат)
#Engineering #AI #Metrics #Software #Architecture #RnD #ML
Telegram
Книжный куб
[1/2] John Schulman on dead ends, scaling RL, and building research institutions (Рубрика #AI)
Посмотрел очередной эпизод подкаста "Cafe Cursor", в котором общались Michael Truell и John Schulman. Майкл - это со-основатель Cursor, а John - со-основатель…
Посмотрел очередной эпизод подкаста "Cafe Cursor", в котором общались Michael Truell и John Schulman. Майкл - это со-основатель Cursor, а John - со-основатель…
❤7👍5🔥2
Lovable - как выглядит работа с продуктом (Рубрика #AI)
Я уже рассказывал про историю lovable и подход к архитектуре, а сегодня расскажу про то, как lovable популяризирует vibe-coding продуктов, когда вместо написания кода на языках программирования пользователь описывает желаемый функционал простым языком, а AI-инструмент генерирует программный код. Слоган платформы "No code. Just vibes." отражает идею, что для создания приложения достаточно сформулировать замысел и "атмосферу" продукта словами, остальное выполнит AI. Такой способ разработки особенно привлекателен для креативных непрограммистов (условных продуктовых менеджеров или основателей стартапов).
🤖 UX платформы и взаимодействие с AI
Интерфейс Lovable построен вокруг чат-коммуникации с AI-инженером. Пользователь создаёт новый проект и видит окно чата, куда можно ввести первый промпт с описанием приложения (например, какие страницы, какая функциональность нужны). AI проанализирует запрос и начнёт выдавать результат: он может отвечать частями, создавая код и описывая свои действия. Важно код генерируется и меняется в реальном времени – параллельно с общением. В рабочей области рядом с чатом отображается живой превью-приложения (iframe), которое автоматически перезагружается по мере добавления кода. Таким образом, пользователь буквально видит как его слова превращаются в работающий интерфейс.
Для инженеров в платформе есть возможность просматривать и редактировать исходный код напрямую - есть встроенный редактор кода с файловой структурой проекта, так что опытные разработчики могут вручную поправить что-то или изучить сгенерированный код. Но для разработчиков конечно интереснее возможность сделать двухстороннюю синхронизацию кода с GitHub и менять код своим привычным способом.
⚙️ Дополнительные возможности AI-редактора
Lovable снабжён рядом инструментов, делающих "vibe-кодинг" более эффективным
1. AI-агент имеет доступ к консольным логам приложения - это позволяет замкнуть агенту обратную связь и обрабатывать ошибки из браузерной консоли. То есть, если сгенерированный код упал с ошибкой или что-то не работает, модель увидит трассировку и может сразу предложить исправление, дебаггая приложение в реальном времени
2. У пользователя есть возможность загружать в проект файлы (например, изображения) или подключать сторонние API-ключи, а AI умеет ими пользоваться
3. Платформа поддерживает режим “Custom Knowledge” – пользователь может предоставить собственные данные или документацию в базе знаний проекта, чтобы AI их учитывал. Например, можно добавить текстовый документ с описанием бизнес-логики или UI-гайдов, и модель будет обращаться к нему при генерации
Всё это превращает процесс разработки в диалог с "умным напарником": вы описываете задачу или проблему, AI предлагает решение, пишет код, объясняет свои действия.
♿️ Ограничения и лучшие практики
Хотя vibe-coding заметно ускоряет разработку, пользователям нужно научиться правильно формулировать запросы и разбивать работу на этапы. Разработчики отмечают, что чрезмерно общие или расплывчатые промпты могут привести к неудачным решениям и потребовать многократных исправлений. Лучший подход - чётко описывать требования и даже прописывать план (страницы, функции, данные) перед тем как просить AI писать код. Опыт показывает, что не стоит пытаться “завайбкодить” сразу всё приложение одним сообщением, особенно если там сложная бизнес-логика. В целом же vibe-кодинг в Lovable - это про быстрые итерации и взаимодействие: пользователь задаёт направление и оценивает результат, AI предлагает реализацию. Такой цикл может многократно повторяться (платформа не ограничена одним промптом - вы продолжаете диалог сколько нужно), благодаря чему даже сложные приложения рождаются через серию уточнений и улучшений, как если бы вы вели разговор с живыми разработчиками.
P.S.
Скетч на картинке не совсем повторяет интерфейс продукта - скорее он показывает как все части связаны между собой.
#AI #Software #Engineering #Future #Architecture #Startup
Я уже рассказывал про историю lovable и подход к архитектуре, а сегодня расскажу про то, как lovable популяризирует vibe-coding продуктов, когда вместо написания кода на языках программирования пользователь описывает желаемый функционал простым языком, а AI-инструмент генерирует программный код. Слоган платформы "No code. Just vibes." отражает идею, что для создания приложения достаточно сформулировать замысел и "атмосферу" продукта словами, остальное выполнит AI. Такой способ разработки особенно привлекателен для креативных непрограммистов (условных продуктовых менеджеров или основателей стартапов).
Интерфейс Lovable построен вокруг чат-коммуникации с AI-инженером. Пользователь создаёт новый проект и видит окно чата, куда можно ввести первый промпт с описанием приложения (например, какие страницы, какая функциональность нужны). AI проанализирует запрос и начнёт выдавать результат: он может отвечать частями, создавая код и описывая свои действия. Важно код генерируется и меняется в реальном времени – параллельно с общением. В рабочей области рядом с чатом отображается живой превью-приложения (iframe), которое автоматически перезагружается по мере добавления кода. Таким образом, пользователь буквально видит как его слова превращаются в работающий интерфейс.
Для инженеров в платформе есть возможность просматривать и редактировать исходный код напрямую - есть встроенный редактор кода с файловой структурой проекта, так что опытные разработчики могут вручную поправить что-то или изучить сгенерированный код. Но для разработчиков конечно интереснее возможность сделать двухстороннюю синхронизацию кода с GitHub и менять код своим привычным способом.
Lovable снабжён рядом инструментов, делающих "vibe-кодинг" более эффективным
1. AI-агент имеет доступ к консольным логам приложения - это позволяет замкнуть агенту обратную связь и обрабатывать ошибки из браузерной консоли. То есть, если сгенерированный код упал с ошибкой или что-то не работает, модель увидит трассировку и может сразу предложить исправление, дебаггая приложение в реальном времени
2. У пользователя есть возможность загружать в проект файлы (например, изображения) или подключать сторонние API-ключи, а AI умеет ими пользоваться
3. Платформа поддерживает режим “Custom Knowledge” – пользователь может предоставить собственные данные или документацию в базе знаний проекта, чтобы AI их учитывал. Например, можно добавить текстовый документ с описанием бизнес-логики или UI-гайдов, и модель будет обращаться к нему при генерации
Всё это превращает процесс разработки в диалог с "умным напарником": вы описываете задачу или проблему, AI предлагает решение, пишет код, объясняет свои действия.
♿️ Ограничения и лучшие практики
Хотя vibe-coding заметно ускоряет разработку, пользователям нужно научиться правильно формулировать запросы и разбивать работу на этапы. Разработчики отмечают, что чрезмерно общие или расплывчатые промпты могут привести к неудачным решениям и потребовать многократных исправлений. Лучший подход - чётко описывать требования и даже прописывать план (страницы, функции, данные) перед тем как просить AI писать код. Опыт показывает, что не стоит пытаться “завайбкодить” сразу всё приложение одним сообщением, особенно если там сложная бизнес-логика. В целом же vibe-кодинг в Lovable - это про быстрые итерации и взаимодействие: пользователь задаёт направление и оценивает результат, AI предлагает реализацию. Такой цикл может многократно повторяться (платформа не ограничена одним промптом - вы продолжаете диалог сколько нужно), благодаря чему даже сложные приложения рождаются через серию уточнений и улучшений, как если бы вы вели разговор с живыми разработчиками.
P.S.
Скетч на картинке не совсем повторяет интерфейс продукта - скорее он показывает как все части связаны между собой.
#AI #Software #Engineering #Future #Architecture #Startup
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9🔥5👍3
[1/2] Альманах "Искусственный интеллект" - 14 выпуск "Отчет Индекс-ИИ-2024" (Рубрика #AI)
С большим интересом прочитал 14 выпуск альманаха про AI от центра компетенций по искусственному интеллекту МФТИ, университета, из которого я выпустился давным-давно. Я читаю эти отчеты, начиная с первого, и могу сказать, что они хорошо отображают среднее по больнице в академической среде, а также дают представление о игроках на рынке России. Правда, в этом отчете написано, что этот выпуск может стать последним в серии, но причины не уточняются. Сам отчет вышел относительно недавно (в сентябре 2025 года), но посвящен итогам предыдущего года (на тот момент это был 2024 год).
📄 Методология отчета
- Источники данных: отчет опирается на международные открытые базы, государственные реестры и отраслевые аналитические платформ. Кроме того, используются данные картографии ИИ-компаний (aiRussia.online) и отраслевого рейтинга вузов (rating.a-ai.ru).
- Охват и сбор данных: индекс охватывает основные сферы ИИ: науку, бизнес, стартапы, господдержку и образование (с детализацией по отраслям и регионам). Данные собирались из публикационных источников (статьи, конференции), от компаний (выручка, сегменты, сделки) и из госисточников (бюджетное финансирование, тендеры). Также проводились опросы экспертов: например, при составлении рейтинга вузов проанкетированы 170 компаний и ~10 000 студентов.
🧠 Наука (исследования и публикации)
- Международный рейтинг: Россия поднялась на 12-е место в мире по числу публикаций в области ИИ (данные 2020–2024 гг.). Лидирует Китай (более 69 тыс. статей за 5 лет), российские ученые опубликовали более 2,8 тыс.
- Конференции A*: в 2024 году представлено 125 работ на топ-конференциях (A*) от российских авторов.
- Лидеры науки: основными центрами публикационной активности стали AIRI, Сколтех, НИУ ВШЭ и МФТИ, на их долю пришлось ~46% российских докладов на A*-конференциях 2024 г.
🤑 Бизнес (рынок искусственного интеллекта)
- Объем рынка: совокупный объем российского рынка ИИ в 2024 году составил ~1,15 трлн ₽, увеличившись примерно на 28% к 2023 г.
- Структура по направлениям: более половины рынка (≈61%) приходится на решения в сфере обработки естественного языка (NLP). Около 34% занимает аналитика данных для бизнеса. Доля всех остальных технологий (компьютерное зрение, робототехника, генеративные модели и др.) суммарно менее 5%.
- Компании и сегменты: в 2024 году насчитывается порядка 540 компаний, чья деятельность связана с ИИ. По числу фирм лидируют направления: компьютерное зрение (~81 компания), бизнес-аналитика (~68) и медицина (~60). Многие компании работают сразу в нескольких нишах; подробная карта ИИ-компаний доступна на сайте aiRussia.online.
- Регионы: AI-бизнес в РФ крайне сконцентрирован территориально: Москва и область – ~70% всех AI-компаний. Далее следуют Санкт-Петербург (~10%) и Татарстан (~3%, поднялся на 3-е место в 2024 г.). Остальные регионы пока существенно отстают по числу активных проектов.
📈 Стартапы и инвестиции
- Венчурные сделки: объем венчурных инвестиций в российские AI-стартапы в 2024 г. составил около $39 млн (против $10 млн в 2023 г.). Рынок начал восстанавливаться после спада, хотя до рекордных уровней 2021 года еще далеко.
- Слияния и поглощения: в 2024 г. состоялось 11 M&A-сделок с AI-стартапами на сумму ~$33 млн, что значительно ниже предыдущего года ($148 млн). Однако в 2025 г. наблюдается оживление: крупные ИТ-холдинги возобновили поглощение разработчиков ИИ.
- Стадии раундов: основная часть инвестиций пришлась на поздние раунды. В 2024 г. ≈90% объема финансирования привлекли проекты на стадиях B+ (и позже). Доля посевных раундов упала до 3%, Series A – до 7%; почти половина – сделки M&A (выкуп долей). Таким образом, рынок второй год испытывает дефицит ранних инвестиций и зависимость от позднего финансирования.
Оставшиеся тезисы в посте-продолжении.
#AI #Engineering #Software #Economics #Whitepaper #ML #Future #Career
С большим интересом прочитал 14 выпуск альманаха про AI от центра компетенций по искусственному интеллекту МФТИ, университета, из которого я выпустился давным-давно. Я читаю эти отчеты, начиная с первого, и могу сказать, что они хорошо отображают среднее по больнице в академической среде, а также дают представление о игроках на рынке России. Правда, в этом отчете написано, что этот выпуск может стать последним в серии, но причины не уточняются. Сам отчет вышел относительно недавно (в сентябре 2025 года), но посвящен итогам предыдущего года (на тот момент это был 2024 год).
📄 Методология отчета
- Источники данных: отчет опирается на международные открытые базы, государственные реестры и отраслевые аналитические платформ. Кроме того, используются данные картографии ИИ-компаний (aiRussia.online) и отраслевого рейтинга вузов (rating.a-ai.ru).
- Охват и сбор данных: индекс охватывает основные сферы ИИ: науку, бизнес, стартапы, господдержку и образование (с детализацией по отраслям и регионам). Данные собирались из публикационных источников (статьи, конференции), от компаний (выручка, сегменты, сделки) и из госисточников (бюджетное финансирование, тендеры). Также проводились опросы экспертов: например, при составлении рейтинга вузов проанкетированы 170 компаний и ~10 000 студентов.
- Международный рейтинг: Россия поднялась на 12-е место в мире по числу публикаций в области ИИ (данные 2020–2024 гг.). Лидирует Китай (более 69 тыс. статей за 5 лет), российские ученые опубликовали более 2,8 тыс.
- Конференции A*: в 2024 году представлено 125 работ на топ-конференциях (A*) от российских авторов.
- Лидеры науки: основными центрами публикационной активности стали AIRI, Сколтех, НИУ ВШЭ и МФТИ, на их долю пришлось ~46% российских докладов на A*-конференциях 2024 г.
- Объем рынка: совокупный объем российского рынка ИИ в 2024 году составил ~1,15 трлн ₽, увеличившись примерно на 28% к 2023 г.
- Структура по направлениям: более половины рынка (≈61%) приходится на решения в сфере обработки естественного языка (NLP). Около 34% занимает аналитика данных для бизнеса. Доля всех остальных технологий (компьютерное зрение, робототехника, генеративные модели и др.) суммарно менее 5%.
- Компании и сегменты: в 2024 году насчитывается порядка 540 компаний, чья деятельность связана с ИИ. По числу фирм лидируют направления: компьютерное зрение (~81 компания), бизнес-аналитика (~68) и медицина (~60). Многие компании работают сразу в нескольких нишах; подробная карта ИИ-компаний доступна на сайте aiRussia.online.
- Регионы: AI-бизнес в РФ крайне сконцентрирован территориально: Москва и область – ~70% всех AI-компаний. Далее следуют Санкт-Петербург (~10%) и Татарстан (~3%, поднялся на 3-е место в 2024 г.). Остальные регионы пока существенно отстают по числу активных проектов.
- Венчурные сделки: объем венчурных инвестиций в российские AI-стартапы в 2024 г. составил около $39 млн (против $10 млн в 2023 г.). Рынок начал восстанавливаться после спада, хотя до рекордных уровней 2021 года еще далеко.
- Слияния и поглощения: в 2024 г. состоялось 11 M&A-сделок с AI-стартапами на сумму ~$33 млн, что значительно ниже предыдущего года ($148 млн). Однако в 2025 г. наблюдается оживление: крупные ИТ-холдинги возобновили поглощение разработчиков ИИ.
- Стадии раундов: основная часть инвестиций пришлась на поздние раунды. В 2024 г. ≈90% объема финансирования привлекли проекты на стадиях B+ (и позже). Доля посевных раундов упала до 3%, Series A – до 7%; почти половина – сделки M&A (выкуп долей). Таким образом, рынок второй год испытывает дефицит ранних инвестиций и зависимость от позднего финансирования.
Оставшиеся тезисы в посте-продолжении.
#AI #Engineering #Software #Economics #Whitepaper #ML #Future #Career
Please open Telegram to view this post
VIEW IN TELEGRAM
aireport.ru
AI Report - Индекс ИИ 2024
Альманах Искусственный Интеллект №14, Индекс ИИ 2024
❤3👍3🔥1
T-Hack Hardcore (Рубрика #Engineering)
7 февраля пройдет конференция T-Sync Conf, в рамках которой пройдет закрытый инженерный хакатон для Senior+ команд.
Мы решили попробовать новый формат для тех, кто принимает архитектурные решения в проде. Там команды будут решать практические задачи по оптимизации высоконагруженной распределенной системы. Но надо будет не только решить проблемы реально работающей системы, но и презентовать свое решение на широкий круг участников. В общем, мы решили попробовать микс траблшутинга, проектирования, реализации изменений, а дальше обоснования своего решения, причем "правильных ответов" нет, но есть компромиссы и их обоснование.
Если говорить подробнее, то формат такой
- Только офлайн
- 5 команд по 3–5 человек
- Участие — по отбору через анкету
- Уровень участников: Senior / Staff / Principal
Участникам предстоит заняться
- Диагностикой инфраструктуры, архитектуры приложений и базы данных
- Проектированием и внедрение решений в условиях ограничений
- Демонстрацией эффективности решения на боевой инфраструктуре
- Представлением решения в виде презентации с достигнутыми результатами
Участникам будет доступно
- Исходный код системы
- Инфраструктурные конфигурации
- Метрики, логи, трейсинги и наблюдаемость
- Opensource‑стек, полностью открытый для анализа и модификации
Если говорить про технологический стек, то он будет +/- стандартным
- Backend: Java/Go, PostgtreSQL, Kafka, Kubernetes
- Docker Compose, Terraform, Ansible
- Различные балансировщики: Envoy, Nginx
- Публичные облака
Мы думаем, что формат может быть интересным для разных специалистов, среди которых
- Архитекторы распределённых систем
- Staff / Principal инженеры
- Senior‑инфраструктурные и backend‑инженеры
- SRE и специалисты по highload и low-latency системам
- Engineering-менеджеры с большим практическим опытом
В командах особенно важны backend-инженеры и SRE.
Участникам будут доступны следующие ништяки
- Команда-победитель получает 500 000 рублей
- Все участники получат публичное признание на конференции и фиксации авторства решения
- Все команды-участники получают доступ на закрытую вечеринку конференции
Как попасть?
- Команда заполняет короткую анкету (до 10 минут)
- Мы выбираем 5 команд по опыту и инженерному мышлению
🗓 Анкеты принимаем до 30 января (заполнить ее можно здесь), а результаты сообщим сразу после закрытия приема заявок.
Если знаете команду, которая реально тянет хардовую инженерную задачу - перешлите им это сообщение.
#Engineering #Metrics #Software #DevEx #DevOps #Architecture #Culture #Engineering #SystemDesign #Conference
7 февраля пройдет конференция T-Sync Conf, в рамках которой пройдет закрытый инженерный хакатон для Senior+ команд.
Мы решили попробовать новый формат для тех, кто принимает архитектурные решения в проде. Там команды будут решать практические задачи по оптимизации высоконагруженной распределенной системы. Но надо будет не только решить проблемы реально работающей системы, но и презентовать свое решение на широкий круг участников. В общем, мы решили попробовать микс траблшутинга, проектирования, реализации изменений, а дальше обоснования своего решения, причем "правильных ответов" нет, но есть компромиссы и их обоснование.
Если говорить подробнее, то формат такой
- Только офлайн
- 5 команд по 3–5 человек
- Участие — по отбору через анкету
- Уровень участников: Senior / Staff / Principal
Участникам предстоит заняться
- Диагностикой инфраструктуры, архитектуры приложений и базы данных
- Проектированием и внедрение решений в условиях ограничений
- Демонстрацией эффективности решения на боевой инфраструктуре
- Представлением решения в виде презентации с достигнутыми результатами
Участникам будет доступно
- Исходный код системы
- Инфраструктурные конфигурации
- Метрики, логи, трейсинги и наблюдаемость
- Opensource‑стек, полностью открытый для анализа и модификации
Если говорить про технологический стек, то он будет +/- стандартным
- Backend: Java/Go, PostgtreSQL, Kafka, Kubernetes
- Docker Compose, Terraform, Ansible
- Различные балансировщики: Envoy, Nginx
- Публичные облака
Мы думаем, что формат может быть интересным для разных специалистов, среди которых
- Архитекторы распределённых систем
- Staff / Principal инженеры
- Senior‑инфраструктурные и backend‑инженеры
- SRE и специалисты по highload и low-latency системам
- Engineering-менеджеры с большим практическим опытом
В командах особенно важны backend-инженеры и SRE.
Участникам будут доступны следующие ништяки
- Команда-победитель получает 500 000 рублей
- Все участники получат публичное признание на конференции и фиксации авторства решения
- Все команды-участники получают доступ на закрытую вечеринку конференции
Как попасть?
- Команда заполняет короткую анкету (до 10 минут)
- Мы выбираем 5 команд по опыту и инженерному мышлению
🗓 Анкеты принимаем до 30 января (заполнить ее можно здесь), а результаты сообщим сразу после закрытия приема заявок.
Если знаете команду, которая реально тянет хардовую инженерную задачу - перешлите им это сообщение.
#Engineering #Metrics #Software #DevEx #DevOps #Architecture #Culture #Engineering #SystemDesign #Conference
❤7👍5🔥4🌚1
[2/2] Альманах "Искусственный интеллект" - 14 выпуск "Отчет Индекс-ИИ-2024" (Рубрика #AI)
Продолжая обзор отчета про AI от центра компетенций по искусственному интеллекту МФТИ, расскажу про оставшиеся пункты.
🆘 Государственная поддержка
- Бюджетные инвестиции: прямые госвложения в ИИ-проекты в 2024 г. оцениваются примерно в 7,5 млрд ₽ ежегодно, в рамках нацпроекта "Цифровая экономика" (фед. проект "Искусственный интеллект", завершенный к 2024 г.).
- Госзакупки ИИ: дополнительно через закупку ИИ-решений (ПО и услуги) инвестируется порядка 2,3 млрд ₽ в год. Таким образом, совокупный объем господдержки (бюджет + закупки) в 2024 г. достигает ~10 млрд ₽.
👩🎓 Образование и кадры
- Выпуск специалистов: по оценкам, около 5 400 выпускников 2024 года получили компетенции в сфере ML/DL. Основную часть этих кадров готовят ведущие университеты (МФТИ, ВШЭ, ИТМО, МГУ, СПбГУ). Для отслеживания качества подготовки Альянс ИИ публикует ежегодный рейтинг вузов (в 2025 г. охвачено 203 вуза).
- Несоответствие спроса и предложения: несмотря на рост числа выпускников, компании испытывают дефицит опытных кадров. Постоянно открыто >1000 вакансий в сфере ML/AI, но многие из них остаются незакрытыми. Парадокс в том, что количество молодых специалистов уже превышает эти вакансии, однако работодатели не готовы массово брать новичков без опыта. Требуются в первую очередь middle-инженеры, а университеты выпускают в основном junior-специалистов, часть из которых не может найти применение и уходит из индустрии.
🎁 События и тенденции в России 2024 (мировые события 2024 года, приведенные в отчете я пропустил)
- Отечественные модели: экосистема РФ отвечает на мировой тренд - Яндекс выпустил свою большую языковую модель YandexGPT 4. Также Альянс ИИ разработал открытый бенчмарк MERA для объективного сравнения возможностей русскоязычных LLM (знания, логика, этика и др.).
- Беспилотный транспорт: в 2024 г. Россия сделала шаг к автономной логистике – в пилотном проекте 30 грузовых роботрузовиков проехали по трассе М-11 «Нева» 3 млн км без аварий; теперь планируется расширение на новые дороги и увеличение парка до 90 машин.
- Международное сотрудничество: Российский Альянс ИИ выступил одним из инициаторов AI Alliance Network – глобального объединения 18 стран для координации развития и регулирования ИИ. Этот шаг призван ускорить обмен технологиями, совместные исследования и выработку единых этических норм с участием РФ на мировой сцене.
В конце были приведены выводы и рекомендации (не факт, что прошенные )
- Для вузов: повышать качество образования и ближе интегрировать его с индустрией. Вузы успешно нарастили выпуск, но "лишних" джуниоров рынок не поглощает. Необходимо усилить практику и участие работодателей в программах, чтобы выпускники получали прикладные навыки и быстрее росли до уровня middle.
- Для бизнеса: активнее вкладываться в развитие молодых кадров. Крупные компании сейчас нанимают гораздо меньше новичков, но рекомендуются обратные шаги: активнее нанимать перспективных выпускников и дообучать их до нужного уровня – такая инвестиция окупится подготовленными и лояльными сотрудниками.
- Для выпускников: реалистично оценивать ситуацию на рынке. Даже топ-выпускникам теперь сложнее сразу устроиться в AI-отделы, поэтому важно снижать завышенные ожидания, продолжать учиться (через онлайн-курсы, стажировки) и набирать опыт. Готовность начать с младших позиций и развиваться внутри компании значительно повысит шанс через 1–2 года перейти в middle-роль.
- Для государства: считать задачу увеличения числа ИТ-выпускников решенной и сосредоточиться на качестве кадров. Нужны меры стимулирования вузов к обновлению программ, развитие центров переподготовки и поддержка наставничества в компаниях. Без этого кадровый дефицит может только усилиться, тормозя реализацию стратегических инициатив по ИИ.
#AI #Engineering #Software #Economics #Whitepaper #ML #Future #Career
Продолжая обзор отчета про AI от центра компетенций по искусственному интеллекту МФТИ, расскажу про оставшиеся пункты.
- Бюджетные инвестиции: прямые госвложения в ИИ-проекты в 2024 г. оцениваются примерно в 7,5 млрд ₽ ежегодно, в рамках нацпроекта "Цифровая экономика" (фед. проект "Искусственный интеллект", завершенный к 2024 г.).
- Госзакупки ИИ: дополнительно через закупку ИИ-решений (ПО и услуги) инвестируется порядка 2,3 млрд ₽ в год. Таким образом, совокупный объем господдержки (бюджет + закупки) в 2024 г. достигает ~10 млрд ₽.
- Выпуск специалистов: по оценкам, около 5 400 выпускников 2024 года получили компетенции в сфере ML/DL. Основную часть этих кадров готовят ведущие университеты (МФТИ, ВШЭ, ИТМО, МГУ, СПбГУ). Для отслеживания качества подготовки Альянс ИИ публикует ежегодный рейтинг вузов (в 2025 г. охвачено 203 вуза).
- Несоответствие спроса и предложения: несмотря на рост числа выпускников, компании испытывают дефицит опытных кадров. Постоянно открыто >1000 вакансий в сфере ML/AI, но многие из них остаются незакрытыми. Парадокс в том, что количество молодых специалистов уже превышает эти вакансии, однако работодатели не готовы массово брать новичков без опыта. Требуются в первую очередь middle-инженеры, а университеты выпускают в основном junior-специалистов, часть из которых не может найти применение и уходит из индустрии.
- Отечественные модели: экосистема РФ отвечает на мировой тренд - Яндекс выпустил свою большую языковую модель YandexGPT 4. Также Альянс ИИ разработал открытый бенчмарк MERA для объективного сравнения возможностей русскоязычных LLM (знания, логика, этика и др.).
- Беспилотный транспорт: в 2024 г. Россия сделала шаг к автономной логистике – в пилотном проекте 30 грузовых роботрузовиков проехали по трассе М-11 «Нева» 3 млн км без аварий; теперь планируется расширение на новые дороги и увеличение парка до 90 машин.
- Международное сотрудничество: Российский Альянс ИИ выступил одним из инициаторов AI Alliance Network – глобального объединения 18 стран для координации развития и регулирования ИИ. Этот шаг призван ускорить обмен технологиями, совместные исследования и выработку единых этических норм с участием РФ на мировой сцене.
В конце были приведены выводы и рекомендации (
- Для вузов: повышать качество образования и ближе интегрировать его с индустрией. Вузы успешно нарастили выпуск, но "лишних" джуниоров рынок не поглощает. Необходимо усилить практику и участие работодателей в программах, чтобы выпускники получали прикладные навыки и быстрее росли до уровня middle.
- Для бизнеса: активнее вкладываться в развитие молодых кадров. Крупные компании сейчас нанимают гораздо меньше новичков, но рекомендуются обратные шаги: активнее нанимать перспективных выпускников и дообучать их до нужного уровня – такая инвестиция окупится подготовленными и лояльными сотрудниками.
- Для выпускников: реалистично оценивать ситуацию на рынке. Даже топ-выпускникам теперь сложнее сразу устроиться в AI-отделы, поэтому важно снижать завышенные ожидания, продолжать учиться (через онлайн-курсы, стажировки) и набирать опыт. Готовность начать с младших позиций и развиваться внутри компании значительно повысит шанс через 1–2 года перейти в middle-роль.
- Для государства: считать задачу увеличения числа ИТ-выпускников решенной и сосредоточиться на качестве кадров. Нужны меры стимулирования вузов к обновлению программ, развитие центров переподготовки и поддержка наставничества в компаниях. Без этого кадровый дефицит может только усилиться, тормозя реализацию стратегических инициатив по ИИ.
#AI #Engineering #Software #Economics #Whitepaper #ML #Future #Career
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Книжный куб
[1/2] Альманах "Искусственный интеллект" - 14 выпуск "Отчет Индекс-ИИ-2024" (Рубрика #AI)
С большим интересом прочитал 14 выпуск альманаха про AI от центра компетенций по искусственному интеллекту МФТИ, университета, из которого я выпустился давным-давно.…
С большим интересом прочитал 14 выпуск альманаха про AI от центра компетенций по искусственному интеллекту МФТИ, университета, из которого я выпустился давным-давно.…
👍4❤2🔥1
How we learn (Как мы учимся) (Рубрика #Brain)
Я давно прочитал эту крутую книгу Станисласа Деана, но руки дошли написать про нее только сейчас. Станислас - один из ведущих когнитивных нейроученых мира, профессор Коллеж де Франс (Париж), который прославился исследованиями того, как мозг обрабатывает числа и текст, и стал автором нескольких известных книг о работе мозга и сознании. Как популяризатор, Деан умеет объяснять сложное простым языком и увлекательно рассказывать о тайнах мозга.
Если говорить про модель обучения, о которой он рассказывает в книге, то она очень инженерна по натуре. Если кратко, то мозг - это система, которая строит внутреннюю модель мира, постоянно предсказывает, сравнивает предсказания с реальностью и обновляет модель по сигналу ошибки. В лекции в Collège de France он описывает это как три шага: top‑down prediction → сравнение с входом → error signals → корректировка внутренней модели (это он связывает с идеей «байесовского мозга»). Из этой рамки вытекают ключевые концепции (и практики), которые он повторяет в книге
- Четыре столпа обучения
- Тестирование как часть обучения, а не "контроль"
- Пластичность мозга и "нейронный recycling"
Четыре столпа обучения, необходимых для обучения
1️⃣ Внимание (attention) = "гейт" обучения
Без внимания информация банально "не проходит" на глубокую обработку. Станислас ставит внимание рядом с вовлечением и быстрым фидбеком как с решающими факторами обучения. Инженерная интерпретация: если контекст постоянно рвётся (митинги/пинги/таск‑свитчинг), вы режете пропускную способность обучения.
2️⃣ Активное вовлечение (active engagement) = гипотезы, предсказания, любопытство
Ключевая идея в том, что пассивный организм не учится - мозг должен быть активным участником, генерировать ожидания/гипотезы и проверять их. Деан отдельно подчёркивает, что "активность" не равна "пусть сам всё откроет" (discovery learning). Нужна структурированная среда, но с постоянным вовлечением, вопросами, мини‑проверками. Ещё один нюанс: чтобы поддерживать вовлечение, задачи должны быть не слишком лёгкие и не слишком сложные — оптимальная зона сложности подпитывает интерес.
3️⃣ Ошибка и фидбек (error feedback) = двигатель обучения
У Деана очень сильный тезис в том, что обучение запускается, когда есть "сюрприз" - расхождение ожиданий и реальности. "Нет сюрприза — нет обучения". Отсюда практический вывод: ошибки - это информационный сигнал, а не повод для наказания. Наказание добавляет страх/стресс и снижает способность учиться. Инженерная аналогия: без loss/gradient система не обучается; без быстрых feedback loops вы "едете вслепую".
4️⃣ Консолидация (Consolidation) = автоматизация + сон
Консолидация у Деана - это постепенная автоматизация: знания "переносятся" из сознательной, усилием управляемой обработки в специализированные (в т.ч. неосознаваемые) цепи, освобождая ресурсы для новых задач. Сон - это важный фактор консолидации, в т.ч. через "переигрывание/реактивацию" дневных паттернов активности.
Отдельно он хорошо рассказывает про пластичность мозга и отношение к ошибкам.
Тестирование как часть обучения, а не "контроль"
Проверки знаний - это не только измерение, а механизм обучения. Деан приводит результаты, что простое перечитывание малоэффективно, а явное извлечение (testing) + быстрый фидбек по ошибкам работает лучше и помогает калибровать метакогницию (мы часто переоцениваем, как хорошо выучили).
Пластичность мозга и "нейронный recycling"
Деан не противопоставляет "врождённое vs приобретённое": мозг генетически структурирован, но пластичен, а обучение связано с перестройкой/стабилизацией синапсов. Его гипотеза в том, что культурные навыки (чтение, математика, и т.п.) переиспользуют существующие нейронные "ниши", поэтому форма обучения и "типичные трудности" во многом универсальны.
В общем, получилась отличная книга для тех, кто хочет эффективнее учиться сам или обучать других:)
#Brain #Learning #Thinking #SelfDevelopment
Я давно прочитал эту крутую книгу Станисласа Деана, но руки дошли написать про нее только сейчас. Станислас - один из ведущих когнитивных нейроученых мира, профессор Коллеж де Франс (Париж), который прославился исследованиями того, как мозг обрабатывает числа и текст, и стал автором нескольких известных книг о работе мозга и сознании. Как популяризатор, Деан умеет объяснять сложное простым языком и увлекательно рассказывать о тайнах мозга.
Если говорить про модель обучения, о которой он рассказывает в книге, то она очень инженерна по натуре. Если кратко, то мозг - это система, которая строит внутреннюю модель мира, постоянно предсказывает, сравнивает предсказания с реальностью и обновляет модель по сигналу ошибки. В лекции в Collège de France он описывает это как три шага: top‑down prediction → сравнение с входом → error signals → корректировка внутренней модели (это он связывает с идеей «байесовского мозга»). Из этой рамки вытекают ключевые концепции (и практики), которые он повторяет в книге
- Четыре столпа обучения
- Тестирование как часть обучения, а не "контроль"
- Пластичность мозга и "нейронный recycling"
Четыре столпа обучения, необходимых для обучения
1️⃣ Внимание (attention) = "гейт" обучения
Без внимания информация банально "не проходит" на глубокую обработку. Станислас ставит внимание рядом с вовлечением и быстрым фидбеком как с решающими факторами обучения. Инженерная интерпретация: если контекст постоянно рвётся (митинги/пинги/таск‑свитчинг), вы режете пропускную способность обучения.
2️⃣ Активное вовлечение (active engagement) = гипотезы, предсказания, любопытство
Ключевая идея в том, что пассивный организм не учится - мозг должен быть активным участником, генерировать ожидания/гипотезы и проверять их. Деан отдельно подчёркивает, что "активность" не равна "пусть сам всё откроет" (discovery learning). Нужна структурированная среда, но с постоянным вовлечением, вопросами, мини‑проверками. Ещё один нюанс: чтобы поддерживать вовлечение, задачи должны быть не слишком лёгкие и не слишком сложные — оптимальная зона сложности подпитывает интерес.
3️⃣ Ошибка и фидбек (error feedback) = двигатель обучения
У Деана очень сильный тезис в том, что обучение запускается, когда есть "сюрприз" - расхождение ожиданий и реальности. "Нет сюрприза — нет обучения". Отсюда практический вывод: ошибки - это информационный сигнал, а не повод для наказания. Наказание добавляет страх/стресс и снижает способность учиться. Инженерная аналогия: без loss/gradient система не обучается; без быстрых feedback loops вы "едете вслепую".
4️⃣ Консолидация (Consolidation) = автоматизация + сон
Консолидация у Деана - это постепенная автоматизация: знания "переносятся" из сознательной, усилием управляемой обработки в специализированные (в т.ч. неосознаваемые) цепи, освобождая ресурсы для новых задач. Сон - это важный фактор консолидации, в т.ч. через "переигрывание/реактивацию" дневных паттернов активности.
Отдельно он хорошо рассказывает про пластичность мозга и отношение к ошибкам.
Тестирование как часть обучения, а не "контроль"
Проверки знаний - это не только измерение, а механизм обучения. Деан приводит результаты, что простое перечитывание малоэффективно, а явное извлечение (testing) + быстрый фидбек по ошибкам работает лучше и помогает калибровать метакогницию (мы часто переоцениваем, как хорошо выучили).
Пластичность мозга и "нейронный recycling"
Деан не противопоставляет "врождённое vs приобретённое": мозг генетически структурирован, но пластичен, а обучение связано с перестройкой/стабилизацией синапсов. Его гипотеза в том, что культурные навыки (чтение, математика, и т.п.) переиспользуют существующие нейронные "ниши", поэтому форма обучения и "типичные трудности" во многом универсальны.
В общем, получилась отличная книга для тех, кто хочет эффективнее учиться сам или обучать других:)
#Brain #Learning #Thinking #SelfDevelopment
1❤20👍6🔥5🙏1
How Claude Code Works - Как устроен Claude Code изнутри: разбор архитектуры от основателя PromptLayer, Jared Zoneraich (Рубрика #Agents)
Посмотрел интересный доклад с конференции AI Engineer Conference в Нью-Йорке, который сделал Джаред Зонерайх, основатель PromptLayer и человек, который видит тысячи промптов в день. Его платформа обрабатывает миллионы запросов к LLM, а команда переписала свою инженерную организацию вокруг Claude Code. Джаред не из Anthropic, но его инсайты - это результат dogfooding и анализа работы тысяч разработчиков. Главная мысль Джареда в том, что кодинг-агенты заработали не из-за сложной архитектуры, а благодаря её упрощению. Вместо RAG, векторных баз и сложных оркестраторов Anthropic пошли по пути "дайте модели инструменты и не мешайте". Если подробнее, то тезисы автора выглядят так3,
✈️ Архитектура = один while-цикл + инструменты
Всё. Больше никаких ветвлений, подграфов и state machines. Модель сама решает, что делать дальше. Это N0-цикл внутри Claude Code.
🤖 Инструменты копируют поведение разработчика в терминале
- Bash - король всех инструментов. Модель может создать Python-скрипт, запустить его, посмотреть вывод, удалить. Это даёт гибкость тысяч утилит без кастомной разработки.
- Read/Grep/Glob - поиск как вы бы искали сами. Без векторных баз, просто grep и glob-паттерны.
- Edit - диффы вместо перезаписи файлов. Быстрее, дешевле по токенам, меньше ошибок.
- Todos - структурированное планирование через промпт, а не детерминированный код.
🗒 Todo-листы работают на честном слове
Система не форсит выполнение задач детерминированно. Вместо этого в системный промпт вставляется инструкция "одна задача за раз, отмечай выполненные". Модель просто следует инструкции — и это работает, потому что современные LLM хорошо понимают контекст.
🍬 Контекст-менеджмент через H2A и Compressor
- H2A (Half-to-Half Async) - двойной буфер для паузы/возобновления работы. Можете вмешаться mid-task без перезапуска.
- Compressor wU2 - срабатывает на ~92% заполнения контекста, суммирует середину, оставляя начало и конец. Это дает модели "место для размышлений" перед кризисом.
💯 Простота > сложности
Джаред цитирует Zen of Python: "Simple is better than complex. Complex is better than complicated". Все попытки защитить модель от галлюцинаций через сложный scaffolding - это технический долг. Лучше дождаться улучшения модели и удалить лишний код.
В итоге, это все можно свести к простым советам:
1. Перестаньте over-оптимизировать. Если вы строите агентов и пишете костыли для работы с текущими моделями - вы тратите время. Лучше инвестировать в чистые промпты и простую архитектуру.
2. Bash как универсальный адаптер. Вместо написания кастомных инструментов для каждой задачи - дайте агенту доступ к shell. Все утилиты (ffmpeg, git, grep) уже есть в системе.
3. Prompt engineering > сложные системы. Файл CLAUDE.md с инструкциями эффективнее локальных векторных баз. Модель сама исследует репозиторий, если знает, что искать.
4. Готовьтесь к следующей волне. Если ваша команда еще не переписала workflow вокруг кодинг-агентов - вы отстаете. PromptLayer сделали правило: "если задача < 1 часа - делай через Claude Code, не планируй".
В общем, как говорит Джаред: "Less scaffolding, more model".
P.S.
Примерно про это же говорил Nik Pash, Head of AI в Cline в докладе "Hard Won Lessons from Building Effective AI Coding Agents", о котором я уже рассказывал
#AI #ML #Agents #Software #Engineering #Architecture
Посмотрел интересный доклад с конференции AI Engineer Conference в Нью-Йорке, который сделал Джаред Зонерайх, основатель PromptLayer и человек, который видит тысячи промптов в день. Его платформа обрабатывает миллионы запросов к LLM, а команда переписала свою инженерную организацию вокруг Claude Code. Джаред не из Anthropic, но его инсайты - это результат dogfooding и анализа работы тысяч разработчиков. Главная мысль Джареда в том, что кодинг-агенты заработали не из-за сложной архитектуры, а благодаря её упрощению. Вместо RAG, векторных баз и сложных оркестраторов Anthropic пошли по пути "дайте модели инструменты и не мешайте". Если подробнее, то тезисы автора выглядят так3,
# n0 master loop
while (tool_call):
execute_tool()
feed_results_to_model()
Всё. Больше никаких ветвлений, подграфов и state machines. Модель сама решает, что делать дальше. Это N0-цикл внутри Claude Code.
- Bash - король всех инструментов. Модель может создать Python-скрипт, запустить его, посмотреть вывод, удалить. Это даёт гибкость тысяч утилит без кастомной разработки.
- Read/Grep/Glob - поиск как вы бы искали сами. Без векторных баз, просто grep и glob-паттерны.
- Edit - диффы вместо перезаписи файлов. Быстрее, дешевле по токенам, меньше ошибок.
- Todos - структурированное планирование через промпт, а не детерминированный код.
🗒 Todo-листы работают на честном слове
Система не форсит выполнение задач детерминированно. Вместо этого в системный промпт вставляется инструкция "одна задача за раз, отмечай выполненные". Модель просто следует инструкции — и это работает, потому что современные LLM хорошо понимают контекст.
- H2A (Half-to-Half Async) - двойной буфер для паузы/возобновления работы. Можете вмешаться mid-task без перезапуска.
- Compressor wU2 - срабатывает на ~92% заполнения контекста, суммирует середину, оставляя начало и конец. Это дает модели "место для размышлений" перед кризисом.
Джаред цитирует Zen of Python: "Simple is better than complex. Complex is better than complicated". Все попытки защитить модель от галлюцинаций через сложный scaffolding - это технический долг. Лучше дождаться улучшения модели и удалить лишний код.
В итоге, это все можно свести к простым советам:
1. Перестаньте over-оптимизировать. Если вы строите агентов и пишете костыли для работы с текущими моделями - вы тратите время. Лучше инвестировать в чистые промпты и простую архитектуру.
2. Bash как универсальный адаптер. Вместо написания кастомных инструментов для каждой задачи - дайте агенту доступ к shell. Все утилиты (ffmpeg, git, grep) уже есть в системе.
3. Prompt engineering > сложные системы. Файл CLAUDE.md с инструкциями эффективнее локальных векторных баз. Модель сама исследует репозиторий, если знает, что искать.
4. Готовьтесь к следующей волне. Если ваша команда еще не переписала workflow вокруг кодинг-агентов - вы отстаете. PromptLayer сделали правило: "если задача < 1 часа - делай через Claude Code, не планируй".
В общем, как говорит Джаред: "Less scaffolding, more model".
P.S.
Примерно про это же говорил Nik Pash, Head of AI в Cline в докладе "Hard Won Lessons from Building Effective AI Coding Agents", о котором я уже рассказывал
#AI #ML #Agents #Software #Engineering #Architecture
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
How Claude Code Works - Jared Zoneraich, PromptLayer
Deep dive into what we have independently figured out about the architecture and implementation of Claude's code generation capabilities. Not officially endorsed by Anthropic.
Speaker: Jared Zoneraich | Founder & CEO, PromptLayer
https://x.com/imjaredz…
Speaker: Jared Zoneraich | Founder & CEO, PromptLayer
https://x.com/imjaredz…
❤12👍10🔥3
Lovable - внутренние компоненты и как они работают вместе (Рубрика #AI)
Я уже рассказывал про историю lovable и подход к архитектуре, пользовательский интерфейс и процесс работы, а сегодня расскажу про внутренние компоненты и их взаимодействие. Для меня эта часть особо интересна, так как она позволяет понять как можно повторить такую систему.
Оркестрация AI и компиляция кода
Серверная часть Lovable отвечает за координацию действий AI и обновление проекта. Когда пользователь отправляет очередной запрос (промпт) в чат, бэкенд формирует системное сообщение (prompt) для AI-модели, включающее всю необходимую контекстную информацию: текущее состояние файлов (или только релевантные фрагменты), логи ошибок, возможно, ранее сохранённые описания из папки /docs или Knowledge-базы, а также правила форматирования (
После обновления файлов тут же запускается процесс сборки проекта – вероятно, с помощью bundler (например, Vite или Webpack) или запуска dev-сервера. Lovable разворачивает проект в режиме, близком к npm run dev: мы видим результат мгновенно, а AI может вызывать
Синхронизация и управление кодом
Каждый проект Lovable связан с системой контроля версий. При создании проекта платформа либо инициирует приватный репозиторий (например, в собственной облачной Git-службе), а также по запросу пользователя можно связать проект с GitHub. Все изменения, которые делает AI, коммитятся и сохраняются, так что можно просмотреть историю. Инструкция в README, которую генерирует Lovable, говорит: "Вы можете редактировать код в Lovable или в любимом IDE - просто клонируйте репозиторий. Изменения, отправленные в репозиторий, отобразятся и в Lovable".
Деплой и хостинг
Lovable упрощает и последний шаг - развертывание приложения. Для быстрого превью разработчик может воспользоваться хостингом от Lovable: при запуске деплоя приложение публикуется на домене *.lovable.app и становится доступно онлайн. По сути, это аналог статического хостинга: фронтенд билдится и заливается, а Supabase-интеграция даёт работающий бэкенд. Также платформа поддерживает развёртывание на сторонние сервисы. В официальном туториале, например, показывают деплой на Netlify. Но вообще, благодаря интеграции с Git, возможно настроить CI/CD как вам нравится и деплоить туда, куда вы хотите.
Расширение интеграций
Сейчас Lovable постепенно расширяет экосистему "коннекторов" для различных сервисов. Помимо Supabase, уже имеются шаблоны интеграции со Stripe (платежи), ElevenLabs (озвучивание), Shopify, Firecrawl (поиск в вебе), Perplexity AI. Это расширяет возможности сервиса - достаточно попросить "добавь оплату Stripe" или "встрои голосовой движок", и Lovable подтянет нужные пакеты, ключи и код. Внутренне это реализовано как библиотеки + знание модели о “правильном способе” интеграции (в системных правилах указано, как настроить Stripe, ChatGPT, Airtable и пр., и AI знает нужные паттерны).
#AI #Software #Engineering #Future #Architecture #Startup
Я уже рассказывал про историю lovable и подход к архитектуре, пользовательский интерфейс и процесс работы, а сегодня расскажу про внутренние компоненты и их взаимодействие. Для меня эта часть особо интересна, так как она позволяет понять как можно повторить такую систему.
Оркестрация AI и компиляция кода
Серверная часть Lovable отвечает за координацию действий AI и обновление проекта. Когда пользователь отправляет очередной запрос (промпт) в чат, бэкенд формирует системное сообщение (prompt) для AI-модели, включающее всю необходимую контекстную информацию: текущее состояние файлов (или только релевантные фрагменты), логи ошибок, возможно, ранее сохранённые описания из папки /docs или Knowledge-базы, а также правила форматирования (
<lov-write> и т.д.). LLM-vодель генерирует ответ, содержащий как объяснения, так и блоки изменений кода. Платформа парсит эти блоки: для каждого <lov-write> она знает, какой файл изменить или создать. Далее происходит процесс применения патчей - ведь Lovable не всегда посылает модели весь исходник файла – вместо этого модель может вернуть часть кода с пометками // ... keep existing code на местах, которые не менялись. Специальный механизм (отдельный сервис или скрипт) берёт старую версию файла из репозитория, накладывает изменения из ответа AI, заменяя комментарии на исходный код, и сохраняет новую версию файла. Благодаря такому подходу большие файлы можно править точечно, не перегружая контекст модели лишним текстом. После обновления файлов тут же запускается процесс сборки проекта – вероятно, с помощью bundler (например, Vite или Webpack) или запуска dev-сервера. Lovable разворачивает проект в режиме, близком к npm run dev: мы видим результат мгновенно, а AI может вызывать
console.log в коде для отладки (модель поощряется вставлять логи для отслеживания работы функций). Эта связка “AI <-> сборка <-> превью” работает интерактивно. Стоит отметить, что Lovable ориентирован на веб-приложения (SPA) – он генерирует фронтенд, который обращается к Supabase через REST или SDK. Синхронизация и управление кодом
Каждый проект Lovable связан с системой контроля версий. При создании проекта платформа либо инициирует приватный репозиторий (например, в собственной облачной Git-службе), а также по запросу пользователя можно связать проект с GitHub. Все изменения, которые делает AI, коммитятся и сохраняются, так что можно просмотреть историю. Инструкция в README, которую генерирует Lovable, говорит: "Вы можете редактировать код в Lovable или в любимом IDE - просто клонируйте репозиторий. Изменения, отправленные в репозиторий, отобразятся и в Lovable".
Деплой и хостинг
Lovable упрощает и последний шаг - развертывание приложения. Для быстрого превью разработчик может воспользоваться хостингом от Lovable: при запуске деплоя приложение публикуется на домене *.lovable.app и становится доступно онлайн. По сути, это аналог статического хостинга: фронтенд билдится и заливается, а Supabase-интеграция даёт работающий бэкенд. Также платформа поддерживает развёртывание на сторонние сервисы. В официальном туториале, например, показывают деплой на Netlify. Но вообще, благодаря интеграции с Git, возможно настроить CI/CD как вам нравится и деплоить туда, куда вы хотите.
Расширение интеграций
Сейчас Lovable постепенно расширяет экосистему "коннекторов" для различных сервисов. Помимо Supabase, уже имеются шаблоны интеграции со Stripe (платежи), ElevenLabs (озвучивание), Shopify, Firecrawl (поиск в вебе), Perplexity AI. Это расширяет возможности сервиса - достаточно попросить "добавь оплату Stripe" или "встрои голосовой движок", и Lovable подтянет нужные пакеты, ключи и код. Внутренне это реализовано как библиотеки + знание модели о “правильном способе” интеграции (в системных правилах указано, как настроить Stripe, ChatGPT, Airtable и пр., и AI знает нужные паттерны).
#AI #Software #Engineering #Future #Architecture #Startup
👍14❤4🔥2
[1/2] Marc Andreessen's 2026 Outlook: AI Timelines, US vs. China, and The Price of AI (Рубрика #AI)
С большим интересом посмотрел рассказ Марка Андреессена из компании из компании Andreessen Horowitz (a16z), в котором он объясняет почему мы только в начале крупнейшей технологической революции. Стоимость интеллекта коллапсирует быстрее закона Мура, revenue AI-компаний растёт невиданными темпами, а продукты через 5 лет будут совсем другими.
Основные тезисы этого рассказа такие
1️⃣ Главный тезис: мы в начале революции
Андреессен проводит исторический экскурс: в 1930-х был выбор - строить компьютеры как вычислители (архитектура фон Неймана) или как нейросети (модель мозга). Выбрали первое, получили 80 лет классических компьютеров (от мейнфреймов до смартфонов). Нейросети оставались академической экзотикой - до момента ChatGPT (конец 2022). За последние три года после этого момента видно, что это больше интернета, это уровень микропроцессора/парового двигателя.
Для инженеров интересно, что буквально каждый месяц выходят прорывные исследования с новыми возможностями, которые казались невозможными. Продукты, которые мы строим сегодня, вероятно, устареют через 5 лет - всё станет навороченнее:)
2️⃣ Экономика: revenue взрывной, но и расходы растут - что упускают?
AI-компании растут быстрее всех, кого Андреессен видел (реальные деньги в банках, беспрецедентный takeoff). Но критика - "burn догоняет revenue". Его ответ в двух частях:
- Consumer AI
Интернет уже построен - 5–6 млрд человек онлайн, смартфоны по $10. AI можно "скачать", в отличие от электричества или водопровода - проблемы дистрибуции нет. Монетизация сильная, включая высокие тарифы ($200–300/мес стандарт — выше SaaS).
- Enterprise AI
Вопрос "сколько стоит интеллект?". Если AI поднимает уровень обслуживания, снижает churn, усиливает upsell продуктов - это прямой бизнес результат. Модель токены интеллекта за доллар, и цена AI падает быстрее закона Мура - получаем дефляцию затрат. Спрос растёт, затраы (GPU, чипы, датацентры) в будущем сократятся: сейчас триллионы долларов идут в инфраструктуру, а per-unit cost упадёт в будущем на фоне ввода этих мощностей под AI
3️⃣ Большие vs малые модели: структура как в индустрии компьютеров
Андреессен описывает как топовые модели (например, GPT-5) через 6–12 месяцев копируются малыми моделями с сопоставимой capability. Пример из последних недель: Kimi (китайская open-source модель) реплицирует reasoning GPT-5, но работает на 1–2 MacBook. Он дает прогноз, что индустрия структурируется как компьютерная - горстка "god models" (supercomputers в гигантских датацентрах) наверху, каскад малых моделей вниз, вплоть до embedded (в каждом физическом объекте). Большинство задач не требуют прорывных способностей - достаточно условных "120 IQ", не нужен "PhD по теории струн"
Если вы строите продукт, то можно выбирать между big/small, open/close - VC (и a16z) ставят на все стратегии сразу, потому что неясно, кто выиграет. Компании вроде Cursor используют 10–100 моделей параллельно.
4️⃣ Китай, open-source и глобальная гонка
Китайские компании (DeepSeek от хедж-фонда, Kimi, Qwen от Alibaba, Tencent, Baidu, ByteDance) выпустили open-source модели уровня frontier - с гораздо меньшими затратами ресурсов. Это подтверждает, что нет постоянного лидерства. xAI/Grok догнал OpenAI за <12 месяцев. В Китае 3–6 топовых AI-компаний, прогресс быстрый (несмотря на US санкции на чипы). Для инженеров это показывает, что open-weights меняет правила - можно взять Kimi/DeepSeek и развернуть локально (privacy, cost control).
5️⃣ Регулирование AI
Марк описал проблему того, что в USA пытаются регулировать AI на уровне штатов, по его мнению федеральное регулирование лучше, а законы на уровне штатов приведут к фрагментации как в EU (что затормозит инновации). Китай как мотиватор - США не может позволить отстать.
В продолжении я закончу рассказ про тезисы Марка о будущем AI.
#AI #ML #Trends #Software #Engineering #Future
С большим интересом посмотрел рассказ Марка Андреессена из компании из компании Andreessen Horowitz (a16z), в котором он объясняет почему мы только в начале крупнейшей технологической революции. Стоимость интеллекта коллапсирует быстрее закона Мура, revenue AI-компаний растёт невиданными темпами, а продукты через 5 лет будут совсем другими.
Основные тезисы этого рассказа такие
1️⃣ Главный тезис: мы в начале революции
Андреессен проводит исторический экскурс: в 1930-х был выбор - строить компьютеры как вычислители (архитектура фон Неймана) или как нейросети (модель мозга). Выбрали первое, получили 80 лет классических компьютеров (от мейнфреймов до смартфонов). Нейросети оставались академической экзотикой - до момента ChatGPT (конец 2022). За последние три года после этого момента видно, что это больше интернета, это уровень микропроцессора/парового двигателя.
Для инженеров интересно, что буквально каждый месяц выходят прорывные исследования с новыми возможностями, которые казались невозможными. Продукты, которые мы строим сегодня, вероятно, устареют через 5 лет - всё станет навороченнее:)
2️⃣ Экономика: revenue взрывной, но и расходы растут - что упускают?
AI-компании растут быстрее всех, кого Андреессен видел (реальные деньги в банках, беспрецедентный takeoff). Но критика - "burn догоняет revenue". Его ответ в двух частях:
- Consumer AI
Интернет уже построен - 5–6 млрд человек онлайн, смартфоны по $10. AI можно "скачать", в отличие от электричества или водопровода - проблемы дистрибуции нет. Монетизация сильная, включая высокие тарифы ($200–300/мес стандарт — выше SaaS).
- Enterprise AI
Вопрос "сколько стоит интеллект?". Если AI поднимает уровень обслуживания, снижает churn, усиливает upsell продуктов - это прямой бизнес результат. Модель токены интеллекта за доллар, и цена AI падает быстрее закона Мура - получаем дефляцию затрат. Спрос растёт, затраы (GPU, чипы, датацентры) в будущем сократятся: сейчас триллионы долларов идут в инфраструктуру, а per-unit cost упадёт в будущем на фоне ввода этих мощностей под AI
3️⃣ Большие vs малые модели: структура как в индустрии компьютеров
Андреессен описывает как топовые модели (например, GPT-5) через 6–12 месяцев копируются малыми моделями с сопоставимой capability. Пример из последних недель: Kimi (китайская open-source модель) реплицирует reasoning GPT-5, но работает на 1–2 MacBook. Он дает прогноз, что индустрия структурируется как компьютерная - горстка "god models" (supercomputers в гигантских датацентрах) наверху, каскад малых моделей вниз, вплоть до embedded (в каждом физическом объекте). Большинство задач не требуют прорывных способностей - достаточно условных "120 IQ", не нужен "PhD по теории струн"
Если вы строите продукт, то можно выбирать между big/small, open/close - VC (и a16z) ставят на все стратегии сразу, потому что неясно, кто выиграет. Компании вроде Cursor используют 10–100 моделей параллельно.
4️⃣ Китай, open-source и глобальная гонка
Китайские компании (DeepSeek от хедж-фонда, Kimi, Qwen от Alibaba, Tencent, Baidu, ByteDance) выпустили open-source модели уровня frontier - с гораздо меньшими затратами ресурсов. Это подтверждает, что нет постоянного лидерства. xAI/Grok догнал OpenAI за <12 месяцев. В Китае 3–6 топовых AI-компаний, прогресс быстрый (несмотря на US санкции на чипы). Для инженеров это показывает, что open-weights меняет правила - можно взять Kimi/DeepSeek и развернуть локально (privacy, cost control).
5️⃣ Регулирование AI
Марк описал проблему того, что в USA пытаются регулировать AI на уровне штатов, по его мнению федеральное регулирование лучше, а законы на уровне штатов приведут к фрагментации как в EU (что затормозит инновации). Китай как мотиватор - США не может позволить отстать.
В продолжении я закончу рассказ про тезисы Марка о будущем AI.
#AI #ML #Trends #Software #Engineering #Future
YouTube
Marc Andreessen's 2026 Outlook: AI Timelines, US vs. China, and The Price of AI
a16z cofounder Marc Andreessen joins an AMA-style conversation to explain why AI is the largest technology shift he has experienced, how the cost of intelligence is collapsing, and why the market still feels early despite rapid adoption. The discussion covers…
👍8❤5🔥2
[2/2] Marc Andreessen's 2026 Outlook: AI Timelines, US vs. China, and The Price of AI (Рубрика #AI)
Продолжая обзор выступления Марка поделюсь тезисами из второй части его рассказа.
6️⃣ Pricing: usage vs value-based
- Usage-based - идеально для стартапов (no upfront fixed costs), прозрачно
- Но вендоры хотели бы идти к value-based - процент от productivity (например, зарплаты инженера/врача). Есть эксперименты: процент от upsell/churn reduction в CRM
Интересно, что Марк объясняет, что высокие цены ($200–300/мес) - это не баг, а feature: они ускоряют R&D, снижают customer acquisition waste. AI-компании креативнее SaaS в pricing.
7️⃣ Инкумбенты vs стартапы: кто выигрывает?
Стартапы побеждают в приложениях/доменах (быстрее, фокусированнее), но новые incumbents (Anthropic, xAI) - тоже стартапы, догоняющие за <1 год. Приложения вроде Cursor не просто обертки - они строят свои модели (10–100+), backward integrate.
8️⃣ Подход a16z: инвестировать во все противоречивые стратегии
Когда у компании фундаментально открытые вопросы (big vs small, open vs closed) - это проблема (если угадают неправильно, то могут обанкротиться). У венчурных фондов есть преимущество: можно ставить на множество стратегий параллельно - "aggressively investing behind every strategy that has plausible chance"
9️⃣ Общество и рабочая сила: паника в опросах, adoption на практике
Опросы показывают панику ("AI убьёт работу"), но все используют AI. Прогноз Марка в том, что через 5–20 лет люди скажут "спасибо за AI" (как с электричеством/водопроводом). В общем, надо смотреть на adoption - 5 млрд пользователей онлайн, AI интегрируется везде: от поддержки пользователей до автономных машин.
Для создателей продуктов весь рассказ можно обобщить в такие тезисы
1. Мы в самом начале (3 года из 80) - продукты радикально эволюционируют.
2. Экономика AI улучшается (costs down, revenue up) - не бойтесь затрат, если есть реальный спрос.
3. Малые модели догоняют - можно строить без frontier infra.
4. Open-source меняет игру - Китай доказал, что можно с меньшими ресурсами.
5. Регулирование - риск №1 (следите за штатами/EU).
6. Pricing креативен - не ограничивайтесь SaaS-моделью.
7. Конкуренция жёсткая, permanent lead нет - скорость критична.
#AI #ML #Trends #Software #Engineering #Future
Продолжая обзор выступления Марка поделюсь тезисами из второй части его рассказа.
6️⃣ Pricing: usage vs value-based
- Usage-based - идеально для стартапов (no upfront fixed costs), прозрачно
- Но вендоры хотели бы идти к value-based - процент от productivity (например, зарплаты инженера/врача). Есть эксперименты: процент от upsell/churn reduction в CRM
Интересно, что Марк объясняет, что высокие цены ($200–300/мес) - это не баг, а feature: они ускоряют R&D, снижают customer acquisition waste. AI-компании креативнее SaaS в pricing.
7️⃣ Инкумбенты vs стартапы: кто выигрывает?
Стартапы побеждают в приложениях/доменах (быстрее, фокусированнее), но новые incumbents (Anthropic, xAI) - тоже стартапы, догоняющие за <1 год. Приложения вроде Cursor не просто обертки - они строят свои модели (10–100+), backward integrate.
8️⃣ Подход a16z: инвестировать во все противоречивые стратегии
Когда у компании фундаментально открытые вопросы (big vs small, open vs closed) - это проблема (если угадают неправильно, то могут обанкротиться). У венчурных фондов есть преимущество: можно ставить на множество стратегий параллельно - "aggressively investing behind every strategy that has plausible chance"
9️⃣ Общество и рабочая сила: паника в опросах, adoption на практике
Опросы показывают панику ("AI убьёт работу"), но все используют AI. Прогноз Марка в том, что через 5–20 лет люди скажут "спасибо за AI" (как с электричеством/водопроводом). В общем, надо смотреть на adoption - 5 млрд пользователей онлайн, AI интегрируется везде: от поддержки пользователей до автономных машин.
Для создателей продуктов весь рассказ можно обобщить в такие тезисы
1. Мы в самом начале (3 года из 80) - продукты радикально эволюционируют.
2. Экономика AI улучшается (costs down, revenue up) - не бойтесь затрат, если есть реальный спрос.
3. Малые модели догоняют - можно строить без frontier infra.
4. Open-source меняет игру - Китай доказал, что можно с меньшими ресурсами.
5. Регулирование - риск №1 (следите за штатами/EU).
6. Pricing креативен - не ограничивайтесь SaaS-моделью.
7. Конкуренция жёсткая, permanent lead нет - скорость критична.
#AI #ML #Trends #Software #Engineering #Future
Telegram
Книжный куб
[1/2] Marc Andreessen's 2026 Outlook: AI Timelines, US vs. China, and The Price of AI (Рубрика #AI)
С большим интересом посмотрел рассказ Марка Андреессена из компании из компании Andreessen Horowitz (a16z), в котором он объясняет почему мы только в начале…
С большим интересом посмотрел рассказ Марка Андреессена из компании из компании Andreessen Horowitz (a16z), в котором он объясняет почему мы только в начале…
❤3🔥2👍1
Новогодние подарки и каникулы (Рубрика #Hardware)
На новый год моим детям Дед Мороз принес приставку PlayStation 5, в которую они с удовольствием рубились после возвращения с футбольных сборов, о которых я напишу отдельно. Я себе тоже купил дисков для приставки, но ... победила другая игрушка в виде Beelink GTR9 Pro AMD Ryzen™ AI Max+ 395. Очень уж хотелось локально позапускать модельки. У этой железки норм процессор и есть встроенный видеочип, а из 128 Gb унифицированной памяти можно отдать под видеопамять 96Gb (это максимальный показатель). Она выдает 126 TOPS производительности и в нее легко помещаются квантизованные модельки на 70 или 80 миллиардов, умельцы запихивают и OSS 120b от OpenAI, но у меня под Ubuntu 25.10 пока не взлетело (я знаю, что ROCm официально не поддерживается на Ubuntu не LTS, но в апреле выйдет уже 26 версия, куда я сразу перееду). Все это счастье стоит на Aliexpress в районе 200к рублей и доставляют его в Москве в течение пары дней. Отличная игрушка для разработчика:)
P.S.
Отдельно отмечу, что я был готов к проблемам с сетью - там два 10Gb Ethernet порта от Intel, что по сообщениям с форумов глючат. Но я планировал подключать по WiFi - в итоге, у меня инсталяция Ubuntu с включенным WiFi отваливалась после подключения сети. Я выяснил, что блок WiFi в этом компе (или драйвера к нему) пока нестабильные - решил проблему докупив Realtek донгл для WiFi и воткнул его в один из USB портов , теперь сеть работает норм.
#Hardware #Software #AI #Engineering #DevOps
На новый год моим детям Дед Мороз принес приставку PlayStation 5, в которую они с удовольствием рубились после возвращения с футбольных сборов, о которых я напишу отдельно. Я себе тоже купил дисков для приставки, но ... победила другая игрушка в виде Beelink GTR9 Pro AMD Ryzen™ AI Max+ 395. Очень уж хотелось локально позапускать модельки. У этой железки норм процессор и есть встроенный видеочип, а из 128 Gb унифицированной памяти можно отдать под видеопамять 96Gb (это максимальный показатель). Она выдает 126 TOPS производительности и в нее легко помещаются квантизованные модельки на 70 или 80 миллиардов, умельцы запихивают и OSS 120b от OpenAI, но у меня под Ubuntu 25.10 пока не взлетело (я знаю, что ROCm официально не поддерживается на Ubuntu не LTS, но в апреле выйдет уже 26 версия, куда я сразу перееду). Все это счастье стоит на Aliexpress в районе 200к рублей и доставляют его в Москве в течение пары дней. Отличная игрушка для разработчика:)
P.S.
Отдельно отмечу, что я был готов к проблемам с сетью - там два 10Gb Ethernet порта от Intel, что по сообщениям с форумов глючат. Но я планировал подключать по WiFi - в итоге, у меня инсталяция Ubuntu с включенным WiFi отваливалась после подключения сети. Я выяснил, что блок WiFi в этом компе (или драйвера к нему) пока нестабильные - решил проблему докупив Realtek донгл для WiFi и воткнул его в один из USB портов , теперь сеть работает норм.
#Hardware #Software #AI #Engineering #DevOps
🔥21😁5❤2👏2