Книжный куб
11.2K subscribers
2.69K photos
6 videos
3 files
2K links
Рекомендации интересных книг, статей и выступлений от Александра Поломодова (@apolomodov), технического директора и эксперта в архитектуре
Download Telegram
Конструктор орбитальной станции

Где-то полгодика назад я купил себе конструктор с космической станцией, но никак не доходили руки его собрать. Но в каникулы я сделал над собой усилие и собрал его - теперь он стоит у меня в кабинете. А рядом с ним лего фигурки космонавта и Маленького Принца (в некотором роде тоже космического путешественника). В общем, выглядит стильно и мне нравится:)
1👍19🔥107
[1/3] Octoverse 2025: A new developer joins GitHub every second as AI leads TypeScript to #1 (Рубрика #Engineering)

В конце октября появился очередной отчет Octoverse от GitHub, где авторы рассказывают про состояние дел в мире OSS (Open Source Software), а точнее о состоянии экосистемы разработки софта на GitHub. В 2025 году в отчете рассказывают про рекордный рост сообщества разработчиков в 2025 году и кардинальное влияние инструментов искусственного интеллекта на процесс разработки и выбор технологий.

Но начать стоит с методологии, так как она в отличие от многих других похожих отчетов основана не на опросах (что хорошо и позволяет оценить что происходит реально с репозиториями, кодом, разработчиками):
- Источник и период данных: отчет основан на анализе всех активностей пользователей на платформе GitHub за период с 1 сентября 2024 года по 31 августа 2025 (это так называемый Octoverse Year). Данные получены непосредственно из событий на платформе (коммиты, pull request’ы, issue и др.) – преимущественно из публичных репозиториев, если не оговорено иначе. Такой подход позволил сопоставлять метрики год к году с учётом сезонности (для трендов использовали сравнение одного и того же месяца в 2024 и 2025).
- Охват и размер выборки: тут тоже все здорово - отчет Octoverse опирается на всю популяцию разработчиков на GitHub, которых в 2025 году стало больше 180 миллионов (на 36 млн больше, чем годом ранее).
- Географическая представленность: данные отражают глобальное распределение разработчиков. Быстрее всего сообщество растёт в Азии и других развивающихся регионах, а Индия вышла на первое место по скорости добавления разработчиков (более 5.2 млн за год), а также на второе место по размеру сообщества (сразу после США).
- Отраслевая представленность: в конексте отчета разработчиком считают любого пользователя GitHub, связанный с созданием ПО. Отчёт охватывает как открытые проекты, так и корпоративные: хотя 81,5% всех зафиксированных вкладов пришлось на приватные репозитории (внутренние компании разработки), более 63% всех репозиториев на GitHub остаются публичными или open source. Иными словами, анализ учитывает и повседневную корпоративную разработку, и масштабную открытую экосистему, на которую она опирается.
- Дополнительные исследования: Отчёт носит количественный характер, основанный на телеметрии GitHub, а не на анкетировании. Однако авторы включили точечные качественные данные – например, серии интервью с разработчиками о практике ревью кода, чтобы оценить пользу нового инструмента GitHub Copilot Code Review. Результаты этих интервью встроены в анализ, например, 72,6% опрошенных отметили рост эффективности кода-ревью благодаря ИИ.

Ну а теперь, когда стало ясно почему отчет так интересен, стоит перейти к его результатами и ключевым выводам

👀 Основные показатели экосистемы Octoverse 2025
- Общее число проектов достигло 630 миллионов, AI-проектов – 4,3 млн, а разработчиков –-более 180 миллионов
- Количество публичных contributions (commits, PRs, gits, ...) - 1,12 млрд, в среднем 43,2 млн слияний pull request’ов в месяц (+23% г/г)
- Самыми популярными языками стали TypeScript и Python

Эти рекордные цифры отражают главные тренды 2025 года - беспрецедентный рост сообщества и широкое внедрение ИИ-технологий в разработку
Ну а в следующих постах мы обсудим ключевые результаты более подробно.

#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
8👍2🔥2
[2/3] Octoverse 2025: A new developer joins GitHub every second as AI leads TypeScript to #1 (Рубрика #Engineering)

Продолжая рассказ про очередной ежегодный отчет от GitHub о состоянии экосистемы разработки софта на платформе, расскажу подробнее про его результаты.

📈 Беспрецедентный рост сообщества
- Платформа пополнилась более чем 36 миллионами новых разработчиков - это самый высокий абсолютный рост за всю историю наблюдений
- азработчики создали около 121 млн новых репозиториев за год (до 630 млн всего)
- Число коммитов достигло почти 1 миллиарда в 2025 году (+25% к 2024)
- Ежемесячно сливалось порядка 43,2 млн pull request’ов (+23% к 2024)
Такая динамика совпала с запуском бесплатной версии GitHub Copilot в конце 2024, которая привлекла волну новых пользователей и проектов.

🤖 ИИ стал неотъемлемой частью разработки
Генеративный ИИ за год превратился из новинки в стандартный инструмент разработчика.
- На GitHub уже насчитывается порядка 4,3 миллиона репозиториев, связанных с AI (расчет через проставление тегов репозиториям и выделение части тегов как относящихся к AI проектам).
- Свыше 1,1 млн публичных проектов используют SDK для работы с большими языковыми моделями (LLM) - и 693 тыс. из них созданы всего за последние 12 месяцев (рост +178% год к году)
- Новички сразу внедряют AI в работу: почти 80% новых разработчиков начинают использовать автодополнение GitHub Copilot уже в первую неделю работы с кодом

Всё это подтверждает, что ИИ-инструменты теперь ожидаемы “по умолчанию” в среде разработчиков. Рост использования AI-средств сопровождается и ростом вклада в код: за год было слито рекордные 518,7 млн pull request’ов (+29% к предыдущему году), а общее число вкладов в открытые проекты превысило 1,12 млрд (+13% г/г).

🚀 TypeScript вышел на 1-е место среди языков
Впервые за последнее десятилетие сменился лидер по популярности языков программирования на GitHub: в августе 2025 года TypeScript обогнал Python (а также давнего лидера JavaScript) и стал самым используемым языком на платформе. Стремительный рост TypeScript обусловлен сразу двумя факторами
1. Современные фронтенд-фреймворки (React, Angular и др.) генерируют шаблоны проектов на TS по умолчанию
2. Команды всё чаще предпочитают строго типизированный код при использовании ИИ: развитая типизация TypeScript делает автосгенерированный AI-код более надежным

За год сообщество TypeScript выросло на ≈1,05 млн разработчиков (+66% г/г), тогда как Python прибавил ~850 тыс. (+48% г/г). Несмотря на потерю первого места, Python остаётся ключевым языком для задач ИИ и науки о данных - у него 2,6 млн активных контрибьюторов, а Jupyter Notebook по-прежнему служит основной средой экспериментов (≈403 тыс. репозиториев внутри AI-проектов). Совокупно сообщества TypeScript и Python теперь насчитывают >5,2 млн разработчиков (около 3% всех активных пользователей GitHub).

Такой сдвиг подтверждает: ИИ влияет не только на скорость кодинга, но и на выбор технологий - команды охотнее доверяют AI-сгенерированный код языкам со строгой типизацией, особенно для продакшн-систем.

💯 ИИ меняет предпочтения и практики разработки
Данные Octoverse указывают на явную связь между внедрением AI-инструментов и эволюцией стека технологий разработчиков
- Начиная с 2025 года, рост популярности Python идёт почти параллельно с JavaScript/TypeScript, что свидетельствует об универсальном влиянии ИИ на разные экосистемы - от веб-разработки до анализа данных.
- Появляются новые подходы к работе с кодом, такие как "vibe coding"
- AI-ассистенты заметно снизили порог входа: если ИИ продолжит упрощать создание ПО, число людей, способных “кодить”, может резко возрасти
- На горизонте эра автономных помощников (AI agents). Уже появились инструменты, которые могут самостоятельно сгенерировать код, запустить тесты и даже открыть pull request для проверки человеком

В заключении погорим про мир open source и влиянии AI на продуктивность разработки, а также приведем выводы.

#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
Please open Telegram to view this post
VIEW IN TELEGRAM
41🔥1
[3/3] Octoverse 2025: A new developer joins GitHub every second as AI leads TypeScript to #1 (Рубрика #Engineering)

В заключении разбора отчета от GitHub погорим про мир open source и влиянии AI на продуктивность разработки, а также приведем заключительные выводы

🌐 Open source в эпоху ИИ: рост и новые лидеры
- Активность в открытых репозиториях достигла исторических максимумов. В 2025 году было зафиксировано 1,128 млрд вкладов в публичные и open source-проекты (+13% г/г). В целом на GitHub уже 395 млн открытых репозиториев (+20% г/г), а за год сообщество слило 518,7 млн pull request’ов в публичных проектах (+29% г/г).
- Бурный рост связан, в том числе, с ИИ-бумом: 6 из 10 самых быстрорастущих проектов года - это инструменты для ИИ-инфраструктуры (фреймворки для запуска моделей, оркестрации и т.п.). Например, vllm, ollama, ComfyUI, Continue и т.д.
- При этом 60% из топ-10 самых популярных репозиториев по числу контрибьюторов тоже связаны с ИИ – сообщество вкладывается в базовые AI-библиотеки и движки вроде HuggingFace Transformers, llama.cpp, а также в AI-функции популярных инструментов (например, OpenAI Codex для VS Code)
- Но open source-экосистема не ограничивается одной лишь сферой AI. Рядом с взлётом ИИ-проектов сохраняют сильные позиции и классические направления: например, открытый игровой движок Godot, домашняя IoT-платформа Home Assistant и фреймворк Expo для мобильной разработки стабильно входят в топ проектов по числу контрибьюторов
- Анализ показывает, что помимо ИИ, разработчики проявляют повышенный интерес к инструментам повышения эффективности
-- Средствам для детерминированной сборки и управления зависимостями (Nix, UV) – “чтобы код работал на любой машине”
-- Высокопроизводительным фреймворкам (Tailwind CSS, Ghostty) для получения быстрых результатов
-- К проектам, дающим больший контроль над средой (например, защищённые браузеры как Zen Browser)
- Продолжается и тренд на децентрализацию соцсетей: успех платформы Bluesky показывает спрос на открытые протоколы и независимость

🚀 ИИ повышает продуктивность разработки.
2025-й ознаменовался скачком продуктивности: по всем ключевым метрикам разработчики стали делать больше и быстрее, отчасти благодаря новым AI-инструментам. Ежемесячно на GitHub теперь
- Закрывается ≈4,25 млн issue (против ~3,4 млн в 2024)
- Слияний pull request’ов стало 43,2 млн (против ~35 млн в 2024)
- Объём коммитов увеличился с ~65 млн до 82 млн в месяц
Весной 2025, после запуска превью Copilot “coding agent” (март) и релиза Copilot Code Review (апрель), эти показатели резко пошли вверх. В марте разработчики закрыли на 1,4 млн issue больше, чем в феврале, а в июле 2025 было закрыто рекордные 5,5 млн issue за месяц. Сами разработчики подтверждают эффективность AI-помощников: по результатам интервью, 72,6% пользователей Copilot Code Review сообщили, что авто-рекомендации ИИ улучшили их процесс ревью кода. В целом, рост активности (на +25–30% г/г по разным сигналам) говорит о том, что ИИ-инструменты не только экономят время при написании кода, но и позволяют быстрее доводить задачи до завершения, снижая "трение" в командной работе.

В общем, из этого отчета видно, что
- Сообщество разработчиков растёт и меняется стремительнее, чем когда-либо, и одна из главных причин - интеграция AI в ежедневную практику программирования
- Искусственный интеллект уже стал стандартным помощником, ускоряя развитие проектов и влияя на выбор языков (первое место TypeScript во многом обязано AI-трендам).
- AI-проекты захватывают центр внимания в open source сообществе, но одновременно экосистема остаётся многообразной: наряду с ИИ, востребованы инструменты для надёжных сборок, производительности и свободы пользователей

Дальше будует еще веселее - по мере развития AI-инструментов мы уже видим с какой скоростью меняется индустрия разработки софта и профессии инженеров, технических руководителей, продуктовых менеджеров и т.д. Жить в эпоху технологических революций жутко интересно:)

#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍2🔥2
[1/2] Архитектура платформы Lovable (Рубрика AI)

Раньше я уже рассказывал историю стартапа Lovable, что вырос в оценке с нуля до $6.6 млрд всего за один год. А в этой серии постов я хотел рассказать про то, что умеет этот продукт и как концептуально выглядит его архитектура. История собрана на основании публичных выступлений представителей компании (типа таких), а также утечек промптов навроде такой. Кроме того, можно почитать исходники проекта, с которого начинался Lovable, а именно gpt-engineer (и точечно промпты оттуда).

⚙️ Технологический стек и инфраструктура
Платформа Lovable генерирует полноценный исходный код веб-приложений и опирается на современные веб-технологии:
- На фронте используется React/TypeScript, а для стилизации по умолчанию применяется Tailwind CSS и блоки дизайн-системы на основе shadcn/ui (на базе Radix), а для иконок - lucide-react
- Для управления данными на клиенте встроены современные инструменты, например React Query (TanStack) для работы с серверными данными
- Генерируемый код следует принятым практикам: компоненты небольшие (до ~50 строк), приложение сразу адаптивное (responsive) и структурировано в духе атомарного дизайна Atomic Design

На бэкенде Lovable интегрируется с Supabase - это облачная платформа на базе PostgreSQL, которая
- Предоставляет базу данных
- Аутентификацию пользователей
- Хранение файлов и серверлесс-функции
Благодаря этой интеграции Lovable может автоматически создавать таблицы БД, настроивать авторизацию и даже развёртывать серверный код (например, обработчики оплаты или обращения к внешним API) в виде Edge Functions Supabase. Интересно, что не только Lovable хорошо получил денег на дальнейшее развитие, но и Supabase получил суммарно $300 млн (Series D + E) - я рассказывал про это при обзоре "Databases in 2025: A Year in Review by Andy Pavlo "

В итоге, архитектура приложения, создаваемого в Lovable, выглядит так: фронтенд на React/TypeScript/Tailwind/Atomic Desing + Supabase-бэкенд. Все это генерируется и настраивается AI в рамках единого процесса, без необходимости вручную поднимать что-то. Одновременно это можно опубликовать прямо на поддомене *.lovable.app (или кастомном домене) и пошарить пользователям. Для всего это не нужно обладать техническими знаниями - справится даже продакт.

Во втором посте я расскажу про агентскую архитектуру + инфраструктуру и устройство самой платформы.

#AI #Software #Engineering #Future #Architecture #Startup #SystemDesign
Please open Telegram to view this post
VIEW IN TELEGRAM
7🔥71
[2/2] Архитектура платформы Lovable (Рубрика AI)

Продолжая рассказ про архитектуру Lovable расскажу про агентский workflow + инфраструктуру и устройство самой платформы.

🤖 AI-движок и агентская архитектура
В основе Lovable – мощные модели генерации кода на естественном языке. Платформа использует несколько крупных языковых моделей (LLM) от ведущих провайдеров для кодогенерации(в 2025 году говорилось про модели от OpenAI и Anthropic). Особенностью Lovable является агентная архитектура AI (кстати: сам workflow можно увидеть в системном промпте, также полезно глянуть промпт с описанием инструментов)
- Система не просто дописывает код построчно, а воспринимает проект целиком и планирует решение прежде, чем писать код
- Сначала система анализирует запрос пользователя и формирует план приложения, затем пошагово генерирует фронтэнд, бэкэнд, API и даже документацию в соответствии с этим планом

Такой подход "смотрит на приложение в целом" позволяет получить согласованную архитектуру проекта и избежать ситуаций, когда AI ломается на середине задачи. Например, в этом обзоре отмечается, что Lovable способен из одного промпта создать полнофункциональный прототип (UI, база данных, авторизация, API) за считанные часы. Это стало возможным благодаря тому, что AI-агент “понимает” спецификацию целиком перед кодированием.

🚀 Инфраструктура платформы
- Сам сервис Lovable представляет собой облачное веб-приложение с собственным редактором и механизмом генерации кода. Фронтенд платформы (интерфейс, с которым работает пользователь) вероятно тоже написан на React/TS.
- Для хранения проектов и контроля версий Lovable использует интеграцию с Git-репозиториями. Каждому проекту соответствует репозиторий исходного кода: изменения, которые вносит AI, автоматически коммитятся, и пользователь при желании может подключить GitHub и синхронизировать проект для работы вне Lovable. Такая архитектура обеспечивает full code ownership: разработчик может в любой момент вывести код из платформы, продолжить работу локально и развернуть на своей инфраструктуре
- Масштабируемость обеспечивается за счёт вышеупомянутых облачных сервисов - Supabase берёт на себя хранение данных и выполнение серверных функций, а для хостинга фронтенда можно задействовать, например, Netlify или встроенный хостинг Lovable.
- Платформа генерирует проект как набор реальных файлов (включая package.json со всеми зависимостями, README и т.д.), поэтому развёртывание не требует проприетарного рантайма - код совместим с обычными Node.js-инструментами. В FAQ Lovable подчёркивается, что сгенерированный код продакшен-готов и следует лучшим практикам по масштабируемости, безопасности и поддерживаемости.

В будущем я еще расскажу про то, как выглядит процесс работы с Lovable и что происходит под капотом.

#AI #Software #Engineering #Future #Architecture #Startup #SystemDesign
Please open Telegram to view this post
VIEW IN TELEGRAM
7🔥5👍2
[1/2] John Schulman on dead ends, scaling RL, and building research institutions (Рубрика #AI)

Посмотрел очередной эпизод подкаста "Cafe Cursor", в котором общались Michael Truell и John Schulman. Майкл - это со-основатель Cursor, а John - со-основатель OpenAI и человек, предложивший RLHF (reinforcement learning from human feedback), технологию, лежащую в основе ChatGPT. Сейчас Джлн в Thinking Machines в роли chief scientist. В этом подкасте Джон делится инсайтами о том, как всё было устроено в OpenAI с 2016 года, что пошло не так, и куда движется reinforcement learning. Основные моменты интервью ниже

1️⃣ Speedrunning ChatGPT: могли бы сделать в 2018
Шульман считает, что с полным hindsight ChatGPT-3.5 можно было собрать ещё в 2018–2019 силами 2–3 человек на паре GPU-боксов. Секрет не в масштабе compute, а в умном post-training: правильный fine-tuning датасет компенсирует меньшую модель. Сравнивает с nanoGPT (один человек, один бокс, полгода). Вывод: масштабирование важно, но умные трюк > брут форса.

2️⃣ Ранний OpenAI
В 2016–2017 OpenAI был как академическая группа люди работали по 1–3 человека над whitepapers по своему вкусу. Например, был интересный проект Universe как попытка создать универсального RL-агента на сотнях видеоигр и веб-задач. Идея была правильной, но на 10 лет опередила время - тогда модели не генерализовались, система была неукдюжей. Позже пришли результаты в Dota и Procgen (эмуляция игр). Направление роботов тогда тоже было тупиковым, но полезным - оно прокачало команду на больших engineering-проектах и обучило людей системной работе.

3️⃣ Почему value functions не в моде?
В современном RLHF и verifiable rewards (даже на 10k+ токенов) функции ценности (value functions) не сокращают вариативность. Шульман ждёт их камбека, но пока Policy Gradient-методы побеждают на коротких горизонтах.[1]

4️⃣ Continual learning: long context + LoRA
По мнению Джона для непрерывного обучения нужны два фактора
1. In-context learning (long context) - для быстрого, short-horizon.
2. Parameter fine-tuning (LoRA) - для long-horizon knowledge, требующего ёмкости.
Scaling может решить проблему и без новых идей, но Шульман ждёт прорывов, которые сдвинут scaling laws.

5️⃣ Brittle generalization: люди vs модели
Модели круты in-context (как люди), но хуже на длинных горизонтах - застревают, где человек способен к само-коррекции. Почему? Люди заточены эволюцией на 80-летний таймлайн. Неясно, это временное или фундаментальное ограничение. Тестировать на десятилетия эквивалентно запуску evals на декады, что проблематично

6️⃣ Будущее reinforcement learning: GANs 2.0 и multi-agent игры
Шульман ждёт возврата идей из 2010-х:
- Co-training generators + verifiers (как GANs) - это про самоусиливайщийся цикл: лучше reasoning → лучше verifier → лучше generator.[1]
- Multi-agent games** (zero-sum/debate) - автоматический curriculum + теоретические гарантии из complexity theory (polynomial judge создаёт стимулы для сложных проблем (условно, NP-проблем)). Debate game от OpenAI/Anthropic - недооценённая идея.

В продолжении я расскажу про другие интересные тезисы, навроде подходов к руководству исследованиями или замедления получения прорывных результатов.

#Engineering #AI #Metrics #Software #Architecture #RnD #ML
6👍6🔥2
[2/2] John Schulman on dead ends, scaling RL, and building research institutions (Рубрика #AI)

Продолжая рассказ об этом крутом интервью, хочется рассказать о тезисах, что связаны с руководством исследовательскими командами, а также подсветить основные мысли, что показались мне полезными.

7️⃣ Как строить исследовательские команды: hands-on vs hands-off
Интересные размышления про архетипы руководителей исследований
- Hands-on (кодит, читает код, deep technical feedback) - он ориентирован на проекты для достижения целей, может рулить командами с начинающими специалистами, работает в режиме execution этого проекта
- Hands-off (работает как консультант, дает советы по карьере, мотивирует) - больше работает в формате exploratory research, а в команде должны быть senior люди

Но основной ключ в адаптивности - исследования меняются и что работало 7 лет назад, может не сработать сейчас. Ранний OpenAI был peacetime (exploratory), новые labs (Thinking Machines) - wartime (надо догнать SOTA (state of the art результаты) + выстроить исследовательскую культуру)

8️⃣ День из жизни исследователя
Шульман работает в кофейнях (шум вокруг + ноутбук + идеи), потом execution: код, review docs/plots/код коллег. Использует Cursor и Claude Code для кодинга, GPT-5 Pro для литературы/детализации идей/обратной связи по поводу написания. Совет от Джона: держите research notebook (ещё важнее с LLM для контекста)

9️⃣Замедление прогресса: 10x исследователей ≠ 10x идей
За 10 лет число ML-researchers выросло в 10–100x, но "consequential" идеи (типа scaling laws) не ускорились. Причины:
- Низковисящие результаты исчерпаны
- Выше уровень (больше baselines, экспериментов)
- Сдвиг типов: раньше был рисковые люди, а сейчас более традиционные (engineering > research taste)
Но качество растёт: старые papers (70–90-е) имели слабую строгость.

🔟 Thinking Machines: philosophy и Tinker
Новая лаборатория Шульмана. Философия не только в том, чтобы догнать SOTA, но и прокачать исследовательскую мышцу и заложить культур. У этой лабы уже есть инструмент Tinker - low-level API для fine-tuning (Python scripts без GPU hassle), для продвинутых ML-инженеров. План эволюционировать в full-stack продукт для менее продвинутых инженеров.

Мне показалось это интересным с разных сторон
1. Для лидеров тут есть идеи про переключение между hands-on и hands-off в зависимости от фазы проекта и зрелости людей
2. Для инженеров объяснение, что ИИ-лаборатории это не магия - в работе много тупиков, предвзятости и то, что культура важнее процессов.
3. Для исследователей есть мысли про возвращение RL (verifiers, multi-agent), про движение в сторону непрерывного обучения, а также про важность новых исследований даже во время работы законов масштабирования (которые говорят, что больше данных и больше GPU - лучше результат)

#Engineering #AI #Metrics #Software #Architecture #RnD #ML
7👍5🔥2
Lovable - как выглядит работа с продуктом (Рубрика #AI)

Я уже рассказывал про историю lovable и подход к архитектуре, а сегодня расскажу про то, как lovable популяризирует vibe-coding продуктов, когда вместо написания кода на языках программирования пользователь описывает желаемый функционал простым языком, а AI-инструмент генерирует программный код. Слоган платформы "No code. Just vibes." отражает идею, что для создания приложения достаточно сформулировать замысел и "атмосферу" продукта словами, остальное выполнит AI. Такой способ разработки особенно привлекателен для креативных непрограммистов (условных продуктовых менеджеров или основателей стартапов).

🤖 UX платформы и взаимодействие с AI
Интерфейс Lovable построен вокруг чат-коммуникации с AI-инженером. Пользователь создаёт новый проект и видит окно чата, куда можно ввести первый промпт с описанием приложения (например, какие страницы, какая функциональность нужны). AI проанализирует запрос и начнёт выдавать результат: он может отвечать частями, создавая код и описывая свои действия. Важно код генерируется и меняется в реальном времени – параллельно с общением. В рабочей области рядом с чатом отображается живой превью-приложения (iframe), которое автоматически перезагружается по мере добавления кода. Таким образом, пользователь буквально видит как его слова превращаются в работающий интерфейс.

Для инженеров в платформе есть возможность просматривать и редактировать исходный код напрямую - есть встроенный редактор кода с файловой структурой проекта, так что опытные разработчики могут вручную поправить что-то или изучить сгенерированный код. Но для разработчиков конечно интереснее возможность сделать двухстороннюю синхронизацию кода с GitHub и менять код своим привычным способом.

⚙️ Дополнительные возможности AI-редактора
Lovable снабжён рядом инструментов, делающих "vibe-кодинг" более эффективным
1. AI-агент имеет доступ к консольным логам приложения - это позволяет замкнуть агенту обратную связь и обрабатывать ошибки из браузерной консоли. То есть, если сгенерированный код упал с ошибкой или что-то не работает, модель увидит трассировку и может сразу предложить исправление, дебаггая приложение в реальном времени
2. У пользователя есть возможность загружать в проект файлы (например, изображения) или подключать сторонние API-ключи, а AI умеет ими пользоваться
3. Платформа поддерживает режим “Custom Knowledge” – пользователь может предоставить собственные данные или документацию в базе знаний проекта, чтобы AI их учитывал. Например, можно добавить текстовый документ с описанием бизнес-логики или UI-гайдов, и модель будет обращаться к нему при генерации
Всё это превращает процесс разработки в диалог с "умным напарником": вы описываете задачу или проблему, AI предлагает решение, пишет код, объясняет свои действия.

♿️ Ограничения и лучшие практики
Хотя vibe-coding заметно ускоряет разработку, пользователям нужно научиться правильно формулировать запросы и разбивать работу на этапы. Разработчики отмечают, что чрезмерно общие или расплывчатые промпты могут привести к неудачным решениям и потребовать многократных исправлений. Лучший подход - чётко описывать требования и даже прописывать план (страницы, функции, данные) перед тем как просить AI писать код. Опыт показывает, что не стоит пытаться “завайбкодить” сразу всё приложение одним сообщением, особенно если там сложная бизнес-логика. В целом же vibe-кодинг в Lovable - это про быстрые итерации и взаимодействие: пользователь задаёт направление и оценивает результат, AI предлагает реализацию. Такой цикл может многократно повторяться (платформа не ограничена одним промптом - вы продолжаете диалог сколько нужно), благодаря чему даже сложные приложения рождаются через серию уточнений и улучшений, как если бы вы вели разговор с живыми разработчиками.

P.S.
Скетч на картинке не совсем повторяет интерфейс продукта - скорее он показывает как все части связаны между собой.

#AI #Software #Engineering #Future #Architecture #Startup
Please open Telegram to view this post
VIEW IN TELEGRAM
9🔥5👍3
[1/2] Альманах "Искусственный интеллект" - 14 выпуск "Отчет Индекс-ИИ-2024" (Рубрика #AI)

С большим интересом прочитал 14 выпуск альманаха про AI от центра компетенций по искусственному интеллекту МФТИ, университета, из которого я выпустился давным-давно. Я читаю эти отчеты, начиная с первого, и могу сказать, что они хорошо отображают среднее по больнице в академической среде, а также дают представление о игроках на рынке России. Правда, в этом отчете написано, что этот выпуск может стать последним в серии, но причины не уточняются. Сам отчет вышел относительно недавно (в сентябре 2025 года), но посвящен итогам предыдущего года (на тот момент это был 2024 год).

📄 Методология отчета
- Источники данных
: отчет опирается на международные открытые базы, государственные реестры и отраслевые аналитические платформ. Кроме того, используются данные картографии ИИ-компаний (aiRussia.online) и отраслевого рейтинга вузов (rating.a-ai.ru).
- Охват и сбор данных: индекс охватывает основные сферы ИИ: науку, бизнес, стартапы, господдержку и образование (с детализацией по отраслям и регионам). Данные собирались из публикационных источников (статьи, конференции), от компаний (выручка, сегменты, сделки) и из госисточников (бюджетное финансирование, тендеры). Также проводились опросы экспертов: например, при составлении рейтинга вузов проанкетированы 170 компаний и ~10 000 студентов.

🧠 Наука (исследования и публикации)
- Международный рейтинг
: Россия поднялась на 12-е место в мире по числу публикаций в области ИИ (данные 2020–2024 гг.). Лидирует Китай (более 69 тыс. статей за 5 лет), российские ученые опубликовали более 2,8 тыс.
- Конференции A*: в 2024 году представлено 125 работ на топ-конференциях (A*) от российских авторов.
- Лидеры науки: основными центрами публикационной активности стали AIRI, Сколтех, НИУ ВШЭ и МФТИ, на их долю пришлось ~46% российских докладов на A*-конференциях 2024 г.

🤑 Бизнес (рынок искусственного интеллекта)
- Объем рынка
: совокупный объем российского рынка ИИ в 2024 году составил ~1,15 трлн ₽, увеличившись примерно на 28% к 2023 г.
- Структура по направлениям: более половины рынка (≈61%) приходится на решения в сфере обработки естественного языка (NLP). Около 34% занимает аналитика данных для бизнеса. Доля всех остальных технологий (компьютерное зрение, робототехника, генеративные модели и др.) суммарно менее 5%.
- Компании и сегменты: в 2024 году насчитывается порядка 540 компаний, чья деятельность связана с ИИ. По числу фирм лидируют направления: компьютерное зрение (~81 компания), бизнес-аналитика (~68) и медицина (~60). Многие компании работают сразу в нескольких нишах; подробная карта ИИ-компаний доступна на сайте aiRussia.online.
- Регионы: AI-бизнес в РФ крайне сконцентрирован территориально: Москва и область – ~70% всех AI-компаний. Далее следуют Санкт-Петербург (~10%) и Татарстан (~3%, поднялся на 3-е место в 2024 г.). Остальные регионы пока существенно отстают по числу активных проектов.

📈 Стартапы и инвестиции
- Венчурные сделки
: объем венчурных инвестиций в российские AI-стартапы в 2024 г. составил около $39 млн (против $10 млн в 2023 г.). Рынок начал восстанавливаться после спада, хотя до рекордных уровней 2021 года еще далеко.
- Слияния и поглощения: в 2024 г. состоялось 11 M&A-сделок с AI-стартапами на сумму ~$33 млн, что значительно ниже предыдущего года ($148 млн). Однако в 2025 г. наблюдается оживление: крупные ИТ-холдинги возобновили поглощение разработчиков ИИ.
- Стадии раундов: основная часть инвестиций пришлась на поздние раунды. В 2024 г. ≈90% объема финансирования привлекли проекты на стадиях B+ (и позже). Доля посевных раундов упала до 3%, Series A – до 7%; почти половина – сделки M&A (выкуп долей). Таким образом, рынок второй год испытывает дефицит ранних инвестиций и зависимость от позднего финансирования.

Оставшиеся тезисы в посте-продолжении.

#AI #Engineering #Software #Economics #Whitepaper #ML #Future #Career
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍3🔥1
T-Hack Hardcore (Рубрика #Engineering)

7 февраля пройдет конференция T-Sync Conf, в рамках которой пройдет закрытый инженерный хакатон для Senior+ команд.
Мы решили попробовать новый формат для тех, кто принимает архитектурные решения в проде. Там команды будут решать практические задачи по оптимизации высоконагруженной распределенной системы. Но надо будет не только решить проблемы реально работающей системы, но и презентовать свое решение на широкий круг участников. В общем, мы решили попробовать микс траблшутинга, проектирования, реализации изменений, а дальше обоснования своего решения, причем "правильных ответов" нет, но есть компромиссы и их обоснование.

Если говорить подробнее, то формат такой
- Только офлайн
- 5 команд по 3–5 человек
- Участие — по отбору через анкету
- Уровень участников: Senior / Staff / Principal

Участникам предстоит заняться
- Диагностикой инфраструктуры, архитектуры приложений и базы данных
- Проектированием и внедрение решений в условиях ограничений
- Демонстрацией эффективности решения на боевой инфраструктуре
- Представлением решения в виде презентации с достигнутыми результатами

Участникам будет доступно
- Исходный код системы
- Инфраструктурные конфигурации
- Метрики, логи, трейсинги и наблюдаемость
- Opensource‑стек, полностью открытый для анализа и модификации

Если говорить про технологический стек, то он будет +/- стандартным
- Backend: Java/Go, PostgtreSQL, Kafka, Kubernetes
- Docker Compose, Terraform, Ansible
- Различные балансировщики: Envoy, Nginx
- Публичные облака

Мы думаем, что формат может быть интересным для разных специалистов, среди которых
- Архитекторы распределённых систем
- Staff / Principal инженеры
- Senior‑инфраструктурные и backend‑инженеры
- SRE и специалисты по highload и low-latency системам
- Engineering-менеджеры с большим практическим опытом
В командах особенно важны backend-инженеры и SRE.

Участникам будут доступны следующие ништяки
- Команда-победитель получает 500 000 рублей
- Все участники получат публичное признание на конференции и фиксации авторства решения
- Все команды-участники получают доступ на закрытую вечеринку конференции

Как попасть?
- Команда заполняет короткую анкету (до 10 минут)
- Мы выбираем 5 команд по опыту и инженерному мышлению

🗓 Анкеты принимаем до 30 января (заполнить ее можно здесь), а результаты сообщим сразу после закрытия приема заявок.
Если знаете команду, которая реально тянет хардовую инженерную задачу - перешлите им это сообщение.

#Engineering #Metrics #Software #DevEx #DevOps #Architecture #Culture #Engineering #SystemDesign #Conference
7👍5🔥4🌚1
[2/2] Альманах "Искусственный интеллект" - 14 выпуск "Отчет Индекс-ИИ-2024" (Рубрика #AI)

Продолжая обзор отчета про AI от центра компетенций по искусственному интеллекту МФТИ, расскажу про оставшиеся пункты.

🆘 Государственная поддержка
- Бюджетные инвестиции: прямые госвложения в ИИ-проекты в 2024 г. оцениваются примерно в 7,5 млрд ₽ ежегодно, в рамках нацпроекта "Цифровая экономика" (фед. проект "Искусственный интеллект", завершенный к 2024 г.).
- Госзакупки ИИ: дополнительно через закупку ИИ-решений (ПО и услуги) инвестируется порядка 2,3 млрд ₽ в год. Таким образом, совокупный объем господдержки (бюджет + закупки) в 2024 г. достигает ~10 млрд ₽.

👩‍🎓 Образование и кадры
- Выпуск специалистов: по оценкам, около 5 400 выпускников 2024 года получили компетенции в сфере ML/DL. Основную часть этих кадров готовят ведущие университеты (МФТИ, ВШЭ, ИТМО, МГУ, СПбГУ). Для отслеживания качества подготовки Альянс ИИ публикует ежегодный рейтинг вузов (в 2025 г. охвачено 203 вуза).
- Несоответствие спроса и предложения: несмотря на рост числа выпускников, компании испытывают дефицит опытных кадров. Постоянно открыто >1000 вакансий в сфере ML/AI, но многие из них остаются незакрытыми. Парадокс в том, что количество молодых специалистов уже превышает эти вакансии, однако работодатели не готовы массово брать новичков без опыта. Требуются в первую очередь middle-инженеры, а университеты выпускают в основном junior-специалистов, часть из которых не может найти применение и уходит из индустрии.

🎁 События и тенденции в России 2024 (мировые события 2024 года, приведенные в отчете я пропустил)
- Отечественные модели: экосистема РФ отвечает на мировой тренд - Яндекс выпустил свою большую языковую модель YandexGPT 4. Также Альянс ИИ разработал открытый бенчмарк MERA для объективного сравнения возможностей русскоязычных LLM (знания, логика, этика и др.).
- Беспилотный транспорт: в 2024 г. Россия сделала шаг к автономной логистике – в пилотном проекте 30 грузовых роботрузовиков проехали по трассе М-11 «Нева» 3 млн км без аварий; теперь планируется расширение на новые дороги и увеличение парка до 90 машин.
- Международное сотрудничество: Российский Альянс ИИ выступил одним из инициаторов AI Alliance Network – глобального объединения 18 стран для координации развития и регулирования ИИ. Этот шаг призван ускорить обмен технологиями, совместные исследования и выработку единых этических норм с участием РФ на мировой сцене.

В конце были приведены выводы и рекомендации (не факт, что прошенные)
- Для вузов: повышать качество образования и ближе интегрировать его с индустрией. Вузы успешно нарастили выпуск, но "лишних" джуниоров рынок не поглощает. Необходимо усилить практику и участие работодателей в программах, чтобы выпускники получали прикладные навыки и быстрее росли до уровня middle.
- Для бизнеса: активнее вкладываться в развитие молодых кадров. Крупные компании сейчас нанимают гораздо меньше новичков, но рекомендуются обратные шаги: активнее нанимать перспективных выпускников и дообучать их до нужного уровня – такая инвестиция окупится подготовленными и лояльными сотрудниками.
- Для выпускников: реалистично оценивать ситуацию на рынке. Даже топ-выпускникам теперь сложнее сразу устроиться в AI-отделы, поэтому важно снижать завышенные ожидания, продолжать учиться (через онлайн-курсы, стажировки) и набирать опыт. Готовность начать с младших позиций и развиваться внутри компании значительно повысит шанс через 1–2 года перейти в middle-роль.
- Для государства: считать задачу увеличения числа ИТ-выпускников решенной и сосредоточиться на качестве кадров. Нужны меры стимулирования вузов к обновлению программ, развитие центров переподготовки и поддержка наставничества в компаниях. Без этого кадровый дефицит может только усилиться, тормозя реализацию стратегических инициатив по ИИ.

#AI #Engineering #Software #Economics #Whitepaper #ML #Future #Career
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42🔥1
How we learn (Как мы учимся) (Рубрика #Brain)

Я давно прочитал эту крутую книгу Станисласа Деана, но руки дошли написать про нее только сейчас. Станислас - один из ведущих когнитивных нейроученых мира, профессор Коллеж де Франс (Париж), который прославился исследованиями того, как мозг обрабатывает числа и текст, и стал автором нескольких известных книг о работе мозга и сознании. Как популяризатор, Деан умеет объяснять сложное простым языком и увлекательно рассказывать о тайнах мозга.

Если говорить про модель обучения, о которой он рассказывает в книге, то она очень инженерна по натуре. Если кратко, то мозг - это система, которая строит внутреннюю модель мира, постоянно предсказывает, сравнивает предсказания с реальностью и обновляет модель по сигналу ошибки. В лекции в Collège de France он описывает это как три шага: top‑down prediction → сравнение с входом → error signals → корректировка внутренней модели (это он связывает с идеей «байесовского мозга»). Из этой рамки вытекают ключевые концепции (и практики), которые он повторяет в книге
- Четыре столпа обучения
- Тестирование как часть обучения, а не "контроль"
- Пластичность мозга и "нейронный recycling"

Четыре столпа обучения, необходимых для обучения

1️⃣ Внимание (attention) = "гейт" обучения
Без внимания информация банально "не проходит" на глубокую обработку. Станислас ставит внимание рядом с вовлечением и быстрым фидбеком как с решающими факторами обучения. Инженерная интерпретация: если контекст постоянно рвётся (митинги/пинги/таск‑свитчинг), вы режете пропускную способность обучения.

2️⃣ Активное вовлечение (active engagement) = гипотезы, предсказания, любопытство
Ключевая идея в том, что пассивный организм не учится - мозг должен быть активным участником, генерировать ожидания/гипотезы и проверять их. Деан отдельно подчёркивает, что "активность" не равна "пусть сам всё откроет" (discovery learning). Нужна структурированная среда, но с постоянным вовлечением, вопросами, мини‑проверками. Ещё один нюанс: чтобы поддерживать вовлечение, задачи должны быть не слишком лёгкие и не слишком сложные — оптимальная зона сложности подпитывает интерес.

3️⃣ Ошибка и фидбек (error feedback) = двигатель обучения
У Деана очень сильный тезис в том, что обучение запускается, когда есть "сюрприз" - расхождение ожиданий и реальности. "Нет сюрприза — нет обучения". Отсюда практический вывод: ошибки - это информационный сигнал, а не повод для наказания. Наказание добавляет страх/стресс и снижает способность учиться. Инженерная аналогия: без loss/gradient система не обучается; без быстрых feedback loops вы "едете вслепую".

4️⃣ Консолидация (Consolidation) = автоматизация + сон
Консолидация у Деана - это постепенная автоматизация: знания "переносятся" из сознательной, усилием управляемой обработки в специализированные (в т.ч. неосознаваемые) цепи, освобождая ресурсы для новых задач. Сон - это важный фактор консолидации, в т.ч. через "переигрывание/реактивацию" дневных паттернов активности.

Отдельно он хорошо рассказывает про пластичность мозга и отношение к ошибкам.

Тестирование как часть обучения, а не "контроль"
Проверки знаний - это не только измерение, а механизм обучения. Деан приводит результаты, что простое перечитывание малоэффективно, а явное извлечение (testing) + быстрый фидбек по ошибкам работает лучше и помогает калибровать метакогницию (мы часто переоцениваем, как хорошо выучили).

Пластичность мозга и "нейронный recycling"
Деан не противопоставляет "врождённое vs приобретённое": мозг генетически структурирован, но пластичен, а обучение связано с перестройкой/стабилизацией синапсов. Его гипотеза в том, что культурные навыки (чтение, математика, и т.п.) переиспользуют существующие нейронные "ниши", поэтому форма обучения и "типичные трудности" во многом универсальны.

В общем, получилась отличная книга для тех, кто хочет эффективнее учиться сам или обучать других:)

#Brain #Learning #Thinking #SelfDevelopment
120👍6🔥5🙏1
How Claude Code Works - Как устроен Claude Code изнутри: разбор архитектуры от основателя PromptLayer, Jared Zoneraich (Рубрика #Agents)

Посмотрел интересный доклад с конференции AI Engineer Conference в Нью-Йорке, который сделал Джаред Зонерайх, основатель PromptLayer и человек, который видит тысячи промптов в день. Его платформа обрабатывает миллионы запросов к LLM, а команда переписала свою инженерную организацию вокруг Claude Code. Джаред не из Anthropic, но его инсайты - это результат dogfooding и анализа работы тысяч разработчиков. Главная мысль Джареда в том, что кодинг-агенты заработали не из-за сложной архитектуры, а благодаря её упрощению. Вместо RAG, векторных баз и сложных оркестраторов Anthropic пошли по пути "дайте модели инструменты и не мешайте". Если подробнее, то тезисы автора выглядят так3,

✈️ Архитектура = один while-цикл + инструменты
# n0 master loop
while (tool_call):
execute_tool()
feed_results_to_model()

Всё. Больше никаких ветвлений, подграфов и state machines. Модель сама решает, что делать дальше. Это N0-цикл внутри Claude Code.

🤖 Инструменты копируют поведение разработчика в терминале
- Bash - король всех инструментов. Модель может создать Python-скрипт, запустить его, посмотреть вывод, удалить. Это даёт гибкость тысяч утилит без кастомной разработки.
- Read/Grep/Glob - поиск как вы бы искали сами. Без векторных баз, просто grep и glob-паттерны.
- Edit - диффы вместо перезаписи файлов. Быстрее, дешевле по токенам, меньше ошибок.
- Todos - структурированное планирование через промпт, а не детерминированный код.

🗒 Todo-листы работают на честном слове
Система не форсит выполнение задач детерминированно. Вместо этого в системный промпт вставляется инструкция "одна задача за раз, отмечай выполненные". Модель просто следует инструкции — и это работает, потому что современные LLM хорошо понимают контекст.

🍬 Контекст-менеджмент через H2A и Compressor
- H2A (Half-to-Half Async) - двойной буфер для паузы/возобновления работы. Можете вмешаться mid-task без перезапуска.
- Compressor wU2 - срабатывает на ~92% заполнения контекста, суммирует середину, оставляя начало и конец. Это дает модели "место для размышлений" перед кризисом.

💯 Простота > сложности
Джаред цитирует Zen of Python: "Simple is better than complex. Complex is better than complicated". Все попытки защитить модель от галлюцинаций через сложный scaffolding - это технический долг. Лучше дождаться улучшения модели и удалить лишний код.

В итоге, это все можно свести к простым советам:
1. Перестаньте over-оптимизировать. Если вы строите агентов и пишете костыли для работы с текущими моделями - вы тратите время. Лучше инвестировать в чистые промпты и простую архитектуру.
2. Bash как универсальный адаптер. Вместо написания кастомных инструментов для каждой задачи - дайте агенту доступ к shell. Все утилиты (ffmpeg, git, grep) уже есть в системе.
3. Prompt engineering > сложные системы. Файл CLAUDE.md с инструкциями эффективнее локальных векторных баз. Модель сама исследует репозиторий, если знает, что искать.
4. Готовьтесь к следующей волне. Если ваша команда еще не переписала workflow вокруг кодинг-агентов - вы отстаете. PromptLayer сделали правило: "если задача < 1 часа - делай через Claude Code, не планируй".

В общем, как говорит Джаред: "Less scaffolding, more model".

P.S.
Примерно про это же говорил Nik Pash, Head of AI в Cline в докладе "Hard Won Lessons from Building Effective AI Coding Agents", о котором я уже рассказывал

#AI #ML #Agents #Software #Engineering #Architecture
Please open Telegram to view this post
VIEW IN TELEGRAM
12👍10🔥3
Lovable - внутренние компоненты и как они работают вместе (Рубрика #AI)

Я уже рассказывал про историю lovable и подход к архитектуре, пользовательский интерфейс и процесс работы, а сегодня расскажу про внутренние компоненты и их взаимодействие. Для меня эта часть особо интересна, так как она позволяет понять как можно повторить такую систему.

Оркестрация AI и компиляция кода
Серверная часть Lovable отвечает за координацию действий AI и обновление проекта. Когда пользователь отправляет очередной запрос (промпт) в чат, бэкенд формирует системное сообщение (prompt) для AI-модели, включающее всю необходимую контекстную информацию: текущее состояние файлов (или только релевантные фрагменты), логи ошибок, возможно, ранее сохранённые описания из папки /docs или Knowledge-базы, а также правила форматирования (<lov-write> и т.д.). LLM-vодель генерирует ответ, содержащий как объяснения, так и блоки изменений кода. Платформа парсит эти блоки: для каждого <lov-write> она знает, какой файл изменить или создать. Далее происходит процесс применения патчей - ведь Lovable не всегда посылает модели весь исходник файла – вместо этого модель может вернуть часть кода с пометками // ... keep existing code на местах, которые не менялись. Специальный механизм (отдельный сервис или скрипт) берёт старую версию файла из репозитория, накладывает изменения из ответа AI, заменяя комментарии на исходный код, и сохраняет новую версию файла. Благодаря такому подходу большие файлы можно править точечно, не перегружая контекст модели лишним текстом.

После обновления файлов тут же запускается процесс сборки проекта – вероятно, с помощью bundler (например, Vite или Webpack) или запуска dev-сервера. Lovable разворачивает проект в режиме, близком к npm run dev: мы видим результат мгновенно, а AI может вызывать console.log в коде для отладки (модель поощряется вставлять логи для отслеживания работы функций). Эта связка “AI <-> сборка <-> превью” работает интерактивно. Стоит отметить, что Lovable ориентирован на веб-приложения (SPA) – он генерирует фронтенд, который обращается к Supabase через REST или SDK.

Синхронизация и управление кодом
Каждый проект Lovable связан с системой контроля версий. При создании проекта платформа либо инициирует приватный репозиторий (например, в собственной облачной Git-службе), а также по запросу пользователя можно связать проект с GitHub. Все изменения, которые делает AI, коммитятся и сохраняются, так что можно просмотреть историю. Инструкция в README, которую генерирует Lovable, говорит: "Вы можете редактировать код в Lovable или в любимом IDE - просто клонируйте репозиторий. Изменения, отправленные в репозиторий, отобразятся и в Lovable".

Деплой и хостинг
Lovable упрощает и последний шаг - развертывание приложения. Для быстрого превью разработчик может воспользоваться хостингом от Lovable: при запуске деплоя приложение публикуется на домене *.lovable.app и становится доступно онлайн. По сути, это аналог статического хостинга: фронтенд билдится и заливается, а Supabase-интеграция даёт работающий бэкенд. Также платформа поддерживает развёртывание на сторонние сервисы. В официальном туториале, например, показывают деплой на Netlify. Но вообще, благодаря интеграции с Git, возможно настроить CI/CD как вам нравится и деплоить туда, куда вы хотите.

Расширение интеграций
Сейчас Lovable постепенно расширяет экосистему "коннекторов" для различных сервисов. Помимо Supabase, уже имеются шаблоны интеграции со Stripe (платежи), ElevenLabs (озвучивание), Shopify, Firecrawl (поиск в вебе), Perplexity AI. Это расширяет возможности сервиса - достаточно попросить "добавь оплату Stripe" или "встрои голосовой движок", и Lovable подтянет нужные пакеты, ключи и код. Внутренне это реализовано как библиотеки + знание модели о “правильном способе” интеграции (в системных правилах указано, как настроить Stripe, ChatGPT, Airtable и пр., и AI знает нужные паттерны).

#AI #Software #Engineering #Future #Architecture #Startup
👍144🔥2
[1/2] Marc Andreessen's 2026 Outlook: AI Timelines, US vs. China, and The Price of AI (Рубрика #AI)

С большим интересом посмотрел рассказ Марка Андреессена из компании из компании Andreessen Horowitz (a16z), в котором он объясняет почему мы только в начале крупнейшей технологической революции. Стоимость интеллекта коллапсирует быстрее закона Мура, revenue AI-компаний растёт невиданными темпами, а продукты через 5 лет будут совсем другими.

Основные тезисы этого рассказа такие

1️⃣ Главный тезис: мы в начале революции
Андреессен проводит исторический экскурс: в 1930-х был выбор - строить компьютеры как вычислители (архитектура фон Неймана) или как нейросети (модель мозга). Выбрали первое, получили 80 лет классических компьютеров (от мейнфреймов до смартфонов). Нейросети оставались академической экзотикой - до момента ChatGPT (конец 2022). За последние три года после этого момента видно, что это больше интернета, это уровень микропроцессора/парового двигателя.
Для инженеров интересно, что буквально каждый месяц выходят прорывные исследования с новыми возможностями, которые казались невозможными. Продукты, которые мы строим сегодня, вероятно, устареют через 5 лет - всё станет навороченнее:)

2️⃣ Экономика: revenue взрывной, но и расходы растут - что упускают?
AI-компании растут быстрее всех, кого Андреессен видел (реальные деньги в банках, беспрецедентный takeoff). Но критика - "burn догоняет revenue". Его ответ в двух частях:
- Consumer AI
Интернет уже построен - 5–6 млрд человек онлайн, смартфоны по $10. AI можно "скачать", в отличие от электричества или водопровода - проблемы дистрибуции нет. Монетизация сильная, включая высокие тарифы ($200–300/мес стандарт — выше SaaS).
- Enterprise AI
Вопрос "сколько стоит интеллект?". Если AI поднимает уровень обслуживания, снижает churn, усиливает upsell продуктов - это прямой бизнес результат. Модель токены интеллекта за доллар, и цена AI падает быстрее закона Мура - получаем дефляцию затрат. Спрос растёт, затраы (GPU, чипы, датацентры) в будущем сократятся: сейчас триллионы долларов идут в инфраструктуру, а per-unit cost упадёт в будущем на фоне ввода этих мощностей под AI

3️⃣ Большие vs малые модели: структура как в индустрии компьютеров
Андреессен описывает как топовые модели (например, GPT-5) через 6–12 месяцев копируются малыми моделями с сопоставимой capability. Пример из последних недель: Kimi (китайская open-source модель) реплицирует reasoning GPT-5, но работает на 1–2 MacBook. Он дает прогноз, что индустрия структурируется как компьютерная - горстка "god models" (supercomputers в гигантских датацентрах) наверху, каскад малых моделей вниз, вплоть до embedded (в каждом физическом объекте). Большинство задач не требуют прорывных способностей - достаточно условных "120 IQ", не нужен "PhD по теории струн"
Если вы строите продукт, то можно выбирать между big/small, open/close - VC (и a16z) ставят на все стратегии сразу, потому что неясно, кто выиграет. Компании вроде Cursor используют 10–100 моделей параллельно.

4️⃣ Китай, open-source и глобальная гонка
Китайские компании (DeepSeek от хедж-фонда, Kimi, Qwen от Alibaba, Tencent, Baidu, ByteDance) выпустили open-source модели уровня frontier - с гораздо меньшими затратами ресурсов. Это подтверждает, что нет постоянного лидерства. xAI/Grok догнал OpenAI за <12 месяцев. В Китае 3–6 топовых AI-компаний, прогресс быстрый (несмотря на US санкции на чипы). Для инженеров это показывает, что open-weights меняет правила - можно взять Kimi/DeepSeek и развернуть локально (privacy, cost control).

5️⃣ Регулирование AI
Марк описал проблему того, что в USA пытаются регулировать AI на уровне штатов, по его мнению федеральное регулирование лучше, а законы на уровне штатов приведут к фрагментации как в EU (что затормозит инновации). Китай как мотиватор - США не может позволить отстать.

В продолжении я закончу рассказ про тезисы Марка о будущем AI.

#AI #ML #Trends #Software #Engineering #Future
👍85🔥2
[2/2] Marc Andreessen's 2026 Outlook: AI Timelines, US vs. China, and The Price of AI (Рубрика #AI)

Продолжая обзор выступления Марка поделюсь тезисами из второй части его рассказа.

6️⃣ Pricing: usage vs value-based

- Usage-based - идеально для стартапов (no upfront fixed costs), прозрачно
- Но вендоры хотели бы идти к value-based - процент от productivity (например, зарплаты инженера/врача). Есть эксперименты: процент от upsell/churn reduction в CRM
Интересно, что Марк объясняет, что высокие цены ($200–300/мес) - это не баг, а feature: они ускоряют R&D, снижают customer acquisition waste. AI-компании креативнее SaaS в pricing.

7️⃣ Инкумбенты vs стартапы: кто выигрывает?
Стартапы побеждают в приложениях/доменах (быстрее, фокусированнее), но новые incumbents (Anthropic, xAI) - тоже стартапы, догоняющие за <1 год. Приложения вроде Cursor не просто обертки - они строят свои модели (10–100+), backward integrate.

8️⃣ Подход a16z: инвестировать во все противоречивые стратегии

Когда у компании фундаментально открытые вопросы (big vs small, open vs closed) - это проблема (если угадают неправильно, то могут обанкротиться). У венчурных фондов есть преимущество: можно ставить на множество стратегий параллельно - "aggressively investing behind every strategy that has plausible chance"

9️⃣ Общество и рабочая сила: паника в опросах, adoption на практике
Опросы показывают панику ("AI убьёт работу"), но все используют AI. Прогноз Марка в том, что через 5–20 лет люди скажут "спасибо за AI" (как с электричеством/водопроводом). В общем, надо смотреть на adoption - 5 млрд пользователей онлайн, AI интегрируется везде: от поддержки пользователей до автономных машин.

Для создателей продуктов весь рассказ можно обобщить в такие тезисы
1. Мы в самом начале (3 года из 80) - продукты радикально эволюционируют.
2. Экономика AI улучшается (costs down, revenue up) - не бойтесь затрат, если есть реальный спрос.
3. Малые модели догоняют - можно строить без frontier infra.
4. Open-source меняет игру - Китай доказал, что можно с меньшими ресурсами.
5. Регулирование - риск №1 (следите за штатами/EU).
6. Pricing креативен - не ограничивайтесь SaaS-моделью.
7. Конкуренция жёсткая, permanent lead нет - скорость критична.

#AI #ML #Trends #Software #Engineering #Future
3🔥2👍1
Новогодние подарки и каникулы (Рубрика #Hardware)

На новый год моим детям Дед Мороз принес приставку PlayStation 5, в которую они с удовольствием рубились после возвращения с футбольных сборов, о которых я напишу отдельно. Я себе тоже купил дисков для приставки, но ... победила другая игрушка в виде Beelink GTR9 Pro AMD Ryzen AI Max+ 395. Очень уж хотелось локально позапускать модельки. У этой железки норм процессор и есть встроенный видеочип, а из 128 Gb унифицированной памяти можно отдать под видеопамять 96Gb (это максимальный показатель). Она выдает 126 TOPS производительности и в нее легко помещаются квантизованные модельки на 70 или 80 миллиардов, умельцы запихивают и OSS 120b от OpenAI, но у меня под Ubuntu 25.10 пока не взлетело (я знаю, что ROCm официально не поддерживается на Ubuntu не LTS, но в апреле выйдет уже 26 версия, куда я сразу перееду). Все это счастье стоит на Aliexpress в районе 200к рублей и доставляют его в Москве в течение пары дней. Отличная игрушка для разработчика:)

P.S.
Отдельно отмечу, что я был готов к проблемам с сетью - там два 10Gb Ethernet порта от Intel, что по сообщениям с форумов глючат. Но я планировал подключать по WiFi - в итоге, у меня инсталяция Ubuntu с включенным WiFi отваливалась после подключения сети. Я выяснил, что блок WiFi в этом компе (или драйвера к нему) пока нестабильные - решил проблему докупив Realtek донгл для WiFi и воткнул его в один из USB портов , теперь сеть работает норм.

#Hardware #Software #AI #Engineering #DevOps
🔥21😁52👏2