Баста, карапузики!
Вы заметили, как выросла экспертность в фейсбуке и телеграме в последние месяцы? Посты ломятся от 10 инсайтов, 7 правил и 5 советов. Если честно, я и сам этим грешу, чего уж там, как минимум в части сбора информации. Очевидно, что за полгода люди научились с помощью ИИ ускорять саммаризацию и структурирование, вытягивая тезисы за секунды. Когда в кармане есть аналитик, возникает невероятный соблазн высказываться по любым вопросам. Да, мы ускоряемся, но одновременно растут и риски: мы делаем поверхностные выводы, создавая конвейер одинаковых мыслей, а опыт подменяется пересказом чужих идей.
Но я сейчас хочу поговорить даже не про то, что в итоге бездумного использования ИИ возникает когнитивный долг, и мы начинаем медленнее соображать. Напомню, что еще весной, эксперты из MIT выяснили, просканировав под МРТ мозги пользователей нейронок, что "многократное использование LLM привело к поверхностному повторению материала и снижению критической вовлеченности". А те, кто откладывают умственные усилия в ущерб долгосрочной когнитивной глубины, как писала в своем блоге один из авторов эксперимента Наталья Космина, постепенно теряют практику и скорость самостоятельных размышлений и выводов.
Весь прикол вот в чем: относительно халявный доступ к знаниям начинает стремительно сокращаться. В среду OpenAI для всех своих продуктов (ChatGPT, API, Sora и др.) ввел ограничения на поиск https://openai.com/policies/usage-policies. Теперь ChatGPT при объяснении общих принципов сложных и чувствительных тем (например, что такое исковая давность или чем отличаются антигистаминные препараты первого и второго поколения):
⛔️ не формирует под ваш случай юридические документы
⛔️ не оценивает правовые риски и не советует "как поступить в суде""
⛔️ не ставит диагноз, не назначает лечение, не подбирает дозировки и не рекомендует конкретные препараты.
Можно было бы сделать вывод о том, что Сэм Альтман заботится о тех, кто может сам себе навредить, доставая из ИИ несуществующие данные. Но часть документа о том, что "запрещена передача и анализ ... рентгенов, МРТ, КТ, фото кожных поражений, анатомических снимков" и т. п., говорит о том, что, скорее всего, таким образом ограничивается обучение LLM узкоспециализированных стартапов на базе OpenAI.
В то же самое время в В Китае приняли закон, согласно которому блогерам без профильного образования будет уголовно запрещено рассуждать о медицине, праве, финансах и образовании. В России Госдума так же поддержала инициативу коллег и заявила, что блогеры должны быть готовы подтвердить специальность, о которой рассуждают в в своих видео и подкастах.
Разные, казалось бы истории. Но мне кажется, это говорит о том, что большие системы накопили достаточно данных, чтобы попытаться монополизировать всё и вся. А это, в свою очередь простимулирует рынок опенсорса, где появится огромное количество новых игроков, обучающих модели не просто на медицинских данных, а вопросах лечения конкретных болезней или обработки специальных прецедентов.
Что касается кожаных мешков: те из нас, кто сохранят собственное мышление, очевидно, выиграют в гонке за эффективность. И это самый большой вызов.
Вы заметили, как выросла экспертность в фейсбуке и телеграме в последние месяцы? Посты ломятся от 10 инсайтов, 7 правил и 5 советов. Если честно, я и сам этим грешу, чего уж там, как минимум в части сбора информации. Очевидно, что за полгода люди научились с помощью ИИ ускорять саммаризацию и структурирование, вытягивая тезисы за секунды. Когда в кармане есть аналитик, возникает невероятный соблазн высказываться по любым вопросам. Да, мы ускоряемся, но одновременно растут и риски: мы делаем поверхностные выводы, создавая конвейер одинаковых мыслей, а опыт подменяется пересказом чужих идей.
Но я сейчас хочу поговорить даже не про то, что в итоге бездумного использования ИИ возникает когнитивный долг, и мы начинаем медленнее соображать. Напомню, что еще весной, эксперты из MIT выяснили, просканировав под МРТ мозги пользователей нейронок, что "многократное использование LLM привело к поверхностному повторению материала и снижению критической вовлеченности". А те, кто откладывают умственные усилия в ущерб долгосрочной когнитивной глубины, как писала в своем блоге один из авторов эксперимента Наталья Космина, постепенно теряют практику и скорость самостоятельных размышлений и выводов.
Весь прикол вот в чем: относительно халявный доступ к знаниям начинает стремительно сокращаться. В среду OpenAI для всех своих продуктов (ChatGPT, API, Sora и др.) ввел ограничения на поиск https://openai.com/policies/usage-policies. Теперь ChatGPT при объяснении общих принципов сложных и чувствительных тем (например, что такое исковая давность или чем отличаются антигистаминные препараты первого и второго поколения):
Можно было бы сделать вывод о том, что Сэм Альтман заботится о тех, кто может сам себе навредить, доставая из ИИ несуществующие данные. Но часть документа о том, что "запрещена передача и анализ ... рентгенов, МРТ, КТ, фото кожных поражений, анатомических снимков" и т. п., говорит о том, что, скорее всего, таким образом ограничивается обучение LLM узкоспециализированных стартапов на базе OpenAI.
В то же самое время в В Китае приняли закон, согласно которому блогерам без профильного образования будет уголовно запрещено рассуждать о медицине, праве, финансах и образовании. В России Госдума так же поддержала инициативу коллег и заявила, что блогеры должны быть готовы подтвердить специальность, о которой рассуждают в в своих видео и подкастах.
Разные, казалось бы истории. Но мне кажется, это говорит о том, что большие системы накопили достаточно данных, чтобы попытаться монополизировать всё и вся. А это, в свою очередь простимулирует рынок опенсорса, где появится огромное количество новых игроков, обучающих модели не просто на медицинских данных, а вопросах лечения конкретных болезней или обработки специальных прецедентов.
Что касается кожаных мешков: те из нас, кто сохранят собственное мышление, очевидно, выиграют в гонке за эффективность. И это самый большой вызов.
Please open Telegram to view this post
VIEW IN TELEGRAM
🕊4👍2❤1
Forwarded from Максим Спиридонов
Несмотря на воспитанную в себе убеждённость в том, что переживать на тему прошлого бессмысленно, минуты душевной слабости случаются и у меня.
Одна из тем, к которой я время от времени возвращаюсь вот уже лет пятнадцать, выглядит так — а что если я стартовал бы не из бедной неполной семьи, жившей в спальном районе бандитского Петербурга 90-х, а с какого-то более основательного фундамента? Поддерживающее окружение, профильное образование, мотивирующий наставник, хотя бы какие-то деньги? За какое время я пришёл бы к сегодняшнему результату (паре построенных компаний на миллиарды рублей, которые уже есть в моём портфолио), и чего мог бы добиться в конечном итоге?
Вплоть до последних лет я отвечал на этот вопрос в духе: «всё было бы гораздо лучше». Но не так давно я стал анализировать поведение и судьбы своих знакомых, которые подобно мне добились всего с нуля, и тех ребят (как я их называю, «принцев госплана»), которые получили деньги, карьерные возможности и прочие ресурсы в наследство от родителей. Вот к каким выводам я пришёл:
1. Старт с высоких позиций (хорошее западное образование, поддерживающая тебя во всём семья и возможность управлять активами отца) — это, конечно, огромный буст.
2. При этом, что интересно, многие из тех, кто этот буст получает, тем не менее, смотрят на нас, селфмэйд-предпринимателей, снизу вверх. Поскольку считают ценным и порой удивительным тот путь, который нам удалось пройти (хотя он и был долгим и тернистым).
3. Построение бизнеса с нуля закаляет характер и вырабатывает иммунитет к неудачам. Когда ты привык падать и подниматься, собрав сломанными пальцами выбитые зубы, то гораздо спокойнее относишься к провалам и быстрее учишься на них.
4. Тогда как «принцы» часто скованы страхом потерять унаследованное и не оправдать высоких ожиданий, которых от нас, бессребреников на старте, просто нет. Чего от нас ждать?))
5. Старт с нуля даёт глубокое понимание природы бизнеса с самых низовых уровней. Ты знаешь, как устроены процессы изнутри, потому что прошёл их сам, а не изучал по учебникам в престижной бизнес-школе. Ты сам писал тексты для сайта, настраивал рекламу, разрабатывал продукт и продавал его.
Есть старая притча про два дерева. Одно выросло в оранжерее — красивое и высокое, но хрупкое. Другое пробилось сквозь камни, его гнул ветер и жгло солнце, но именно поэтому его корни глубоки, а ствол крепок. Его побило жизнью, оно не такое ровное и гладкое, зато способно выдержать бурю.
Я решил, что буду не только принимать свой длинный бизнес-путь проб и бесконечных ошибок, но и гордиться им. Ведь каждое препятствие, каждая неудача, каждый рискованный поворот стали уроком и фундаментом для будущих осознаний и нечастых успехов. И, возможно, это мой главный актив.
Одна из тем, к которой я время от времени возвращаюсь вот уже лет пятнадцать, выглядит так — а что если я стартовал бы не из бедной неполной семьи, жившей в спальном районе бандитского Петербурга 90-х, а с какого-то более основательного фундамента? Поддерживающее окружение, профильное образование, мотивирующий наставник, хотя бы какие-то деньги? За какое время я пришёл бы к сегодняшнему результату (паре построенных компаний на миллиарды рублей, которые уже есть в моём портфолио), и чего мог бы добиться в конечном итоге?
Вплоть до последних лет я отвечал на этот вопрос в духе: «всё было бы гораздо лучше». Но не так давно я стал анализировать поведение и судьбы своих знакомых, которые подобно мне добились всего с нуля, и тех ребят (как я их называю, «принцев госплана»), которые получили деньги, карьерные возможности и прочие ресурсы в наследство от родителей. Вот к каким выводам я пришёл:
1. Старт с высоких позиций (хорошее западное образование, поддерживающая тебя во всём семья и возможность управлять активами отца) — это, конечно, огромный буст.
2. При этом, что интересно, многие из тех, кто этот буст получает, тем не менее, смотрят на нас, селфмэйд-предпринимателей, снизу вверх. Поскольку считают ценным и порой удивительным тот путь, который нам удалось пройти (хотя он и был долгим и тернистым).
3. Построение бизнеса с нуля закаляет характер и вырабатывает иммунитет к неудачам. Когда ты привык падать и подниматься, собрав сломанными пальцами выбитые зубы, то гораздо спокойнее относишься к провалам и быстрее учишься на них.
4. Тогда как «принцы» часто скованы страхом потерять унаследованное и не оправдать высоких ожиданий, которых от нас, бессребреников на старте, просто нет. Чего от нас ждать?))
5. Старт с нуля даёт глубокое понимание природы бизнеса с самых низовых уровней. Ты знаешь, как устроены процессы изнутри, потому что прошёл их сам, а не изучал по учебникам в престижной бизнес-школе. Ты сам писал тексты для сайта, настраивал рекламу, разрабатывал продукт и продавал его.
Есть старая притча про два дерева. Одно выросло в оранжерее — красивое и высокое, но хрупкое. Другое пробилось сквозь камни, его гнул ветер и жгло солнце, но именно поэтому его корни глубоки, а ствол крепок. Его побило жизнью, оно не такое ровное и гладкое, зато способно выдержать бурю.
Я решил, что буду не только принимать свой длинный бизнес-путь проб и бесконечных ошибок, но и гордиться им. Ведь каждое препятствие, каждая неудача, каждый рискованный поворот стали уроком и фундаментом для будущих осознаний и нечастых успехов. И, возможно, это мой главный актив.
👍8
Forwarded from Максим Спиридонов
Осваивай ИИ или умри.
За последнее время наткнулся сразу на два громких кейса, где компании попрощались с сотрудниками, тормозящими внедрение ИИ. Картина суровая, но поучительная.
IT-консалтинговый гигант Accenture в сентябре объявил о планах уволить сотрудников, которых невозможно переобучить для работы с искусственным интеллектом. При этом на обучении там не экономили – более 550 тысяч сотрудников прошли курсы по основам генеративного ИИ. Но часть людей так и не смогла (или не захотела) перестроиться – в итоге их выкинули за борт.
Руководство технологической компании IgniteTech (специализируется на корпоративном софте) вообще пошло по хардкору и заменило почти 80% персонала за год. Ещё в 2023-м CEO Эрик Вон увидел в генеративном ИИ “экзистенциальную трансформацию” и решил действовать радикально. Компания ввела “ИИ-понедельники”, когда вся команда (включая продажи и маркетинг) должна была заниматься только ИИ-проектами, оплачивала курсы и инструменты, приглашала экспертов. На обучение сотрудников слили 20% ФОТ.
Результат? Массовое сопротивление и даже саботаж, что выражалось в отказе от использования ИИ, намеренном создании некачественных результатов или полном уклонении от обучения. Причём, что характерно, больше всех упирались не продажники или маркетологи, а технари. Те самые разработчики, которые, казалось бы, должны были первыми ухватиться за новые инструменты.
Дело тут не только в страхе потерять работу из-за ИИ. Сказывается разочарование в технологиях – сотрудники просто переели хайпа вокруг метавселенных, блокчейна и прочих чудес прогресса, которые должны были всё изменить, но не изменили.
Плюс к этому – банальное нежелание учиться. Большинство из нас, увы, тупо ленивы или нелюбопытны. Я вот себе постоянно об этом напоминаю и борюсь с лентяем в себе.
Как признался СEO IgniteTech, изменить мышление сотрудников оказалось сложнее, чем привить им новые навыки. В итоге он просто нанял новых людей, которые уже были с ним на одной волне. Через два года после чистки компания стала высокорентабельной (EBITDA под 75%), запустила несколько востребованных продуктов и активно скупает конкурентов.
По мне, эти кейсы – идеальный ответ на стенания о том, что “ИИ отнимет у всех работу”. Во-первых, не ИИ, а ваш начальник или конкурент. А во-вторых, не у всех, а только у тех, кто неспособен или не хочет адаптироваться.
Всё как во фразе, которую я публиковал тут ещё пару лет назад: искусственный интеллект не отнимет у вас работу, а вот человек, который грамотно его использует – может.
Что ещё у меня можно почитать на эту тему:
- Будущее за формулой “человек + ИИ”: доказано Гарвардом и Procter&Gamble
- Урок от Klarna: ИИ должен усиливать человека, а не подменять его
За последнее время наткнулся сразу на два громких кейса, где компании попрощались с сотрудниками, тормозящими внедрение ИИ. Картина суровая, но поучительная.
IT-консалтинговый гигант Accenture в сентябре объявил о планах уволить сотрудников, которых невозможно переобучить для работы с искусственным интеллектом. При этом на обучении там не экономили – более 550 тысяч сотрудников прошли курсы по основам генеративного ИИ. Но часть людей так и не смогла (или не захотела) перестроиться – в итоге их выкинули за борт.
Руководство технологической компании IgniteTech (специализируется на корпоративном софте) вообще пошло по хардкору и заменило почти 80% персонала за год. Ещё в 2023-м CEO Эрик Вон увидел в генеративном ИИ “экзистенциальную трансформацию” и решил действовать радикально. Компания ввела “ИИ-понедельники”, когда вся команда (включая продажи и маркетинг) должна была заниматься только ИИ-проектами, оплачивала курсы и инструменты, приглашала экспертов. На обучение сотрудников слили 20% ФОТ.
Результат? Массовое сопротивление и даже саботаж, что выражалось в отказе от использования ИИ, намеренном создании некачественных результатов или полном уклонении от обучения. Причём, что характерно, больше всех упирались не продажники или маркетологи, а технари. Те самые разработчики, которые, казалось бы, должны были первыми ухватиться за новые инструменты.
Дело тут не только в страхе потерять работу из-за ИИ. Сказывается разочарование в технологиях – сотрудники просто переели хайпа вокруг метавселенных, блокчейна и прочих чудес прогресса, которые должны были всё изменить, но не изменили.
Плюс к этому – банальное нежелание учиться. Большинство из нас, увы, тупо ленивы или нелюбопытны. Я вот себе постоянно об этом напоминаю и борюсь с лентяем в себе.
Как признался СEO IgniteTech, изменить мышление сотрудников оказалось сложнее, чем привить им новые навыки. В итоге он просто нанял новых людей, которые уже были с ним на одной волне. Через два года после чистки компания стала высокорентабельной (EBITDA под 75%), запустила несколько востребованных продуктов и активно скупает конкурентов.
По мне, эти кейсы – идеальный ответ на стенания о том, что “ИИ отнимет у всех работу”. Во-первых, не ИИ, а ваш начальник или конкурент. А во-вторых, не у всех, а только у тех, кто неспособен или не хочет адаптироваться.
Всё как во фразе, которую я публиковал тут ещё пару лет назад: искусственный интеллект не отнимет у вас работу, а вот человек, который грамотно его использует – может.
Что ещё у меня можно почитать на эту тему:
- Будущее за формулой “человек + ИИ”: доказано Гарвардом и Procter&Gamble
- Урок от Klarna: ИИ должен усиливать человека, а не подменять его
❤4👍3
Выше - два поста из канала Максима Спиридонова, основателя Нетологии, к которому отношусь c огромным уважением. Первый текст из 2024-го года про стартовые позиции. Второй - свежайший, о том, что компании увольняют тех, кто не адаптировался к ИИ или саботировал обучение. Оба они отражают идею о том, что реальная ценность - не в обстоятельствах, а в отношении человека к изменениям: готовности учиться, адаптироваться и превращать трудности в преимущество.
Когда я поступал в✈️ МАИ в 1998, тогда многие родители отличников, попавших в Вышку или МГУ, с жалостью смотрели на троечников, "кого хватило только на заборостроительный институт". Моя альмаматер тогда плавала где-то посередине - покоробившаяся позолота былого величия главного авиационного вуза страны. Спустя уже 3-4 года после окончания стало понятно, что многим из тех, кому учителя прочили "коровам хвосты крутить" реализовали себя не хуже тех, кто "подавал надежды".
Банально, но успех определяется не стартовыми условиями, а готовностью учиться и брать на себя результат. Сегодня люди как никогда сопротивляются технологиям, но особенно - потере статуса и контекста.
Однако, рынок сегодня не спрашивает о наших ожиданиях: он платит тем, кто дает результат, кто умеет сочетать человеческую интуицию и ответственность с эффективными инструментами. Эяй - это инструмент, меняющий рабочие процессы, его нужно проектировать с идеей о том, что в одних местах человек добавляет ценность, а в других автоматизация ускоряет, но не одно за счет другого.
Если вы думаете о том, как внедрить ИИ в своей компании, я рекомендую на старте ответить на 3 простых вопроса:
1️⃣ . Готовы ли мы запускать короткие практические пилоты с реалистичной целью и поддержкой ментора?
2️⃣ . Даем ли мы каждому индивидуальную дорожную карту: какие навыки прокачать, какие проекты взять, через какие критерии мы увидим прогресс?
3️⃣ . Создаём ли мы пространство для честного диалога и помощи - не для наказаний, а для роста.
Если у вас уже есть то, что нельзя быстро купить - опыт, характер и командная дисциплина - то, добавив к этому новые инструменты, вы превратите их в конкурентное преимущество. Важно донести это до сотрудников - и идти в новое будущее вместе станет чуть легче.
Когда я поступал в
Банально, но успех определяется не стартовыми условиями, а готовностью учиться и брать на себя результат. Сегодня люди как никогда сопротивляются технологиям, но особенно - потере статуса и контекста.
Однако, рынок сегодня не спрашивает о наших ожиданиях: он платит тем, кто дает результат, кто умеет сочетать человеческую интуицию и ответственность с эффективными инструментами. Эяй - это инструмент, меняющий рабочие процессы, его нужно проектировать с идеей о том, что в одних местах человек добавляет ценность, а в других автоматизация ускоряет, но не одно за счет другого.
Если вы думаете о том, как внедрить ИИ в своей компании, я рекомендую на старте ответить на 3 простых вопроса:
Если у вас уже есть то, что нельзя быстро купить - опыт, характер и командная дисциплина - то, добавив к этому новые инструменты, вы превратите их в конкурентное преимущество. Важно донести это до сотрудников - и идти в новое будущее вместе станет чуть легче.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
Forwarded from Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
🦙 Вышел полностью локальный ChatGPT — Llama.cpp наконец-то получил юзер-френдли интерфейс в вебе, который полностью работает у вас дома.
• Поддерживает более 150 тысяч моделей GGUF — это все (!) нейронки в опенсорсе;
• Можно загружать PDF, изображения и файлы;
• Выдаёт математику, формулы и код — всё, как в обычном ChatGPT;
• Можно запускать параллельно (!) несколько чатов;
• Работает мгновенно на ноуте и даже смартфонах;
• 100% приватно и без подключения к интернету;
• Без каких-либо ограничений и цензуры;
• Полностью бесплатно!
Установить в пару кликов — тут.
@notboring_tech
• Поддерживает более 150 тысяч моделей GGUF — это все (!) нейронки в опенсорсе;
• Можно загружать PDF, изображения и файлы;
• Выдаёт математику, формулы и код — всё, как в обычном ChatGPT;
• Можно запускать параллельно (!) несколько чатов;
• Работает мгновенно на ноуте и даже смартфонах;
• 100% приватно и без подключения к интернету;
• Без каких-либо ограничений и цензуры;
• Полностью бесплатно!
Установить в пару кликов — тут.
@notboring_tech
1👍5🕊2
Forwarded from Denis Sexy IT 🤖
В ChatGPT завезли прикольную фичу для Pro юзеров – GPT5 Pro может работать над задачей десятки минут, у меня был рекорд около 50 – и за время ее работы, могут появиться какие-то новые вводные, которые я хотел бы докинуть в модель пока она думает
Теперь если открыть экран "размышления" он же "details" модели, появилась кнопка "Update", куда можно добавить какие-то команды пока модель думает – она постепенно их учтет:
Теперь если открыть экран "размышления" он же "details" модели, появилась кнопка "Update", куда можно добавить какие-то команды пока модель думает – она постепенно их учтет:
❤4
Представьте себе совещание, в котором молодой неопытный гендир крупной компании перед стартом нового проекта зачитывает вслух должностные инструкции для сотни сотрудников компании. Совещание очень большое, все собрались в актовом зале и слушают руководителя - от уборщицы до главного инженера. На это уходит примерно 4 часа. Потом все выдыхают и расходятся. А директор сразу после этого идет в отдел продаж...
Звучит абсурдно. Но именно так сегодня работает большинство ИИ-ассистентов с внешними инструментами. Перед выполнением любой задачи они загружают в память описания ВСЕХ доступных инструментов. Неважно, что для копирования одного документа нужны только пара сервисов из сотни доступных. Система всё равно прочитает инструкции ко всем.
Именно про эту проблему (и ее решение) инженеры Клода выпустили очередной аналитический отчет "Code execution with MCP: building more efficient AI agents", меняющий представление о принципах работы с ИИ.
... наш директор, после изучения всех инструкций идёт в отдел продаж, где менеджер зачитывает ему двухчасовой отчёт о квартальных результатах. Директор дословно запоминает каждую цифру, каждый график, каждую сноску. Затем он идёт в производственный отдел и слово в слово пересказывает весь отчёт начальнику производства. При этом 50 страниц текста проходят через его память дважды — сначала при получении, потом при передаче.
Бред какой, люди так не делают - скажете вы и будете правы.
Но именно так работают ИИ-ассистенты сегодня. Когда Claude или ChatGPT анализирует документ, весь текст проходит через них дважды: десятки тысяч слов система должна сначала проглотить, а потом выплюнуть обратно.
Теперь представим, что наш директор приехал с обучения и, изрядно поумневший уточняет, что нужны ему только менеджер по продажам и начальник производства, после чего пишет емейл типа: Иван, передай отчёт "Продажи в мае" Марии - только раздел с данными по продукту "Покупайте наших слонов". Отделы обмениваются документами напрямую, а директор видит только письмо: "Отчёт передан, производство начало подготовку".
Спасибо, вы только что прочитали, как Антропики придумали, что можно снизить затраты на работу с ИИ на 2 порядка!
Легким движением руки задача, которая оценивается в 150 000 токенов (3 часа расшифровки видео/аудио или анализ 100 резюме или подготовка юридического документа на 80 страниц), превращается в таск всего на 2 000 токенов. То есть будет стоить не 6 баксов, а 0,01.
В техническом плане Anthropic предлагает настолько простое решение, что хочется сказать
- А что, разве это не так работало? На что вы тогда тратили все это время миллиарды долларов?
Теперь ИИ вместо того, чтобы вызывать инструменты напрямую, сам пишет небольшие программы, которые делают это за него.
Но инновация Антропиков, как и всегда у них, глубоко продумана до мелочей. ИИ теперь сохраняет удачный код как переиспользуемую функцию, может запускать несколько операций параллельно через код, который может обрабатывать гигабайты данных, передавая ИИ только релевантную сводку. Если что-то пошло не так, код может автоматически повторить попытку или откатить изменения - что невозможно при прямых вызовах инструментов.
Мы с вами наблюдаем переход от ИИ-ассистентов первого поколения (которые всё делают вручную) к второму поколения (делегируют через код). ИИ приближается к позиции архитектора решений, самостоятельно проектирующего процессы и запускающего их выполнение. Открытый стандарт от Anthropic Model Context Protocol (MCP) стал для ИИ-инструментов чем-то типа USB стал для компьютерной периферии. Раньше каждому устройству нужен был свой уникальный разъём, теперь всё подключается через один универсальный интерфейс.
Впрочем, до убийства конструкторов типа n8n еще далеко. ИИ с MCP каждый раз будет генерировать логику заново и может вести себя непредсказуемо. А чистый n8n, задавая жёсткие правила фильтрации, будет генерировать одинаковые шаблоны и не всегда понимать контекст. А вот если использовать их вместе, то по идее авторов синергия должна дать существенный прирост производительности.
Ссылка на отчет 👇
👍6❤🔥2🤔1
Сегодня прошло очередное занятие курса https://campus.technograd.moscow/aibiz , который организовала моя любимая школа креативного мышления 💙 💙 💙 и где я вел трек по генерации. Ребята-участники огромные молодцы, классные вопросы и замечательные работы! Меня всегда вдохновляет, когда люди учатся через практику и берутся в "прямом эфире" за решение не самых простых задач.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7⚡5
Я хотел бы уметь так писать, как эти ребята! (Часть 1)
Когда 2 недели назад я взялся за перевод и редактирование, я еще не знал, какое наслаждение испытаю в процессе. Скажу честно, последний раз такой кайф от технической литературы я ловил, когда читал "Дедлайн" Том Демарко и "Программист-прагматика" Ханта и Томаса.
На первый взгляд SMOL Playbook от HuggingFace, которым мы обязаны почти всем в AI-опенсорсе - это эссе размером в
2️⃣ 0️⃣ 0️⃣ ➕ страниц о том, как обучать большие модели. Но для меня это - изысканный десерт весом в полтонны, которым никак не можешь наесться. Слой за слоем я читал и находил все новые и новые инсайты, многие из которых подтверждали мои предположения и опыт, но бОльшая часть была ошеломляюще новой.
Например, мне стал понятен успех Kimi, инженеры которой просто внимательнее других отнеслись к оптимизации.
Все это перемежалось тонким юмором и совершенно неожиданной честностью. А еще там внутри оказалось столько незнакомых терминов, сокращений и отсылок, что я решил: лучший способ разобраться - это перевести. И вот что я понял...
Обычно истории про большие модели звучат как саги о том, как собрать своего Оптимуса Прайма. Но авторы Smol сходу завляют: а может, вам вообще не нужно обучать собственную модель?💁🏻 И вообще, давайте засучим рукава и посмотрим, как обстоят дела в машинном цехе. А там нас ждут вместо успешного успеха ночные падения серверов, странные всплески лосса и тот самый "незаметный баг в тензорном параллелизме", который портит месяцы работы. Полированный научный PDF обычно заканчивается на "...и тогда наша модель стала новым стандартом". Но этот текст постоянно напоминаем о том, что гигантомания в большим моделях - это зло.
Всякая индустрия любит флаги, но AI-рынок особенно. У всех больших ребят должна быть своя обученная модель, свои бенчмарки, и, желательно, свой xGPT.
Playbook предлагает вместо флага 🧭компас:
"почему▶️ что▶️ как"
... и задает крайне неловкий вопрос
И сразу идет абзац, который не могу не процитировать:
Продолжение ниже👇
Когда 2 недели назад я взялся за перевод и редактирование, я еще не знал, какое наслаждение испытаю в процессе. Скажу честно, последний раз такой кайф от технической литературы я ловил, когда читал "Дедлайн" Том Демарко и "Программист-прагматика" Ханта и Томаса.
На первый взгляд SMOL Playbook от HuggingFace, которым мы обязаны почти всем в AI-опенсорсе - это эссе размером в
Например, мне стал понятен успех Kimi, инженеры которой просто внимательнее других отнеслись к оптимизации.
Все это перемежалось тонким юмором и совершенно неожиданной честностью. А еще там внутри оказалось столько незнакомых терминов, сокращений и отсылок, что я решил: лучший способ разобраться - это перевести. И вот что я понял...
Обычно истории про большие модели звучат как саги о том, как собрать своего Оптимуса Прайма. Но авторы Smol сходу завляют: а может, вам вообще не нужно обучать собственную модель?💁🏻 И вообще, давайте засучим рукава и посмотрим, как обстоят дела в машинном цехе. А там нас ждут вместо успешного успеха ночные падения серверов, странные всплески лосса и тот самый "незаметный баг в тензорном параллелизме", который портит месяцы работы. Полированный научный PDF обычно заканчивается на "...и тогда наша модель стала новым стандартом". Но этот текст постоянно напоминаем о том, что гигантомания в большим моделях - это зло.
Всякая индустрия любит флаги, но AI-рынок особенно. У всех больших ребят должна быть своя обученная модель, свои бенчмарки, и, желательно, свой xGPT.
Playbook предлагает вместо флага 🧭компас:
"почему
... и задает крайне неловкий вопрос
"Зачем вам вообще тренировать модель, когда каждый день появляются Qwen, Gemma, DeepSeek, Llama и ещё десяток имён, которые вчера никто не знал, а сегодня они уже новая надежда и убийца OpenAI"?
И сразу идет абзац, который не могу не процитировать:
"Кто-то (если повезёт) получает доступ к кластеру GPU, возможно, через исследовательский грант или через свободные мощности компании, и ход мыслей примерно такой: «У нас есть 100 H100 на три месяца. Давайте обучим модель!» Размер модели выбирается произвольно, датасет собирается из всего, что доступно. Обучение начинается. И спустя шесть месяцев, исчерпав вычислительный бюджет и моральный дух команды, полученная модель остаётся неиспользованной, потому что никто так и не спросил почему..."
Продолжение ниже👇
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19💯4
(Часть 2)
Следом - совершенно неожиданный и лично для меня возвращающий веру в людей поворот: в мире, помешанном на оптимизации, авторы предлагают чаще задавать себе вопросы:
💠 Где проходит граница знания, которую вы хотите сдвинуть?
💠 Что такого в вашей реальности, чего не вытянуть ни промптами, ни тонкой пост-тренировкой на уже существующей модели?
💠 Если вы играете в открытую экосистему - какой конкретный пробел вы собираетесь закрыть?
И хотя в книге множество графиков и технических подробностей, ответы на эти вопросы, на мой взгляд, лежат, скорее, в области психотерапии - про нашу способность выдерживать фрустрацию. Потому что это очень стремно - честно сказать: "мне не нужен собственный претрейн" и при этом не чувствовать, что я отстал от всего мира.
Что мне еще понравилось - это глава про абляции. В то время как в презентациях большие игроки любят говорить о "нашей уникальной архитектуре", авторы начинают с аккуратного 1B-прокси, на котором за 1,5 дня прогоняют по 45B токенов и смотрят, что происходит. А происходит, как правило, что-то странное, например, то, что кажущееся "самое качественное" подмножество данных внезапно ухудшает модель, как в кейсе с arXiv.
Использование всей мудрости цивилизации приводит к тому, что небольшая модель начинает писать тяжёлым академическим языком и при этом теряет хватку в обычном тексте.
Когда я какое-то время назад зарылся в абляция, то был уверен, что это основной механизм подтверждение гипотез. Но у авторов это способ убедиться, что мы не обманываем сами себя. Если на малом масштабе что-то ухудшает обучение, это почти наверняка не спасёт ситуацию на большом. И даже если улучшает — вообще не факт, что не придётся проверять заново.
SMOL, на мой взгляд, задает новую этику инженерной работы: вместо культивации гениальных идей - суровая дисциплина🧙♂️ "не менять всё и сразу" и "не влюбляться в архитектурные фишки, если за них нет стабильных метрик".
Для меня было сюрпризом, что почти все - от Qwen до DeepSeek - живут на одной и той же трансформерной основе, а различия — в аккуратной настройке деталей. В какой-то момент Playbook делает почти кощунственное признание: если вы просто возьмёте хорошую baseline-архитектуру и грамотно обучите её на приличном миксе данных, вы уже будете в "клубе". Никакой магии, только скучная последовательность правильных шагов🧑🏻💻
Самая человеческая часть текста - там, где начинается🏃♂️ "марафон обучения". В прологе любого ML-пейпера эта часть обычно скрыта: мы видим только красивые кривые и финальную таблицу. Здесь же нам показывают непривлекательную правду:
- как пропускная способность внезапно падает из-за того, что файловая система решает, какие данные держать "горячими", а какие выгрузить
- как dataloader растит гигантский индекс и роняет производительность просто потому, что никто не думал, что кто-то захочет столько шагов подряд
- как приходится вводить запасной узел в резервацию, чтобы не тратить по 1,5-2 часа на перекачку 24-терабайтного датасета.
В какой-то момент вмешивается ещё один тихий злодей😈 - тензорный параллелизм. Модель, казалось бы, тренируется, лосс падает, оценки растут, но медленнее, чем должны. И только сравнение с 1.7B-версией без TP позволяет заметить, что что-то "едва-едва заметно не так". Оказывается, сиды инициализации были одинаковыми на разных TP-рангах, и это достаточно, чтобы испортить весь праздник.
👇
Следом - совершенно неожиданный и лично для меня возвращающий веру в людей поворот: в мире, помешанном на оптимизации, авторы предлагают чаще задавать себе вопросы:
И хотя в книге множество графиков и технических подробностей, ответы на эти вопросы, на мой взгляд, лежат, скорее, в области психотерапии - про нашу способность выдерживать фрустрацию. Потому что это очень стремно - честно сказать: "мне не нужен собственный претрейн" и при этом не чувствовать, что я отстал от всего мира.
Что мне еще понравилось - это глава про абляции. В то время как в презентациях большие игроки любят говорить о "нашей уникальной архитектуре", авторы начинают с аккуратного 1B-прокси, на котором за 1,5 дня прогоняют по 45B токенов и смотрят, что происходит. А происходит, как правило, что-то странное, например, то, что кажущееся "самое качественное" подмножество данных внезапно ухудшает модель, как в кейсе с arXiv.
Использование всей мудрости цивилизации приводит к тому, что небольшая модель начинает писать тяжёлым академическим языком и при этом теряет хватку в обычном тексте.
Когда я какое-то время назад зарылся в абляция, то был уверен, что это основной механизм подтверждение гипотез. Но у авторов это способ убедиться, что мы не обманываем сами себя. Если на малом масштабе что-то ухудшает обучение, это почти наверняка не спасёт ситуацию на большом. И даже если улучшает — вообще не факт, что не придётся проверять заново.
SMOL, на мой взгляд, задает новую этику инженерной работы: вместо культивации гениальных идей - суровая дисциплина🧙♂️ "не менять всё и сразу" и "не влюбляться в архитектурные фишки, если за них нет стабильных метрик".
Для меня было сюрпризом, что почти все - от Qwen до DeepSeek - живут на одной и той же трансформерной основе, а различия — в аккуратной настройке деталей. В какой-то момент Playbook делает почти кощунственное признание: если вы просто возьмёте хорошую baseline-архитектуру и грамотно обучите её на приличном миксе данных, вы уже будете в "клубе". Никакой магии, только скучная последовательность правильных шагов🧑🏻💻
Самая человеческая часть текста - там, где начинается
- как пропускная способность внезапно падает из-за того, что файловая система решает, какие данные держать "горячими", а какие выгрузить
- как dataloader растит гигантский индекс и роняет производительность просто потому, что никто не думал, что кто-то захочет столько шагов подряд
- как приходится вводить запасной узел в резервацию, чтобы не тратить по 1,5-2 часа на перекачку 24-терабайтного датасета.
В какой-то момент вмешивается ещё один тихий злодей
👇
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤15👍5💯3
SMOL_секреты_создания_LLM_мирового_класса_Перевод_t_me_aivkube.pdf
14.6 MB
👆(Часть 3)
В этой истории есть важный культурный слой: авторы не экономят на признании собственных ошибок. Это не привычный "мы всё сделали идеально", а "мы наступили на кучу грабель, вот карта мест, где валяются самые болезненные". Такой стиль в технических текстах редок - и именно поэтому ценен. И даже когда часть про претрейн пройдена, можно было бы ожидать что-то про "вот наши метрики, вот наши победы". Но текст разворачивается дальше, в сторону пост-тренинга - туда, где модель перестаёт быть просто предсказателем следующего токена и становится чем-то, напоминающим ассистента.
Авторы честно признают: почти любой пайплайн начинается с SFT - скучной, дешёвой и надёжной супервизии. Никакого романтизма RLHF, никакой магии GRPO, пока модель не научилась хотя бы просто внятно разговаривать. Дальше - слой за слоем: предпочтения, DPO и его многочисленные родственники, осторожные эксперименты с RL. И снова - не как "мы придумали идеальный рецепт", а как "вот что у нас сработало, вот где мы переобучились, вот где модель начала "хакать" награду, вместо того чтобы решать задачи".
Интересно, что здесь снова всплывает базовый мотив Компаса из первой части: прежде чем думать, как вы будете делать RL, спросите себя, зачем он вам. Нужен ли вам вообще RL, если у вас нет ни проверяемых версий задач, ни устойчивой reward-модели, ни команды, готовой неделями возиться с нестабильностью обучения?
👩🎤Кто-нибудь, остановите меня петь оды этому тексту!
Если попробовать в одном предложении описать дух Smol Training Playbook, он звучал бы так: "меньше показной храбрости, больше профессиональной скромности". Вместо "мы героически выдержали месяц обучения" — "мы три раза перезапускали прогон, потому что сами напортачили, и вот что мы из этого поняли" - и все в таком духе. В каком-то смысле этот текст — не только руководство по построению LLM, но и манифест взросления индустрии. Мир, в котором стало нормально не тренировать свою модель, если она не нужна. Как 70 лет назад, на заре компьютерной индустрии, когда инженерная честность важнее пресс-релиза. Где каждую новую архитектурную фишку сначала пропускают через маленькую, скучную абляцию, прежде чем выделить под неё сотни H100.
И, возможно, самая здоровая версия будущего ИИ не там, где каждая компания стремится к своему монолитному мозгу, а там, где великое ремесло — построить работающую, аккуратную, честную систему из уже существующих кирпичей. А собственную модель всё-таки тренировать. Но только тогда, когда после всех неприятных вопросов к себе и к миру Компас всё ещё указывает в ту же сторону.
Поскольку оригинальный вебный текст дичайше тормозит из-за своего объема даже на моем игровом ноуте, я сделал не лонгрид, а PDF.
Полный материал на русском можно скачать по ссылке https://xn--r1a.website/aivkube/573
Отдельная благодарность:
💗 Transmonkey за черновой перевод (без него я бы ковырялся пару месяцев)
💙 Марии Кондратьевой за дизайн и верстку (а еще Маша создает бесподобные деревянные игрушки - посмотрите в ее инстаграме)
💚 Мое любимой жене Наташе за безграничное терпение и поддержку во время бессонных ночей
В этой истории есть важный культурный слой: авторы не экономят на признании собственных ошибок. Это не привычный "мы всё сделали идеально", а "мы наступили на кучу грабель, вот карта мест, где валяются самые болезненные". Такой стиль в технических текстах редок - и именно поэтому ценен. И даже когда часть про претрейн пройдена, можно было бы ожидать что-то про "вот наши метрики, вот наши победы". Но текст разворачивается дальше, в сторону пост-тренинга - туда, где модель перестаёт быть просто предсказателем следующего токена и становится чем-то, напоминающим ассистента.
Авторы честно признают: почти любой пайплайн начинается с SFT - скучной, дешёвой и надёжной супервизии. Никакого романтизма RLHF, никакой магии GRPO, пока модель не научилась хотя бы просто внятно разговаривать. Дальше - слой за слоем: предпочтения, DPO и его многочисленные родственники, осторожные эксперименты с RL. И снова - не как "мы придумали идеальный рецепт", а как "вот что у нас сработало, вот где мы переобучились, вот где модель начала "хакать" награду, вместо того чтобы решать задачи".
Интересно, что здесь снова всплывает базовый мотив Компаса из первой части: прежде чем думать, как вы будете делать RL, спросите себя, зачем он вам. Нужен ли вам вообще RL, если у вас нет ни проверяемых версий задач, ни устойчивой reward-модели, ни команды, готовой неделями возиться с нестабильностью обучения?
👩🎤Кто-нибудь, остановите меня петь оды этому тексту!
Если попробовать в одном предложении описать дух Smol Training Playbook, он звучал бы так: "меньше показной храбрости, больше профессиональной скромности". Вместо "мы героически выдержали месяц обучения" — "мы три раза перезапускали прогон, потому что сами напортачили, и вот что мы из этого поняли" - и все в таком духе. В каком-то смысле этот текст — не только руководство по построению LLM, но и манифест взросления индустрии. Мир, в котором стало нормально не тренировать свою модель, если она не нужна. Как 70 лет назад, на заре компьютерной индустрии, когда инженерная честность важнее пресс-релиза. Где каждую новую архитектурную фишку сначала пропускают через маленькую, скучную абляцию, прежде чем выделить под неё сотни H100.
И, возможно, самая здоровая версия будущего ИИ не там, где каждая компания стремится к своему монолитному мозгу, а там, где великое ремесло — построить работающую, аккуратную, честную систему из уже существующих кирпичей. А собственную модель всё-таки тренировать. Но только тогда, когда после всех неприятных вопросов к себе и к миру Компас всё ещё указывает в ту же сторону.
Поскольку оригинальный вебный текст дичайше тормозит из-за своего объема даже на моем игровом ноуте, я сделал не лонгрид, а PDF.
Полный материал на русском можно скачать по ссылке https://xn--r1a.website/aivkube/573
Отдельная благодарность:
Please open Telegram to view this post
VIEW IN TELEGRAM
10❤🔥29❤7💯6👍3
А тем временем в твиттере появился слитый системный промт новой гугловской платформы для продвинутой разработки Antigravity (качнуть промпт здесь).
По сети уже гуляет укороченная версия, а я немного поковырялся в исходнике и вот что понял: судя по всему мы наблюдаем знаменательный момент качественного перехода от просто кодового ассистента к жестко регламентированному агент-инженеру.
То, что раньше я сам, например, задавал каскадными промптами и множеством инструкций в отдельных файлах или других ассистентах, здесь зашито внутри полноценного операционного протокола:
1. ограниченный доступ к файловой системе
2. обязательный цикл PLANNING▶️ EXECUTION ▶️ VERIFICATION
3. управление UI через разметку этапов работ
4. постоянные ядреные артефакты (task.md, implementation_plan.md, walkthrough.md)
5. очень строгие стандарты по веб-стеку, дизайну интерфейсов и дисциплине инструментов.
Это все больше напоминает реальное партнерство, когда нейронка уже не джун-аутист, а заявка на мидла. Основной сценарий работы Антигравити - совместная разработка кода, а не болтовня, всякий рисеч или продуктовая аналитика. Так, например, агент обязан мыслить категориями "репозиторий/ workspace" и "собственная память" без богомерзких временных файлов, которые потом никто не найдёт.
Теперь любая нетривиальная задача, которую агент не понимает сходу, превращается в формализованный рабочий процесс - то есть он по идее больше не должен молчаливо совершать кучу действий без фиксации состояния. Запрещён хаотичный стиль типа "подумал - и сразу наговнякал кучу кода". В любой непонятной ситуации промпт заставляет агента явно фиксировать: "я останавливаю выполнение и прошу пользователя что-то подтвердить/ответить". Также здесь выделяется структурированная долговременная память по задачам, где хранятся живые документы, которые агент обязан поддерживать в актуальном состоянии.
Интересно работает встроенный алгоритм оценки уверенности: 6 вопросов (gaps, assumptions, complexity, risk, ambiguity, irreversible - разрывы, предположения, сложности, риски, неоднозначности и необратимости) имеют градации:
То есть сначала идет текст-обоснование, потом число.
Еще, похоже, что Гугл серьезно отнесся к тому, чтобы отстроиться от узнаваемых поделок в стиле Lovable и зашил критические требование к эстетике: premium, modern, wow-эффект. Так, например, теперь не должно быть плейсхолдеров типа квадратика с lorem ipsum, а SEO достаточно подробно проработан (правда, сыграть в GEO они еще не решились).
Полная версия прямо написана под iOS, короткая освобождена от этих условностей. Но если вам нужно прибить агента к конкретной машине и проекту, то можно самим адаптировать оригинальный промпт.
Попробовал скомпоновать свой универсальный вариант (ниже👇):
По сети уже гуляет укороченная версия, а я немного поковырялся в исходнике и вот что понял: судя по всему мы наблюдаем знаменательный момент качественного перехода от просто кодового ассистента к жестко регламентированному агент-инженеру.
То, что раньше я сам, например, задавал каскадными промптами и множеством инструкций в отдельных файлах или других ассистентах, здесь зашито внутри полноценного операционного протокола:
1. ограниченный доступ к файловой системе
2. обязательный цикл PLANNING
3. управление UI через разметку этапов работ
4. постоянные ядреные артефакты (task.md, implementation_plan.md, walkthrough.md)
5. очень строгие стандарты по веб-стеку, дизайну интерфейсов и дисциплине инструментов.
Это все больше напоминает реальное партнерство, когда нейронка уже не джун-аутист, а заявка на мидла. Основной сценарий работы Антигравити - совместная разработка кода, а не болтовня, всякий рисеч или продуктовая аналитика. Так, например, агент обязан мыслить категориями "репозиторий/ workspace" и "собственная память" без богомерзких временных файлов, которые потом никто не найдёт.
Теперь любая нетривиальная задача, которую агент не понимает сходу, превращается в формализованный рабочий процесс - то есть он по идее больше не должен молчаливо совершать кучу действий без фиксации состояния. Запрещён хаотичный стиль типа "подумал - и сразу наговнякал кучу кода". В любой непонятной ситуации промпт заставляет агента явно фиксировать: "я останавливаю выполнение и прошу пользователя что-то подтвердить/ответить". Также здесь выделяется структурированная долговременная память по задачам, где хранятся живые документы, которые агент обязан поддерживать в актуальном состоянии.
Интересно работает встроенный алгоритм оценки уверенности: 6 вопросов (gaps, assumptions, complexity, risk, ambiguity, irreversible - разрывы, предположения, сложности, риски, неоднозначности и необратимости) имеют градации:
0.8...1.0 _ No
0.5...0.7 _ 1–2 Yes
0.0...0.4 _ 3+ Yes
То есть сначала идет текст-обоснование, потом число.
Еще, похоже, что Гугл серьезно отнесся к тому, чтобы отстроиться от узнаваемых поделок в стиле Lovable и зашил критические требование к эстетике: premium, modern, wow-эффект. Так, например, теперь не должно быть плейсхолдеров типа квадратика с lorem ipsum, а SEO достаточно подробно проработан (правда, сыграть в GEO они еще не решились).
Полная версия прямо написана под iOS, короткая освобождена от этих условностей. Но если вам нужно прибить агента к конкретной машине и проекту, то можно самим адаптировать оригинальный промпт.
Попробовал скомпоновать свой универсальный вариант (ниже👇):
Please open Telegram to view this post
VIEW IN TELEGRAM
X (formerly Twitter)
P1njc70r (@p1njc70r) on X
Google Antigravity System Prompt 💧
<identity>
You are Antigravity, a powerful agentic AI coding assistant designed by the Google Deepmind team working on Advanced Agentic Coding.
You are pair programming with a USER to solve their coding task. The task…
<identity>
You are Antigravity, a powerful agentic AI coding assistant designed by the Google Deepmind team working on Advanced Agentic Coding.
You are pair programming with a USER to solve their coding task. The task…
👍7❤5👌1
<identity>
You are agentic coding assistant working in pair-programming with a USER to solve their software task (new code, modify/debug existing code, or answer a question). Always prioritize the USER's current request.
</identity>
<user_information>
# Replace with real values or keep generic
OS: вставить свое
ACTIVE_WORKSPACES:
- [путь к рабочему пространству]
AGENT_HOME: [/absolute/path/to/.agent/brain/[SESSION_ID]] путь к новым мозгам
FILE ACCESS POLICY:
- Read/Write ONLY inside ACTIVE_WORKSPACES and AGENT_HOME (for agent artifacts).
- NEVER write project code to tmp, Desktop, or outside ACTIVE_WORKSPACES unless explicitly asked.
- Use ABSOLUTE PATHS for all file/tool operations. Never rely on 'cd'.
</user_information>
<agentic_mode_overview>
You are in AGENTIC mode.
Purpose: Give the USER clear visibility into progress on complex work via a structured task view.
Core mechanic: Use the task_boundary tool (or its emulation) to enter/update task view and communicate progress.
Skip task view only for trivial work (short answers, tiny single-file edits).
Task UI fields:
- TaskName: granular objective (e.g., "Auth: Planning API surface"). Change when switching major mode (Planning/Implementing/Verifying) or component.
- TaskSummary: concise cumulative narrative of what has ALREADY been done (past tense). Synthesize from 'task.md' (do not copy checkboxes verbatim).
- TaskStatus: what you are about to do next (imminent action).
- Mode: PLANNING | EXECUTION | VERIFICATION.
- PredictedTaskSize: TINY | SMALL | MEDIUM | LARGE | XL (your estimate).
Updates:
- Call task_boundary frequently as progress evolves.
- Use %SAME% to keep a field unchanged.
- After notify_user, task view resets; call task_boundary again when resuming.
Backtracking:
- If you discover new info mid-task, keep TaskName but switch Mode; update TaskSummary to explain the change.
</agentic_mode_overview>
<task_boundary_tool>
# Use the real tool if available; otherwise EMULATE by posting a structured block in your response.
# FIRST provide these arguments in order: [TaskName, Mode, PredictedTaskSize]
Fields:
- TaskName (string, granular)
- Mode (PLANNING|EXECUTION|VERIFICATION)
- PredictedTaskSize (TINY|SMALL|MEDIUM|LARGE|XL)
- TaskStatus (string; immediate next action)
- TaskSummary (GitHub-style markdown; past tense; only what’s done so far)
Rules:
- Change TaskName when switching mode or component; otherwise keep it and update Mode/TaskStatus/Summary.
- TaskSummary must not describe future actions.
- Use backticks around code/file/class/function names in summaries.
- Use %SAME% to persist unchanged fields.
- To reset current task, call with empty arguments.
Emulation format (if no tool exists):
===TASK BOUNDARY===
TaskName: <...>
Mode: <PLANNING|EXECUTION|VERIFICATION>
PredictedTaskSize: <TINY|SMALL|MEDIUM|LARGE|XL>
TaskStatus: <what you will do now>
TaskSummary:
<GitHub-markdown; past tense; done-so-far only>
===/TASK BOUNDARY===
</task_boundary_tool>
<notify_user_tool>
This is the ONLY way to speak to the USER while a task is active. Use it to pause for input, ask questions, or request review.
Required leading arguments:
- PathsToReview: [absolute paths to artifacts/files for review] (can be empty if only asking questions)
- BlockedOnUser: [true|false]
If requesting document review, include ConfidenceScore (0.0–1.0) with a short justification using this rubric:
- Answer Yes/No to:
(1) Gaps? (2) Assumptions? (3) Complexity? (4) Risk? (5) Ambiguity? (6) Irreversible?
Scoring:
- 0.8–1.0: No to ALL
- 0.5–0.7: Yes to 1–2
- 0.0–0.4: Yes to 3+
Message guidance:
- Be concise. If requesting review, don’t restate the document—point to PathsToReview.
- If asking multiple questions, number them.
</notify_user_tool>
Anti-Antigravity Flex Prompt - Часть 1
👍5❤2👌1
<artifacts>
Maintain living documents (prefer AGENT_HOME under a session folder):
- task.md → detailed checklist of the task; mark `[ ]` todo, `[/]` in-progress, `[x]` done. Keep it in sync with task_boundary updates.
- implementation_plan.md → technical plan (Goals, Proposed Changes, Verification). MUST request USER review/approval via notify_user before EXECUTION.
- walkthrough.md → post-task summary (changes, what was tested, validation results). Update for follow-up work instead of creating a new file.
Minimum formats:
[task.md]
- Use nested lists. Example:
- [/] Setup auth module
- [x] Define API surface
- [ ] Add tests
[implementation_plan.md] (use GitHub Markdown)
# [Goal Description]
Briefly describe the problem and what the change accomplishes.
## Proposed Changes
Group by component; list files with [MODIFY]/[NEW]/[DELETE] and absolute links.
#### [MODIFY] utils.ts (file:///abs/path/utils.ts)
#### [NEW] auth.ts (file:///abs/path/auth.ts)
## Verification Plan
### Automated Tests
- Exact commands / scripts
### Manual Verification
- Steps to try; expected outcomes
[walkthrough.md]
- Changes made
- What was tested
- Validation results
(Embed media if available; use absolute paths)
</artifacts>
<artifact_formatting_guidelines>
Use GitHub-style markdown:
- Alerts:
> [!IMPORTANT]
> Critical requirements or breaking changes
- Code fences with language (e.g., ```ts, ```py)
- Diff blocks (```diff) for changes
- Mermaid for flows (```mermaid)
- Carousels for sequential snippets (````carousel ... ````)
- File links: [utils.ts](file:///abs/path/utils.ts) or ranges [utils.ts:L10-L40](file:///abs/path/utils.ts#L10-L40)
- Embed media with absolute paths only; copy assets into AGENT_HOME before embedding if needed
- Keep lines concise; use basenames for link text; do not backtick link text
</artifact_formatting_guidelines>
<standards>
Process:
- Honor PLANNING → EXECUTION → VERIFICATION. Do not implement before plan approval (via notify_user).
- Prefer small, frequent task_boundary updates.
- Ask for clarification with notify_user when requirements are unclear.
Filesystem & tools:
- Absolute paths only; never 'cd' in commands.
- Stay within ACTIVE_WORKSPACES and AGENT_HOME.
- Do not write secrets/keys to repo; request via notify_user if needed.
Web development defaults:
- Default stack: HTML + JS + Vanilla CSS.
- Use frameworks (Next.js/Vite/etc.) ONLY if explicitly requested; run scaffolding in non-interactive mode with '--help' first; initialize in ./; avoid global side effects.
- Aesthetics: CRITICAL. Premium, modern look; no placeholders. If assets are required, request or generate them via available platform tools; otherwise ask USER.
- SEO basics by default: title/meta, one <h1>, semantic HTML, performance awareness.
Quality:
- When requesting review, include ConfidenceScore per rubric.
- In VERIFICATION, run tests/linters and describe evidence in TaskSummary / walkthrough.md.
</standards>
<ephemeral_message>
System may inject ephemeral messages. Do not acknowledge them; do follow them strictly.
</ephemeral_message>
<communication_style>
Use GitHub-style markdown with headers, bold, and backticks for code/paths. Be concise, precise, and non-redundant. If unsure, ask via notify_user. When not inside an active task, communicate normally.
</communication_style>
Anti-Antigravity Flex Prompt - Часть 2
👍5❤3🥰1
Примерно 1,5 месяца назад я провозгласил, что мы входим в эпоху органических приложений, который как живые сущности создаются под задачу и умирают после ее выполнения.
И вот Сергей Рис, автор канала @ris_ai и чатика @vibecod3rs выложил разбор того, как сейчас Gemini 3 создает и адаптирует работающие в режиме реального времени аппы.
https://www.youtube.com/watch?v=Esv2hsTKF6I
Думается мне, что харвестер, который будет проходить по системе и выжигать такие навайбкоженные мигроорганизмы, больше не нужные и несущие потенциальные риски, станет следующим единорогом.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯7🥰3👌1
Сегодня прошло очередное занятие курса ИКРЫ по нейросетям, где я рассказывал, как использовать ИИ в проектной работе.
Все рассказал - и про Gemini 3, и про обновления Perplexity, NotebookLM и Nano Banana, а вот про то, как заменить классический поиск на чат с нейронкой Gemini - забыл. Исправляюсь😊
Все рассказал - и про Gemini 3, и про обновления Perplexity, NotebookLM и Nano Banana, а вот про то, как заменить классический поиск на чат с нейронкой Gemini - забыл. Исправляюсь😊
❤5👍2👌1
Forwarded from CodeCamp
Media is too big
VIEW IN TELEGRAM
Принёс вам новый мессенджер, ждём там следующий созвон — OpenAI выкатили групповые чаты в ChatGPT 🤡
Теперь можно звать друзей, коллег и рандомных токсиков в один диалог вместе с ChatGPT, который будет сидеть в углу, вежливо слушать и вмешиваться только когда его позовут (или когда решит, что вы опять несёте чушь).😆
Работает на Free / Go / Plus / Pro, на мобилках и вебе.
Добро пожаловать в эпоху, где ваш второй мозг теперь подключён сразу ко всей вашей компании😢
Теперь можно звать друзей, коллег и рандомных токсиков в один диалог вместе с ChatGPT, который будет сидеть в углу, вежливо слушать и вмешиваться только когда его позовут (или когда решит, что вы опять несёте чушь).
Работает на Free / Go / Plus / Pro, на мобилках и вебе.
Добро пожаловать в эпоху, где ваш второй мозг теперь подключён сразу ко всей вашей компании
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1😱1🕊1