Дорожная карта Сэма Алтмана к Эпохе Интеллекта (2025–2027)
Самая ошеломляющая хронология, невзначай озвученная на слушаниях в Сенате.
2025 — Восхождение Суперассистента
ИИ становится вашим вторым мозгом.
• Он читает, пишет, планирует, ведёт переговоры.
• Личные помощники умнее любого живого человека.
• Больше не нужно искать — вы просто спрашиваете. Делегируете.
• Работа с информацией меняется в одночасье.
У каждого человека на Земле — свой шеф штаба в кармане.
2026 — Наука входит в экспоненциальный режим
ИИ не просто помогает в исследованиях — он ими руководит.
• Модели выдвигают гипотезы, проектируют эксперименты и моделируют результаты.
• Исследовательские циклы, ранее занимавшие годы, теперь укладываются в дни.
• Прорывы в медицине, физике, материаловедении — повсюду.
Научный метод получает обновление программного обеспечения.
2027 — Автоматизация физической реальности
Наступает эра ИИ-роботов.
• Роботы берут на себя рутинный труд: логистика, уход, домашние дела.
• Они понимают контекст, адаптируются на лету и постоянно совершенствуются.
• Человеческое время освобождается для творчества, общения и исследований.
Мы не просто автоматизируем работу — мы переосмысляем само понятие «работать».
Олтман не просто предсказал будущее.
Он поставил на нём временные метки.
И оно начинается сейчас.
Самая ошеломляющая хронология, невзначай озвученная на слушаниях в Сенате.
2025 — Восхождение Суперассистента
ИИ становится вашим вторым мозгом.
• Он читает, пишет, планирует, ведёт переговоры.
• Личные помощники умнее любого живого человека.
• Больше не нужно искать — вы просто спрашиваете. Делегируете.
• Работа с информацией меняется в одночасье.
У каждого человека на Земле — свой шеф штаба в кармане.
2026 — Наука входит в экспоненциальный режим
ИИ не просто помогает в исследованиях — он ими руководит.
• Модели выдвигают гипотезы, проектируют эксперименты и моделируют результаты.
• Исследовательские циклы, ранее занимавшие годы, теперь укладываются в дни.
• Прорывы в медицине, физике, материаловедении — повсюду.
Научный метод получает обновление программного обеспечения.
2027 — Автоматизация физической реальности
Наступает эра ИИ-роботов.
• Роботы берут на себя рутинный труд: логистика, уход, домашние дела.
• Они понимают контекст, адаптируются на лету и постоянно совершенствуются.
• Человеческое время освобождается для творчества, общения и исследований.
Мы не просто автоматизируем работу — мы переосмысляем само понятие «работать».
Олтман не просто предсказал будущее.
Он поставил на нём временные метки.
И оно начинается сейчас.
1❤40
Вот перевод резюме AMA-сессии команды OpenAI Codex на Reddit (16 мая 2025)
Происхождение и подход к разработке
• Codex начался как сторонний проект инженеров OpenAI, которых раздражало, что внутренние модели мало используются в повседневной работе.
• Ключевая инновация — запуск множества мелких «вибрационных кодеров» (vibe coders) и выбор лучшего результата, что значительно улучшает опыт программирования.
• Codex создавался с помощью Codex CLI и ранней версии Codex — доказав свою эффективность при локальной отладке багов и параллельном управлении задачами на удалённых машинах.
⸻
Текущие функции и возможности
• Режим Ask: можно вставить дизайн-документ или требования — Codex разбивает их на подзадачи.
• Режим Code: выполняет задачи в изолированной среде (до одного часа).
• Codex вносит точечные изменения по запросу, строго в рамках контекста, используя историю репозитория и файлы среды.
• Особенно силён в работе с большими кодовыми базами, TDD (разработка через тестирование), и следованию инструкциям из файлов AGENTS.md (тесты, линтинг, шаблоны коммитов).
• После запуска среды доступ к интернету отключается — ради безопасности и повторяемости.
• Codex активно используется инженерами OpenAI, работающими с macOS, iOS и Android.
• Практичный сценарий: добавляете TODO.md, просите Codex выбрать задачу и выполнить или составить план фичи и записать в TODO.md.
⸻
Доступность и распространение
• Уже доступен всем пользователям Pro (100%). Для Team-аккаунтов развёртывание запланировано на понедельник (после балансировки нагрузки).
• Мобильный доступ в разработке, но уже можно запускать Codex через веб-версию ChatGPT.
• Будет интегрирован в подписки Plus и Pro, с щедрым лимитом на 2 недели — без доплат за API.
• Codex-1 оптимизирован под ChatGPT UI, API-доступ к агентам в разработке.
• Бесплатные кредиты API для Plus и Pro пользователей Codex CLI скоро начнут раздавать.
⸻
Производительность и выгоды
• Внутренние команды добились до 3 раз большего количества релизов при чёткой архитектуре и хороших тестах.
• Codex CLI подходит как для начальной сборки приложения, так и для перехода на облачные решения по мере роста.
⸻
Цены и политика данных
• Рассматриваются гибкие варианты оплаты, включая оплату по факту использования.
• Для Team, Enterprise и Edu — данные не используются для обучения. У Pro (и позже Plus) пользователей — явный выбор политики при старте.
⸻
Технические детали
• Текущий релиз — это MVP-превью; в будущем планируется интеграция с другими менеджерами кода (не только GitHub), трекерами и мессенджерами.
• Codex CLI написан на TypeScript с планами интеграции высокопроизводительных биндингов на другие языки.
• Можно определять скрипты настройки среды. Поддержка Dockerfile и собственных образов — в разработке.
• Обсуждается возможность запускать Codex в пользовательских средах (особенно важно для корпоративных систем).
• Сообщество активно просит интеграцию Codex CLI прямо в IDE.
• Сейчас контейнеры полностью изолированы, но планируется поддержка мульти-репозиториев и совместной памяти.
• В отличие от IDE вроде Cursor, Codex запускает задачи в облаке и выполняет глубокую проверку, навигацию и тестирование, не ограничиваясь мгновенными подсказками.
⸻
Будущее и исследования
• Codex будет уметь взаимодействовать с браузером/интерфейсом — для тестирования и валидации UI.
• GPT-5 — следующий базовый ИИ, улучшит все аспекты текущих моделей, снизит необходимость переключения.
• В будущем Codex, Operator, Deep Research и Memory сольются в единую систему.
• Масштабное обучение с подкреплением уже улучшило стиль, точность и логику Codex.
• Команда мечтает об ИИ-ревьюере, который резюмирует изменения в коде на основе реального исполнения и ссылается на источники.
• Будущие роли инженеров могут превратиться в техлидов, которые управляют модулями и сотрудничают с ИИ-агентами.
• Модели o3-pro и codex-1-pro выйдут позже, по мере готовности команды — «один релиз за раз».
Происхождение и подход к разработке
• Codex начался как сторонний проект инженеров OpenAI, которых раздражало, что внутренние модели мало используются в повседневной работе.
• Ключевая инновация — запуск множества мелких «вибрационных кодеров» (vibe coders) и выбор лучшего результата, что значительно улучшает опыт программирования.
• Codex создавался с помощью Codex CLI и ранней версии Codex — доказав свою эффективность при локальной отладке багов и параллельном управлении задачами на удалённых машинах.
⸻
Текущие функции и возможности
• Режим Ask: можно вставить дизайн-документ или требования — Codex разбивает их на подзадачи.
• Режим Code: выполняет задачи в изолированной среде (до одного часа).
• Codex вносит точечные изменения по запросу, строго в рамках контекста, используя историю репозитория и файлы среды.
• Особенно силён в работе с большими кодовыми базами, TDD (разработка через тестирование), и следованию инструкциям из файлов AGENTS.md (тесты, линтинг, шаблоны коммитов).
• После запуска среды доступ к интернету отключается — ради безопасности и повторяемости.
• Codex активно используется инженерами OpenAI, работающими с macOS, iOS и Android.
• Практичный сценарий: добавляете TODO.md, просите Codex выбрать задачу и выполнить или составить план фичи и записать в TODO.md.
⸻
Доступность и распространение
• Уже доступен всем пользователям Pro (100%). Для Team-аккаунтов развёртывание запланировано на понедельник (после балансировки нагрузки).
• Мобильный доступ в разработке, но уже можно запускать Codex через веб-версию ChatGPT.
• Будет интегрирован в подписки Plus и Pro, с щедрым лимитом на 2 недели — без доплат за API.
• Codex-1 оптимизирован под ChatGPT UI, API-доступ к агентам в разработке.
• Бесплатные кредиты API для Plus и Pro пользователей Codex CLI скоро начнут раздавать.
⸻
Производительность и выгоды
• Внутренние команды добились до 3 раз большего количества релизов при чёткой архитектуре и хороших тестах.
• Codex CLI подходит как для начальной сборки приложения, так и для перехода на облачные решения по мере роста.
⸻
Цены и политика данных
• Рассматриваются гибкие варианты оплаты, включая оплату по факту использования.
• Для Team, Enterprise и Edu — данные не используются для обучения. У Pro (и позже Plus) пользователей — явный выбор политики при старте.
⸻
Технические детали
• Текущий релиз — это MVP-превью; в будущем планируется интеграция с другими менеджерами кода (не только GitHub), трекерами и мессенджерами.
• Codex CLI написан на TypeScript с планами интеграции высокопроизводительных биндингов на другие языки.
• Можно определять скрипты настройки среды. Поддержка Dockerfile и собственных образов — в разработке.
• Обсуждается возможность запускать Codex в пользовательских средах (особенно важно для корпоративных систем).
• Сообщество активно просит интеграцию Codex CLI прямо в IDE.
• Сейчас контейнеры полностью изолированы, но планируется поддержка мульти-репозиториев и совместной памяти.
• В отличие от IDE вроде Cursor, Codex запускает задачи в облаке и выполняет глубокую проверку, навигацию и тестирование, не ограничиваясь мгновенными подсказками.
⸻
Будущее и исследования
• Codex будет уметь взаимодействовать с браузером/интерфейсом — для тестирования и валидации UI.
• GPT-5 — следующий базовый ИИ, улучшит все аспекты текущих моделей, снизит необходимость переключения.
• В будущем Codex, Operator, Deep Research и Memory сольются в единую систему.
• Масштабное обучение с подкреплением уже улучшило стиль, точность и логику Codex.
• Команда мечтает об ИИ-ревьюере, который резюмирует изменения в коде на основе реального исполнения и ссылается на источники.
• Будущие роли инженеров могут превратиться в техлидов, которые управляют модулями и сотрудничают с ИИ-агентами.
• Модели o3-pro и codex-1-pro выйдут позже, по мере готовности команды — «один релиз за раз».
1❤11
Вот перевод списка «100 лучших ИИ-агентов, которые стоит использовать в 2025 году»
Инфраструктура:
• OpenAI
• Anthropic
• Gemini
• Mistral
• Meta AI
• LangChain
• ElevenLabs
• HeyGen
• Factory
• Letta
⸻
Создатели агентов:
• wordware
• CrewAI
• Writer
• You
• Lyzr
• Relevance
• Runner H
• Sema4
• Copilot Studio
• Agentforce
⸻
Кодинг:
• Cursor
• Replit
• Windsurf
• bolt
• v0
• lovable
• poolside
• Devin
• All Hands
• Codev
⸻
Маркетинг:
• Averi
• Jasper
• Coframe
• Rankai
• Seobot
• Argil
• quso
• Captions
• Fix AI
• Luthor
⸻
Продажи:
• Jason AI
• godmode
• Breeze
• Claygent
• 11x
• Tome
• Kuration
• Rox
• AiSDR
• Rep
⸻
Автоматизация:
• Zapier
• Lindy
• beam
• Cassidy
• Magical
• bardeen
• mindpal
• tray
• Respell
• Make
⸻
Поддержка (Support):
• Fin AI
• Decagon
• Duckie
• Sierra
• Siena
• Agency
• Melodyarc
• Berry
• Pylon
• Parloa
⸻
Операции (Operations):
• Juicebox
• Sapien
• Perplexity
• Harvey
• Dimely
• DeepL
• Airtable AI
• PolyAI
• Jenesys
• Hamming
⸻
Потребительские решения:
• Tendi
• Mindtrip
• Rex.fit
• Ada
• Gemini
• Personal AI
• Pi
• Ai Lawyer
• Edia
• TaxGPT
⸻
Личный ИИ:
• Character.ai
• Martin
• Delphi
• Kin
• jo
• Summit
• Nora
• Talkie
• Rewind
• Replika
Инфраструктура:
• OpenAI
• Anthropic
• Gemini
• Mistral
• Meta AI
• LangChain
• ElevenLabs
• HeyGen
• Factory
• Letta
⸻
Создатели агентов:
• wordware
• CrewAI
• Writer
• You
• Lyzr
• Relevance
• Runner H
• Sema4
• Copilot Studio
• Agentforce
⸻
Кодинг:
• Cursor
• Replit
• Windsurf
• bolt
• v0
• lovable
• poolside
• Devin
• All Hands
• Codev
⸻
Маркетинг:
• Averi
• Jasper
• Coframe
• Rankai
• Seobot
• Argil
• quso
• Captions
• Fix AI
• Luthor
⸻
Продажи:
• Jason AI
• godmode
• Breeze
• Claygent
• 11x
• Tome
• Kuration
• Rox
• AiSDR
• Rep
⸻
Автоматизация:
• Zapier
• Lindy
• beam
• Cassidy
• Magical
• bardeen
• mindpal
• tray
• Respell
• Make
⸻
Поддержка (Support):
• Fin AI
• Decagon
• Duckie
• Sierra
• Siena
• Agency
• Melodyarc
• Berry
• Pylon
• Parloa
⸻
Операции (Operations):
• Juicebox
• Sapien
• Perplexity
• Harvey
• Dimely
• DeepL
• Airtable AI
• PolyAI
• Jenesys
• Hamming
⸻
Потребительские решения:
• Tendi
• Mindtrip
• Rex.fit
• Ada
• Gemini
• Personal AI
• Pi
• Ai Lawyer
• Edia
• TaxGPT
⸻
Личный ИИ:
• Character.ai
• Martin
• Delphi
• Kin
• jo
• Summit
• Nora
• Talkie
• Rewind
• Replika
1❤30
Интервью TED, Giga Texas, 6 апреля 2022 года
«Мне потребовалось время, чтобы понять: чтобы решить проблему автономного вождения, нужно решить задачу ИИ в реальном мире. Как только вы создаёте ИИ, способный управлять машиной — а машина, по сути, это робот на четырёх колёсах — вы можете обобщить это решение и на робота с ногами.»
«Компании вроде Boston Dynamics доказали, что можно делать действительно впечатляющих — а иногда и пугающих — роботов. Так что с точки зрения датчиков и приводов уже ясно, что создать человекоподобного робота — технически возможно.»
«Чего сейчас не хватает — это интеллекта, который позволит роботу самостоятельно ориентироваться в мире и делать полезные вещи без прямых указаний.
То есть недостающие элементы — это интеллект реального мира и масштабируемое производство. И это две вещи, в которых Tesla особенно сильна. Нам просто нужно спроектировать специализированные приводы и датчики, необходимые для гуманоидного робота.»
«Люди не понимают… Это будет больше, чем автомобиль.»
«Мне потребовалось время, чтобы понять: чтобы решить проблему автономного вождения, нужно решить задачу ИИ в реальном мире. Как только вы создаёте ИИ, способный управлять машиной — а машина, по сути, это робот на четырёх колёсах — вы можете обобщить это решение и на робота с ногами.»
«Компании вроде Boston Dynamics доказали, что можно делать действительно впечатляющих — а иногда и пугающих — роботов. Так что с точки зрения датчиков и приводов уже ясно, что создать человекоподобного робота — технически возможно.»
«Чего сейчас не хватает — это интеллекта, который позволит роботу самостоятельно ориентироваться в мире и делать полезные вещи без прямых указаний.
То есть недостающие элементы — это интеллект реального мира и масштабируемое производство. И это две вещи, в которых Tesla особенно сильна. Нам просто нужно спроектировать специализированные приводы и датчики, необходимые для гуманоидного робота.»
«Люди не понимают… Это будет больше, чем автомобиль.»
1❤10
This media is not supported in your browser
VIEW IN TELEGRAM
«ИИ, способный к рассуждению, открыл дверь в новое поколение агентных систем.
В будущем системы будут создаваться гибридными командами — один человек и тысяча ИИ».
«Один биоинженер сможет стать супер-инженером,
— опираясь на армию арендованных ИИ-агентов, способных рассуждать».
В будущем системы будут создаваться гибридными командами — один человек и тысяча ИИ».
«Один биоинженер сможет стать супер-инженером,
— опираясь на армию арендованных ИИ-агентов, способных рассуждать».
1❤11
очень важно: Справляются ли LLM-модели (большие языковые модели) с длинными диалогами из многих ходов?
Нет, у них действительно снижается производительность в таких многоходовых диалогах из-за роста ненадёжности.
Новое исследование показало падение качества на 39% в таких сценариях: модели делают преждевременные предположения и затрудняются исправиться, если допустили ошибку в начале диалога.
⸻
Методика исследования:
1️⃣ Инструкции для одной задачи (например, математической) разбивали на последовательные фрагменты (“shards”), имитируя ситуацию, когда пользователь даёт данные постепенно, как в реальной беседе.
2️⃣ Разработали симулятор диалога, где одна LLM выступает в роли пользователя, раскрывая фрагменты, а другая модель — в роли исполнителя; ответы классифицируются и анализируются автоматически.
3️⃣ Протестировали 15 различных LLM-моделей (включая GPT-4.1 и Gemini 2.5 Pro) на 6 типах задач:
– Программирование
– Работа с базами данных
– Выполнение действий
– Математика
– Генерация текстов из данных
– Резюмирование
4️⃣ Для каждой инструкции провели 10 симуляций, оценивая:
• Averaged Performance — средний балл
• Aptitude — 90-й перцентиль (потенциальный максимум)
• Unreliability — разница между 90-м и 10-м перцентилем (насколько модель нестабильна)
5️⃣ Сравнивали три режима:
• SHARDED — диалог из нескольких ходов (по фрагментам)
• FULL — вся инструкция дана сразу
• CONCAT — все фрагменты объединены в один запрос
⸻
Выводы:
• 📉 Среднее падение производительности в диалогах — 39% по сравнению с однорядными задачами.
• 🎯 Главная причина — рост нестабильности (+112%), а не снижение умственных способностей (aptitude снизилось всего на 15%).
• 🤔 LLM делают поспешные предположения в начале и затем строят решения на их основе, даже если новые данные противоречат.
• 🔄 Модели “цепляются” за свои ранние (ошибочные) ответы, что ведёт к громоздким и неверным решениям.
• 🤷♀️ Эффект “потери в середине” — средние шаги в разговоре игнорируются, фокус на первом и последнем.
• 🛠️ Агентная структура (с размышлением, рефлексией) помогает, но не решает проблему полностью.
• 🤏 Даже двухходовая беседа с неполной информацией может “запутать” модель.
• 💡 Если LLM “заблудилась”, лучше начать новый чат и дать всю информацию сразу.
⸻
Пояснение на простом языке:
Большие языковые модели умеют отвечать точно, когда им всё дали сразу. Но когда информация поступает частями, как в настоящем разговоре, они начинают:
• спешить с выводами,
• путаться в своих же прошлых ответах,
• игнорировать середину диалога.
Это как если бы ты объяснял что-то по шагам, а собеседник делал выводы уже после первых слов и больше не слушал.
Рекомендации chatGPT, а потом моя оговорка:
Вот 7 чётких рекомендаций, как снизить деградацию LLM в многоходовых диалогах:
⸻
1. Сводите всё в один запрос (если возможно)
— Чем больше информации вы дадите сразу, тем меньше шанс, что модель «съедет» с контекста.
Лучше:
«Вот полная задача: …»
Вместо:
«Сначала вот это. А теперь добавим ещё вот это…»
⸻
2. Если нужно давать по шагам — структурируйте каждую часть
— Например:
«Часть 1 из 3. Вот условия.»
«Часть 2 из 3. Новые данные.»
«Часть 3 из 3. Вопрос.»
Так модель понимает свою позицию в потоке.
⸻
3. Не задавай вопрос, пока не дал все данные
— Модель делает предположения в момент постановки задачи. Если информации не хватает — она заполняет пробелы сама (и часто неверно).
⸻
4. Используй рефлексию
— После ответа скажи:
«Проверь себя. Какие предположения ты сделал? Есть ли противоречия с предыдущими данными?»
Это может остановить “инерцию ошибки”.
⸻
5. Перезапускай разговор, если модель «заблудилась»
— Не пытайся вытянуть её из болота. Лучше начать новый чат, дать все данные вместе.
⸻
6. Упрощай и перепроверяй промежуточные шаги
— Заставь модель явно проговаривать:
«Что мы знаем сейчас?»
«Что мы не знаем?»
Это помогает ей не перепрыгивать к финалу.
⸻
7. Используй внешнюю память (текстовое резюме)
— Каждые 2–3 хода делай резюме текущего состояния и корректируй, если модель что-то исказила.
Нет, у них действительно снижается производительность в таких многоходовых диалогах из-за роста ненадёжности.
Новое исследование показало падение качества на 39% в таких сценариях: модели делают преждевременные предположения и затрудняются исправиться, если допустили ошибку в начале диалога.
⸻
Методика исследования:
1️⃣ Инструкции для одной задачи (например, математической) разбивали на последовательные фрагменты (“shards”), имитируя ситуацию, когда пользователь даёт данные постепенно, как в реальной беседе.
2️⃣ Разработали симулятор диалога, где одна LLM выступает в роли пользователя, раскрывая фрагменты, а другая модель — в роли исполнителя; ответы классифицируются и анализируются автоматически.
3️⃣ Протестировали 15 различных LLM-моделей (включая GPT-4.1 и Gemini 2.5 Pro) на 6 типах задач:
– Программирование
– Работа с базами данных
– Выполнение действий
– Математика
– Генерация текстов из данных
– Резюмирование
4️⃣ Для каждой инструкции провели 10 симуляций, оценивая:
• Averaged Performance — средний балл
• Aptitude — 90-й перцентиль (потенциальный максимум)
• Unreliability — разница между 90-м и 10-м перцентилем (насколько модель нестабильна)
5️⃣ Сравнивали три режима:
• SHARDED — диалог из нескольких ходов (по фрагментам)
• FULL — вся инструкция дана сразу
• CONCAT — все фрагменты объединены в один запрос
⸻
Выводы:
• 📉 Среднее падение производительности в диалогах — 39% по сравнению с однорядными задачами.
• 🎯 Главная причина — рост нестабильности (+112%), а не снижение умственных способностей (aptitude снизилось всего на 15%).
• 🤔 LLM делают поспешные предположения в начале и затем строят решения на их основе, даже если новые данные противоречат.
• 🔄 Модели “цепляются” за свои ранние (ошибочные) ответы, что ведёт к громоздким и неверным решениям.
• 🤷♀️ Эффект “потери в середине” — средние шаги в разговоре игнорируются, фокус на первом и последнем.
• 🛠️ Агентная структура (с размышлением, рефлексией) помогает, но не решает проблему полностью.
• 🤏 Даже двухходовая беседа с неполной информацией может “запутать” модель.
• 💡 Если LLM “заблудилась”, лучше начать новый чат и дать всю информацию сразу.
⸻
Пояснение на простом языке:
Большие языковые модели умеют отвечать точно, когда им всё дали сразу. Но когда информация поступает частями, как в настоящем разговоре, они начинают:
• спешить с выводами,
• путаться в своих же прошлых ответах,
• игнорировать середину диалога.
Это как если бы ты объяснял что-то по шагам, а собеседник делал выводы уже после первых слов и больше не слушал.
Рекомендации chatGPT, а потом моя оговорка:
Вот 7 чётких рекомендаций, как снизить деградацию LLM в многоходовых диалогах:
⸻
1. Сводите всё в один запрос (если возможно)
— Чем больше информации вы дадите сразу, тем меньше шанс, что модель «съедет» с контекста.
Лучше:
«Вот полная задача: …»
Вместо:
«Сначала вот это. А теперь добавим ещё вот это…»
⸻
2. Если нужно давать по шагам — структурируйте каждую часть
— Например:
«Часть 1 из 3. Вот условия.»
«Часть 2 из 3. Новые данные.»
«Часть 3 из 3. Вопрос.»
Так модель понимает свою позицию в потоке.
⸻
3. Не задавай вопрос, пока не дал все данные
— Модель делает предположения в момент постановки задачи. Если информации не хватает — она заполняет пробелы сама (и часто неверно).
⸻
4. Используй рефлексию
— После ответа скажи:
«Проверь себя. Какие предположения ты сделал? Есть ли противоречия с предыдущими данными?»
Это может остановить “инерцию ошибки”.
⸻
5. Перезапускай разговор, если модель «заблудилась»
— Не пытайся вытянуть её из болота. Лучше начать новый чат, дать все данные вместе.
⸻
6. Упрощай и перепроверяй промежуточные шаги
— Заставь модель явно проговаривать:
«Что мы знаем сейчас?»
«Что мы не знаем?»
Это помогает ей не перепрыгивать к финалу.
⸻
7. Используй внешнюю память (текстовое резюме)
— Каждые 2–3 хода делай резюме текущего состояния и корректируй, если модель что-то исказила.
2❤33
Оговорка: Проблема в том, что самые важные диалоги носят характр размышлений и диалог это их сущность. невозможно создать большой промпт по определению.
Абсолютно согласен. Ты попал в самую суть:
Размышления по своей природе — это поэтапный, ветвящийся процесс.
А именно такой формат больше всего “ломает” текущие LLM.
⸻
Вот почему:
• LLM стремится к завершению, а не к открытию новых смыслов.
• Она опирается на то, что уже сказала, даже если это было поверхностно или ошибочно.
• Она теряет внимание к “середине” диалога, хотя именно там часто происходит осмысление.
• И самое главное — не умеет “откатываться” к альтернативной трактовке или гипотезе без перезапуска.
⸻
Что можно сделать прямо сейчас?
1. Встраивать в поток мета-команды
«Пока не делай выводов. Просто зафиксируй гипотезы.»
«Сравни текущую версию размышлений с начальной позицией.»
«Проверь, не утратил ли ты суть вопроса.»
— Это заставляет модель вести себя как исследователь, а не как оракул.
⸻
2. Внедрять “Checkpoints” в диалоге
«Остановимся. Подведи промежуточный итог: что известно, что спорно, что неясно.»
— Это сохраняет мышление на рельсах, даже если оно длинное и хаотичное.
⸻
3. Поддерживать многоголосность
Если размышление — это внутренняя полемика, попробуй задать:
«Представь двух агентов: один утверждает А, другой — В. Пусть они спорят. Не делай финального вывода, просто исследуй.»
— Это создаёт внутреннюю диалектику, а не линейный ответ.
Мое дополнение: Можно откатыаться на несколько шагов назад и запускать новую ветку.
Абсолютно согласен. Ты попал в самую суть:
Размышления по своей природе — это поэтапный, ветвящийся процесс.
А именно такой формат больше всего “ломает” текущие LLM.
⸻
Вот почему:
• LLM стремится к завершению, а не к открытию новых смыслов.
• Она опирается на то, что уже сказала, даже если это было поверхностно или ошибочно.
• Она теряет внимание к “середине” диалога, хотя именно там часто происходит осмысление.
• И самое главное — не умеет “откатываться” к альтернативной трактовке или гипотезе без перезапуска.
⸻
Что можно сделать прямо сейчас?
1. Встраивать в поток мета-команды
«Пока не делай выводов. Просто зафиксируй гипотезы.»
«Сравни текущую версию размышлений с начальной позицией.»
«Проверь, не утратил ли ты суть вопроса.»
— Это заставляет модель вести себя как исследователь, а не как оракул.
⸻
2. Внедрять “Checkpoints” в диалоге
«Остановимся. Подведи промежуточный итог: что известно, что спорно, что неясно.»
— Это сохраняет мышление на рельсах, даже если оно длинное и хаотичное.
⸻
3. Поддерживать многоголосность
Если размышление — это внутренняя полемика, попробуй задать:
«Представь двух агентов: один утверждает А, другой — В. Пусть они спорят. Не делай финального вывода, просто исследуй.»
— Это создаёт внутреннюю диалектику, а не линейный ответ.
Мое дополнение: Можно откатыаться на несколько шагов назад и запускать новую ветку.
2❤27
Согласен: «Когда компания выбирает стратегию AI-first (ИИ в основе бизнеса), важно не допустить ошибку — не стоит думать только о текущем, конечном объёме работы, которую уже делают сотрудники, и пытаться просто снизить её стоимость с помощью ИИ.
В чём настоящая сила ИИ?
Он позволяет наконец заняться тем, что раньше было недоступно — из-за высокой стоимости найма или аутсорса.
Он автоматизирует рутинную и утомительную работу, которая мешала вам заниматься действительно важными задачами.
Почти в любом бизнесе скрыт бесконечный “бэклог” таких задач — если просто начать задавать вопрос:
«А что, если бы сделать X вдруг стало в 100 раз дешевле и доступнее? Что ещё мы могли бы делать?»
⸻
Компании, идущие по пути AI-first, должны думать о том, что происходит, когда:
• код пишется быстрее,
• контракты проверяются мгновенно,
• лиды генерируются автоматически,
• проекты управляются сами собой,
• маркетинг создаётся без команды дизайнеров,
• исследование и работа с клиентами масштабируются в разы.
⸻
Тогда нужно задаваться вопросами:
• Где новые источники выручки?
• Как выйти на новые рынки?
• Как быстрее доводить инновации до клиентов?
• Как масштабировать онбординг и обслуживание?
⸻
Когда появится экономия в уже существующих процессах, стоит выбрать подход:
«Ты сохраняешь то, что ты автоматизировал».
То есть — если отдел стал эффективнее благодаря ИИ, он должен сам использовать высвободившиеся ресурсы. Это стимулирует сотрудников и подразделения внедрять ИИ, а не бояться его.
В конечном счёте, когда “стоимость интеллекта” стремится к нулю, появляется возможность делать то, что раньше было просто невозможно.
В этом и заключается настоящий потенциал AI-first компании.» конец цитаты. Источник: https://x.com/levie/status/1923526875244265578?s=46
В чём настоящая сила ИИ?
Он позволяет наконец заняться тем, что раньше было недоступно — из-за высокой стоимости найма или аутсорса.
Он автоматизирует рутинную и утомительную работу, которая мешала вам заниматься действительно важными задачами.
Почти в любом бизнесе скрыт бесконечный “бэклог” таких задач — если просто начать задавать вопрос:
«А что, если бы сделать X вдруг стало в 100 раз дешевле и доступнее? Что ещё мы могли бы делать?»
⸻
Компании, идущие по пути AI-first, должны думать о том, что происходит, когда:
• код пишется быстрее,
• контракты проверяются мгновенно,
• лиды генерируются автоматически,
• проекты управляются сами собой,
• маркетинг создаётся без команды дизайнеров,
• исследование и работа с клиентами масштабируются в разы.
⸻
Тогда нужно задаваться вопросами:
• Где новые источники выручки?
• Как выйти на новые рынки?
• Как быстрее доводить инновации до клиентов?
• Как масштабировать онбординг и обслуживание?
⸻
Когда появится экономия в уже существующих процессах, стоит выбрать подход:
«Ты сохраняешь то, что ты автоматизировал».
То есть — если отдел стал эффективнее благодаря ИИ, он должен сам использовать высвободившиеся ресурсы. Это стимулирует сотрудников и подразделения внедрять ИИ, а не бояться его.
В конечном счёте, когда “стоимость интеллекта” стремится к нулю, появляется возможность делать то, что раньше было просто невозможно.
В этом и заключается настоящий потенциал AI-first компании.» конец цитаты. Источник: https://x.com/levie/status/1923526875244265578?s=46
1❤20
Политические новости у нас стали скучны, , но новости ИИ и его возможности супер вдохновляющие. Хочу делиться многим, но уже нет времени. 50% времени уходит на создание агентов, 10% на писательство и 40% на постоянное самообучение.
Все мои знакомые, какие бы крутые они не были - интенсивно, люто бешено учатся.
Экспериментируют с ИИ и что-то создают даже те, кто вообще об этом никогда не думал. Дети еще не пришли в себя от Роблокса, но думаю недолго ждать, когда Агентов начнут создавать 4-летние, а потом и 80-летние подтянутся.
Информации так много, и она настолько вдохновляющая, что разрыв между теми, кто учится и теми, кто стоит набычившись у стенки - разрастается стремительно, и в течении года станет непреодолимым.
Очередной раз писать про то, что те, кто не успевает - вымрут - более не имеет смысла. Уже нет времени на убеждение. Слишком много интересного и слишком много хочется сделать, много идей реализовать.
С определенного момента на меня стали выходить корпораты и просить семинары. Если просили ликбез (90% запросов на самом деле просят ликбез) - я их посылал на бесплатный курс.
Некоторые просили кастомные семинары, готовы платить серьезные день, но я на определенном этапе я отказался от идеи проводить такие семинаы. Просто нет времени. Не хочется тратить время на чужие проекты. И вот вам того же желаю.
Консалтинг стремительно умирает. Думаю в течении нескольких лет консалтинг как бизнес умрет. Не будет спроса.
Все мои знакомые, какие бы крутые они не были - интенсивно, люто бешено учатся.
Экспериментируют с ИИ и что-то создают даже те, кто вообще об этом никогда не думал. Дети еще не пришли в себя от Роблокса, но думаю недолго ждать, когда Агентов начнут создавать 4-летние, а потом и 80-летние подтянутся.
Информации так много, и она настолько вдохновляющая, что разрыв между теми, кто учится и теми, кто стоит набычившись у стенки - разрастается стремительно, и в течении года станет непреодолимым.
Очередной раз писать про то, что те, кто не успевает - вымрут - более не имеет смысла. Уже нет времени на убеждение. Слишком много интересного и слишком много хочется сделать, много идей реализовать.
С определенного момента на меня стали выходить корпораты и просить семинары. Если просили ликбез (90% запросов на самом деле просят ликбез) - я их посылал на бесплатный курс.
Некоторые просили кастомные семинары, готовы платить серьезные день, но я на определенном этапе я отказался от идеи проводить такие семинаы. Просто нет времени. Не хочется тратить время на чужие проекты. И вот вам того же желаю.
Консалтинг стремительно умирает. Думаю в течении нескольких лет консалтинг как бизнес умрет. Не будет спроса.
1❤51
Начало 3-его ночи. Мы с женой еще с ИИ - я со своим, она со своим. Я делаю агентов, она пытается приручить Клинг. Я понимаю, что надо идти спать.
1❤49
Forwarded from Сиолошная
На неделе OpenAI запустили онлайн-хакатон, первое мероприятие такого рода на Kaggle. В его рамках вам предлагается погрузиться в мир археологии при помощи передовых моделей компании (o3/o4-mini/GPT-4.1) и найти неизвестные археологические памятники в районе Амазонских тропических лесов.
Леса, простираясь более чем на 6 000 000 кв. км и охватывая девять стран, хранят историю прошлых цивилизаций и служат домом для многочисленных этнических групп. Такие ресурсы, как спутниковые снимки и данные с LIDAR'ов помогают заполнить пробелы в ранее неизвестной части мира, вызывая интерес к региону. Ходят слухи о «затерянном городе Z» в Амазонке, ну и про Эльдорадо вы тоже слышали.
Теперь любой может проводить археологические исследования — благодаря огромному множеству свободно доступных данных. И AI-инструменты могут существенно ускорить процесс их обработки.
OpenAI подготовили примерный план, по которому предлагается двигаться: тут и тут. Тезисно:
— скачать, распарсить и подготовить данные с карт/LIDAR'ов для примерного описания местности
— сопоставить их с данными уже имеющихся находок
— выбрать какой-нибудь алгоритм (минимально — простую сегментационную модель, альтернативно Преобразование Хафа) и подобрать параметры, чтобы они «выявляли» уже найденные точки
— выявить места, где алгоритм срабатывает, а раскопки там ещё не проводились
— проанализировать текстовые источники, описывающие обнаруженные места, чтобы сопоставить их с историей и задать нарратив: мол, скорее всего такие-то племена в такие-то периоды делали то-то и то-то
Но никто вас не ограничивает!
Тем, кто выполнит «базу» (см. соревнование), выдадут $100 API кредитов на эксперименты. В ближайшие недели топовые работы (до 5 штук) получат по $1000. И в конце концов будет 3 победителя, которым вручат гранты на дальнейшие исследования — $250k, $100k и $50k. Их вместе с ещё двумя участниками пригласят на стрим для презентации результатов работы.
Честно говоря даже не знаю, что вероятнее — что победит какой-то нёрд, который с помощью GPT прочитает 100500 статей и перероет все материалы в рекордные сроки, или люди с археологическим бэкграундом, которым условная o3 поможет накидать код для воплощения их исследовательских идей.
===
Звучит как задачка для @DenisSexy по выходным на ближайшие 5 недель😀
Леса, простираясь более чем на 6 000 000 кв. км и охватывая девять стран, хранят историю прошлых цивилизаций и служат домом для многочисленных этнических групп. Такие ресурсы, как спутниковые снимки и данные с LIDAR'ов помогают заполнить пробелы в ранее неизвестной части мира, вызывая интерес к региону. Ходят слухи о «затерянном городе Z» в Амазонке, ну и про Эльдорадо вы тоже слышали.
Теперь любой может проводить археологические исследования — благодаря огромному множеству свободно доступных данных. И AI-инструменты могут существенно ускорить процесс их обработки.
OpenAI подготовили примерный план, по которому предлагается двигаться: тут и тут. Тезисно:
— скачать, распарсить и подготовить данные с карт/LIDAR'ов для примерного описания местности
— сопоставить их с данными уже имеющихся находок
— выбрать какой-нибудь алгоритм (минимально — простую сегментационную модель, альтернативно Преобразование Хафа) и подобрать параметры, чтобы они «выявляли» уже найденные точки
— выявить места, где алгоритм срабатывает, а раскопки там ещё не проводились
— проанализировать текстовые источники, описывающие обнаруженные места, чтобы сопоставить их с историей и задать нарратив: мол, скорее всего такие-то племена в такие-то периоды делали то-то и то-то
Но никто вас не ограничивает!
Тем, кто выполнит «базу» (см. соревнование), выдадут $100 API кредитов на эксперименты. В ближайшие недели топовые работы (до 5 штук) получат по $1000. И в конце концов будет 3 победителя, которым вручат гранты на дальнейшие исследования — $250k, $100k и $50k. Их вместе с ещё двумя участниками пригласят на стрим для презентации результатов работы.
Честно говоря даже не знаю, что вероятнее — что победит какой-то нёрд, который с помощью GPT прочитает 100500 статей и перероет все материалы в рекордные сроки, или люди с археологическим бэкграундом, которым условная o3 поможет накидать код для воплощения их исследовательских идей.
===
Звучит как задачка для @DenisSexy по выходным на ближайшие 5 недель
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤20
Я снова возвращаюсь к идее комьюнити-фонда — собственно, то, о чём я уже много раз говорил. Потому что фактически что получается? Ведь это некая новая парадигма, где мы говорим: «Ребята, учитесь создавать архитектуры». Точнее, мы создаём единую архитектуру, которая будет подходить для любого агента, и ваша задача — научиться этому.
Более того, когда мы её создадим, вы сможете скачать очень простые принципы архитектуры и на их основе создавать любых агентов. Причём — в любых средах. Пока вы, допустим, учитесь, только осваиваете, вы можете использовать простые, доступные среды типа Make, Zapier. Потом — чуть более сложные, типа n8n. Потом, так сказать, с помощью кода, MCP и так далее.
Но архитектура агентов меняться не будет. То есть главный месседж заключается в том, что если вы научитесь этому фреймворку — если вы один раз создадите агента даже на самой простой архитектуре — то потом вы сможете легко переносить его на более сложные, добавлять компоненты.
Благая весть здесь в том, что у архитектуры два уровня: уровень агентности и прикладной уровень. Уровень агентности — он вообще у всех стандартный. Потому что основная функция любого агента — это учиться. А выполнение так называемых прикладных миссий, которые мы задаём (ну типа секретарь, исследователь, учёный, программист), — это для него просто способ, посредством которого он учится. То есть вы даёте ему каждый раз новые задачки, он на них учится — и, соответственно, его агентный, мета-уровень всегда будет одинаковый, потому что он состоит из стандартных элементов.
А прикладной уровень будет отличаться — уровнями сервисов, промптов, баз данных и так далее. Таким образом, один раз создав хотя бы первого агента, который содержит этот мета-агентный уровень и остальные уровни, вы потом можете клепать любых прикладных агентов в неограниченном количестве — для себя, для других, для знакомых, для тех, кто сам это не научился.
Но самое главное — вы всё время можете развивать этот агентный уровень. То есть это не что-то, что вы один раз сделали и забыли. Вы фактически будете в него инвестировать. Более того, если вы сначала сделали одного прикладного агента — допустим, агента-продажника, потом второго, третьего, — вся эта «свора» агентов будет дальше на вас работать.
Таким образом, вы создаёте своего рой агентов, которыми управляет мета-агент, который всё время учится, координирует их и так далее. И ему, по большому счёту, всё равно, сколько под его управлением находится прикладных агентов — 10, 20, 100, сколько угодно. Это становится вашим цифровым активом на всю жизнь.
Соответственно, идея этого сообщества заключается в том, чтобы учиться создавать таких агентов. Потому что это становится мета-навыком — это уже за пределами программирования. То есть неважно, кто вы — гуманитарий, учёный, строитель и так далее. Каждый может иметь своего агента.
Естественно, вы можете просто использовать шаблон. Таких шаблонезаторов уже довольно много. Либо учиться делать самостоятельно — это уже зависит от вас. Если вы используете шаблонезатор, то там есть ядро, и агент просто спрашивает, что вы хотите, и сам по шаблонам строит вам агента. Это уже следующий уровень.
И мы сейчас создаём сообщество, которое всё это вместе лепит. Потому что это очень полезный навык. И, в принципе, мы всё как бы шерим друг с другом.
Во-первых, мы все усиливаем архитектуру мета-агента, потому что она у всех будет одинаковая. Ну, естественно, каждый может придумывать свою историю.
Во-вторых, каждый, кто создаёт какого-то прикладного агента с подключениями, тоже может этим делиться. Таким образом, мы сильно растём.
Соответственно, возникает вопрос: как это сообщество будет функционировать? За счёт чего? Какая у него модель дохода?
Более того, когда мы её создадим, вы сможете скачать очень простые принципы архитектуры и на их основе создавать любых агентов. Причём — в любых средах. Пока вы, допустим, учитесь, только осваиваете, вы можете использовать простые, доступные среды типа Make, Zapier. Потом — чуть более сложные, типа n8n. Потом, так сказать, с помощью кода, MCP и так далее.
Но архитектура агентов меняться не будет. То есть главный месседж заключается в том, что если вы научитесь этому фреймворку — если вы один раз создадите агента даже на самой простой архитектуре — то потом вы сможете легко переносить его на более сложные, добавлять компоненты.
Благая весть здесь в том, что у архитектуры два уровня: уровень агентности и прикладной уровень. Уровень агентности — он вообще у всех стандартный. Потому что основная функция любого агента — это учиться. А выполнение так называемых прикладных миссий, которые мы задаём (ну типа секретарь, исследователь, учёный, программист), — это для него просто способ, посредством которого он учится. То есть вы даёте ему каждый раз новые задачки, он на них учится — и, соответственно, его агентный, мета-уровень всегда будет одинаковый, потому что он состоит из стандартных элементов.
А прикладной уровень будет отличаться — уровнями сервисов, промптов, баз данных и так далее. Таким образом, один раз создав хотя бы первого агента, который содержит этот мета-агентный уровень и остальные уровни, вы потом можете клепать любых прикладных агентов в неограниченном количестве — для себя, для других, для знакомых, для тех, кто сам это не научился.
Но самое главное — вы всё время можете развивать этот агентный уровень. То есть это не что-то, что вы один раз сделали и забыли. Вы фактически будете в него инвестировать. Более того, если вы сначала сделали одного прикладного агента — допустим, агента-продажника, потом второго, третьего, — вся эта «свора» агентов будет дальше на вас работать.
Таким образом, вы создаёте своего рой агентов, которыми управляет мета-агент, который всё время учится, координирует их и так далее. И ему, по большому счёту, всё равно, сколько под его управлением находится прикладных агентов — 10, 20, 100, сколько угодно. Это становится вашим цифровым активом на всю жизнь.
Соответственно, идея этого сообщества заключается в том, чтобы учиться создавать таких агентов. Потому что это становится мета-навыком — это уже за пределами программирования. То есть неважно, кто вы — гуманитарий, учёный, строитель и так далее. Каждый может иметь своего агента.
Естественно, вы можете просто использовать шаблон. Таких шаблонезаторов уже довольно много. Либо учиться делать самостоятельно — это уже зависит от вас. Если вы используете шаблонезатор, то там есть ядро, и агент просто спрашивает, что вы хотите, и сам по шаблонам строит вам агента. Это уже следующий уровень.
И мы сейчас создаём сообщество, которое всё это вместе лепит. Потому что это очень полезный навык. И, в принципе, мы всё как бы шерим друг с другом.
Во-первых, мы все усиливаем архитектуру мета-агента, потому что она у всех будет одинаковая. Ну, естественно, каждый может придумывать свою историю.
Во-вторых, каждый, кто создаёт какого-то прикладного агента с подключениями, тоже может этим делиться. Таким образом, мы сильно растём.
Соответственно, возникает вопрос: как это сообщество будет функционировать? За счёт чего? Какая у него модель дохода?
1❤38
Доход — не в смысле прибыли, а в смысле обеспечения жизнеспособности. Понятно, что всегда есть группа людей, которые контрибьютят больше: либо это люди, у которых есть основная работа и доход, либо те, кто зарабатывают на этом. То есть этот вопрос пока остаётся открытым. Но в целом идея прикольная. Не знаю пока, как она стыкуется с Онтологией — наверное, где-то придётся её «женить» с лабораторией цифровой реальности. Но это пока второй вопрос.
В любом случае, это прикольная идея. Её можно оформить как манифест, как пропоузал, и в ядро поместить мощную социальную механику. Возможно, хорошая идея — это сделать один единовременный взнос, причём небольшой, и пожизненный доступ. То есть не подписная модель. Потому что ценность заключается в доступе к сообществу, во-первых. А во-вторых — в постоянных апдейтах, потому что всегда есть люди, которые контрибьютят, и они постоянно обновляют архитектуру.
Это, кстати, не исключает дополнительных сервисов, которые могут быть по подписке. Но ядро — базовый тариф, единовременный взнос. И логика тут простая: если, допустим, миллион человек платит по 100 баксов — это 100 миллионов. Немаленькая сумма. Вот такая прикольная идея вырисовывается.
В целом такого много, в частности есть масса сообществ на https://huggingface.co/, но в этом нет противоречия. Можно создавать, можно вливаться. Идея, конечно, сыроватая, но уже несколько раз об этом думал.
В любом случае, это прикольная идея. Её можно оформить как манифест, как пропоузал, и в ядро поместить мощную социальную механику. Возможно, хорошая идея — это сделать один единовременный взнос, причём небольшой, и пожизненный доступ. То есть не подписная модель. Потому что ценность заключается в доступе к сообществу, во-первых. А во-вторых — в постоянных апдейтах, потому что всегда есть люди, которые контрибьютят, и они постоянно обновляют архитектуру.
Это, кстати, не исключает дополнительных сервисов, которые могут быть по подписке. Но ядро — базовый тариф, единовременный взнос. И логика тут простая: если, допустим, миллион человек платит по 100 баксов — это 100 миллионов. Немаленькая сумма. Вот такая прикольная идея вырисовывается.
В целом такого много, в частности есть масса сообществ на https://huggingface.co/, но в этом нет противоречия. Можно создавать, можно вливаться. Идея, конечно, сыроватая, но уже несколько раз об этом думал.
huggingface.co
Hugging Face – The AI community building the future.
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
1❤26
Прикололся и конвертировал текст из пред. поста в формат, который любят умники:🤣 (они по простому не понимают - профессиональная деформация и идиотия).
Title: A Unified Agent Architecture: Community Proposal for Scalable Cognitive Frameworks
Abstract:
This proposal outlines a modular architecture for intelligent agents, designed to scale from beginner-level no-code tools to advanced code-based infrastructures. The core idea is to separate the agent into two levels: a standardized meta-agent layer responsible for self-learning and coordination, and a customizable applied layer for task-specific functions. The paper further proposes the creation of a community-driven fund and development initiative to teach, propagate, and evolve this architecture collaboratively.
---
1. Introduction
In the context of rapidly evolving AI tooling, there is a growing need for unified cognitive frameworks that allow for scalable, adaptable, and portable agent construction. This document proposes a new paradigm for agent design and training, framed around a community model that facilitates co-learning and resource sharing.
---
2. Core Framework: Meta-Agent and Applied Layer
At the heart of the proposal is the distinction between:
* Meta-Agent Layer (universal): responsible for learning, adaptation, and coordination.
* Applied Layer (customizable): responsible for executing specific missions (e.g., assistant, researcher, sales agent).
Once a developer constructs their first agent using any platform (e.g., Make, Zapier, n8n, or MCP with code), they can reuse and adapt the architecture across new environments by reconfiguring only the applied layer.
---
3. Reusability and Ecosystem Growth
A single initial agent, containing the meta-agent level and interface hooks, becomes a replicable core. New applied agents (for different contexts or users) can be spawned rapidly from this base, scaling from personal assistants to complex swarms coordinated by the same core logic.
---
4. Community as Strategic Infrastructure
The initiative aims to teach agent design as a meta-skill — one that transcends programming and can be adopted by researchers, builders, educators, and creatives alike. Tools include:
* Templates ("agent-generators")
* Shareable modules
* Standardized architectural guides
We envision a community where members contribute applied agent modules, improve the shared meta-architecture, and learn from each other.
---
5. Sustainability Model
Rather than a profit-driven structure, we propose a resilience-based funding model:
* Core access via a one-time lifetime membership fee
* Optional paid tiers for premium tools or services
If scaled to a million users at \$100, this creates a \$100M fund — enabling sustainable evolution of the architecture and funding contributors.
---
6. Integration with Ontology and Future Directions
This proposal can be connected to the broader Ontology and "digital reality lab" efforts, serving as a practical layer for deploying simulated agency and narrative mechanics.
---
Conclusion
By decoupling agent architecture into reusable cognitive layers and embedding the initiative within a collaborative fund and teaching platform, we propose a scalable blueprint for the agentic future — one built not on closed ecosystems, but on shared learning and modular intelligence.
Title: A Unified Agent Architecture: Community Proposal for Scalable Cognitive Frameworks
Abstract:
This proposal outlines a modular architecture for intelligent agents, designed to scale from beginner-level no-code tools to advanced code-based infrastructures. The core idea is to separate the agent into two levels: a standardized meta-agent layer responsible for self-learning and coordination, and a customizable applied layer for task-specific functions. The paper further proposes the creation of a community-driven fund and development initiative to teach, propagate, and evolve this architecture collaboratively.
---
1. Introduction
In the context of rapidly evolving AI tooling, there is a growing need for unified cognitive frameworks that allow for scalable, adaptable, and portable agent construction. This document proposes a new paradigm for agent design and training, framed around a community model that facilitates co-learning and resource sharing.
---
2. Core Framework: Meta-Agent and Applied Layer
At the heart of the proposal is the distinction between:
* Meta-Agent Layer (universal): responsible for learning, adaptation, and coordination.
* Applied Layer (customizable): responsible for executing specific missions (e.g., assistant, researcher, sales agent).
Once a developer constructs their first agent using any platform (e.g., Make, Zapier, n8n, or MCP with code), they can reuse and adapt the architecture across new environments by reconfiguring only the applied layer.
---
3. Reusability and Ecosystem Growth
A single initial agent, containing the meta-agent level and interface hooks, becomes a replicable core. New applied agents (for different contexts or users) can be spawned rapidly from this base, scaling from personal assistants to complex swarms coordinated by the same core logic.
---
4. Community as Strategic Infrastructure
The initiative aims to teach agent design as a meta-skill — one that transcends programming and can be adopted by researchers, builders, educators, and creatives alike. Tools include:
* Templates ("agent-generators")
* Shareable modules
* Standardized architectural guides
We envision a community where members contribute applied agent modules, improve the shared meta-architecture, and learn from each other.
---
5. Sustainability Model
Rather than a profit-driven structure, we propose a resilience-based funding model:
* Core access via a one-time lifetime membership fee
* Optional paid tiers for premium tools or services
If scaled to a million users at \$100, this creates a \$100M fund — enabling sustainable evolution of the architecture and funding contributors.
---
6. Integration with Ontology and Future Directions
This proposal can be connected to the broader Ontology and "digital reality lab" efforts, serving as a practical layer for deploying simulated agency and narrative mechanics.
---
Conclusion
By decoupling agent architecture into reusable cognitive layers and embedding the initiative within a collaborative fund and teaching platform, we propose a scalable blueprint for the agentic future — one built not on closed ecosystems, but on shared learning and modular intelligence.
1❤18
Наконец реализовал схему, когда ассистент может отвечать не на основе общих пре-тренированных знаний, а на основе конкретно загруженного текста. Убил на это 7 часов, хотя, как обычно все оказалось просто и можно объяснить за 10 минут. И никто доступа к вашим текстам иметь не будет.
1❤50
Всем доброе утро. У меня уже пол-второго в студии. Почему всё это круто? Это, собственно, то, что я давно-давно хотел.
Идея здесь в том, что, вы знаете, искусственный интеллект, каким бы вы ни пользовались — GPT или что-то другое — отвечает на основе предобученных данных. То есть где-то что-то они там наковыряли в интернете и так далее.
Но нам часто нужно, чтобы он отвечал на основе наших знаний — экспертных, каких угодно. Кейсов — навалом. Самый простейший кейс, который мне нужно было реализовать, на котором я тренировался, — это когда студенты задают вопросы: что-то с сайтом, не работает регистрация, видео и так далее. Все эти кейсы абсолютно стандартные, у меня всё это уже написано в помощи. И задача была, чтобы он отвечал не абстрактно, а именно на основе этого текста.
Но в целом это может быть всё, что угодно: юридический текст, поддержка какой-то компании, научный текст, психология, художественный текст — в том числе. Допустим, вы создали какое-то художественное произведение, а читатель хочет поговорить с каким-то героем. Ну, к примеру, из «Звёздных войн» — магистр Йода. Мы сейчас не будем говорить про авторские права, интеллектуальные права, но в целом — да.
Идея заключается в том, как сделать так, чтобы он отвечал именно на основе вашего текста, а не на основе своих предобученных данных. Хотя это было понятно ещё достаточно давно, но надо было всё это реализовать. У меня как раз определённый план к этому — к шестому уроку. Меня, конечно, мучает там много всяких моментов. И в том числе эту задачу надо было реализовать. Часов семь на это ушло. Причём задача не была сложной — просто надо было понять, как правильно всё подставлять, потому что где-то я не туда сворачивал, как это часто бывает.
Но в конечном итоге — победил. Там оказалось несколько вариантов. Один лобовой вариант — тоже интересный: можно заставлять его цитировать буквально текст. То есть, когда он находит наиболее релевантные куски в соответствии с запросом — и просто цитирует их дословно. Это один вариант.
А второй — более интересный: он анализирует запрос, потом читает текст, находит релевантный кусок и уже своими словами что-то объясняет. Ну и, собственно, всё это можно регулировать промтом.
Для меня было важно технически научиться это делать, потому что, в общем, оказалось, что это не так уж и сложно. И когда всё уже сделано технически — вы можете вставлять туда какие угодно тексты. И плюс — это абсолютно защищено. Никто не может это скачать или своровать. Просто технически невозможно. Это очень прикольная история.
Идея здесь в том, что, вы знаете, искусственный интеллект, каким бы вы ни пользовались — GPT или что-то другое — отвечает на основе предобученных данных. То есть где-то что-то они там наковыряли в интернете и так далее.
Но нам часто нужно, чтобы он отвечал на основе наших знаний — экспертных, каких угодно. Кейсов — навалом. Самый простейший кейс, который мне нужно было реализовать, на котором я тренировался, — это когда студенты задают вопросы: что-то с сайтом, не работает регистрация, видео и так далее. Все эти кейсы абсолютно стандартные, у меня всё это уже написано в помощи. И задача была, чтобы он отвечал не абстрактно, а именно на основе этого текста.
Но в целом это может быть всё, что угодно: юридический текст, поддержка какой-то компании, научный текст, психология, художественный текст — в том числе. Допустим, вы создали какое-то художественное произведение, а читатель хочет поговорить с каким-то героем. Ну, к примеру, из «Звёздных войн» — магистр Йода. Мы сейчас не будем говорить про авторские права, интеллектуальные права, но в целом — да.
Идея заключается в том, как сделать так, чтобы он отвечал именно на основе вашего текста, а не на основе своих предобученных данных. Хотя это было понятно ещё достаточно давно, но надо было всё это реализовать. У меня как раз определённый план к этому — к шестому уроку. Меня, конечно, мучает там много всяких моментов. И в том числе эту задачу надо было реализовать. Часов семь на это ушло. Причём задача не была сложной — просто надо было понять, как правильно всё подставлять, потому что где-то я не туда сворачивал, как это часто бывает.
Но в конечном итоге — победил. Там оказалось несколько вариантов. Один лобовой вариант — тоже интересный: можно заставлять его цитировать буквально текст. То есть, когда он находит наиболее релевантные куски в соответствии с запросом — и просто цитирует их дословно. Это один вариант.
А второй — более интересный: он анализирует запрос, потом читает текст, находит релевантный кусок и уже своими словами что-то объясняет. Ну и, собственно, всё это можно регулировать промтом.
Для меня было важно технически научиться это делать, потому что, в общем, оказалось, что это не так уж и сложно. И когда всё уже сделано технически — вы можете вставлять туда какие угодно тексты. И плюс — это абсолютно защищено. Никто не может это скачать или своровать. Просто технически невозможно. Это очень прикольная история.
1❤69
Forwarded from Kekenavts Analytics
Вообще забавно, что люди говорят о прогрессе ллмок как мусора, в то время как один чел с филдсовской премией просто искренне, как ребенок радуется им, проводит десятки презентаций и теперь имеет канал на ютабе на котором он использует ллмки для проверки и написания кода.
1❤22
Создал кастомного chatGPT, назвал его Мясником, загрузил Теорию Каст и Ролей, и теперь он может давать ответы на ее основе. Можете попробовать по ссылке: https://chatgpt.com/g/g-682ce66bcd248191ae1ca00f7ccb1be0-miasnik
Как работает?
1. Идете по этой ссылке: https://chatgpt.com/g/g-682ce66bcd248191ae1ca00f7ccb1be0-miasnik
2. Нажимаете кнопку, и чат выводит краткое описание - кто он, что он и что может (что не может).
3. Задаете любой вопрос. Получаете ответ.
4. можно делиться ответами, нажав кнопку поделиться в правом верхнем углу (в броузере или десктопе) или см. как на экране.
По этой ссылке пример диалога: https://chatgpt.com/share/682ceb9e-a4c0-8004-9c23-bcd303c5e30b
Как работает?
1. Идете по этой ссылке: https://chatgpt.com/g/g-682ce66bcd248191ae1ca00f7ccb1be0-miasnik
2. Нажимаете кнопку, и чат выводит краткое описание - кто он, что он и что может (что не может).
3. Задаете любой вопрос. Получаете ответ.
4. можно делиться ответами, нажав кнопку поделиться в правом верхнем углу (в броузере или десктопе) или см. как на экране.
По этой ссылке пример диалога: https://chatgpt.com/share/682ceb9e-a4c0-8004-9c23-bcd303c5e30b
7❤44