🚀 Codex CLI
"Модели o3 и o4-mini настолько сильны в программировании, что мы решили упростить их использование и выпустить новый продукт"" — Codex CLI - написал в своем аккаунт Альтман
💻 Codex CLI — это мощный программирующий агент, который работает локально на вашем компьютере.
- Чат-ориентированная разработка: Позволяет взаимодействовать с вашим репозиторием через диалоговый интерфейс.
- Выполнение кода: Способен запускать код, манипулировать файлами и выполнять итерации прямо в терминале.
- Интеграция с системами контроля версий: Обеспечивает работу под управлением систем контроля версий, таких как Git.
🌟 Полностью open source и уже доступен для скачивания!
https://github.com/openai/codex
@ai_machinelearning_big_data
#AI #OpenSource #CodexCLI #Coding #LLM #DevTools
"Модели o3 и o4-mini настолько сильны в программировании, что мы решили упростить их использование и выпустить новый продукт"" — Codex CLI - написал в своем аккаунт Альтман
💻 Codex CLI — это мощный программирующий агент, который работает локально на вашем компьютере.
- Чат-ориентированная разработка: Позволяет взаимодействовать с вашим репозиторием через диалоговый интерфейс.
- Выполнение кода: Способен запускать код, манипулировать файлами и выполнять итерации прямо в терминале.
- Интеграция с системами контроля версий: Обеспечивает работу под управлением систем контроля версий, таких как Git.
🌟 Полностью open source и уже доступен для скачивания!
npm install -g @openai/codexhttps://github.com/openai/codex
@ai_machinelearning_big_data
#AI #OpenSource #CodexCLI #Coding #LLM #DevTools
1❤71👍45🔥7🥰6🗿6😁4🤔4
OpenAI выкатила подробный разбор того, как работает Codex CLI — локальный агент, который работает с кодом на вашей машине. Если вы пилите своих агентов — это мастрид про механику работы с контекстом и борьбы за кэш.
Работает это так: вы кидаете запрос, а система собирает огромный промпт с инструкциями. На этапе инференса модель выдает либо текст, либо запрос на вызов инструмента.
Агент выполняет команду, вклеивает результат обратно в промпт и снова стучится к модели. И так до победного, пока ассистент не решит, что задача выполнена.
Главное помнить про лимит: инструкции из AGENTS.md и корневых папок проекта агрегируются в один JSON, который ограничен 32 Kb. Больше впихнуть не получится.
Тут кроется главная боль. История диалога растет с каждым сообщением, и этот хвост приходится пересылать заново при каждом запросе. С такой механикой стоимость должна расти квадратично, и это было бы финансово, мягко говоря, чувствительно
Но OpenAI подумала о нас - чтобы мы не разорились, используется кэширование промптов. Если префикс запроса не меняется, инференс остается линейным. И как бы все ок, но кэш невероятно чувствителен. Стоит поменять порядок инструментов в списке или чуть подправить конфиг сэндбокса — все, кэш-хита не будет и придется расчехлять заначку.
Заметили, что из API исчез previous_response_id? Это не баг, а фича. OpenAI перешли на полностью на модель без сохранения состояния. Это нужно для Zero Data Retention конфигураций, чтобы провайдер вообще не хранил ваши данные.
Даже когда агент передает цепочку ризонинга из прошлых шагов, она идет в зашифрованном поле. Ключ на сервере, данные у клиента, никто ничего не хранит.
Когда контекстное окно начинает трещать по швам, включается механизм компакции. Раньше /compact вызывали руками, теперь за это отвечает эндпоинт.
Вместо того чтобы просто выкидывать старые сообщения, модель сжимает их в особый тип блока. Это такой черный ящик с зашифрованным смыслом беседы. Он занимает минимум места, но позволяет модели не забывать, о чем шла речь пять минут назад. Процесс запускается сам, как только вы упираетесь в auto_compact_limit.
Кстати, если вы не знали: Codex CLI работает не только с серверами OpenAI. Флаг --oss подключает локальные модели через Ollama или LM Studio.
В следующих статьях обещают подробности про архитектуру CLI, как реализовано использование инструментов и модель песочницы Codex.
@ai_machinelearning_big_data
#AI #ML #CodexCLI #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
❤42👍17🔥10🤣2👏1😁1💘1