Media is too big
VIEW IN TELEGRAM
OpenCode.ai - бесплатный открытый аналог СlaudeСode
- Нативный TUI. Гибкий, типовой интерфейс терминала с возможностью настройки тем.
- LSP включен. Автоматическая загрузка правильных LSP для LLM.
- Многосеансовый запуск нескольких агентов параллельно в одном проекте.
- Обмен ссылками. Поделитесь ссылкой на любой сеанс для получения справки или отладки.
- Claude Pro. Можно авторизоваться в Anthropic, чтобы использовать свою учетную запись Claude Pro или Max.
- Любые поставщики LLM моделей: 75+ через Models.dev, включая локальные модели.
- Совместим с любым IDE, так как работает в командной строке
#OpenCode #dev
———
@tsingular
- Нативный TUI. Гибкий, типовой интерфейс терминала с возможностью настройки тем.
- LSP включен. Автоматическая загрузка правильных LSP для LLM.
- Многосеансовый запуск нескольких агентов параллельно в одном проекте.
- Обмен ссылками. Поделитесь ссылкой на любой сеанс для получения справки или отладки.
- Claude Pro. Можно авторизоваться в Anthropic, чтобы использовать свою учетную запись Claude Pro или Max.
- Любые поставщики LLM моделей: 75+ через Models.dev, включая локальные модели.
- Совместим с любым IDE, так как работает в командной строке
#OpenCode #dev
———
@tsingular
🔥4❤2👍2⚡1✍1
Коллекции субагентов и скиллов для Claudecode
Нашел тут пару полезных коллекций:
1. ClaudeCode Templates
удобный каталог с поиском, собранный из разных источников, в том числе из официальных от Антропика и разных других курируемых списков.
2. Claude Code Subagents Collection
тут самописные агенты, они чуть попроще, но удобно разбиты по 10 доменам и в основном фокус на разработке.
Очень понравилось почитать официальные примеры от Антропика
там есть ссылка на пример Skills Notion -
т.е. можно прям настроить CC сохранять знания в базе Notion дополняя страницы и сущности (наверняка такое же можно провернуть и с Obsidian, кому не нравится отдавать свои заметки в облако)
Так вот, берём, например, файл notion-knowledge-capture.zip - качаем, ставим в скиллы и в нём читаем как именно эти скиллы создаются не любителями, а профессиональными командами. Есть чему поучиться. :)
Ну и самое вкусное, что все эти скиллы и субагенты поддерживаются, например, в opencode - причем не надо ничего менять, - просто копируем как то так:
И используем скиллы бесплатно.
Для Opencode рекомендую GLM 4.7 - там за 6 баксов в месяц китайская модель с производительностью Соннета.
Но если по какой-то причине вам opencode не нравится и вы хотите именно ClaudeCode с бесплатными моделями использовать, - есть роутер.
#Skills #ClaudeCode #OpenCode
———
@tsingular
Нашел тут пару полезных коллекций:
1. ClaudeCode Templates
удобный каталог с поиском, собранный из разных источников, в том числе из официальных от Антропика и разных других курируемых списков.
2. Claude Code Subagents Collection
тут самописные агенты, они чуть попроще, но удобно разбиты по 10 доменам и в основном фокус на разработке.
Очень понравилось почитать официальные примеры от Антропика
там есть ссылка на пример Skills Notion -
т.е. можно прям настроить CC сохранять знания в базе Notion дополняя страницы и сущности (наверняка такое же можно провернуть и с Obsidian, кому не нравится отдавать свои заметки в облако)
Так вот, берём, например, файл notion-knowledge-capture.zip - качаем, ставим в скиллы и в нём читаем как именно эти скиллы создаются не любителями, а профессиональными командами. Есть чему поучиться. :)
Ну и самое вкусное, что все эти скиллы и субагенты поддерживаются, например, в opencode - причем не надо ничего менять, - просто копируем как то так:
Project Claude-compatible: .claude/skills/<name>/SKILL.md
Global Claude-compatible: ~/.claude/skills/<name>/SKILL.md
И используем скиллы бесплатно.
Для Opencode рекомендую GLM 4.7 - там за 6 баксов в месяц китайская модель с производительностью Соннета.
Но если по какой-то причине вам opencode не нравится и вы хотите именно ClaudeCode с бесплатными моделями использовать, - есть роутер.
#Skills #ClaudeCode #OpenCode
———
@tsingular
✍7🔥4⚡3
This media is not supported in your browser
VIEW IN TELEGRAM
Opencode теперь можно привязать к GitHub
Если есть платная подписка на Github, то к ней теперь можно прикрутить любые модели и агентов через OC.
#opencode #github #dev
------
@tsingular
Если есть платная подписка на Github, то к ней теперь можно прикрутить любые модели и агентов через OC.
#opencode #github #dev
------
@tsingular
🔥10⚡4✍2❤1
В копилку надстроек над opencode, которые поднимают его на уровень claudecode и antigravity
https://github.com/obra/superpowers/tree/main
https://github.com/code-yeongyu/oh-my-opencode
Если нашли еще полезные,- делитесь в комментариях.
#dev #opencode
------
@tsingular
https://github.com/obra/superpowers/tree/main
https://github.com/code-yeongyu/oh-my-opencode
Если нашли еще полезные,- делитесь в комментариях.
#dev #opencode
------
@tsingular
👍10⚡4✍2
HexStrike AI + OpenCode: автопентест в Kali Linux
С декабря 2025 HexStrike AI официально в репозиториях Kali Linux — это агент для пентеста, который умеет сам вызывать инструменты и строить цепочки атак через Model Context Protocol от Anthropic.
На хабре вышла интересная статья от @chumikovsec где он делится, как привязал HexStrike через MCP к OpenCode, что позволило агенту писать скрипты, устанавливать тулы и работать с файловой системой.
В демо агент решил сложную CTF-задачу за 5:43 и нашёл флаг.
Т.е. Opencode использует HexStrike как инструмент для пентеста! :)
Запоминаем, пользуемся только для укрепления безопасности!
#HexStrike #OpenCode #cybersecurity
———
@tsingular
С декабря 2025 HexStrike AI официально в репозиториях Kali Linux — это агент для пентеста, который умеет сам вызывать инструменты и строить цепочки атак через Model Context Protocol от Anthropic.
На хабре вышла интересная статья от @chumikovsec где он делится, как привязал HexStrike через MCP к OpenCode, что позволило агенту писать скрипты, устанавливать тулы и работать с файловой системой.
В демо агент решил сложную CTF-задачу за 5:43 и нашёл флаг.
Т.е. Opencode использует HexStrike как инструмент для пентеста! :)
Запоминаем, пользуемся только для укрепления безопасности!
#HexStrike #OpenCode #cybersecurity
———
@tsingular
🔥12✍6⚡2❤1
OpenWork: открытая альтернатива Claude Cowork
Вы будете смеяться, но у нас ещё один оупенсорс конкурент Cowork.
На этот раз это обёртка вокруг opencode.
При этом обратите внимание, - название OpenWork точно такое же, как в аналогичном решении от LangChain. Поэтому смотрите, - не перепутайте.
А так все стандартно, - выбираешь папку проекта, запускаешь задачу, смотришь план выполнения, подтверждаешь разрешения когда нужно. Всё через GUI.
Внутри два режима:
- Host mode: поднимает OpenCode локально на свободном порту
- Client mode: коннектится к удалённому серверу
Есть менеджер навыков (skills) — можно ставить плагины через opkg install или импортировать локальные папки.
#OpenWork #OpenCode #Cowork
———
@tsingular
Вы будете смеяться, но у нас ещё один оупенсорс конкурент Cowork.
На этот раз это обёртка вокруг opencode.
При этом обратите внимание, - название OpenWork точно такое же, как в аналогичном решении от LangChain. Поэтому смотрите, - не перепутайте.
А так все стандартно, - выбираешь папку проекта, запускаешь задачу, смотришь план выполнения, подтверждаешь разрешения когда нужно. Всё через GUI.
Внутри два режима:
- Host mode: поднимает OpenCode локально на свободном порту
- Client mode: коннектится к удалённому серверу
Есть менеджер навыков (skills) — можно ставить плагины через opkg install или импортировать локальные папки.
#OpenWork #OpenCode #Cowork
———
@tsingular
1❤5✍4👍3⚡1🎉1
Media is too big
VIEW IN TELEGRAM
Интересный пример использования claudecode для автоматического исправления ошибок в n8n
Ловит error события для процесса, правит с помощью CC ( opencode тоже справится), тут помогут n8n-skills, кстати.
#n8n #claudecode #opencode #dev
———
@tsingular
Ловит error события для процесса, правит с помощью CC ( opencode тоже справится), тут помогут n8n-skills, кстати.
#n8n #claudecode #opencode #dev
———
@tsingular
1🔥8❤2✍2
🐳 Docker Model Runner + OpenCode, - гайд по сборке безопасной среды для локальной ИИ разработки
Докер выпустили пошаговую инструкцию как скрестить opencode в контейнере с DMR и крутить модели и ИИ разраба локально в изолированной среде.
Docker Model Runner (DMR) при этом позволяет обеспечить:
- Локальный хаб-прокси для LLM с OpenAI-совместимым API
- Прямой пулл моделей с HuggingFace + автоконверсия в OCI-артефакты
- Переупаковка с кастомными параметрами (контекст, квантизация)
- Пуш в приватный registry → единый источник моделей для команды
Чем-то похоже по функционалу на ollama
Вместе получается: self-hosted AI-кодинг с управляемым пайплайном моделей. Промпты идут только на
#Docker #OpenCode #LocalLLM #HuggingFace
———
@tsingular
Докер выпустили пошаговую инструкцию как скрестить opencode в контейнере с DMR и крутить модели и ИИ разраба локально в изолированной среде.
Docker Model Runner (DMR) при этом позволяет обеспечить:
- Локальный хаб-прокси для LLM с OpenAI-совместимым API
- Прямой пулл моделей с HuggingFace + автоконверсия в OCI-артефакты
- Переупаковка с кастомными параметрами (контекст, квантизация)
- Пуш в приватный registry → единый источник моделей для команды
Чем-то похоже по функционалу на ollama
# пулл с HuggingFace
docker model pull huggingface.co/unsloth/Ministral-3-14B-Instruct-2512-GGUF
# кастомизация контекста
docker model package --from gpt-oss --context-size 128000 gpt-oss:128K
Вместе получается: self-hosted AI-кодинг с управляемым пайплайном моделей. Промпты идут только на
localhost:12434, версионирование моделей как артефактов, стандартизация в команде без ручной настройки у каждого.#Docker #OpenCode #LocalLLM #HuggingFace
———
@tsingular
1✍4👍2⚡1🤣1
Ollama launch: *code агенты и GLM
Ollama выпустила команду launch — автоматический запуск инструментов вроде Claude Code, OpenCode, Codex и Droid без возни с переменными окружения.
Скачал Ollama v0.15+, выполнил ollama pull glm-4.7-flash (требует ~23 ГБ видеопамяти при контексте 64K токенов), затем ollama launch claude — и всё работает.
Доступны локальные модели (glm-4.7-flash, qwen3-coder, gpt-oss:20b) и облачные версии с полным контекстом (glm-4.7:cloud, minimax-m2.1:cloud, qwen3-coder:480b-cloud).
Для тех, кто не тянет локально, — облачный сервис с 5-часовыми сессиями кодинга даже на бесплатном тарифе.
Ollama что ты делаешь, ахаха, прекрати!
Как сказать что твой коллектив вайбкодит, не говоря, что твой коллектив вайбкодит?
Релизы каждый день!
#Ollama #claudecode #opencode #GLM
———
@tsingular
Ollama выпустила команду launch — автоматический запуск инструментов вроде Claude Code, OpenCode, Codex и Droid без возни с переменными окружения.
Скачал Ollama v0.15+, выполнил ollama pull glm-4.7-flash (требует ~23 ГБ видеопамяти при контексте 64K токенов), затем ollama launch claude — и всё работает.
Доступны локальные модели (glm-4.7-flash, qwen3-coder, gpt-oss:20b) и облачные версии с полным контекстом (glm-4.7:cloud, minimax-m2.1:cloud, qwen3-coder:480b-cloud).
Для тех, кто не тянет локально, — облачный сервис с 5-часовыми сессиями кодинга даже на бесплатном тарифе.
Ollama что ты делаешь, ахаха, прекрати!
Как сказать что твой коллектив вайбкодит, не говоря, что твой коллектив вайбкодит?
#Ollama #claudecode #opencode #GLM
———
@tsingular
🔥6❤1