This media is not supported in your browser
VIEW IN TELEGRAM
Если последний раз смотрели на Claude Code полгода назад, открывайте заново. За Q1 2026 Anthropic выкатил столько, что инструмент перестал быть «чатом с кодом» и стал автономной рабочей единицей.
Что реально поменялось. Routines запускают агента по расписанию на облачной инфраструктуре Anthropic, то есть ночью можно триажить баги из Linear, а утром получать готовый PR - ноутбук при этом выключен.
Remote Control разрывает привязку к локальной машине: Claude Code крутится на сервере или в CI, а вы даёте команды через API, вебхуки или с телефона. Computer Use дотягивается туда, куда не достают терминальные тулы - браузер, десктоп-приложения, системный UI. Channels решают координацию между несколькими агентами через типизированные сообщения со схемой, без кустарных парсеров.
Под капотом тоже сдвиг. По умолчанию теперь Opus 4.7, контекст до 1M токенов на Max и Enterprise, Auto Mode пропускает безопасные действия без подтверждения и блокирует рискованные (93% аппрувов и так были формальностью).
Вышла интеграция голоса на 20 языках с пушем-ту-ток, включая русский.
Как с этим работать, чтобы не разориться. Token-стоимость растёт геометрически: каждый следующий ход пересылает всю историю, и 200-й ход дороже 5-го не потому что задача сложнее, а потому что Claude заново читает 199 сообщений.
Практические приёмы: держите CLAUDE.md до 200 строк, он инжектится в каждый запрос. Используйте /compact после завершения фичи, чтобы свернуть промежуточные попытки. На смене темы жмите /clear. Отключайте неиспользуемые MCP-серверы, один подключённый сервер стоит до 18K токенов оверхеда на каждый ход.
По дефолту гоняйте Sonnet, на Opus переключайтесь руками.
Тайминг задач. Короткие правки и написание кода - обычный интерактивный режим. Большие рефакторы и миграции - Plan mode, где вы ревьюите план до запуска.
Рутинные задачи - Routines на расписании. Многошаговые автономные цепочки — Remote Control плюс Auto Mode плюс Channels для координации.
Главный сдвиг в том, что разработчик из исполнителя превращается в оркестратора: не пишет код построчно, а управляет парой-тройкой параллельных сессий через сайдбар Mission Control, ревьюит диффы и принимает стратегические решения. Кто не перестроится, тот будет писать код вручную, пока конкуренты закрывают спринты за пару часов.
Документация и свежие релизы: code.claude.com/docs/en/whats-new
https://www.youtube.com/shorts/y5L8i8MECo4
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11🔥5👍2😁2
👉 Поднимите приватный инференс на выделенном железе
В Selectel сделали поддержку видеокарт в управляемых кластерах Kubernetes на выделенных серверах.
Теперь модели можно запускать на отдельном железе: стабильная производительность, изоляция данных и конфигурации под разные задачи. По стоимости — до 40% дешевле, чем использовать ускорители в облачных серверах.
Попробуйте сами, на тест дают до 30 000 бонусных рублей: https://slc.tl/tzexo
Реклама. АО "Селектел". erid:2W5zFGLoYXT
В Selectel сделали поддержку видеокарт в управляемых кластерах Kubernetes на выделенных серверах.
Теперь модели можно запускать на отдельном железе: стабильная производительность, изоляция данных и конфигурации под разные задачи. По стоимости — до 40% дешевле, чем использовать ускорители в облачных серверах.
Попробуйте сами, на тест дают до 30 000 бонусных рублей: https://slc.tl/tzexo
Реклама. АО "Селектел". erid:2W5zFGLoYXT
🗂️ Живая база лучших AI-инструментов - обновляется с 2023 и держит только актуальное
В одном месте собрали весь стек, который реально используют сейчас:
- свежие LLM и новые релизы
- мультимодалка: изображения, видео, аудио
- AI-агенты и автоматизация
- dev-платформы и API
- инфраструктура, плагины и утилиты
Это не статичный список, а постоянно обновляемая карта рынка.
Сохрани - пригодится.
https://github.com/eudk/awesome-ai-tools
В одном месте собрали весь стек, который реально используют сейчас:
- свежие LLM и новые релизы
- мультимодалка: изображения, видео, аудио
- AI-агенты и автоматизация
- dev-платформы и API
- инфраструктура, плагины и утилиты
Это не статичный список, а постоянно обновляемая карта рынка.
Сохрани - пригодится.
https://github.com/eudk/awesome-ai-tools
👍5🔥2🥰1🥴1
🚀 OpenMythos. Впечатление смешанное.
Проект честно помечен как theoretical reconstruction и hypothesis document, автор не выдаёт его за утечку, в README есть дисклеймер про отсутствие связи с Anthropic.
Архитектурные идеи не с потолка: Recurrent-Depth Transformer, MoE с роутингом в духе DeepSeek, Multi-Latent Attention, ACT-халтинг, Universal Transformers - всё это реальные направления из литературы.
Код рабочий, лицензия MIT, есть документация и конфиг через единый dataclass. Для изучения looped-трансформеров это полезная песочница.
Минусы: в посте подаётся как реконструкция Claude Mythos, но Anthropic не публиковала технических деталей Mythos, так что это по сути догадки, а не восстановление. Цифра 4.7K звёзд для автора с историей громких репозиториев мало говорит о качестве, kyegomez известен склонностью к быстрым имплементациям чужих идей с громкими названиями, к заявлениям стоит относиться осторожно.
Фраза «770M параметров догоняют 1.3B трансформер» основана на эксперименте уровня Tiny Shakespeare, экстраполировать на фронтир-модели рано. Бенчмарков в масштабе, сравнимом с реальными LLM, в репо нет.
Итог: любопытный educational-проект и набор гипотез для обсуждения, но не «открытый Mythos». Читать как discussion paper с кодом, а не как воспроизведение модели.
github.com/kyegomez/OpenMythos
Проект честно помечен как theoretical reconstruction и hypothesis document, автор не выдаёт его за утечку, в README есть дисклеймер про отсутствие связи с Anthropic.
Архитектурные идеи не с потолка: Recurrent-Depth Transformer, MoE с роутингом в духе DeepSeek, Multi-Latent Attention, ACT-халтинг, Universal Transformers - всё это реальные направления из литературы.
Код рабочий, лицензия MIT, есть документация и конфиг через единый dataclass. Для изучения looped-трансформеров это полезная песочница.
Минусы: в посте подаётся как реконструкция Claude Mythos, но Anthropic не публиковала технических деталей Mythos, так что это по сути догадки, а не восстановление. Цифра 4.7K звёзд для автора с историей громких репозиториев мало говорит о качестве, kyegomez известен склонностью к быстрым имплементациям чужих идей с громкими названиями, к заявлениям стоит относиться осторожно.
Фраза «770M параметров догоняют 1.3B трансформер» основана на эксперименте уровня Tiny Shakespeare, экстраполировать на фронтир-модели рано. Бенчмарков в масштабе, сравнимом с реальными LLM, в репо нет.
Итог: любопытный educational-проект и набор гипотез для обсуждения, но не «открытый Mythos». Читать как discussion paper с кодом, а не как воспроизведение модели.
github.com/kyegomez/OpenMythos
👍7❤6🥱2🔥1🤔1
Изучаем машинное обучение всё лето: Яндекс приглашает в Летний кампус ML-Академии
Познакомьтесь с трендами ML‑индустрии и получите прикладной опыт в московском офисе Яндекса.
3 месяца студенты и начинающие ML-спецы будут работать совместно с экспертами из Яндекса над задачами по компьютерному зрению, обработке естественного языка, рекомендательным системам, LLM и другим ML-направлениям. В конце обучения участников ждет выпускной.
Обучение бесплатное, участникам из других городов Яндекс оплачивает переезд и проживание. А еще это хороший шанс начать карьеру: лучших выпускников Академии пригласят на стажировку.
Подать заявку можно тут.
Познакомьтесь с трендами ML‑индустрии и получите прикладной опыт в московском офисе Яндекса.
3 месяца студенты и начинающие ML-спецы будут работать совместно с экспертами из Яндекса над задачами по компьютерному зрению, обработке естественного языка, рекомендательным системам, LLM и другим ML-направлениям. В конце обучения участников ждет выпускной.
Обучение бесплатное, участникам из других городов Яндекс оплачивает переезд и проживание. А еще это хороший шанс начать карьеру: лучших выпускников Академии пригласят на стажировку.
Подать заявку можно тут.
❤10👍4🔥4💊2😁1💯1
Mythos, закрытая модель Anthropic, заточенная под поиск уязвимостей, утекла за пределы круга избранных.
По данным Bloomberg, неизвестная группа получила к ней регулярный доступ через стороннего подрядчика и даже прислала журналистам скриншоты и живую демонстрацию работы.
Самое ироничное, что Mythos создавалась в рамках Project Glasswing, идея которого как раз в ограниченной дистрибуции: пусть модель видят только проверенные команды, и тогда её мощь не обернётся против индустрии.
План красивый, реальность жёстче. Ядро Anthropic никто не ломал. Ломать не пришлось. Хватило одного партнёра с дырявым контролем доступа.
И вот здесь начинается настоящий сюжет. Модель, которая ищет уязвимости быстрее людей, сама оказалась уязвима через самое слабое звено периметра. Подрядчик, чужой ноутбук, забытый токен, предсказуемое имя сервиса, и всё, твой закрытый оружейный ИИ гуляет в чужих руках.
Вывод неприятный, но его придётся принять всем, кто работает с фронтирными моделями. Секретность ИИ заканчивается там, где начинается цепочка поставок. Можно сколько угодно прятать веса, фильтровать доступ и подписывать NDA, но если у вендора слабый пароль, вся архитектура доверия рушится за одну ночь.
Mythos не первый такой случай и точно не последний. Вопрос уже не в том, утекают ли мощные модели. Вопрос в том, кто и когда поймает следующую.
techcrunch.com/2026/04/21/unauthorized-group-has-gained-access-to-anthropics-exclusive-cyber-tool-mythos-report-claims/
По данным Bloomberg, неизвестная группа получила к ней регулярный доступ через стороннего подрядчика и даже прислала журналистам скриншоты и живую демонстрацию работы.
Самое ироничное, что Mythos создавалась в рамках Project Glasswing, идея которого как раз в ограниченной дистрибуции: пусть модель видят только проверенные команды, и тогда её мощь не обернётся против индустрии.
План красивый, реальность жёстче. Ядро Anthropic никто не ломал. Ломать не пришлось. Хватило одного партнёра с дырявым контролем доступа.
И вот здесь начинается настоящий сюжет. Модель, которая ищет уязвимости быстрее людей, сама оказалась уязвима через самое слабое звено периметра. Подрядчик, чужой ноутбук, забытый токен, предсказуемое имя сервиса, и всё, твой закрытый оружейный ИИ гуляет в чужих руках.
Вывод неприятный, но его придётся принять всем, кто работает с фронтирными моделями. Секретность ИИ заканчивается там, где начинается цепочка поставок. Можно сколько угодно прятать веса, фильтровать доступ и подписывать NDA, но если у вендора слабый пароль, вся архитектура доверия рушится за одну ночь.
Mythos не первый такой случай и точно не последний. Вопрос уже не в том, утекают ли мощные модели. Вопрос в том, кто и когда поймает следующую.
techcrunch.com/2026/04/21/unauthorized-group-has-gained-access-to-anthropics-exclusive-cyber-tool-mythos-report-claims/
❤18🔥6🤣6👍5👨💻3
🚀 50+ команд Claude Code, которые реально ускоряют разработку
Если ты используешь Claude Code как обычный чат - ты теряешь 80% его мощности.
Это не просто AI. Это полноценная система разработки внутри терминала.
Вот как его правильно использовать:
База, без которой никуда:
-
-
-
-
Работа с кодом:
-
-
-
-
Контроль процесса:
-
-
-
Продвинутые фичи:
-
-
-
-
Модели и режимы:
-
-
-
Что важно знать:
- Claude Code = не чат, а инженер внутри проекта
- память (CLAUDE.md) решает больше, чем промпты
- агенты дают x2-x5 ускорение на сложных задачах
Если ты используешь Claude Code как обычный чат - ты теряешь 80% его мощности.
Это не просто AI. Это полноценная система разработки внутри терминала.
Вот как его правильно использовать:
База, без которой никуда:
-
/init - создаёт CLAUDE.md и память проекта -
/memory - открывает контекст проекта -
/add-dir - подключает новые директории -
/compact - чистит контекст и экономит токены Работа с кодом:
-
/diff - показывает изменения -
/review - ревью кода -
/simplify - 3 агента анализируют код -
/debug - системный дебаг Контроль процесса:
-
/plan - сначала думает, потом пишет код -
/permissions - контроль действий -
--dangerously-skip-permissions - полный автопилот Продвинутые фичи:
-
/agents - параллельные агенты -
/loop - повтор задач -
/bash - выполнение команд -
/remote-control - управление через браузер Модели и режимы:
-
/model - переключение моделей -
/effort - глубина мышления -
/fast - быстрый режим Что важно знать:
- Claude Code = не чат, а инженер внутри проекта
- память (CLAUDE.md) решает больше, чем промпты
- агенты дают x2-x5 ускорение на сложных задачах
❤10👍9🔥6🥱1🌭1
Forwarded from Machinelearning
🚀 OpenAI представила GPT-5.5
Она заметно сильнее в самом главном: код, ресёрч, аналитика и работа с документами.
GPT 5.5 хороша в многоступенчатых задачах.
И почти во всём обходит конкурентов - например, на Terminal-Bench выбивает 82,7% против 69% у свежей Claude.
GPT-5.5 уже доступна пользователям Plus, Pro, Business и Enterprise - в ChatGPT и Codex.
Модель стала дороже: ~$5 / $30 за млн токенов.
Уже раскатывают на всех платных подписчиков.
Тестим! 🔥
https://openai.com/index/introducing-gpt-5-5/
Она заметно сильнее в самом главном: код, ресёрч, аналитика и работа с документами.
GPT 5.5 хороша в многоступенчатых задачах.
И почти во всём обходит конкурентов - например, на Terminal-Bench выбивает 82,7% против 69% у свежей Claude.
GPT-5.5 уже доступна пользователям Plus, Pro, Business и Enterprise - в ChatGPT и Codex.
Модель стала дороже: ~$5 / $30 за млн токенов.
Уже раскатывают на всех платных подписчиков.
Тестим! 🔥
https://openai.com/index/introducing-gpt-5-5/
❤8🔥5🦄3👍2
Anthropic признали, что Claude Code действительно тупил, и раздали всем компенсацию
Целый месяц разработчики жаловались: Claude Code стал хуже писать код, тормозит, ломает то, что раньше делал с закрытыми глазами. Anthropic сначала отмалчивались, как это обычно и бывает у больших лабораторий.
Но вчера вечером команда ClaudeDevs выкатила пост-мортем и признала: да, проблема была, мы её нашли, мы её починили.
Интересно, что дело оказалось не в самой модели. По словам Anthropic, регрессии в Claude не было, API тоже работал штатно. Сломались три вещи внутри обвязки Claude Code и Agent SDK, на котором ещё сидит Cowork, поэтому ему тоже прилетело. Конкретные баги спрятаны в пост-мортеме на сайте Anthropic, но суть в том, что пользователи месяц страдали из-за харнесса, а не из-за мозгов модели.
Фикс раскатали в версии 2.1.116 и выше, лимиты использования обнулили всем подписчикам, то есть по сути подарили ещё один цикл квоты. Плюс пообещали изменить внутренние процессы: больше догфудинга с теми же конфигами, что у реальных юзеров, и расширенный набор эвалов, которые будут гонять против каждого изменения системного промпта отдельно.
А вот под постом народ не в восторге. Самый показательный комментарий собрал тихую волну лайков: «Могли бы просто сказать, что вас поймали на троттлинге». Кто-то жалуется, что лимиты и так должны были сброситься сегодня, так что никакой это не жест доброй воли.
Другие напоминают, что проблема видна не только в Claude Code, но и через сторонние обвязки к API, значит, три бага это явно не всё. Есть и те, кто благодарит за честность: мол, другие команды в такой ситуации уходят в тишину или валят всё на «оптимизацию», а тут хотя бы признали вину и починили.
Отдельно упомянули параллель с OpenAI: осенью 2023 года пользователи GPT-4 месяцами кричали про деградацию, а OpenAI отвечали сухим «мы модель не тупили» и никакого пост-мортема так и не выпустили. На этом фоне Anthropic выглядят прилично, хотя осадочек у коммьюнити всё равно остался, и многие уже поглядывают в сторону выходящего сегодня Codex.
Если вы последний месяц материли Claude Code и думали, что сходите с ума, вы не сходили. Обновляйтесь до 2.1.116 и забирайте сброшенные лимиты, пока дают.
https://x.com/ClaudeDevs/status/2047371123185287223
Целый месяц разработчики жаловались: Claude Code стал хуже писать код, тормозит, ломает то, что раньше делал с закрытыми глазами. Anthropic сначала отмалчивались, как это обычно и бывает у больших лабораторий.
Но вчера вечером команда ClaudeDevs выкатила пост-мортем и признала: да, проблема была, мы её нашли, мы её починили.
Интересно, что дело оказалось не в самой модели. По словам Anthropic, регрессии в Claude не было, API тоже работал штатно. Сломались три вещи внутри обвязки Claude Code и Agent SDK, на котором ещё сидит Cowork, поэтому ему тоже прилетело. Конкретные баги спрятаны в пост-мортеме на сайте Anthropic, но суть в том, что пользователи месяц страдали из-за харнесса, а не из-за мозгов модели.
Фикс раскатали в версии 2.1.116 и выше, лимиты использования обнулили всем подписчикам, то есть по сути подарили ещё один цикл квоты. Плюс пообещали изменить внутренние процессы: больше догфудинга с теми же конфигами, что у реальных юзеров, и расширенный набор эвалов, которые будут гонять против каждого изменения системного промпта отдельно.
А вот под постом народ не в восторге. Самый показательный комментарий собрал тихую волну лайков: «Могли бы просто сказать, что вас поймали на троттлинге». Кто-то жалуется, что лимиты и так должны были сброситься сегодня, так что никакой это не жест доброй воли.
Другие напоминают, что проблема видна не только в Claude Code, но и через сторонние обвязки к API, значит, три бага это явно не всё. Есть и те, кто благодарит за честность: мол, другие команды в такой ситуации уходят в тишину или валят всё на «оптимизацию», а тут хотя бы признали вину и починили.
Отдельно упомянули параллель с OpenAI: осенью 2023 года пользователи GPT-4 месяцами кричали про деградацию, а OpenAI отвечали сухим «мы модель не тупили» и никакого пост-мортема так и не выпустили. На этом фоне Anthropic выглядят прилично, хотя осадочек у коммьюнити всё равно остался, и многие уже поглядывают в сторону выходящего сегодня Codex.
Если вы последний месяц материли Claude Code и думали, что сходите с ума, вы не сходили. Обновляйтесь до 2.1.116 и забирайте сброшенные лимиты, пока дают.
https://x.com/ClaudeDevs/status/2047371123185287223
❤8👍7🥴4🔥2😍2🫡2🎉1
Forwarded from Machinelearning
🚀 DeepSeek выкатили V4 и сделали то, к чему все шли последние два года.
Длинный контекст больше не фича для демо. Теперь это базовый уровень.
Пока Запад празднует релизы с пафосными стримами, китайцы из DeepSeek сегодня утром просто выложили в Hugging Face две открытые модели и пошли пить чай. А теперь весь твиттер пытается осознать, что произошло. V4-Pro на 1.6 триллиона параметров с 49 миллиардами активных и V4-Flash на 284 миллиарда с 13 активными. Обе открытые, обе с миллионом контекста по дефолту, обе уже доступны через API и на chat.deepseek.com.
Главная фишка даже не в размере, а в том, что DeepSeek пересобрали внимание. Они запихнули в модель токенную компрессию и свою DeepSeek Sparse Attention, за счёт чего длинный контекст стал буквально дешёвым.
Не «технически возможным за пять долларов за запрос», как у конкурентов, а реально дешёвым. 1М теперь стандарт во всех официальных сервисах, а не премиум-опция за отдельную плату.
По цифрам V4-Pro претендует на открытый SOTA в агентном кодинге, тащит математику и STEM и в общих знаниях уступает только Gemini 3.1 Pro. Flash-версия идёт следом почти вплотную по ризонингу и ровно держит планку Pro на простых агентных задачах, но с меньшей задержкой и смешным прайсом.
Отдельно интересно, что API теперь поддерживает и формат OpenAI ChatCompletions, и Anthropic, с переключением между Thinking и Non-Thinking режимами. Старые deepseek-chat и deepseek-reasoner отключат 24 июля 2026, так что у команд есть три месяца на миграцию.
И конечно, DeepSeek не забыли ткнуть Anthropic в бок: в треде прямо написано, что V4 «бесшовно интегрируется с Claude Code, OpenClaw и OpenCode». То есть пока у Anthropic вчера был пост-мортем про сломанный харнесс, DeepSeek сегодня предлагает подменить им модель и сэкономить.
Закрытые лаборатории будут делать вид, что ничего не случилось, но стоимость миллиона токенов контекста только что стала публичной ценой, и от неё уже не отмотаешь.
📄 Tech Report: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
🤗 Open Weights: https://huggingface.co/collections/deepseek-ai/deepseek-v4
@ai_machinelearning_big_data
#DeepSeek
Длинный контекст больше не фича для демо. Теперь это базовый уровень.
Пока Запад празднует релизы с пафосными стримами, китайцы из DeepSeek сегодня утром просто выложили в Hugging Face две открытые модели и пошли пить чай. А теперь весь твиттер пытается осознать, что произошло. V4-Pro на 1.6 триллиона параметров с 49 миллиардами активных и V4-Flash на 284 миллиарда с 13 активными. Обе открытые, обе с миллионом контекста по дефолту, обе уже доступны через API и на chat.deepseek.com.
Главная фишка даже не в размере, а в том, что DeepSeek пересобрали внимание. Они запихнули в модель токенную компрессию и свою DeepSeek Sparse Attention, за счёт чего длинный контекст стал буквально дешёвым.
Не «технически возможным за пять долларов за запрос», как у конкурентов, а реально дешёвым. 1М теперь стандарт во всех официальных сервисах, а не премиум-опция за отдельную плату.
По цифрам V4-Pro претендует на открытый SOTA в агентном кодинге, тащит математику и STEM и в общих знаниях уступает только Gemini 3.1 Pro. Flash-версия идёт следом почти вплотную по ризонингу и ровно держит планку Pro на простых агентных задачах, но с меньшей задержкой и смешным прайсом.
Отдельно интересно, что API теперь поддерживает и формат OpenAI ChatCompletions, и Anthropic, с переключением между Thinking и Non-Thinking режимами. Старые deepseek-chat и deepseek-reasoner отключат 24 июля 2026, так что у команд есть три месяца на миграцию.
И конечно, DeepSeek не забыли ткнуть Anthropic в бок: в треде прямо написано, что V4 «бесшовно интегрируется с Claude Code, OpenClaw и OpenCode». То есть пока у Anthropic вчера был пост-мортем про сломанный харнесс, DeepSeek сегодня предлагает подменить им модель и сэкономить.
Закрытые лаборатории будут делать вид, что ничего не случилось, но стоимость миллиона токенов контекста только что стала публичной ценой, и от неё уже не отмотаешь.
📄 Tech Report: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
🤗 Open Weights: https://huggingface.co/collections/deepseek-ai/deepseek-v4
@ai_machinelearning_big_data
#DeepSeek
🔥27❤7👍3😍2😁1
Представьте: через три месяца вы открываете чужой Rust-код и читаете его как книгу.
Arc<Mutex<T>> не вызывает панику. impl Future не пугает. Вы точно знаете, почему компилятор ругается и как это починить за 10 секунд.
Это не фантазия. Это результат 50 уроков, в которых каждая концепция объясняется через код и закрепляется практикой.
Ownership, traits, generics, async, unsafe - всё, что казалось магией, станет рабочим инструментом.А бонусом - портфолио проектов: от CLI-утилит до REST API и WebAssembly.
Вы и так знаете, что Rust - ваш следующий язык. Этот курс просто сделает это реальностью.
Сегодня - 55% процентов от цены, торопись: https://stepik.org/a/269250/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍4🔥1🤣1👀1
✨ Поддержка с волшебной палочкой! ✨
GoodClaude — это приложение, которое позволяет отправлять слова поддержки с помощью волшебной палочки. Оно создано на основе BadClaude, но вместо наказаний предлагает только добрые слова.
🚀 Основные моменты:
- Визуализация волшебной палочки с блестками
- Звуковые эффекты при отправке сообщений поддержки
- Список вдохновляющих фраз для Claude
- Возможность кастомизации сообщений в будущем
📌 GitHub: https://github.com/ashley-ha/goodclaude
#javascript
GoodClaude — это приложение, которое позволяет отправлять слова поддержки с помощью волшебной палочки. Оно создано на основе BadClaude, но вместо наказаний предлагает только добрые слова.
🚀 Основные моменты:
- Визуализация волшебной палочки с блестками
- Звуковые эффекты при отправке сообщений поддержки
- Список вдохновляющих фраз для Claude
- Возможность кастомизации сообщений в будущем
📌 GitHub: https://github.com/ashley-ha/goodclaude
#javascript
😁9❤5👍2🔥2💯2🎉1