🧠 Claude HUD: Инструмент для улучшения работы с Claude Code
Claude HUD предоставляет визуальную информацию о текущем состоянии вашей сессии в Claude Code. Он показывает активные инструменты, статус агентов и прогресс задач, оставаясь всегда на виду под вашим вводом.
🚀Основные моменты:
- Отображает текущее имя проекта и состояние контекста
- Следит за активностью инструментов и агентов в реальном времени
- Обновляет данные каждые ~300 мс
- Работает без отдельного окна, интегрируясь в терминал
📌 GitHub: https://github.com/jarrodwatts/claude-hud
Claude HUD предоставляет визуальную информацию о текущем состоянии вашей сессии в Claude Code. Он показывает активные инструменты, статус агентов и прогресс задач, оставаясь всегда на виду под вашим вводом.
🚀Основные моменты:
- Отображает текущее имя проекта и состояние контекста
- Следит за активностью инструментов и агентов в реальном времени
- Обновляет данные каждые ~300 мс
- Работает без отдельного окна, интегрируясь в терминал
📌 GitHub: https://github.com/jarrodwatts/claude-hud
GitHub
GitHub - jarrodwatts/claude-hud: A Claude Code plugin that shows what's happening - context usage, active tools, running agents…
A Claude Code plugin that shows what's happening - context usage, active tools, running agents, and todo progress - jarrodwatts/claude-hud
❤4👍3🔥2
Forwarded from Python RU
🔥 На stepik вышел курс, который учит Создавать настоящие AI-сервисы, а не просто запускать скрипты?
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует скидка в 40% процентов
👉 Начать учиться на Stepik
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует скидка в 40% процентов
👉 Начать учиться на Stepik
🔥3❤2👍2
🚀 Легкий плагин для оркестрации агентов OpenCode
oh-my-opencode-slim — это облегченная версия плагина, позволяющая вашему ИИ-ассистенту управлять сложными задачами через специализированные подагенты. С минимальным потреблением токенов, он идеально подходит для многозадачности и фоновых поисков.
🚀 Основные моменты:
- Легкая интеграция с Antigravity для оптимальной работы.
- Поддержка многопоточных рабочих процессов.
- Настраиваемые модели для каждого агента.
- Эффективное управление задачами с помощью специализированных агентов.
📌 GitHub: https://github.com/alvinunreal/oh-my-opencode-slim
#python
oh-my-opencode-slim — это облегченная версия плагина, позволяющая вашему ИИ-ассистенту управлять сложными задачами через специализированные подагенты. С минимальным потреблением токенов, он идеально подходит для многозадачности и фоновых поисков.
🚀 Основные моменты:
- Легкая интеграция с Antigravity для оптимальной работы.
- Поддержка многопоточных рабочих процессов.
- Настраиваемые модели для каждого агента.
- Эффективное управление задачами с помощью специализированных агентов.
📌 GitHub: https://github.com/alvinunreal/oh-my-opencode-slim
#python
❤3🔥2👎1🥰1
PyTorch 2.10 - что нового (коротко и по делу)
PyTorch выпустили версию 2.10 - релиз с упором на ускорение компиляции/инференса и отладку численных расхождений, что особенно полезно в больших distributed-тренировках.
Главное по фичам:
• torch.compile + Python 3.14
Добавили поддержку Python 3.14, включая экспериментальный freethreaded build (3.14t).
• Меньше overhead на GPU (horizontal fusion)
TorchInductor теперь лучше объединяет независимые операции в один GPU kernel, уменьшая kernel launch overhead и ускоряя пайплайны.
• varlen_attn() - attention для variable-length входов
Появилась новая опа в
- работает и на forward, и на backward
- хорошо дружит с
- сейчас через FlashAttention2, дальше планируют поддержку через cuDNN/FA4
- CUDA (A100+), dtype BF16/FP16
• Быстрее eigendecomposition на GPU
В
Отладка / детерминизм:
• torch.compile теперь уважает deterministic mode
Если включить
• DebugMode для поиска numerical divergence
Новый режим для диагностики:
- логирование dispatch
- tensor hashing (видно, где именно “поехали” тензоры)
- dispatch hooks для заметок и аннотаций
Ещё важное:
• TorchScript официально deprecated
Рекомендуемый путь вперёд - torch.export.
• tlparse + TORCH_TRACE
Упростили сбор трассировок и артефактов, чтобы легче репортить баги в компиляторе.
• Релизы чаще в 2026
Планируют перейти на релиз раз в 2 месяца (вместо quarterly).
https://pytorch.org/blog/pytorch-2-10-release-blog/
#PyTorch #OpenSourceAI #AIInfrastructure
PyTorch выпустили версию 2.10 - релиз с упором на ускорение компиляции/инференса и отладку численных расхождений, что особенно полезно в больших distributed-тренировках.
Главное по фичам:
• torch.compile + Python 3.14
Добавили поддержку Python 3.14, включая экспериментальный freethreaded build (3.14t).
• Меньше overhead на GPU (horizontal fusion)
TorchInductor теперь лучше объединяет независимые операции в один GPU kernel, уменьшая kernel launch overhead и ускоряя пайплайны.
• varlen_attn() - attention для variable-length входов
Появилась новая опа в
torch.nn.attention для ragged/packed последовательностей:- работает и на forward, и на backward
- хорошо дружит с
torch.compile- сейчас через FlashAttention2, дальше планируют поддержку через cuDNN/FA4
- CUDA (A100+), dtype BF16/FP16
• Быстрее eigendecomposition на GPU
В
torch.linalg ускорили eigen decomposition на NVIDIA за счёт cuSOLVER DnXgeev.Отладка / детерминизм:
• torch.compile теперь уважает deterministic mode
Если включить
torch.use_deterministic_algorithms(True), то torch.compile сохранит детерминированность между запусками - удобно для дебага.• DebugMode для поиска numerical divergence
Новый режим для диагностики:
- логирование dispatch
- tensor hashing (видно, где именно “поехали” тензоры)
- dispatch hooks для заметок и аннотаций
Ещё важное:
• TorchScript официально deprecated
Рекомендуемый путь вперёд - torch.export.
• tlparse + TORCH_TRACE
Упростили сбор трассировок и артефактов, чтобы легче репортить баги в компиляторе.
• Релизы чаще в 2026
Планируют перейти на релиз раз в 2 месяца (вместо quarterly).
https://pytorch.org/blog/pytorch-2-10-release-blog/
#PyTorch #OpenSourceAI #AIInfrastructure
🔥9👍3🥰2❤1
🧠 Google: сильные reasoning-модели начинают “думать как несколько агентов”
Исследователи Google заметили, что продвинутые модели рассуждений становятся умнее не только из-за большего времени на размышления или роста параметров.
Важнее другое: такие модели сами по себе начинают разыгрывать внутри “мульти-агентный” процесс - как будто несколько разных точек зрения обсуждают задачу.
Внутри появляется условная “команда”:
- разные роли/персоны предлагают идеи
- спорят и проверяют аргументы
- затем сходятся на лучшем решении
Именно эти внутренние мини-дебаты помогают лучше справляться со сложными задачами.
https://arxiv.org/abs/2601.10825
Исследователи Google заметили, что продвинутые модели рассуждений становятся умнее не только из-за большего времени на размышления или роста параметров.
Важнее другое: такие модели сами по себе начинают разыгрывать внутри “мульти-агентный” процесс - как будто несколько разных точек зрения обсуждают задачу.
Внутри появляется условная “команда”:
- разные роли/персоны предлагают идеи
- спорят и проверяют аргументы
- затем сходятся на лучшем решении
Именно эти внутренние мини-дебаты помогают лучше справляться со сложными задачами.
https://arxiv.org/abs/2601.10825
❤4🔥3👍2😁1
🛠️ Универсальный рынок навыков для AI-агентов
n-skills — это курируемая платформа, предлагающая универсальные форматы навыков для различных AI-агентов. Она поддерживает интеграцию с популярными инструментами, такими как GitHub Copilot и OpenAI Codex, обеспечивая совместимость и простоту использования.
🚀Основные моменты:
- Курируемый рынок навыков для AI-агентов
- Поддержка множества платформ и инструментов
- Универсальный формат SKILL.md для навыков
- Автоматическая синхронизация с внешними репозиториями
- Возможность добавления новых навыков
📌 GitHub: https://github.com/numman-ali/n-skills
#markdown
n-skills — это курируемая платформа, предлагающая универсальные форматы навыков для различных AI-агентов. Она поддерживает интеграцию с популярными инструментами, такими как GitHub Copilot и OpenAI Codex, обеспечивая совместимость и простоту использования.
🚀Основные моменты:
- Курируемый рынок навыков для AI-агентов
- Поддержка множества платформ и инструментов
- Универсальный формат SKILL.md для навыков
- Автоматическая синхронизация с внешними репозиториями
- Возможность добавления новых навыков
📌 GitHub: https://github.com/numman-ali/n-skills
#markdown
GitHub
GitHub - numman-ali/n-skills: Curated plugin marketplace for AI agents - works with Claude Code, Codex, and openskills
Curated plugin marketplace for AI agents - works with Claude Code, Codex, and openskills - numman-ali/n-skills
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Простой анализ настроений с использованием Hugging Face Transformer
Используйте библиотеку
Ниже представлен код, который загружает предобученную модель и делает прогноз на входном тексте.
#junior
Используйте библиотеку
transformers от Hugging Face для легкой интеграции моделей машинного обучения в ваши проекты. Ниже представлен код, который загружает предобученную модель и делает прогноз на входном тексте.
from transformers import pipeline
# Загружаем модель для анализа настроений
sentiment_analysis = pipeline("sentiment-analysis")
# Пример текста для анализа
text = "Я очень доволен результатом работы этой команды!"
# Выполняем анализ настроений
results = sentiment_analysis(text)
# Выводим результаты
for result in results:
print(f"Настроение: {result['label']}, Уверенность: {round(result['score'], 2)}")
#junior
❤3👍2🔥2
🎥 Управляйте 3D-камерами с ComfyUI
ComfyUI-qwenmultiangle — это настраиваемый узел для управления углами 3D-камеры в ComfyUI. Он предлагает интерактивный интерфейс на основе Three.js для регулировки углов и масштабирования, а также выводит формализованные строки запросов для генерации изображений с разных ракурсов.
🚀Основные моменты:
- Интерактивное управление углом и масштабом камеры
- Быстрый выбор предустановленных углов через выпадающие меню
- Реальный просмотр сцены в 3D
- Поддержка нескольких языков интерфейса
- Совместимость с Qwen-Image-Edit для генерации изображений
📌 GitHub: https://github.com/jtydhr88/ComfyUI-qwenmultiangle
#typescript
ComfyUI-qwenmultiangle — это настраиваемый узел для управления углами 3D-камеры в ComfyUI. Он предлагает интерактивный интерфейс на основе Three.js для регулировки углов и масштабирования, а также выводит формализованные строки запросов для генерации изображений с разных ракурсов.
🚀Основные моменты:
- Интерактивное управление углом и масштабом камеры
- Быстрый выбор предустановленных углов через выпадающие меню
- Реальный просмотр сцены в 3D
- Поддержка нескольких языков интерфейса
- Совместимость с Qwen-Image-Edit для генерации изображений
📌 GitHub: https://github.com/jtydhr88/ComfyUI-qwenmultiangle
#typescript
❤1👍1
🧠 Mozilla собирает “повстанческий альянс” в мире AI
Mozilla использует свои $1.4 млрд резервов и open-source ДНК, чтобы поддержать прозрачные и надежные альтернативы AI от Big Tech.
Через Mozilla Ventures и инициативу Mozilla.ai фонд инвестирует в ранние стартапы, которые бросают вызов доминированию OpenAI, Anthropic и других гигантов.
В альянс уже входят проекты вроде Trail, Transformer Lab и Oumi.
Цель — не просто стартапы, а формирование устойчивой open-source экосистемы для разработки AI.
Идея в том, чтобы будущее AI не оказалось полностью под контролем нескольких корпораций, а строилось на открытых технологиях, прозрачности и общественных интересах.
Это попытка вернуть AI к корням интернета - открытому, децентрализованному и доступному.
Mozilla использует свои $1.4 млрд резервов и open-source ДНК, чтобы поддержать прозрачные и надежные альтернативы AI от Big Tech.
Через Mozilla Ventures и инициативу Mozilla.ai фонд инвестирует в ранние стартапы, которые бросают вызов доминированию OpenAI, Anthropic и других гигантов.
В альянс уже входят проекты вроде Trail, Transformer Lab и Oumi.
Цель — не просто стартапы, а формирование устойчивой open-source экосистемы для разработки AI.
Идея в том, чтобы будущее AI не оказалось полностью под контролем нескольких корпораций, а строилось на открытых технологиях, прозрачности и общественных интересах.
Это попытка вернуть AI к корням интернета - открытому, децентрализованному и доступному.
👍22❤8🔥6
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 NovaSR - крошечная open-source модель, которая ускоряет обработку аудио в сотни раз
Вышел релиз NovaSR - маленькая, но очень мощная модель для улучшения качества аудио.
Самый громкий факт:
⚡️ 3600 секунд аудио за 1 секунду
То есть целый час звука обрабатывается практически мгновенно - на порядки быстрее прошлых решений.
Зачем это нужно
NovaSR полезна везде, где есть “сырой” звук:
✅ улучшение TTS-озвучки (делает голос чище и приятнее)
✅ улучшение качества датасетов (для обучения ASR/TTS/voice моделей)
✅ очистка и восстановление созвонов / звонков / записей
✅ быстрый preprocessing перед ML пайплайном
Это как “апскейлер” для звука:
меньше шумов, больше чёткости, лучше разборчивость.
Ссылки:
Repo: https://github.com/ysharma3501/NovaSR
Model: https://huggingface.co/YatharthS/NovaSR
Если работаешь с TTS / ASR / аудио-датасетами - это must-have тулза.
Вышел релиз NovaSR - маленькая, но очень мощная модель для улучшения качества аудио.
Самый громкий факт:
⚡️ 3600 секунд аудио за 1 секунду
То есть целый час звука обрабатывается практически мгновенно - на порядки быстрее прошлых решений.
Зачем это нужно
NovaSR полезна везде, где есть “сырой” звук:
✅ улучшение TTS-озвучки (делает голос чище и приятнее)
✅ улучшение качества датасетов (для обучения ASR/TTS/voice моделей)
✅ очистка и восстановление созвонов / звонков / записей
✅ быстрый preprocessing перед ML пайплайном
Это как “апскейлер” для звука:
меньше шумов, больше чёткости, лучше разборчивость.
Ссылки:
Repo: https://github.com/ysharma3501/NovaSR
Model: https://huggingface.co/YatharthS/NovaSR
Если работаешь с TTS / ASR / аудио-датасетами - это must-have тулза.
👍7❤4🔥1🥰1
🎤 Lex Fridman: большой разговор про ИИ в 2026 - от железа и LLM до AGI и будущего цивилизации.
Новый большой эпизод о том, куда движется AI прямо сейчас и что нас ждёт дальше: прорывы, scaling laws, закрытые и open-source LLM, инструменты для разработчиков, гонка Китай vs США, детали обучения моделей, будущее работы и многое другое.
В беседе участвуют два интересных человека из AI-комьюнити:
• Sebastian Raschka - исследователь, инженер и один из лучших AI-объяснителей
• Nathan Lambert - ML-ресёрчер и инженер, глубоко в теме LLM
Разговор получился ураганным: от жёсткого технарства до философии будущего.
Основные темы:
• Кто выигрывает AI-гонку: Китай или США
• ChatGPT vs Claude vs Gemini vs Grok
• Лучшие AI-инструменты для программирования (Claude Code, Cursor и др.)
• Open Source vs Closed Source LLM
• Как эволюционировали трансформеры с 2019 года
• Scaling laws — всё ещё работают или уже ломаются
• Как реально обучаются современные модели: pre-training, mid-training, post-training
• Новые направления в post-training
• Как новичку войти в AI-разработку и исследования
• Культура работы в AI (72+ часов в неделю)
• Пузырь Кремниевой долины
• Diffusion для текста и другие новые направления
• Tool use, continual learning, long context
• Робототехника
• Сроки до AGI и где всё может пойти не так
• Заменит ли ИИ программистов
• Умирает ли мечта об AGI
• Как ИИ будет зарабатывать деньги
• Крупные сделки и поглощения
• Будущее OpenAI, Anthropic, Google DeepMind, xAI, Meta
• «Манхэттенский проект» для ИИ
• Будущее NVIDIA, GPU и AI-кластеров
• И даже-— будущее человеческой цивилизации
YouTube: https://youtube.com/watch?v=EV7WhVT270Q
Spotify: https://open.spotify.com/show/2MAi0BvDc6GTFvKFPXnkCL
Podcast: https://lexfridman.com/podcast
X: https://x.com/lexfridman/status/2017735625227833850
Новый большой эпизод о том, куда движется AI прямо сейчас и что нас ждёт дальше: прорывы, scaling laws, закрытые и open-source LLM, инструменты для разработчиков, гонка Китай vs США, детали обучения моделей, будущее работы и многое другое.
В беседе участвуют два интересных человека из AI-комьюнити:
• Sebastian Raschka - исследователь, инженер и один из лучших AI-объяснителей
• Nathan Lambert - ML-ресёрчер и инженер, глубоко в теме LLM
Разговор получился ураганным: от жёсткого технарства до философии будущего.
Основные темы:
• Кто выигрывает AI-гонку: Китай или США
• ChatGPT vs Claude vs Gemini vs Grok
• Лучшие AI-инструменты для программирования (Claude Code, Cursor и др.)
• Open Source vs Closed Source LLM
• Как эволюционировали трансформеры с 2019 года
• Scaling laws — всё ещё работают или уже ломаются
• Как реально обучаются современные модели: pre-training, mid-training, post-training
• Новые направления в post-training
• Как новичку войти в AI-разработку и исследования
• Культура работы в AI (72+ часов в неделю)
• Пузырь Кремниевой долины
• Diffusion для текста и другие новые направления
• Tool use, continual learning, long context
• Робототехника
• Сроки до AGI и где всё может пойти не так
• Заменит ли ИИ программистов
• Умирает ли мечта об AGI
• Как ИИ будет зарабатывать деньги
• Крупные сделки и поглощения
• Будущее OpenAI, Anthropic, Google DeepMind, xAI, Meta
• «Манхэттенский проект» для ИИ
• Будущее NVIDIA, GPU и AI-кластеров
• И даже-— будущее человеческой цивилизации
Это срез состояния индустрии в моменте, где AI перестаёт быть «фичей» и становится инфраструктурой мира.
YouTube: https://youtube.com/watch?v=EV7WhVT270Q
Spotify: https://open.spotify.com/show/2MAi0BvDc6GTFvKFPXnkCL
Podcast: https://lexfridman.com/podcast
X: https://x.com/lexfridman/status/2017735625227833850
❤3👍3🥰1
Эксперты из ML/AI Хаба «Магнита» зовут на митап, чтобы поделиться реальным опытом применения машинного обучения в бизнес-процессах.
19.02 | Москва | Офлайн + онлайн
Сбор гостей с 18:00
DJ • Welcome🟪 Магнит и AI: как мы строим ML и куда движемся (Алексей Четыркин, MAGNIT TECH, Chief of AI/ML)🟪 Доступность товара: от фильтрующих деревьев до CUSUM и GEE-тестов (Ян Пиле, MAGNIT TECH, Head of OSA)🟪 Опять AI, да сколько можно? Только практические кейсы без воды (Александр Толмачев, ex-Ozon, CDO и председатель комитета данных)🟪 Нетворкинг с ML-лидами и инженерами
DJ • F&B • Good vibes
Модератор: Максим Покусенко, MAGNIT TECH, Head of ML (Logistics & R&D)
Занимайте место: офлайн — в московском офисе MAGNIT TECH (м. Белорусская), или получите ссылку на онлайн трансляцию после регистрации.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥4
🚀 Квантовые процессоры Google могут стать в 1 000 раз эффективнее благодаря новому кубиту из Принстона.
Учёные из Принстона разработали сверхпроводящий кубит с сильно увеличенным временем когерентности - миллисекунды вместо микросекунд, которые считаются нормой в современных квантовых чипах.
Проще говоря:
кубит гораздо дольше «держит» своё квантовое состояние, не разваливаясь из-за шума.
За счёт чего получен прорыв:
- использование тантала
- высокочистый кремний
- резкое снижение потерь энергии в структуре кубита
Почему это критично для квантовых вычислений:
- больше времени когерентности -> меньше ошибок
- меньше ошибок -> меньше коррекции ошибок
- меньше коррекции -> больше полезных вычислений
- при росте системы эффект усиливается
Главное:
если такой кубит встроить в существующие квантовые процессоры (включая платформы Google), эффективная производительность может вырасти примерно в 1 000 раз без изменения алгоритмов и софта.
Важно понимать:
- это не оптимизация кода
- это не трюк с алгоритмами
- это фундаментальный прорыв в материалах и производстве
Именно такие улучшения на уровне физики чаще всего и меняют траекторию развития технологий целиком.
Учёные из Принстона разработали сверхпроводящий кубит с сильно увеличенным временем когерентности - миллисекунды вместо микросекунд, которые считаются нормой в современных квантовых чипах.
Проще говоря:
кубит гораздо дольше «держит» своё квантовое состояние, не разваливаясь из-за шума.
За счёт чего получен прорыв:
- использование тантала
- высокочистый кремний
- резкое снижение потерь энергии в структуре кубита
Почему это критично для квантовых вычислений:
- больше времени когерентности -> меньше ошибок
- меньше ошибок -> меньше коррекции ошибок
- меньше коррекции -> больше полезных вычислений
- при росте системы эффект усиливается
Главное:
если такой кубит встроить в существующие квантовые процессоры (включая платформы Google), эффективная производительность может вырасти примерно в 1 000 раз без изменения алгоритмов и софта.
Важно понимать:
- это не оптимизация кода
- это не трюк с алгоритмами
- это фундаментальный прорыв в материалах и производстве
Именно такие улучшения на уровне физики чаще всего и меняют траекторию развития технологий целиком.
🔥15👍3❤1🥰1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Codex для Mac - среда, где можно запускать сразу несколько агентов для кодинга. Основной упор сделан на параллельные задачи: агенты работают в разных потоках и сгруппированы по проектам, так что между ними удобно переключаться, не теряя контекст.
Разработчикам пригодится нативная поддержка git-worktrees. Можно натравить несколько агентов на один репозиторий в изолированных копиях: они не будут мешать друг другу и не изменят локальное состояние веток до финального ревью. Также добавили «Автоматизации» — это для фоновой рутины вроде разбора тикетов или анализа логов CI по расписанию.
Приложение использует нативный сэндбоксинг: по умолчанию агенты ограничены текущей директорией и требуют подтверждения для сетевых запросов. Доступ уже открыт для подписчиков Plus, Pro и Enterprise, а на ограниченное время Codex стал доступен и на free тарифе ChatGPT.
openai.com
Полупроводниковое подразделение Alibaba, T-Head, поставила более 100 тыс. единиц своих ускорителей, обойдя локального конкурента Cambricon. Источники утверждают, что по производительности новинка сопоставима с Nvidia H20 - максимальным решением, доступным для легального ввоза в Китай.
Zhenwu 810E оснащен 96 ГБ памяти HBM2e с пропускной способностью до 700 ГБ/с. Хотя Nvidia H200 мощнее, Alibaba предлагает в качестве альтернативы полный технологический стек: от собственного облачного софта до железа, которое уже используется в собственных дата-центрах и у внешних клиентов.
scmp.com
Обновленная версия генерирует видео в разрешении 720p длительностью до 10 секунд. Помимо визуальной части, разработчики существенно улучшили качество аудиодорожек и логику взаимодействия: Grok теперь точнее интерпретирует запросы и научился задавать уточняющие вопросы для лучшего результата.
Популярность инструмента растет - за последние 30 дней в Grok Imagine сегерировали более 1,2 млрд. видео.
xAI в сети Х
Adobe пересмотрела правила игры для сервиса Firefly. Теперь пользователи тарифов Pro, Premium и владельцы крупных пакетов кредитов (от 4000) получили безлимитный доступ к генерации картинок и видео.
Самое интересное в этом обновлении - интеграция сторонних моделей. Теперь в интерфейсе Adobe (и в вебе, и в приложениях) можно использовать безлимитно не только родные алгоритмы модели, но и Runway Gen-4, Nano Banana Pro и GPT Image Generation.
Если планируете пользоваться Firefly постоянно, стоит поторопиться: закрепить за собой безлимитный доступ можно только при оформлении подписки до 16 марта.
blog.adobe.com
Флагманская Text-to-Speech модель, Eleven v3, официально вышла из стадии альфа-тестирования и стала доступной для коммерческого использования. Основной упор в финальной версии сделан на точность интерпретации сложных данных, где чтение символов критически зависит от окружения.
Инженеры значительно доработали логику озвучивания телефонных номеров в международном формате, химических формул, валют и спортивных результатов. Внутренние тесты на 27 категориях показали снижение уровня ошибок интерпретации на 68% - показатель упал с 15,3% до 4,9%. Модель уже доступна на всех поддерживаемых платформах.
elevenlabs.io
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1🔥1
🚀 Быстрая и эффективная библиотека для LLM
vLLM предлагает высокопроизводительное решение для инференса и обслуживания больших языковых моделей. Разработанная в UC Berkeley, библиотека поддерживает интеграцию с Hugging Face и обеспечивает оптимизацию для различных аппаратных платформ.
🚀Основные моменты:
- Высокая пропускная способность и эффективное управление памятью
- Поддержка множества алгоритмов декодирования и моделей
- Гибкость в использовании с различными аппаратными средствами
- Специальные оптимизации для CUDA и других технологий
📌 GitHub: https://github.com/vllm-project/vllm
vLLM предлагает высокопроизводительное решение для инференса и обслуживания больших языковых моделей. Разработанная в UC Berkeley, библиотека поддерживает интеграцию с Hugging Face и обеспечивает оптимизацию для различных аппаратных платформ.
🚀Основные моменты:
- Высокая пропускная способность и эффективное управление памятью
- Поддержка множества алгоритмов декодирования и моделей
- Гибкость в использовании с различными аппаратными средствами
- Специальные оптимизации для CUDA и других технологий
📌 GitHub: https://github.com/vllm-project/vllm
❤3👍2
🔥 Xcode получила мощный апдейт - Apple добавила в IDE настоящее agentic-программирование.
Теперь это уже не просто «ИИ-подсказки», а почти автономный напарник внутри среды разработки.
Что это значит для вайбкодинга:
• Xcode 26.3 теперь глубоко интегрирована с агентными SDK от Anthropic (Claude) и OpenAI (Codex).
Если раньше ИИ работал по принципу «запрос → ответ», то теперь он может самостоятельно выполнять длинные цепочки задач прямо внутри IDE.
• ИИ дали «глаза и уши» проекта:
доступ к документации, структуре файлов, настройкам проекта и — самое сочное — к Previews.
То есть модель не просто пишет UI-код, а видит результат и сама его дорабатывает, как настоящий разработчик.
• Появилась поддержка Model Context Protocol (MCP) - можно подключать сторонних ИИ-агентов и расширять систему под свои пайплайны.
Короче, Xcode превращается из редактора кода в операционную систему для ИИ-разработчиков.
Похоже, у Apple ещё очень даже есть чем стрелять 😏
https://www.apple.com/newsroom/2026/02/xcode-26-point-3-unlocks-the-power-of-agentic-coding/
Теперь это уже не просто «ИИ-подсказки», а почти автономный напарник внутри среды разработки.
Что это значит для вайбкодинга:
• Xcode 26.3 теперь глубоко интегрирована с агентными SDK от Anthropic (Claude) и OpenAI (Codex).
Если раньше ИИ работал по принципу «запрос → ответ», то теперь он может самостоятельно выполнять длинные цепочки задач прямо внутри IDE.
• ИИ дали «глаза и уши» проекта:
доступ к документации, структуре файлов, настройкам проекта и — самое сочное — к Previews.
То есть модель не просто пишет UI-код, а видит результат и сама его дорабатывает, как настоящий разработчик.
• Появилась поддержка Model Context Protocol (MCP) - можно подключать сторонних ИИ-агентов и расширять систему под свои пайплайны.
Короче, Xcode превращается из редактора кода в операционную систему для ИИ-разработчиков.
Похоже, у Apple ещё очень даже есть чем стрелять 😏
https://www.apple.com/newsroom/2026/02/xcode-26-point-3-unlocks-the-power-of-agentic-coding/
❤5👍2🔥2
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
В компании говорят, что рекламная модель просто не вяжется с инструментом, который должен быть нейтральным пространством для размышлений, работы и решения сложных задач.
Anthropic видят огромную разницу между поисковиком и ИИ. В чате люди часто делятся личными деталями или рабочими нюансами. Если подмешать сюда коммерческий интерес, доверие сразу рухнет - вместо честного ответа ассистент начнет аккуратно подталкивать к покупке того, за что ему занесли. Claude не должен превращаться в скрытого менеджера по продажам.
Зарабатывать Anthropic планирует по старинке: на платных подписках и контрактах с бизнесом. Да, в будущем Claude, скорее всего, научится бронировать отели или покупать товары, но только если вы сами его об этом попросите.
anthropic.com
Французская лаборатория представила новое поколение speech-to-text решений, в которое вошли 2 модели: закрытая Voxtral Mini Transcribe V2 и открытая Voxtral Realtime.
Realtime использует новую потоковую архитектуру вместо привычной обработки чанками, что позволяет конфигурировать задержку вплоть до суб-200 мс. Модель поддерживает 13 языков, включая русский, и оптимизирована для запуска на edge-устройствах.
Mini Transcribe V2 позиционируется как самое эффективное решение на рынке. При стоимости API всего $0,003 за минуту она предлагает функции диаризации, пословные таймкоды и улучшенное понимание специфической терминологии. По тестам компании, Mini превосходит аналоги от OpenAI и Deepgram по точности.
mistral.ai
Теперь Deep Research работает на модели Opus 4.5 в связке с проприетарным поисковым движком и инфраструктурой песочницы. Обновление уже доступно на тарифе Max, а для Pro раскатают в ближайшие дни. Perplexity утверждают, что новая конфигурация дает SOTA-результаты по точности и надежности ссылок.
Заодно компания решила поделиться своим инструментом для тестов и выложила в открытый доступ на Hugging Face бенчмарк DRACO. Это набор из 100 реально сложных задач в 10 областях - от медицины до права. В Perplexity не упустили случая заявить, что в этом бенче они обходят всех конкурентов.
Perplexity Ai в сети Х
В бета-версии Google App (17.4) нашли упоминание функции экранной автоматизации под кодовым названием bonobo. Она позволит Gemini брать на себя рутинные действия внутри других приложений: самостоятельно вызвать такси или оформить заказ, взаимодействуя с интерфейсом вместо пользователя.
Судя по утечкам, полноценно это заработает только в Android 16. Google предупреждает, что Gemini не идеальный автопилот: за ним придется приглядывать. Впрочем, перехватить управление можно будет в любой момент.
Есть важный нюанс с приватностью: при включенной истории активности скриншоты действий ассистента могут попадать к живым рецензентам для дообучения модели.
9to5google.com
Автоматический аудит работ, принятых на одну из главных ИИ-конференций, вскрыл серьезную проблему с воспроизводимостью исследований. Спустя год после NeurIPS 2024 почти сотня проектов на GitHub до сих пор висят пустыми, несмотря на обязательства авторов открыть исходники.
Что забавно (и грустно), этим грешат не только новички, но и крупные компании вместе с топовыми вузами. Проверка, выполненная с помощью парсинга PDF и API-запросов, показала распространенную схему: исследователи добавляют ссылки на GitHub в текст статьи для прохождения рецензирования, но фактически не загружают туда рабочий код.
Даже если сделать скидку на возможные ошибки самого алгоритма проверки, общая картина печальна. Без кода любая работа по ИИ превращается в "верьте мне на слово", а в серьезных исследованиях это так не работает.
momo5913.github.io
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍3🔥2