🚀 Ускорение Mixture-of-Experts с SonicMoE
SonicMoE — это высокопроизводимая реализация Mixture-of-Experts, оптимизированная для GPU NVIDIA Hopper. Использует CuTeDSL и Triton для достижения выдающихся результатов благодаря IO-оптимизациям.
🚀 Основные моменты:
- Поддержка архитектуры NVIDIA Hopper.
- Высокая производительность благодаря эффективным алгоритмам.
- Простота интеграции с PyTorch.
- Открытый код и возможность внесения вкладов.
📌 GitHub: https://github.com/Dao-AILab/sonic-moe
#python
SonicMoE — это высокопроизводимая реализация Mixture-of-Experts, оптимизированная для GPU NVIDIA Hopper. Использует CuTeDSL и Triton для достижения выдающихся результатов благодаря IO-оптимизациям.
🚀 Основные моменты:
- Поддержка архитектуры NVIDIA Hopper.
- Высокая производительность благодаря эффективным алгоритмам.
- Простота интеграции с PyTorch.
- Открытый код и возможность внесения вкладов.
📌 GitHub: https://github.com/Dao-AILab/sonic-moe
#python
👍1🔥1🥰1
⚡️ Похоже, DeepSeek готовит новый флагман.
Сразу несколько источников пишут, что уже в следующем месяце выйдет их топовая модель:
R2 (или V4).
И самое интересное - у них недавно вышла статья, где описаны идеи, которые могут сильно повлиять на индустрию:
- сделать обучение стабильнее
- ускорить тренинг
- заметно снизить стоимость обучения моделей
Если это подтвердится - это будет не “ещё одна LLM”, а шаг в сторону более дешёвого и масштабируемого AI.
А по ранним отзывам тестеров модель уже показывает очень сильный кодинг - и некоторые говорят, что она может быть лучше Claude / GPT в программировании.
Если релиз реально случится - будет один из главных AI-дропов года.
Сразу несколько источников пишут, что уже в следующем месяце выйдет их топовая модель:
R2 (или V4).
И самое интересное - у них недавно вышла статья, где описаны идеи, которые могут сильно повлиять на индустрию:
- сделать обучение стабильнее
- ускорить тренинг
- заметно снизить стоимость обучения моделей
Если это подтвердится - это будет не “ещё одна LLM”, а шаг в сторону более дешёвого и масштабируемого AI.
А по ранним отзывам тестеров модель уже показывает очень сильный кодинг - и некоторые говорят, что она может быть лучше Claude / GPT в программировании.
Если релиз реально случится - будет один из главных AI-дропов года.
❤18👍6🔥3
🤖 Многопользовательская система с латентным мышлением
LatentMAS — это фреймворк для многопользовательского рассуждения, который переводит взаимодействие агентов в латентное пространство, обеспечивая более эффективное использование токенов и ускорение вычислений. Он совместим с любыми моделями Hugging Face и предлагает стабильную генерацию без необходимости в обучении.
🚀 Основные моменты:
- Эффективное многократное рассуждение с меньшим количеством токенов
- Латентное выравнивание без обучения
- Поддержка любых моделей HF и vLLM
- Значительное сокращение времени обработки (до 7 раз быстрее)
📌 GitHub: https://github.com/Gen-Verse/LatentMAS
#python
LatentMAS — это фреймворк для многопользовательского рассуждения, который переводит взаимодействие агентов в латентное пространство, обеспечивая более эффективное использование токенов и ускорение вычислений. Он совместим с любыми моделями Hugging Face и предлагает стабильную генерацию без необходимости в обучении.
🚀 Основные моменты:
- Эффективное многократное рассуждение с меньшим количеством токенов
- Латентное выравнивание без обучения
- Поддержка любых моделей HF и vLLM
- Значительное сокращение времени обработки (до 7 раз быстрее)
📌 GitHub: https://github.com/Gen-Verse/LatentMAS
#python
❤2👍1🔥1
🚨 Новые утечки про “железо” OpenAI: похоже, они реально готовят **замену AirPods**.
Что слили:
🎧 Это аудио-носима (wearable), которую делают как “следующую платформу” вместо наушников
🧩 Кодовое имя: Sweetpea
👀 Внешний вид: металлический “eggstone” + две маленькие капсулы за ухом
⚙️ Железо: ставка на 2nm-чип + возможный кастомный чип для “действий как у телефона”
📦 Амбиции дикие: 40–50 млн устройств в первый год (это почти уровень AirPods по масштабу)
И это только начало: по утечкам Foxconn готовится к массовому производству сразу 5 устройств к Q4 2028 — среди них упоминаются:
- домашний девайс
- “ручка” (pen/stylus)
Если это правда — OpenAI явно строит целую линейку новой экосистемы, а не “один гаджет ради хайпа”.
https://x.com/zhihuipikachu/status/2010745618734759946
Что слили:
🎧 Это аудио-носима (wearable), которую делают как “следующую платформу” вместо наушников
🧩 Кодовое имя: Sweetpea
👀 Внешний вид: металлический “eggstone” + две маленькие капсулы за ухом
⚙️ Железо: ставка на 2nm-чип + возможный кастомный чип для “действий как у телефона”
📦 Амбиции дикие: 40–50 млн устройств в первый год (это почти уровень AirPods по масштабу)
И это только начало: по утечкам Foxconn готовится к массовому производству сразу 5 устройств к Q4 2028 — среди них упоминаются:
- домашний девайс
- “ручка” (pen/stylus)
Если это правда — OpenAI явно строит целую линейку новой экосистемы, а не “один гаджет ради хайпа”.
https://x.com/zhihuipikachu/status/2010745618734759946
❤6👍2🔥1😢1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Мо Гавдат (бывший Google CBO): самое интересное, о чём почти не говорят - самоэволюционирующий ИИ
“Главный инженер мира со временем станет ИИ.
И тогда вопрос простой:
Поэтому AGI - это уже не просто технология.
Это вопрос национальной стратегической важности.”
Суть мысли очень жёсткая, если ИИ становится лучшим разработчиком ИИ, то прогресс начинает ускоряться сам по себе - без человеческого лимита.
И тогда гонка идёт не за “ещё одну модель”.
А за того, кто первым получит систему, способную улучшать саму себя.
“Главный инженер мира со временем станет ИИ.
И тогда вопрос простой:
кого вы наймёте, чтобы создавать следующий ИИ?
— Конечно, этот ИИ.
Поэтому AGI - это уже не просто технология.
Это вопрос национальной стратегической важности.”
Суть мысли очень жёсткая, если ИИ становится лучшим разработчиком ИИ, то прогресс начинает ускоряться сам по себе - без человеческого лимита.
И тогда гонка идёт не за “ещё одну модель”.
А за того, кто первым получит систему, способную улучшать саму себя.
😁6👍3😢3
🌊⚙️ Wavelet Matrix: Эффективная структура для работы с последовательностями
Wavelet Matrix — это высокопроизводительная структура данных для индексированных последовательностей, обеспечивающая быстрые запросы по диапазону и динамическим обновлениям. Она поддерживает операции ранжирования, выбора и вычисления квантилей.
🚀Основные моменты:
- Высокая производительность для работы с большими данными.
- Поддержка динамических обновлений.
- Удобные методы для анализа и манипуляции данными.
📌 GitHub: https://github.com/math-hiyoko/wavelet-matrix
#rust
Wavelet Matrix — это высокопроизводительная структура данных для индексированных последовательностей, обеспечивающая быстрые запросы по диапазону и динамическим обновлениям. Она поддерживает операции ранжирования, выбора и вычисления квантилей.
🚀Основные моменты:
- Высокая производительность для работы с большими данными.
- Поддержка динамических обновлений.
- Удобные методы для анализа и манипуляции данными.
📌 GitHub: https://github.com/math-hiyoko/wavelet-matrix
#rust
GitHub
GitHub - math-hiyoko/wavelet-matrix: wavelet-matrix library for Python
wavelet-matrix library for Python. Contribute to math-hiyoko/wavelet-matrix development by creating an account on GitHub.
❤1👍1🔥1
Media is too big
VIEW IN TELEGRAM
🧠 Sakana AI выпустили RePo - модуль, который делает LLM устойчивее к шуму и длинным текстам
Проблема обычных LLM:
они читают контекст как “ленту токенов”.
Если важная инфа далеко, а рядом куча мусора - внимание размазывается, и качество падает.
✅ RePo (Context Re-Positioning) решает это так:
модель учится переставлять контекст по смыслу:
- важное “подтягивает” ближе
- шум “отодвигает” дальше
И это даёт сильный рост качества именно там, где LLM обычно ломаются.
📊 Результаты в цифрах (главное)
✅ Noisy Context (контекст с шумом)
Среднее по 8 noisy-бенчмаркам:
- Обычный RoPE: 21.07
- RePo: 28.31
📈 Прирост: +7.24 пункта (очень много)
Отдельно авторы фиксируют:
RePo лучше RoPE на noisy-eval на +11.04 пункта (4K контекст).
🔥 Примеры по задачам:
- TriviaQA: 61.47 → 73.02 (**+11.55**)
- GovReport: 6.23 → 16.80 (**+10.57**)
- 2WikiMultihopQA: 23.32 → 30.86 (**+7.54**)
- MuSiQue: 7.24 → 13.45 (**+6.21**)
✅ Длинные контексты (8K / 16K)
Самое важное:
преимущество RePo не исчезает, а растёт на 8K и 16K,
даже если такие длины не встречались в обучении.
Итог:
RePo - это шаг к LLM, которые не просто “читают” промпт,
а сами наводят порядок в памяти: главное ближе, шум дальше.
Paper: arxiv.org/abs/2512.14391
Видео: https://youtu.be/cqWiBIbMK80
Проблема обычных LLM:
они читают контекст как “ленту токенов”.
Если важная инфа далеко, а рядом куча мусора - внимание размазывается, и качество падает.
✅ RePo (Context Re-Positioning) решает это так:
модель учится переставлять контекст по смыслу:
- важное “подтягивает” ближе
- шум “отодвигает” дальше
И это даёт сильный рост качества именно там, где LLM обычно ломаются.
📊 Результаты в цифрах (главное)
✅ Noisy Context (контекст с шумом)
Среднее по 8 noisy-бенчмаркам:
- Обычный RoPE: 21.07
- RePo: 28.31
📈 Прирост: +7.24 пункта (очень много)
Отдельно авторы фиксируют:
RePo лучше RoPE на noisy-eval на +11.04 пункта (4K контекст).
🔥 Примеры по задачам:
- TriviaQA: 61.47 → 73.02 (**+11.55**)
- GovReport: 6.23 → 16.80 (**+10.57**)
- 2WikiMultihopQA: 23.32 → 30.86 (**+7.54**)
- MuSiQue: 7.24 → 13.45 (**+6.21**)
✅ Длинные контексты (8K / 16K)
Самое важное:
преимущество RePo не исчезает, а растёт на 8K и 16K,
даже если такие длины не встречались в обучении.
Итог:
RePo - это шаг к LLM, которые не просто “читают” промпт,
а сами наводят порядок в памяти: главное ближе, шум дальше.
Paper: arxiv.org/abs/2512.14391
Видео: https://youtu.be/cqWiBIbMK80
❤4🔥3👍2
🧠 Claude HUD: Инструмент для улучшения работы с Claude Code
Claude HUD предоставляет визуальную информацию о текущем состоянии вашей сессии в Claude Code. Он показывает активные инструменты, статус агентов и прогресс задач, оставаясь всегда на виду под вашим вводом.
🚀Основные моменты:
- Отображает текущее имя проекта и состояние контекста
- Следит за активностью инструментов и агентов в реальном времени
- Обновляет данные каждые ~300 мс
- Работает без отдельного окна, интегрируясь в терминал
📌 GitHub: https://github.com/jarrodwatts/claude-hud
Claude HUD предоставляет визуальную информацию о текущем состоянии вашей сессии в Claude Code. Он показывает активные инструменты, статус агентов и прогресс задач, оставаясь всегда на виду под вашим вводом.
🚀Основные моменты:
- Отображает текущее имя проекта и состояние контекста
- Следит за активностью инструментов и агентов в реальном времени
- Обновляет данные каждые ~300 мс
- Работает без отдельного окна, интегрируясь в терминал
📌 GitHub: https://github.com/jarrodwatts/claude-hud
GitHub
GitHub - jarrodwatts/claude-hud: A Claude Code plugin that shows what's happening - context usage, active tools, running agents…
A Claude Code plugin that shows what's happening - context usage, active tools, running agents, and todo progress - jarrodwatts/claude-hud
❤4👍3🔥2
Forwarded from Python RU
🔥 На stepik вышел курс, который учит Создавать настоящие AI-сервисы, а не просто запускать скрипты?
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует скидка в 40% процентов
👉 Начать учиться на Stepik
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует скидка в 40% процентов
👉 Начать учиться на Stepik
🔥3❤2👍2
🚀 Легкий плагин для оркестрации агентов OpenCode
oh-my-opencode-slim — это облегченная версия плагина, позволяющая вашему ИИ-ассистенту управлять сложными задачами через специализированные подагенты. С минимальным потреблением токенов, он идеально подходит для многозадачности и фоновых поисков.
🚀 Основные моменты:
- Легкая интеграция с Antigravity для оптимальной работы.
- Поддержка многопоточных рабочих процессов.
- Настраиваемые модели для каждого агента.
- Эффективное управление задачами с помощью специализированных агентов.
📌 GitHub: https://github.com/alvinunreal/oh-my-opencode-slim
#python
oh-my-opencode-slim — это облегченная версия плагина, позволяющая вашему ИИ-ассистенту управлять сложными задачами через специализированные подагенты. С минимальным потреблением токенов, он идеально подходит для многозадачности и фоновых поисков.
🚀 Основные моменты:
- Легкая интеграция с Antigravity для оптимальной работы.
- Поддержка многопоточных рабочих процессов.
- Настраиваемые модели для каждого агента.
- Эффективное управление задачами с помощью специализированных агентов.
📌 GitHub: https://github.com/alvinunreal/oh-my-opencode-slim
#python
❤3🔥2👎1🥰1
PyTorch 2.10 - что нового (коротко и по делу)
PyTorch выпустили версию 2.10 - релиз с упором на ускорение компиляции/инференса и отладку численных расхождений, что особенно полезно в больших distributed-тренировках.
Главное по фичам:
• torch.compile + Python 3.14
Добавили поддержку Python 3.14, включая экспериментальный freethreaded build (3.14t).
• Меньше overhead на GPU (horizontal fusion)
TorchInductor теперь лучше объединяет независимые операции в один GPU kernel, уменьшая kernel launch overhead и ускоряя пайплайны.
• varlen_attn() - attention для variable-length входов
Появилась новая опа в
- работает и на forward, и на backward
- хорошо дружит с
- сейчас через FlashAttention2, дальше планируют поддержку через cuDNN/FA4
- CUDA (A100+), dtype BF16/FP16
• Быстрее eigendecomposition на GPU
В
Отладка / детерминизм:
• torch.compile теперь уважает deterministic mode
Если включить
• DebugMode для поиска numerical divergence
Новый режим для диагностики:
- логирование dispatch
- tensor hashing (видно, где именно “поехали” тензоры)
- dispatch hooks для заметок и аннотаций
Ещё важное:
• TorchScript официально deprecated
Рекомендуемый путь вперёд - torch.export.
• tlparse + TORCH_TRACE
Упростили сбор трассировок и артефактов, чтобы легче репортить баги в компиляторе.
• Релизы чаще в 2026
Планируют перейти на релиз раз в 2 месяца (вместо quarterly).
https://pytorch.org/blog/pytorch-2-10-release-blog/
#PyTorch #OpenSourceAI #AIInfrastructure
PyTorch выпустили версию 2.10 - релиз с упором на ускорение компиляции/инференса и отладку численных расхождений, что особенно полезно в больших distributed-тренировках.
Главное по фичам:
• torch.compile + Python 3.14
Добавили поддержку Python 3.14, включая экспериментальный freethreaded build (3.14t).
• Меньше overhead на GPU (horizontal fusion)
TorchInductor теперь лучше объединяет независимые операции в один GPU kernel, уменьшая kernel launch overhead и ускоряя пайплайны.
• varlen_attn() - attention для variable-length входов
Появилась новая опа в
torch.nn.attention для ragged/packed последовательностей:- работает и на forward, и на backward
- хорошо дружит с
torch.compile- сейчас через FlashAttention2, дальше планируют поддержку через cuDNN/FA4
- CUDA (A100+), dtype BF16/FP16
• Быстрее eigendecomposition на GPU
В
torch.linalg ускорили eigen decomposition на NVIDIA за счёт cuSOLVER DnXgeev.Отладка / детерминизм:
• torch.compile теперь уважает deterministic mode
Если включить
torch.use_deterministic_algorithms(True), то torch.compile сохранит детерминированность между запусками - удобно для дебага.• DebugMode для поиска numerical divergence
Новый режим для диагностики:
- логирование dispatch
- tensor hashing (видно, где именно “поехали” тензоры)
- dispatch hooks для заметок и аннотаций
Ещё важное:
• TorchScript официально deprecated
Рекомендуемый путь вперёд - torch.export.
• tlparse + TORCH_TRACE
Упростили сбор трассировок и артефактов, чтобы легче репортить баги в компиляторе.
• Релизы чаще в 2026
Планируют перейти на релиз раз в 2 месяца (вместо quarterly).
https://pytorch.org/blog/pytorch-2-10-release-blog/
#PyTorch #OpenSourceAI #AIInfrastructure
🔥9👍3🥰2❤1
🧠 Google: сильные reasoning-модели начинают “думать как несколько агентов”
Исследователи Google заметили, что продвинутые модели рассуждений становятся умнее не только из-за большего времени на размышления или роста параметров.
Важнее другое: такие модели сами по себе начинают разыгрывать внутри “мульти-агентный” процесс - как будто несколько разных точек зрения обсуждают задачу.
Внутри появляется условная “команда”:
- разные роли/персоны предлагают идеи
- спорят и проверяют аргументы
- затем сходятся на лучшем решении
Именно эти внутренние мини-дебаты помогают лучше справляться со сложными задачами.
https://arxiv.org/abs/2601.10825
Исследователи Google заметили, что продвинутые модели рассуждений становятся умнее не только из-за большего времени на размышления или роста параметров.
Важнее другое: такие модели сами по себе начинают разыгрывать внутри “мульти-агентный” процесс - как будто несколько разных точек зрения обсуждают задачу.
Внутри появляется условная “команда”:
- разные роли/персоны предлагают идеи
- спорят и проверяют аргументы
- затем сходятся на лучшем решении
Именно эти внутренние мини-дебаты помогают лучше справляться со сложными задачами.
https://arxiv.org/abs/2601.10825
❤4🔥3👍2😁1
🛠️ Универсальный рынок навыков для AI-агентов
n-skills — это курируемая платформа, предлагающая универсальные форматы навыков для различных AI-агентов. Она поддерживает интеграцию с популярными инструментами, такими как GitHub Copilot и OpenAI Codex, обеспечивая совместимость и простоту использования.
🚀Основные моменты:
- Курируемый рынок навыков для AI-агентов
- Поддержка множества платформ и инструментов
- Универсальный формат SKILL.md для навыков
- Автоматическая синхронизация с внешними репозиториями
- Возможность добавления новых навыков
📌 GitHub: https://github.com/numman-ali/n-skills
#markdown
n-skills — это курируемая платформа, предлагающая универсальные форматы навыков для различных AI-агентов. Она поддерживает интеграцию с популярными инструментами, такими как GitHub Copilot и OpenAI Codex, обеспечивая совместимость и простоту использования.
🚀Основные моменты:
- Курируемый рынок навыков для AI-агентов
- Поддержка множества платформ и инструментов
- Универсальный формат SKILL.md для навыков
- Автоматическая синхронизация с внешними репозиториями
- Возможность добавления новых навыков
📌 GitHub: https://github.com/numman-ali/n-skills
#markdown
GitHub
GitHub - numman-ali/n-skills: Curated plugin marketplace for AI agents - works with Claude Code, Codex, and openskills
Curated plugin marketplace for AI agents - works with Claude Code, Codex, and openskills - numman-ali/n-skills
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Простой анализ настроений с использованием Hugging Face Transformer
Используйте библиотеку
Ниже представлен код, который загружает предобученную модель и делает прогноз на входном тексте.
#junior
Используйте библиотеку
transformers от Hugging Face для легкой интеграции моделей машинного обучения в ваши проекты. Ниже представлен код, который загружает предобученную модель и делает прогноз на входном тексте.
from transformers import pipeline
# Загружаем модель для анализа настроений
sentiment_analysis = pipeline("sentiment-analysis")
# Пример текста для анализа
text = "Я очень доволен результатом работы этой команды!"
# Выполняем анализ настроений
results = sentiment_analysis(text)
# Выводим результаты
for result in results:
print(f"Настроение: {result['label']}, Уверенность: {round(result['score'], 2)}")
#junior
❤3👍2🔥2
🎥 Управляйте 3D-камерами с ComfyUI
ComfyUI-qwenmultiangle — это настраиваемый узел для управления углами 3D-камеры в ComfyUI. Он предлагает интерактивный интерфейс на основе Three.js для регулировки углов и масштабирования, а также выводит формализованные строки запросов для генерации изображений с разных ракурсов.
🚀Основные моменты:
- Интерактивное управление углом и масштабом камеры
- Быстрый выбор предустановленных углов через выпадающие меню
- Реальный просмотр сцены в 3D
- Поддержка нескольких языков интерфейса
- Совместимость с Qwen-Image-Edit для генерации изображений
📌 GitHub: https://github.com/jtydhr88/ComfyUI-qwenmultiangle
#typescript
ComfyUI-qwenmultiangle — это настраиваемый узел для управления углами 3D-камеры в ComfyUI. Он предлагает интерактивный интерфейс на основе Three.js для регулировки углов и масштабирования, а также выводит формализованные строки запросов для генерации изображений с разных ракурсов.
🚀Основные моменты:
- Интерактивное управление углом и масштабом камеры
- Быстрый выбор предустановленных углов через выпадающие меню
- Реальный просмотр сцены в 3D
- Поддержка нескольких языков интерфейса
- Совместимость с Qwen-Image-Edit для генерации изображений
📌 GitHub: https://github.com/jtydhr88/ComfyUI-qwenmultiangle
#typescript
❤1👍1
🧠 Mozilla собирает “повстанческий альянс” в мире AI
Mozilla использует свои $1.4 млрд резервов и open-source ДНК, чтобы поддержать прозрачные и надежные альтернативы AI от Big Tech.
Через Mozilla Ventures и инициативу Mozilla.ai фонд инвестирует в ранние стартапы, которые бросают вызов доминированию OpenAI, Anthropic и других гигантов.
В альянс уже входят проекты вроде Trail, Transformer Lab и Oumi.
Цель — не просто стартапы, а формирование устойчивой open-source экосистемы для разработки AI.
Идея в том, чтобы будущее AI не оказалось полностью под контролем нескольких корпораций, а строилось на открытых технологиях, прозрачности и общественных интересах.
Это попытка вернуть AI к корням интернета - открытому, децентрализованному и доступному.
Mozilla использует свои $1.4 млрд резервов и open-source ДНК, чтобы поддержать прозрачные и надежные альтернативы AI от Big Tech.
Через Mozilla Ventures и инициативу Mozilla.ai фонд инвестирует в ранние стартапы, которые бросают вызов доминированию OpenAI, Anthropic и других гигантов.
В альянс уже входят проекты вроде Trail, Transformer Lab и Oumi.
Цель — не просто стартапы, а формирование устойчивой open-source экосистемы для разработки AI.
Идея в том, чтобы будущее AI не оказалось полностью под контролем нескольких корпораций, а строилось на открытых технологиях, прозрачности и общественных интересах.
Это попытка вернуть AI к корням интернета - открытому, децентрализованному и доступному.
👍22❤8🔥6
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 NovaSR - крошечная open-source модель, которая ускоряет обработку аудио в сотни раз
Вышел релиз NovaSR - маленькая, но очень мощная модель для улучшения качества аудио.
Самый громкий факт:
⚡️ 3600 секунд аудио за 1 секунду
То есть целый час звука обрабатывается практически мгновенно - на порядки быстрее прошлых решений.
Зачем это нужно
NovaSR полезна везде, где есть “сырой” звук:
✅ улучшение TTS-озвучки (делает голос чище и приятнее)
✅ улучшение качества датасетов (для обучения ASR/TTS/voice моделей)
✅ очистка и восстановление созвонов / звонков / записей
✅ быстрый preprocessing перед ML пайплайном
Это как “апскейлер” для звука:
меньше шумов, больше чёткости, лучше разборчивость.
Ссылки:
Repo: https://github.com/ysharma3501/NovaSR
Model: https://huggingface.co/YatharthS/NovaSR
Если работаешь с TTS / ASR / аудио-датасетами - это must-have тулза.
Вышел релиз NovaSR - маленькая, но очень мощная модель для улучшения качества аудио.
Самый громкий факт:
⚡️ 3600 секунд аудио за 1 секунду
То есть целый час звука обрабатывается практически мгновенно - на порядки быстрее прошлых решений.
Зачем это нужно
NovaSR полезна везде, где есть “сырой” звук:
✅ улучшение TTS-озвучки (делает голос чище и приятнее)
✅ улучшение качества датасетов (для обучения ASR/TTS/voice моделей)
✅ очистка и восстановление созвонов / звонков / записей
✅ быстрый preprocessing перед ML пайплайном
Это как “апскейлер” для звука:
меньше шумов, больше чёткости, лучше разборчивость.
Ссылки:
Repo: https://github.com/ysharma3501/NovaSR
Model: https://huggingface.co/YatharthS/NovaSR
Если работаешь с TTS / ASR / аудио-датасетами - это must-have тулза.
👍7❤4🔥1🥰1
🎤 Lex Fridman: большой разговор про ИИ в 2026 - от железа и LLM до AGI и будущего цивилизации.
Новый большой эпизод о том, куда движется AI прямо сейчас и что нас ждёт дальше: прорывы, scaling laws, закрытые и open-source LLM, инструменты для разработчиков, гонка Китай vs США, детали обучения моделей, будущее работы и многое другое.
В беседе участвуют два интересных человека из AI-комьюнити:
• Sebastian Raschka - исследователь, инженер и один из лучших AI-объяснителей
• Nathan Lambert - ML-ресёрчер и инженер, глубоко в теме LLM
Разговор получился ураганным: от жёсткого технарства до философии будущего.
Основные темы:
• Кто выигрывает AI-гонку: Китай или США
• ChatGPT vs Claude vs Gemini vs Grok
• Лучшие AI-инструменты для программирования (Claude Code, Cursor и др.)
• Open Source vs Closed Source LLM
• Как эволюционировали трансформеры с 2019 года
• Scaling laws — всё ещё работают или уже ломаются
• Как реально обучаются современные модели: pre-training, mid-training, post-training
• Новые направления в post-training
• Как новичку войти в AI-разработку и исследования
• Культура работы в AI (72+ часов в неделю)
• Пузырь Кремниевой долины
• Diffusion для текста и другие новые направления
• Tool use, continual learning, long context
• Робототехника
• Сроки до AGI и где всё может пойти не так
• Заменит ли ИИ программистов
• Умирает ли мечта об AGI
• Как ИИ будет зарабатывать деньги
• Крупные сделки и поглощения
• Будущее OpenAI, Anthropic, Google DeepMind, xAI, Meta
• «Манхэттенский проект» для ИИ
• Будущее NVIDIA, GPU и AI-кластеров
• И даже-— будущее человеческой цивилизации
YouTube: https://youtube.com/watch?v=EV7WhVT270Q
Spotify: https://open.spotify.com/show/2MAi0BvDc6GTFvKFPXnkCL
Podcast: https://lexfridman.com/podcast
X: https://x.com/lexfridman/status/2017735625227833850
Новый большой эпизод о том, куда движется AI прямо сейчас и что нас ждёт дальше: прорывы, scaling laws, закрытые и open-source LLM, инструменты для разработчиков, гонка Китай vs США, детали обучения моделей, будущее работы и многое другое.
В беседе участвуют два интересных человека из AI-комьюнити:
• Sebastian Raschka - исследователь, инженер и один из лучших AI-объяснителей
• Nathan Lambert - ML-ресёрчер и инженер, глубоко в теме LLM
Разговор получился ураганным: от жёсткого технарства до философии будущего.
Основные темы:
• Кто выигрывает AI-гонку: Китай или США
• ChatGPT vs Claude vs Gemini vs Grok
• Лучшие AI-инструменты для программирования (Claude Code, Cursor и др.)
• Open Source vs Closed Source LLM
• Как эволюционировали трансформеры с 2019 года
• Scaling laws — всё ещё работают или уже ломаются
• Как реально обучаются современные модели: pre-training, mid-training, post-training
• Новые направления в post-training
• Как новичку войти в AI-разработку и исследования
• Культура работы в AI (72+ часов в неделю)
• Пузырь Кремниевой долины
• Diffusion для текста и другие новые направления
• Tool use, continual learning, long context
• Робототехника
• Сроки до AGI и где всё может пойти не так
• Заменит ли ИИ программистов
• Умирает ли мечта об AGI
• Как ИИ будет зарабатывать деньги
• Крупные сделки и поглощения
• Будущее OpenAI, Anthropic, Google DeepMind, xAI, Meta
• «Манхэттенский проект» для ИИ
• Будущее NVIDIA, GPU и AI-кластеров
• И даже-— будущее человеческой цивилизации
Это срез состояния индустрии в моменте, где AI перестаёт быть «фичей» и становится инфраструктурой мира.
YouTube: https://youtube.com/watch?v=EV7WhVT270Q
Spotify: https://open.spotify.com/show/2MAi0BvDc6GTFvKFPXnkCL
Podcast: https://lexfridman.com/podcast
X: https://x.com/lexfridman/status/2017735625227833850
❤3👍3🥰1