FastMCP 3.0
фреймворк для создания MCP-серверов
позволяет разворачивать MCP-серверы менее чем за минуту
В основе — три примитива: компоненты (определяют логику), провайдеры (поставляют компоненты) и трансформы (изменяют поведение провайдеров)
Docs
#mcp
фреймворк для создания MCP-серверов
позволяет разворачивать MCP-серверы менее чем за минуту
В основе — три примитива: компоненты (определяют логику), провайдеры (поставляют компоненты) и трансформы (изменяют поведение провайдеров)
Docs
#mcp
👍8
Nunchaku-Qwen-Image-EDIT-2511
Опубликованы кванты #qie2511 под #Nunchaku
Полностью совместимые с плагином nunchaku-comfyui
Опубликованы кванты #qie2511 под #Nunchaku
Полностью совместимые с плагином nunchaku-comfyui
🔥8👍4🤔1
Linum v2
Два брата, Сахил и Ману, за два года с нуля разработали модель для генерации видео из текста. Модель имеет 2 миллиарда параметров и создаёт видео длиной 2–5 секунд в разрешении 360p или 720p
— Использует T5 для кодирования текста.
— Применяет Wan 2.1 VAE для сжатия.
— Имеет backbone на основе DiT с обучением через flow matching.
— Может генерировать видео в мультяшном и анимационном стилях, с сценами еды и природы, простым движением персонажей
— Пока не справляется со сложной физикой, быстрым движением (например, гимнастикой или танцами) и согласованным текстом
Разработчики планируют улучшить модель: доработать физику и деформации, ускорить работу через дистилляцию, добавить аудиовозможности и масштабировать модель.
Гитхаб
HF
Спасибо @p0lygon
#text2video
Два брата, Сахил и Ману, за два года с нуля разработали модель для генерации видео из текста. Модель имеет 2 миллиарда параметров и создаёт видео длиной 2–5 секунд в разрешении 360p или 720p
— Использует T5 для кодирования текста.
— Применяет Wan 2.1 VAE для сжатия.
— Имеет backbone на основе DiT с обучением через flow matching.
— Может генерировать видео в мультяшном и анимационном стилях, с сценами еды и природы, простым движением персонажей
— Пока не справляется со сложной физикой, быстрым движением (например, гимнастикой или танцами) и согласованным текстом
Разработчики планируют улучшить модель: доработать физику и деформации, ускорить работу через дистилляцию, добавить аудиовозможности и масштабировать модель.
Гитхаб
HF
Спасибо @p0lygon
#text2video
❤6🔥5👍1🤔1😱1
PyTorch 2.10
Нейронки зашуршат шустрее
— поддержка Python 3.14
— Combo-Kernels объединяет мелкие задачи, что убирает простои GPU и ускоряет обучение
— Новый режим отладки помогает быстро находить ошибки в коде, экономя время
— Спецрежим для данных разной длины ускоряет обработку и снижает нагрузку на ресурсы
— Результаты вычислений теперь всегда одинаковые, что важно для научных и финансовых моделей
#news
Нейронки зашуршат шустрее
— поддержка Python 3.14
— Combo-Kernels объединяет мелкие задачи, что убирает простои GPU и ускоряет обучение
— Новый режим отладки помогает быстро находить ошибки в коде, экономя время
— Спецрежим для данных разной длины ускоряет обработку и снижает нагрузку на ресурсы
— Результаты вычислений теперь всегда одинаковые, что важно для научных и финансовых моделей
#news
GitHub
Release PyTorch 2.10.0 Release · pytorch/pytorch
PyTorch 2.10.0 Release Notes
Highlights
Backwards Incompatible Changes
Deprecations
New Features
Improvements
Bug fixes
Performance
Documentation
Developers
Security
Highlights
Pyt...
Highlights
Backwards Incompatible Changes
Deprecations
New Features
Improvements
Bug fixes
Performance
Documentation
Developers
Security
Highlights
Pyt...
🔥13👍6😁1
houdini-comfyui-bridge
Опенсорсный плагин для использования ComfyUI прямо в Houdini
— загружает узлы ComfyUI в COPs
— импортирует и экспортирует данные из ComfyUI — генерирует изображения, меши, аудио и прочее
— даёт возможность создавать кастомные пайплайны, которые объединяют CG с диффузионным и генеративным ИИ через TOPs submitte
#houdini #comfyui #3d
Опенсорсный плагин для использования ComfyUI прямо в Houdini
— загружает узлы ComfyUI в COPs
— импортирует и экспортирует данные из ComfyUI — генерирует изображения, меши, аудио и прочее
— даёт возможность создавать кастомные пайплайны, которые объединяют CG с диффузионным и генеративным ИИ через TOPs submitte
#houdini #comfyui #3d
👍11🤓2😁1😭1
This media is not supported in your browser
VIEW IN TELEGRAM
MLX-Audio
библиотека для обработки аудио, которая работает на фреймворке MLX от Apple и лучше всего показывает себя на Apple Silicon
— превращать текст в речь (TTS)
— переводить речь в текст (STT)
— преобразовывать одну речь в другую (STS)
— поддерживает только что вышедший Qwen3-TTS
— Поддерживает кучу языков, может подстраивать голос и даже клонировать его. Есть веб-интерфейс с визуализацией звука в 3D и API, совместимый с OpenAI
#tools #tts #stt #sts #speech
библиотека для обработки аудио, которая работает на фреймворке MLX от Apple и лучше всего показывает себя на Apple Silicon
— превращать текст в речь (TTS)
— переводить речь в текст (STT)
— преобразовывать одну речь в другую (STS)
— поддерживает только что вышедший Qwen3-TTS
— Поддерживает кучу языков, может подстраивать голос и даже клонировать его. Есть веб-интерфейс с визуализацией звука в 3D и API, совместимый с OpenAI
#tools #tts #stt #sts #speech
👍13
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Motion 3-to-4: 3D Motion Reconstruction for 4D Synthesis
превращает обычное видео в 4D-объект. Модель берёт одно видео и, если нужно, 3D-модель, и делает из них динамичный 4D-объект
— разбивает задачу на две части: сначала создаёт статичную 3D-форму, потом восстанавливает движение
— использует специальную «базовую» 3D-сетку, чтобы лучше понимать движения
— предсказывает, как будут двигаться точки в каждом кадре, чтобы объект выглядел реалистично и не «разваливался»
Гитхаб
#videoto3d #videoto4d #3d #4d
превращает обычное видео в 4D-объект. Модель берёт одно видео и, если нужно, 3D-модель, и делает из них динамичный 4D-объект
— разбивает задачу на две части: сначала создаёт статичную 3D-форму, потом восстанавливает движение
— использует специальную «базовую» 3D-сетку, чтобы лучше понимать движения
— предсказывает, как будут двигаться точки в каждом кадре, чтобы объект выглядел реалистично и не «разваливался»
Гитхаб
#videoto3d #videoto4d #3d #4d
👍5🤔1
ActionMesh: Animated 3D Mesh Generation with Temporal 3D Diffusion
Похожая, но полкруче модель от Meta (запрещено в РФ) создает анимированную 3D-модель по видео. Также может анимировать по текстовому промпту, или сделать модель из изображения и анимировать ее
Гитхаб
HF
Демо
#videoto3d #videoto4d #3d #4d
Похожая, но полкруче модель от Meta (запрещено в РФ) создает анимированную 3D-модель по видео. Также может анимировать по текстовому промпту, или сделать модель из изображения и анимировать ее
Гитхаб
HF
Демо
#videoto3d #videoto4d #3d #4d
🔥8👍1
Media is too big
VIEW IN TELEGRAM
D4RT
День 4D реконструкций на Нейронавте продолжает Гугл с работой без кода.
D4RT превращает видео в 4D-реконструкцию, отслеживая движение объектов
Чем D4RT отличается от других моделей:
— работает быстрее аналогов — в 18–300 раз
— обрабатывает видео в реальном времени
— может отслеживать точки и предсказывать их траекторию в 3D, даже если объект исчезает из кадра
— создаёт полную 3D-структуру сцены без дополнительных шагов
— определяет положение камеры и её траекторию
— хорошо справляется с динамичными сценами и сложными движениями
#videoto3d #videoto4d #3d #4d #video2scene #tracking #research
День 4D реконструкций на Нейронавте продолжает Гугл с работой без кода.
D4RT превращает видео в 4D-реконструкцию, отслеживая движение объектов
Чем D4RT отличается от других моделей:
— работает быстрее аналогов — в 18–300 раз
— обрабатывает видео в реальном времени
— может отслеживать точки и предсказывать их траекторию в 3D, даже если объект исчезает из кадра
— создаёт полную 3D-структуру сцены без дополнительных шагов
— определяет положение камеры и её траекторию
— хорошо справляется с динамичными сценами и сложными движениями
#videoto3d #videoto4d #3d #4d #video2scene #tracking #research
👍3🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Rodin Gen-2 Edit
Deemos запустили контекстный 3d редактор, подобный нанобанану, только для 3d
— преобразование топологии
— локальные правки с помощью промпта (в бета-версии)
— разбивает модели на части
#3dediting
Deemos запустили контекстный 3d редактор, подобный нанобанану, только для 3d
— преобразование топологии
— локальные правки с помощью промпта (в бета-версии)
— разбивает модели на части
#3dediting
👍17
This media is not supported in your browser
VIEW IN TELEGRAM
VideoMaMa: Mask-Guided Video Matting via Generative Prior
В Adobe и KAIST придумали инструмент для превращения грубых масок (например из SAM 2) в точную мягкую маску
Гитхаб
HF
Демо
#segmentation #mask2matte #video2matte
В Adobe и KAIST придумали инструмент для превращения грубых масок (например из SAM 2) в точную мягкую маску
Гитхаб
HF
Демо
#segmentation #mask2matte #video2matte
👍12🤔1🤯1