Liquid AI выкатили LFM2.5-VL-450M - vision-language модель, заточенную под работу на edge-устройствах в реальном времени.
Картинка 512×512 обрабатывается за ~240мс прямо на девайсе. Этого хватает, чтобы рассуждать над каждым кадром видеопотока в 4 FPS - причем с пониманием контекста, а не просто детекцией объектов.
Ключевая идея: один инференс-пасс заменяет классическую связку детектор → классификатор → эвристики. Те самые multi-stage пайплайны, которые в продакшене до сих пор ломаются, тормозят и больно поддерживаются.
Что нового в релизе: bounding box prediction (81.28 на RefCOCO-M), мультиязычное визуальное понимание на 8 языках (MMMB подняли с 54.29 до 68.09), поддержка function calling (BFCLv4).
Работает на Jetson Orin, Samsung S25 Ultra, AMD 395+ Max. Веса открыты, облако не нужно.
Веса на HuggingFace, блог и playground - в треде Liquid AI.
huggingface.co/spaces/LiquidAI/LFM2-VL-WebGPU
Картинка 512×512 обрабатывается за ~240мс прямо на девайсе. Этого хватает, чтобы рассуждать над каждым кадром видеопотока в 4 FPS - причем с пониманием контекста, а не просто детекцией объектов.
Ключевая идея: один инференс-пасс заменяет классическую связку детектор → классификатор → эвристики. Те самые multi-stage пайплайны, которые в продакшене до сих пор ломаются, тормозят и больно поддерживаются.
Что нового в релизе: bounding box prediction (81.28 на RefCOCO-M), мультиязычное визуальное понимание на 8 языках (MMMB подняли с 54.29 до 68.09), поддержка function calling (BFCLv4).
Работает на Jetson Orin, Samsung S25 Ultra, AMD 395+ Max. Веса открыты, облако не нужно.
Веса на HuggingFace, блог и playground - в треде Liquid AI.
huggingface.co/spaces/LiquidAI/LFM2-VL-WebGPU
❤5👍1
Media is too big
VIEW IN TELEGRAM
🚨 Автоматическая фабрика рилзов в одну команду
Если видел эти бесконечные видео с озвученными тредами, теперь понятно, откуда они берутся.
RedditVideoMakerBot - скрипт, который полностью автоматизирует весь пайплайн.
Ты запускаешь один Python файл и получаешь готовое видео под TikTok, Shorts или Reels.
Под капотом происходит следующее.
• Скрипт сам тянет тред из выбранного сабреддита. • Делает скриншоты через Playwright.
• Прогоняет текст через TTS.
• Подкладывает фоновое видео и собирает всё в финальный ролик с таймингами.
Без монтажа. Без таймлайна. Без ручной сборки.
Фактически это конвейер контента. Один запуск равен одному видео.
Формат уже оптимизирован под алгоритмы. Тот самый визуал, который все видят в ленте. Minecraft фон, скриншоты Reddit, синтетическая озвучка.
Репозиторий уже набрал больше 10 тысяч звёзд. Полностью open source.
https://github.com/elebumm/RedditVideoMakerBot
Если видел эти бесконечные видео с озвученными тредами, теперь понятно, откуда они берутся.
RedditVideoMakerBot - скрипт, который полностью автоматизирует весь пайплайн.
Ты запускаешь один Python файл и получаешь готовое видео под TikTok, Shorts или Reels.
Под капотом происходит следующее.
• Скрипт сам тянет тред из выбранного сабреддита. • Делает скриншоты через Playwright.
• Прогоняет текст через TTS.
• Подкладывает фоновое видео и собирает всё в финальный ролик с таймингами.
Без монтажа. Без таймлайна. Без ручной сборки.
Фактически это конвейер контента. Один запуск равен одному видео.
Формат уже оптимизирован под алгоритмы. Тот самый визуал, который все видят в ленте. Minecraft фон, скриншоты Reddit, синтетическая озвучка.
Репозиторий уже набрал больше 10 тысяч звёзд. Полностью open source.
https://github.com/elebumm/RedditVideoMakerBot
❤4🔥2👍1