Forwarded from Dendi Math&AI (Денис Димитров)
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🎬 Kandinsky 5.0 Video Lite — новая open source модель генерации видео 🎬
Мы выпускаем Kandinsky 5.0 Video Lite — первую модель новой линейки Kandinsky-5. Модель работает в разрешении 768×512 и при небольшом размере всего в 2B параметров демонстрирует качество, превосходящее предыдущие версии Kandinsky и большую часть актуальных открытых open source решений
Генерация видео до сих пор остаётся одной из самых сложных инженерных задач в Generative AI. Причём и как с точки зрения подготовки данных для обучения и распределённого обучения моделей, а затем масштабирования, так и с точки зрения инференса такого рода архитектур. Если картинки уже можно делать фотореалистичными даже на «бытовом» железе, то качественные видео в высоких разрешениях до сих пор можно сгенерировать только большими моделями, которые запускаются на топовых GPU
Мы решили это изменить и при разработке сделать ключевой акцент на эффективности: модель Lite компактна, требует меньше ресурсов и генерирует быстрее. Такой результат стал возможен благодаря комплексной работе — от сбора и подготовки данных до инженерных оптимизаций pre-train и сбора качественных данных для SFT. Мы исследовали современные методы оптимизации архитектур и применили собственные наработки для балансировки качества и скорости
⚡️В открытый доступ мы выкладываем следующие чекпоинты (для генерации 5 сек и 10 сек видео):
💡 SFT: максимальное качество (она же основная Kandinsky 5.0 Video Lite)
💡 CFG-distilled: x2 быстрее
💡 Diffusion-distilled: x6 быстрее при минимальной потере качества
💡 Pretrain: для исследований и дообучения
⚡️Некоторые технические детали:
💡Архитектура основана на Diffusion Transformer (DiT) с flow matching (подробнее см. Хабр)
💡Pre-train модели осуществлялся примерно на 520 млн изображений и 125 млн видео-сцен
💡Делали упор на Alignment (в частности, SFT) на качественных визуальных данных, предварительно отобранных большой командой профессиональных художников и дизайнеров. Этот этап дал самый большой прирост по визуальному качеству
💡Для 10-секундной генерации используется разработанный нами метод разреженного внимания NABLA
⚡️По внутренним замерам SFT версия (5 сек) превосходит по общему качеству (которое включает в себя оценку качества следования промпту, визуала и динамики) гораздо более громоздкие модели, такие как Wan 2.1 14B, Wan 2.2 5B и оригинальную Sora, и сравнима по визуальному качеству с моделью Wan 2.2 A14B, которая больше Kandinsky в 13-14 раз. При этом генерации 10 сек версий также демонстрируют высокое качество и стабильность
⚡️Где и как можно потестить:
💡Моделями можно воспользоваться, записавшись в вайтлист бота (к сожалению, только для ограниченного количества пользователей)
💡Все материалы есть на HuggingFace, GitHub и GitVerse, также есть ComfyUI
💡Модели распространяются по открытой лицензии с поддержкой коммерческого использования
И ещё раз все полезные ссылки в одном месте:
👉 Хабр (технические подробности)
👉 Project Page (демо)
👉 Github (код)
👉 Hugging Face (чекпоинты)
👉 GitVerse (код)
👉 NABLA (paper)
👉 Бот для записи в вайтлист
Мы выпускаем Kandinsky 5.0 Video Lite — первую модель новой линейки Kandinsky-5. Модель работает в разрешении 768×512 и при небольшом размере всего в 2B параметров демонстрирует качество, превосходящее предыдущие версии Kandinsky и большую часть актуальных открытых open source решений
Генерация видео до сих пор остаётся одной из самых сложных инженерных задач в Generative AI. Причём и как с точки зрения подготовки данных для обучения и распределённого обучения моделей, а затем масштабирования, так и с точки зрения инференса такого рода архитектур. Если картинки уже можно делать фотореалистичными даже на «бытовом» железе, то качественные видео в высоких разрешениях до сих пор можно сгенерировать только большими моделями, которые запускаются на топовых GPU
Мы решили это изменить и при разработке сделать ключевой акцент на эффективности: модель Lite компактна, требует меньше ресурсов и генерирует быстрее. Такой результат стал возможен благодаря комплексной работе — от сбора и подготовки данных до инженерных оптимизаций pre-train и сбора качественных данных для SFT. Мы исследовали современные методы оптимизации архитектур и применили собственные наработки для балансировки качества и скорости
⚡️В открытый доступ мы выкладываем следующие чекпоинты (для генерации 5 сек и 10 сек видео):
💡 SFT: максимальное качество (она же основная Kandinsky 5.0 Video Lite)
💡 CFG-distilled: x2 быстрее
💡 Diffusion-distilled: x6 быстрее при минимальной потере качества
💡 Pretrain: для исследований и дообучения
⚡️Некоторые технические детали:
💡Архитектура основана на Diffusion Transformer (DiT) с flow matching (подробнее см. Хабр)
💡Pre-train модели осуществлялся примерно на 520 млн изображений и 125 млн видео-сцен
💡Делали упор на Alignment (в частности, SFT) на качественных визуальных данных, предварительно отобранных большой командой профессиональных художников и дизайнеров. Этот этап дал самый большой прирост по визуальному качеству
💡Для 10-секундной генерации используется разработанный нами метод разреженного внимания NABLA
⚡️По внутренним замерам SFT версия (5 сек) превосходит по общему качеству (которое включает в себя оценку качества следования промпту, визуала и динамики) гораздо более громоздкие модели, такие как Wan 2.1 14B, Wan 2.2 5B и оригинальную Sora, и сравнима по визуальному качеству с моделью Wan 2.2 A14B, которая больше Kandinsky в 13-14 раз. При этом генерации 10 сек версий также демонстрируют высокое качество и стабильность
⚡️Где и как можно потестить:
💡Моделями можно воспользоваться, записавшись в вайтлист бота (к сожалению, только для ограниченного количества пользователей)
💡Все материалы есть на HuggingFace, GitHub и GitVerse, также есть ComfyUI
💡Модели распространяются по открытой лицензии с поддержкой коммерческого использования
И ещё раз все полезные ссылки в одном месте:
👉 Хабр (технические подробности)
👉 Project Page (демо)
👉 Github (код)
👉 Hugging Face (чекпоинты)
👉 GitVerse (код)
👉 NABLA (paper)
👉 Бот для записи в вайтлист
🔥15❤4⚡2🆒1
This media is not supported in your browser
VIEW IN TELEGRAM
NVIDIA выпустила открытый физический движок Newton для роботов
NVIDIA запустила Newton Physics Engine - открытый движок для симуляции физического мира для роботов, разработанный совместно с Google DeepMind и Disney Research. Основан на NVIDIA Warp и работает как на GPU так и на CPU.
Движок интегрирован в Isaac Lab и позволяет симулировать сложные движения роботов - ходьбу по снегу, гравию, манипуляции с объектами.
Вместе с Newton выходит Isaac GR00T N1.6 - модель для роботов с интеграцией Cosmos Reason для пошагового планирования действий с учётом физики мира.
Превращает расплывчатые инструкции в пошаговый план через "здравый смысл" и знание физики
Cosmos WFMs - генерация синтетических данных для обучения:
Predict 2.5: видео до 30 сек, мультикамерный вывод
Transfer 2.5: в 3.5x компактнее, фотореалистичная синтетика из 3D-сцен
Тут кстати уместно вспомнить про избыточность.
Когда роботы локально смогут быстро генерить хотя бы 30 секундные физически достоверные симуляции будущего, - мы получим то самое "воображение", которое сделает их действия безошибочными.
Нужны мощные маленькие мини-пк, как, например, NVidia Thor.
#Newton #Robotics #NVIDIA
———
@tsingular
NVIDIA запустила Newton Physics Engine - открытый движок для симуляции физического мира для роботов, разработанный совместно с Google DeepMind и Disney Research. Основан на NVIDIA Warp и работает как на GPU так и на CPU.
Движок интегрирован в Isaac Lab и позволяет симулировать сложные движения роботов - ходьбу по снегу, гравию, манипуляции с объектами.
Вместе с Newton выходит Isaac GR00T N1.6 - модель для роботов с интеграцией Cosmos Reason для пошагового планирования действий с учётом физики мира.
Превращает расплывчатые инструкции в пошаговый план через "здравый смысл" и знание физики
Cosmos WFMs - генерация синтетических данных для обучения:
Predict 2.5: видео до 30 сек, мультикамерный вывод
Transfer 2.5: в 3.5x компактнее, фотореалистичная синтетика из 3D-сцен
Тут кстати уместно вспомнить про избыточность.
Когда роботы локально смогут быстро генерить хотя бы 30 секундные физически достоверные симуляции будущего, - мы получим то самое "воображение", которое сделает их действия безошибочными.
Нужны мощные маленькие мини-пк, как, например, NVidia Thor.
#Newton #Robotics #NVIDIA
———
@tsingular
👍4❤2🔥2👾1
This media is not supported in your browser
VIEW IN TELEGRAM
FuzzForge AI: платформа для автоматизации поиска уязвимостей
Интересная платформа с ИБ инструментами.
🤖 AI Agents for Security — специализированные агенты для AppSec, реверсинга и фаззинга
🛠 Автоматизация рабочих процессов — определение и выполнение рабочих процессов AppSec в виде кода
📈 Масштабируемое исследование уязвимостей - автоматизированная перепроверка уязвимостей 1-day и обнаружение уязвимостей 0-day
🔗 Интеграция с фаззерами — AFL, Honggfuzz, AFLnet, StateAFL и другие
🌐 Маркетплейс сообщества - обмен рабочими процессами, корпусами, PoC и модулями
🔒 Корпоративная версия - облачные решения для команд/корпораций для масштабирования активной безопасности
Полезный фреймворк для внутренней команды по пентестам.
#FuzzForge #Fuzzing #AppSec #cybersecurity
———
@tsingular
Интересная платформа с ИБ инструментами.
🤖 AI Agents for Security — специализированные агенты для AppSec, реверсинга и фаззинга
🛠 Автоматизация рабочих процессов — определение и выполнение рабочих процессов AppSec в виде кода
📈 Масштабируемое исследование уязвимостей - автоматизированная перепроверка уязвимостей 1-day и обнаружение уязвимостей 0-day
🔗 Интеграция с фаззерами — AFL, Honggfuzz, AFLnet, StateAFL и другие
🌐 Маркетплейс сообщества - обмен рабочими процессами, корпусами, PoC и модулями
🔒 Корпоративная версия - облачные решения для команд/корпораций для масштабирования активной безопасности
Полезный фреймворк для внутренней команды по пентестам.
#FuzzForge #Fuzzing #AppSec #cybersecurity
———
@tsingular
✍2👍2❤1
HexStrike AI: коллекция 150+ инструментов с MCP для пентеста с ИИ
Новый MCP-сервер позволяет Claude, GPT и другим ИИ автономно запускать 150+ инструментов кибербезопасности для пентеста и поиска уязвимостей.
🔍 Сетевая разведка и сканирование (более 25 инструментов)
🌐 Тестирование безопасности веб-приложений (более 40 инструментов)
🔐 Аутентификация и защита паролей (более 12 инструментов)
🔬 Двоичный анализ и реверс инжиниринг (более 25 инструментов)
☁️ Безопасность облаков и контейнеров (более 20 инструментов)
🏆 Инструменты для CTF и криминалистики (более 20 инструментов)
🔥 Bug Bounty и OSINT Arsenal (более 20 инструментов)
Система интегрирует языковые модели с утилитами для автоматизации багбаунти и исследований безопасности.
Рекомендуется использовать только в исследовательских целях.
#HexStrike #cybersecurity #Pentesting
———
@tsingular
Новый MCP-сервер позволяет Claude, GPT и другим ИИ автономно запускать 150+ инструментов кибербезопасности для пентеста и поиска уязвимостей.
🔍 Сетевая разведка и сканирование (более 25 инструментов)
🌐 Тестирование безопасности веб-приложений (более 40 инструментов)
🔐 Аутентификация и защита паролей (более 12 инструментов)
🔬 Двоичный анализ и реверс инжиниринг (более 25 инструментов)
☁️ Безопасность облаков и контейнеров (более 20 инструментов)
🏆 Инструменты для CTF и криминалистики (более 20 инструментов)
🔥 Bug Bounty и OSINT Arsenal (более 20 инструментов)
Система интегрирует языковые модели с утилитами для автоматизации багбаунти и исследований безопасности.
Рекомендуется использовать только в исследовательских целях.
#HexStrike #cybersecurity #Pentesting
———
@tsingular
✍2👍2⚡1🔥1
Историческая запись. Сохраним.
Уильям Гибсон, отец мирового киберпанка, пишет, что на его творчество значительно повлиял Виктор Цой.
Т.е. знаменитый Нейромансер, а затем и Бегущий по лезвию бритвы, Матрица, Призрак в Доспехах, Чужие, которые все начитались и насмотрелись и бросились разрабатывать ИИ,- это все немножко Цой и алюминиевые огурцы.
#Гибсон #Цой #жив
------
@tsingular
Уильям Гибсон, отец мирового киберпанка, пишет, что на его творчество значительно повлиял Виктор Цой.
Т.е. знаменитый Нейромансер, а затем и Бегущий по лезвию бритвы, Матрица, Призрак в Доспехах, Чужие, которые все начитались и насмотрелись и бросились разрабатывать ИИ,- это все немножко Цой и алюминиевые огурцы.
#Гибсон #Цой #жив
------
@tsingular
🔥20❤13 8❤🔥1👀1
Claude Code: курс от DeepLearning.AI по работе с агентом-разработчиком
Anthropic и DeepLearning.AI запустили бесплатный курс по Claude Code - агентному ассистенту для разработки.
Курс покрывает практики работы с RAG-чатботом, рефакторинг Jupyter ноутбуков в дашборды, создание веб-приложений из Figma макетов.
Рассмотрена интеграция с MCP серверами, git worktrees для параллельных сессий, автоматизация через Playwright.
Если вы еще не погрузились в разработку с Claude Code, - рекомендую найти 2 часа на прохождения курса хотя бы для общего понимания как именно он работает.
#Claude #обучение #Anthropic #DeepLearning
———
@tsingular
Anthropic и DeepLearning.AI запустили бесплатный курс по Claude Code - агентному ассистенту для разработки.
Курс покрывает практики работы с RAG-чатботом, рефакторинг Jupyter ноутбуков в дашборды, создание веб-приложений из Figma макетов.
Рассмотрена интеграция с MCP серверами, git worktrees для параллельных сессий, автоматизация через Playwright.
Если вы еще не погрузились в разработку с Claude Code, - рекомендую найти 2 часа на прохождения курса хотя бы для общего понимания как именно он работает.
#Claude #обучение #Anthropic #DeepLearning
———
@tsingular
🔥6✍3👍2
Бывшие исследователи OpenAI и DeepMind привлекли $300M на автоматизацию науки
Команда экс-сотрудников OpenAI и DeepMind получила $300 миллионов посевных инвестиций на создание ИИ-системы для автономных научных исследований.
Стартап планирует полностью автоматизировать цикл: гипотеза → эксперимент → валидация. Без участия человека.
Типичное распределение таких инвестиций: 40-50% на вычислительную инфраструктуру, 25-30% на таланты, 15-20% на лабораторное оборудование.
Основная проблема - как обеспечить воспроизводимость результатов и стандартизацию данных между разными лабораториями. Плюс вопросы безопасности при работе с потенциально опасными исследованиями.
По прогнозам Gartner, к 2028 году 75% корпораций будут использовать ИИ-исследователей.
Майнинг нобелевских премий :)
#OpenAI #DeepMind #Science
------
@tsingular
Команда экс-сотрудников OpenAI и DeepMind получила $300 миллионов посевных инвестиций на создание ИИ-системы для автономных научных исследований.
Стартап планирует полностью автоматизировать цикл: гипотеза → эксперимент → валидация. Без участия человека.
Типичное распределение таких инвестиций: 40-50% на вычислительную инфраструктуру, 25-30% на таланты, 15-20% на лабораторное оборудование.
Основная проблема - как обеспечить воспроизводимость результатов и стандартизацию данных между разными лабораториями. Плюс вопросы безопасности при работе с потенциально опасными исследованиями.
По прогнозам Gartner, к 2028 году 75% корпораций будут использовать ИИ-исследователей.
Майнинг нобелевских премий :)
#OpenAI #DeepMind #Science
------
@tsingular
🔥5👍3⚡2
Media is too big
VIEW IN TELEGRAM
Мы все дальше от бога.
Такими темпами часть людей сами встанут на защиту роботов :)
Но нельзя не восхититься как он, несмотря на удары, сохраняет равновесие на этой куче мусора, продолжая танцевать.
#роботы #Unitree
------
@tsingular
Такими темпами часть людей сами встанут на защиту роботов :)
Но нельзя не восхититься как он, несмотря на удары, сохраняет равновесие на этой куче мусора, продолжая танцевать.
#роботы #Unitree
------
@tsingular
🔥7👾5👀2❤1
Forwarded from Dealer.AI
Мода на файловую память, теперь и код-агенты anthropic.
Вышло agentic SDK от антропика и там нашлось несколько интересных вещей про контекст и память.
Это уже практичное и модное решение, которое в разной форме мы наблюдали у manus и memagent.
Основные позиции – не засоряем контекст и кладем все в файловую систему ОС. Также для поиска НЕ используем без нужды семантику или даже bm25, оставаясь на grep/tail и прочих способах поиска встроенными инструментами вашей ОС. Да это не исключает проблемы больших файлов, где grep может быть не эффективен, но скорее всего, подобно идее с чанкованием, для памяти создается иерархическая память на "малых" файлах.
В итоге, центре всего стоит тезис: зачем нам семантика, когда можно взять поиск в ОС и агента для чтения и записи? Но, думаю, без семантики не обойтись, особенно, когда у нас много зависит от контекста, да еще и синонимов до кучи. Однако, быстренько найти нужный нейм файла, пойдет, а если не вышло (пустой поиск), уже можно полнотекстом и семантикой искать имя, тем самым балансировать между скоростью и надежностью/сложностью поиска.Особенно для файлов сотни мб или гб. Тут кстати и может помочь аналог чанкования, в виде иерархии файлов, на которые заранее бьём большие. Далее, берем файлик и читаем агентом, переносим из файла релевантное в контекст.
В любом случае, такое решение в итоге завязывает вас на эффективный контекст и конечно свойство роутинга, ризонинга и поиска по контексту. Крч хорошая llm вам нужна, которая у антропика есть. Но есть ли она у вас?)
Вышло agentic SDK от антропика и там нашлось несколько интересных вещей про контекст и память.
Это уже практичное и модное решение, которое в разной форме мы наблюдали у manus и memagent.
Основные позиции – не засоряем контекст и кладем все в файловую систему ОС. Также для поиска НЕ используем без нужды семантику или даже bm25, оставаясь на grep/tail и прочих способах поиска встроенными инструментами вашей ОС. Да это не исключает проблемы больших файлов, где grep может быть не эффективен, но скорее всего, подобно идее с чанкованием, для памяти создается иерархическая память на "малых" файлах.
В итоге, центре всего стоит тезис: зачем нам семантика, когда можно взять поиск в ОС и агента для чтения и записи? Но, думаю, без семантики не обойтись, особенно, когда у нас много зависит от контекста, да еще и синонимов до кучи. Однако, быстренько найти нужный нейм файла, пойдет, а если не вышло (пустой поиск), уже можно полнотекстом и семантикой искать имя, тем самым балансировать между скоростью и надежностью/сложностью поиска.
В любом случае, такое решение в итоге завязывает вас на эффективный контекст и конечно свойство роутинга, ризонинга и поиска по контексту. Крч хорошая llm вам нужна, которая у антропика есть. Но есть ли она у вас?)
✍3❤1
Forwarded from Neural Shit
This media is not supported in your browser
VIEW IN TELEGRAM
Сэм Альтман ворует видеокарту.
Новая сора прям хороша. Кто-то уже успел затестить? Делитесь в комментах чо нагенерировать успели
видео отсюда
Новая сора прям хороша. Кто-то уже успел затестить? Делитесь в комментах чо нагенерировать успели
видео отсюда
😁14
This media is not supported in your browser
VIEW IN TELEGRAM
Если вы вдруг каким то чудом (не обсуждаем каким) можете оказаться в США или Канаде, - и зайдете на сайт
https://openai.com/index/sora-2/
Вам может пригодиться этот инвайт
CF5R4G
пригодится он только первым 4-м.
не знаю уж кому повезёт.
Одно условие, - каждый, кто зарегается публикует свой следующий инвайт в комментариях под этим постом.
они все активируются по 4 раза.
поэтому если забрали - ставьте эмоджи или звёздочку на инвайте :)
Генерации идут очень медленно :) Сервера там, похоже, еле вывозят.
Ну и делитесь креативами, чего уж :)
#Sora #invite
———
@tsingular
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥17✍5⚡4
This media is not supported in your browser
VIEW IN TELEGRAM
Такое, конечно, Sora пока не сумеет.
Трилобит:
Файл html в комментарии
#трилобит #dev #шейдеры
------
@tsingular
Трилобит:
a=(x,y,o=2-mag(k=x/8-12.5,e=y/8-12)/3,d=-5*abs(sin(k/2)*cos(e*.6)))=>point((x+e*cos(t)+d*k*sin(d+t))*.7+k*o+130,(y-d*o*9+y*e/19+d*e*cos(d+t))*.7+e*o+150)
t=0,draw=$=>{t||createCanvas(w=400,w);background(6,96).stroke(w,46);for(t+=PI/90,i=4e4;i--;)a(i%200,i/200)}
Файл html в комментарии
#трилобит #dev #шейдеры
------
@tsingular
🔥17👀9🍓3
This media is not supported in your browser
VIEW IN TELEGRAM
LLM Intercept
Вайбкодер нашаманил проксю для ЛЛМ, которая пишет все вызовы и превращает их в датасеты для файнтюна малых моделей :)
Очень удобно, но для большинства проприетарных моделей не разрешено лицензией.
Качаем, пробуем, пока не прикрыли :)
https://github.com/mlech26l/llm_intercept
#LLMproxy #proxy #dev #llmintercept
———
@tsingular
Вайбкодер нашаманил проксю для ЛЛМ, которая пишет все вызовы и превращает их в датасеты для файнтюна малых моделей :)
Очень удобно, но для большинства проприетарных моделей не разрешено лицензией.
Качаем, пробуем, пока не прикрыли :)
https://github.com/mlech26l/llm_intercept
#LLMproxy #proxy #dev #llmintercept
———
@tsingular
🔥5
n8n готовит релиз, в котором ИИ ассистент будет встроен и сам будет создавать для вас сценарии.
noCode => vibeNoCode
#n8n #dev
———
@tsingular
noCode => vibeNoCode
#n8n #dev
———
@tsingular
🔥12✍2❤1
Антропик опять испортил нам планы на выходные.
Выкатили гайд по контекст инжинирингу
Это вам не просто написать "представь, что ты вайбкодер с 30ти летним стажем".
Тут архитектура! Технолоджия!
В общем откладываем развлечения, открываем тетрадки, записываем ...
Сам гайд не очень большой, но в нем еще коллекция полезных ссылок с детализациями и разъяснениями, так что есть что поизучать.
#Anthropic #обучение
———
@tsingular
Выкатили гайд по контекст инжинирингу
Это вам не просто написать "представь, что ты вайбкодер с 30ти летним стажем".
Тут архитектура! Технолоджия!
В общем откладываем развлечения, открываем тетрадки, записываем ...
Сам гайд не очень большой, но в нем еще коллекция полезных ссылок с детализациями и разъяснениями, так что есть что поизучать.
#Anthropic #обучение
———
@tsingular
👍13✍6❤3⚡1