This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Луч-2 от Люмы
Пока Клинг и Рунвей сыплют апдейтами, давно ничего не было слышно от Люмы.
Тем временем бетатестеры вовсю хвастаюцца в твитторе результатами работы новой модели Ray2 от Luma Labs.
О ней начали писать еще 4 декабря.
Я собрал немного утечек.
Ray-2 поддерживает разрешение 1080p и видео длительностью до 20 секунд. Эта модель создана на основе своей предшественницы, Ray-1 (также известной как Dream Machine 1.6), и в настоящее время доступна для избранных бетатестеров. Предполагается, что более широкий запуск состоится уже на следующей неделе, хотя официально это не подтверждено.
В Твитторе самой Люмы только тизер "Are you ready?"
Я подсобрал результатов из твиттора: на мой вкус очень хороша работа с физикой, а вот с анатомией, традиционно у Люмы, не очень.
Но барашек Шон аутентичный.
Хотите больше, вкиньте тег #Ray2 в твиттор
@cgevent
Пока Клинг и Рунвей сыплют апдейтами, давно ничего не было слышно от Люмы.
Тем временем бетатестеры вовсю хвастаюцца в твитторе результатами работы новой модели Ray2 от Luma Labs.
О ней начали писать еще 4 декабря.
Я собрал немного утечек.
Ray-2 поддерживает разрешение 1080p и видео длительностью до 20 секунд. Эта модель создана на основе своей предшественницы, Ray-1 (также известной как Dream Machine 1.6), и в настоящее время доступна для избранных бетатестеров. Предполагается, что более широкий запуск состоится уже на следующей неделе, хотя официально это не подтверждено.
В Твитторе самой Люмы только тизер "Are you ready?"
Я подсобрал результатов из твиттора: на мой вкус очень хороша работа с физикой, а вот с анатомией, традиционно у Люмы, не очень.
Но барашек Шон аутентичный.
Хотите больше, вкиньте тег #Ray2 в твиттор
@cgevent
👍24🔥6❤4
This media is not supported in your browser
VIEW IN TELEGRAM
Новая опенсорсная Text-To-Speech модель, от которой твиттор плачет кипятком.
Маленькая, 82М параметров, веса 327 Мb.
Быстрая - пример в шапке на 2 мин 25 сек создан за 4.5 секунды на T4.
На Маке 10 секунд генерятся 2 секунды.
Веса и прочий фарш тут: https://huggingface.co/spaces/hexgrad/Kokoro-TTS
Демо есть тут: https://huggingface.co/spaces/hexgrad/Kokoro-TTS
@cgevent
👍42🔥24❤5
Сначала мы выпивали за джунов. Пришла очередь миддлов.
Если вкратце, то Цукерберг считает, что в 2025 году системы искусственного интеллекта в Meta и других компаниях будут способны писать код, как mid-level engineers. Сначала это будет дорого, но со временем системы станут более эффективными. В конечном итоге AI engineers будут создавать большую часть кода и искусственного интеллекта в приложениях, заменив инженеров-людей.
Подробнее тут: https://x.com/slow_developer/status/1877798620692422835
Совсем подробнее тут: https://www.youtube.com/watch?v=USBW0ESLEK0
Текстом и с деталями: https://tribune.com.pk/story/2521499/zuckerberg-announces-meta-plans-to-replace-mid-level-engineers-with-ais-this-year
У меня пока все.
@cgevent
Если вкратце, то Цукерберг считает, что в 2025 году системы искусственного интеллекта в Meta и других компаниях будут способны писать код, как mid-level engineers. Сначала это будет дорого, но со временем системы станут более эффективными. В конечном итоге AI engineers будут создавать большую часть кода и искусственного интеллекта в приложениях, заменив инженеров-людей.
Подробнее тут: https://x.com/slow_developer/status/1877798620692422835
Совсем подробнее тут: https://www.youtube.com/watch?v=USBW0ESLEK0
Текстом и с деталями: https://tribune.com.pk/story/2521499/zuckerberg-announces-meta-plans-to-replace-mid-level-engineers-with-ais-this-year
У меня пока все.
@cgevent
👍44😁42😱19❤4🙏4
LudusDemo05111080p-BTgbrmfZ.webm
18.8 MB
Ого, кто-то прикрутил ИИ к Unreal Engine.
Создание ассетов и сцен промптами.
Редактирование сцен промптами.
Blueprint assistant с рекомендациями, оптимизациями и даже natural language graph creation
Ludus.Blueprint is our AI-powered Blueprint assistant that helps with node suggestions, optimization recommendations, and natural language graph creation. Ludus.Chat enables text-to-scene conversion, allowing you to create and modify scenes using natural language commands.
На бесплатном плане только чат с документацией.
Enterprise customers get additional access to project-specific customizations and self-hosted solutions.
А еще у них планируется ассистент кода - Allow AI do the heavy lifting in your code development with our AI finetuned for Unreal Engine's C++ standard. Project-aware code generation, autocomplete, and multi-file editing. Available as an in-engine plugin and in your favorite IDE!
На первый взгляд выглядит как Cursor для UE5. Ну или UE для чайников.
Но никаких подробностей про LLM внутри я не нашел (Умные подписчики быстро пронюхали, что внутри Антропик и Дипсик)
Странный проект.
https://ludusengine.com/
@cgevent
Создание ассетов и сцен промптами.
Редактирование сцен промптами.
Blueprint assistant с рекомендациями, оптимизациями и даже natural language graph creation
Ludus.Blueprint is our AI-powered Blueprint assistant that helps with node suggestions, optimization recommendations, and natural language graph creation. Ludus.Chat enables text-to-scene conversion, allowing you to create and modify scenes using natural language commands.
На бесплатном плане только чат с документацией.
Enterprise customers get additional access to project-specific customizations and self-hosted solutions.
А еще у них планируется ассистент кода - Allow AI do the heavy lifting in your code development with our AI finetuned for Unreal Engine's C++ standard. Project-aware code generation, autocomplete, and multi-file editing. Available as an in-engine plugin and in your favorite IDE!
На первый взгляд выглядит как Cursor для UE5. Ну или UE для чайников.
Но никаких подробностей про LLM внутри я не нашел (Умные подписчики быстро пронюхали, что внутри Антропик и Дипсик)
Странный проект.
https://ludusengine.com/
@cgevent
👍20🔥13❤9👎3
Forwarded from Neural Shit
This media is not supported in your browser
VIEW IN TELEGRAM
Вот это СМЕКАЛОЧКА!
Из-за того, что Открытый чемпионат Австралии по теннису не владеет всеми правами на трансляцию в ютуб, организаторы нашли оригинальное решение. Они используют технологию, которая в реальном времени отслеживает движения игроков и мяча на корте, а после создают анимированную версию матчей, напоминающую стиль игры Wii Sports и уже ее пускают в эфир.
тут можно почитать подробнее
Из-за того, что Открытый чемпионат Австралии по теннису не владеет всеми правами на трансляцию в ютуб, организаторы нашли оригинальное решение. Они используют технологию, которая в реальном времени отслеживает движения игроков и мяча на корте, а после создают анимированную версию матчей, напоминающую стиль игры Wii Sports и уже ее пускают в эфир.
тут можно почитать подробнее
😁95🔥42👍12❤4
chatGPT c обратной связью.
В chatGPT завозят Tasks. Если раньше он только отвечал на ваши запросы, то теперь сможет сам инициировать диалог.
Функция, которая с сегодняшнего дня распространяется на подписчиков Plus, Team и Pro, - это попытка превратить чатбота в нечто более близкое к традиционному цифровому помощнику - вспомните Google Assistant или Siri, но с более продвинутыми языковыми возможностями ChatGPT.
Tasks работают, позволяя пользователям сообщать ChatGPT, что им нужно и когда это нужно сделать. Хотите получать ежедневный прогноз погоды в 7 утра? Напоминание об истечении срока действия паспорта? А может, просто рассказать детям перед сном cказку от chatGPT? Теперь ChatGPT может выполнять все эти задачи по расписанию, как разовые, так и повторяющиеся.
https://www.theverge.com/2025/1/14/24343528/openai-chatgpt-repeating-tasks-agent-ai
@cgevent
В chatGPT завозят Tasks. Если раньше он только отвечал на ваши запросы, то теперь сможет сам инициировать диалог.
Функция, которая с сегодняшнего дня распространяется на подписчиков Plus, Team и Pro, - это попытка превратить чатбота в нечто более близкое к традиционному цифровому помощнику - вспомните Google Assistant или Siri, но с более продвинутыми языковыми возможностями ChatGPT.
Tasks работают, позволяя пользователям сообщать ChatGPT, что им нужно и когда это нужно сделать. Хотите получать ежедневный прогноз погоды в 7 утра? Напоминание об истечении срока действия паспорта? А может, просто рассказать детям перед сном cказку от chatGPT? Теперь ChatGPT может выполнять все эти задачи по расписанию, как разовые, так и повторяющиеся.
https://www.theverge.com/2025/1/14/24343528/openai-chatgpt-repeating-tasks-agent-ai
@cgevent
❤57🔥34👍17😱5🙏5👎2
Media is too big
VIEW IN TELEGRAM
Рубрика, крутые подписчики.
Ambition AI решили провести эксперимент для самого креативного бренда в мире сейчас, Liquid Death, сделав рекламу в их стиле.
Записали актёра на айфон, смонтировали базовый материал.
Затем вытащили из монтажа ключевые кадры и доработали их через Flux Tools с ретушью. С помощью Comfy нам удалось сделать так, чтобы наша “бабка” выглядела одинаково на всех кадрах, включая одежду, причём использовали всего один референс. То же самое проделали с окружением и креслом. Flux fill и Redux позволили картинку сделать одинаковой.
Анимации между изображениями пробрасывали через Kling и Minimax, а переходы — с помощью Sora.
Весь проект длился 2 недели. Вели проект @aleksejlotkov и @nodia_art
Как по мне, очень крепко сделано. Хороший монтаж, динамика и попадание в аудио.
Сильно отличается от большинства генераций именно постобработкой и опытом монтажа и композа.
Мне, как человеку из поста, немного режет глаз анимация и пластиковый лук, но с этим пока ничего нельзя сделать - вся анимация - с башке у моделей. Придет время и появятся стилевые лоры для анимации: под Дисней, под реальную физику, под Аардман, на двоечках.
А пока бабки отжигают очень задорно.
@cgevent
Ambition AI решили провести эксперимент для самого креативного бренда в мире сейчас, Liquid Death, сделав рекламу в их стиле.
Записали актёра на айфон, смонтировали базовый материал.
Затем вытащили из монтажа ключевые кадры и доработали их через Flux Tools с ретушью. С помощью Comfy нам удалось сделать так, чтобы наша “бабка” выглядела одинаково на всех кадрах, включая одежду, причём использовали всего один референс. То же самое проделали с окружением и креслом. Flux fill и Redux позволили картинку сделать одинаковой.
Анимации между изображениями пробрасывали через Kling и Minimax, а переходы — с помощью Sora.
Весь проект длился 2 недели. Вели проект @aleksejlotkov и @nodia_art
Как по мне, очень крепко сделано. Хороший монтаж, динамика и попадание в аудио.
Сильно отличается от большинства генераций именно постобработкой и опытом монтажа и композа.
Мне, как человеку из поста, немного режет глаз анимация и пластиковый лук, но с этим пока ничего нельзя сделать - вся анимация - с башке у моделей. Придет время и появятся стилевые лоры для анимации: под Дисней, под реальную физику, под Аардман, на двоечках.
А пока бабки отжигают очень задорно.
@cgevent
👍69👎23❤8🔥7
Forwarded from Data Secrets
У Google вышла крутая статья про новую архитектуру Titan, которая может победить проблему забывания в трансформерах
Традиционные трансформеры очень прожорливы. Архитектура масштабируется квадратично по мере увеличения длины последовательности. Это приводит к проблеме невозможности увеличения контекстного окна и так называемому забыванию, потому что трансформеры также часто склонны аллоцировать внимание на нерелевантный контекст и, чем он больше, тем больше такая накапливаемая ошибка и степень забывчивости модели.
В Titan же подход к памяти немного иной: помимо краткосрочной памяти attention исследователи добавили в архитектуру долгосрочную память (тут вы, возможно, поймали флешбек на LSTM, и не зря). То есть у нас есть некоторый core – стандартное внимание с ограниченным окном, и модуль, который хранит важную информацию из "далекого прошлого". Чтобы решать, какую информацию запоминать, в нем используется метрика сюрприза (чем "неожиданнее" новые данные для модели, тем важнее их запомнить) + есть коэффициент затухания. Все эффективно параллелится.
При этом в статье показали аж три варианта соединить текущее внимание с долгосрочной памятью:
➖ Memory as Context: долгосрочная память используется как контекст для текущего внимания.
➖ Memory as Gating: здесь прямо максимальный мэтч с LSTM, тот же механизм гейтов
➖ Memory as Layer: самый простой вариант, вся память соединена как слой в сетке
MAC оказался лучше всего по перплексии, а MAL чуть быстрее, но теряет в эффективности. В целом такая архитектура может легким движением руки масштабироваться до контекста в 2+ миллиона токенов, сохраняя стабильную точность (трансформеры начинают обычно фейлить уже после отметки 4096). Очень крутая работа получилась у Google, в общем.
Полный текст статьи здесь
P.S. Очень подробный и понятный разбор архитектуры LSTM от нас можно почитать здесь, а вот тут лежит наша большая статья про другие архитектуры-альтернативы трансформеру
Традиционные трансформеры очень прожорливы. Архитектура масштабируется квадратично по мере увеличения длины последовательности. Это приводит к проблеме невозможности увеличения контекстного окна и так называемому забыванию, потому что трансформеры также часто склонны аллоцировать внимание на нерелевантный контекст и, чем он больше, тем больше такая накапливаемая ошибка и степень забывчивости модели.
В Titan же подход к памяти немного иной: помимо краткосрочной памяти attention исследователи добавили в архитектуру долгосрочную память (тут вы, возможно, поймали флешбек на LSTM, и не зря). То есть у нас есть некоторый core – стандартное внимание с ограниченным окном, и модуль, который хранит важную информацию из "далекого прошлого". Чтобы решать, какую информацию запоминать, в нем используется метрика сюрприза (чем "неожиданнее" новые данные для модели, тем важнее их запомнить) + есть коэффициент затухания. Все эффективно параллелится.
При этом в статье показали аж три варианта соединить текущее внимание с долгосрочной памятью:
MAC оказался лучше всего по перплексии, а MAL чуть быстрее, но теряет в эффективности. В целом такая архитектура может легким движением руки масштабироваться до контекста в 2+ миллиона токенов, сохраняя стабильную точность (трансформеры начинают обычно фейлить уже после отметки 4096). Очень крутая работа получилась у Google, в общем.
Полный текст статьи здесь
P.S. Очень подробный и понятный разбор архитектуры LSTM от нас можно почитать здесь, а вот тут лежит наша большая статья про другие архитектуры-альтернативы трансформеру
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍50🔥19❤6👎4