Ebsynth v2
Помните такого? Его юзали ещё до всех этих ваших (наших) Img2video и video2video. Тут вышла вторая версия, которая в комбинации с Nano Banana выглядит крайне впечатляюще, особенно если учесть, что как такового AI здесь нет. Вместо него для используется texture-synthesis + optical flow анализ.
Короче, нет, это не Nano Banana для видео. При резком движении или повороте трекинг слетит, но для этого и существуют ключевые кадры, которые с достаточной консистентностью уже можно сделать в той же модельке от гугла. Из плюсов это быстро и консистентно, ничего нового не появится и таким образом можно поправить мелки детали на видосе.
В итоге получается хорошая тулза для всех киноделов — как нейронных, так и настоящих.
Работает бесплатно в браузере, но экспорт ограничен разрешением в 720p. За $20 в месяц вы получите возможность экспорта в 4K, дополнительные кейфреймы и генерацию картинок на стороне Ebsynth.
ebsynth.com
@ai_newz
Помните такого? Его юзали ещё до всех этих ваших (наших) Img2video и video2video. Тут вышла вторая версия, которая в комбинации с Nano Banana выглядит крайне впечатляюще, особенно если учесть, что как такового AI здесь нет. Вместо него для используется texture-synthesis + optical flow анализ.
Короче, нет, это не Nano Banana для видео. При резком движении или повороте трекинг слетит, но для этого и существуют ключевые кадры, которые с достаточной консистентностью уже можно сделать в той же модельке от гугла. Из плюсов это быстро и консистентно, ничего нового не появится и таким образом можно поправить мелки детали на видосе.
В итоге получается хорошая тулза для всех киноделов — как нейронных, так и настоящих.
Работает бесплатно в браузере, но экспорт ограничен разрешением в 720p. За $20 в месяц вы получите возможность экспорта в 4K, дополнительные кейфреймы и генерацию картинок на стороне Ebsynth.
ebsynth.com
@ai_newz
❤112🔥45👍26🤯9🦄5😁1
Qwen 3 Next — очень эффективный
80B-A3B модельки, есть как Instruct так и Reasoning вариант. Модели на порядок быстрее чем Qwen 3 32B, особенно заметно это при больших контекстах. При всём этом Thinking версия обгоняет по бенчам Gemini 2.5 Thinking. Тренировали их менее чем на 10% компьюта потраченного на Qwen 3 32B, используя заметно меньший датасет — 15 триллионов токенов против 36 триллионов оригинального Qwen 3.
Это гибридная архитектура — использует как Gated Attention (собственный вариант аттеншна от команды Qwen), так и Gated DeltaNet (вариант Mamba), отсюда и прирост на длинных контекстах. Команда клянётся что это работает лучше чем чистый аттеншн, но нужно ждать независимых бенчей. Кроме этого используют Multi-Token Prediction, что ускоряет спекулятивный декодинг.
У команды Qwen какое-то гигантское количество моделей в пайплайне — только за последнюю неделю они выпустили в API Qwen 3 Max (Instruct) и Qwen 3 ASR. Судя по всему готовится скорый релиз Qwen 3 VL (давно пора) и Qwen 3 Omni. Ну и Qwen 4 явно не за горами — иначе на компьюте для Qwen 3 Next так не экономили бы.
Веса
Блогпост
@ai_newz
80B-A3B модельки, есть как Instruct так и Reasoning вариант. Модели на порядок быстрее чем Qwen 3 32B, особенно заметно это при больших контекстах. При всём этом Thinking версия обгоняет по бенчам Gemini 2.5 Thinking. Тренировали их менее чем на 10% компьюта потраченного на Qwen 3 32B, используя заметно меньший датасет — 15 триллионов токенов против 36 триллионов оригинального Qwen 3.
Это гибридная архитектура — использует как Gated Attention (собственный вариант аттеншна от команды Qwen), так и Gated DeltaNet (вариант Mamba), отсюда и прирост на длинных контекстах. Команда клянётся что это работает лучше чем чистый аттеншн, но нужно ждать независимых бенчей. Кроме этого используют Multi-Token Prediction, что ускоряет спекулятивный декодинг.
У команды Qwen какое-то гигантское количество моделей в пайплайне — только за последнюю неделю они выпустили в API Qwen 3 Max (Instruct) и Qwen 3 ASR. Судя по всему готовится скорый релиз Qwen 3 VL (давно пора) и Qwen 3 Omni. Ну и Qwen 4 явно не за горами — иначе на компьюте для Qwen 3 Next так не экономили бы.
Веса
Блогпост
@ai_newz
🔥164👍54❤30🤯10😁3🙏2
Весной 2025 года на рынке массово стали появляться агентные инструменты для разработки — Claude Code, Codex и другие тулы выкатывали один за другим. Эти инструменты действительно ускоряют рутину и массовые правки, упрощают генерацию тестов, снижают переключения контекста. Но у них есть серьёзные ограничения: результаты непредсказуемы при длинных цепочках действий, модели часто ошибаются из-за лишней информации в контексте, со временем код становится менее структурированным и накапливается технический долг. Возникают риски безопасности при автоматическом выполнении команд.
Даже с такими большими минусами они могут заметно ускорить разработку при правильном использовании. Но в бизнесе их использовать довольно сложно — доступ к API затруднён, плюс требования по приватности никто не отменял. А самим поднять даже простой инференс современных моделей для кода, не говоря уже об их разработке, — задача нетривиальная даже для крупных игроков, а ведь мелким и средним командам такие инструменты тоже нужны. Да и интеграция ИИ в существующую инфраструктуру и введение в контекст проекта это серьёзная проблема.
Т рассказали про агентский режим на базе Qwen3-Coder-480b с контекстом до 262k токенов. Агент работает на уровне репозитория, понимает структуру кода, создаёт файлы, выполняет команды, интегрируется с VS Code через своё расширение. По внутренним замерам производительность на рутине выросла на 20–30%. Хоть Qwen отстаёт от фронтирных моделей, это всё ещё неплохой вариант по соотношению цена/качество.
@ai_newz
Даже с такими большими минусами они могут заметно ускорить разработку при правильном использовании. Но в бизнесе их использовать довольно сложно — доступ к API затруднён, плюс требования по приватности никто не отменял. А самим поднять даже простой инференс современных моделей для кода, не говоря уже об их разработке, — задача нетривиальная даже для крупных игроков, а ведь мелким и средним командам такие инструменты тоже нужны. Да и интеграция ИИ в существующую инфраструктуру и введение в контекст проекта это серьёзная проблема.
Т рассказали про агентский режим на базе Qwen3-Coder-480b с контекстом до 262k токенов. Агент работает на уровне репозитория, понимает структуру кода, создаёт файлы, выполняет команды, интегрируется с VS Code через своё расширение. По внутренним замерам производительность на рутине выросла на 20–30%. Хоть Qwen отстаёт от фронтирных моделей, это всё ещё неплохой вариант по соотношению цена/качество.
@ai_newz
👍162😁50❤20🫡12🦄5💔2😱1
Forwarded from Vikhr models
Vikhr Borealis - первая русскоязычная открытая audio llm
Мы долго и не очень успешно развивали свой tts - Salt, от него исторически осталось довольно много данных и наработок, мы решили - чо бы не сварить asr + llm как модно?
Ну и сварили. Архитектурно - whisper + qwen, учили на 7к часов аудио только адаптер+llm, сейчас работает только в ASR режиме, позже возможно довезем инструктивный режим. Так же выйдет бенчмарк для русского asr, он пока в доработке.
Блог так же выйдет, там будут небольшие аблейшены по данным
Модель в данный момент бьет whisperы на русском и на части бенчей лучше чем gigam.
Модель
Сolab поиграться
Мы долго и не очень успешно развивали свой tts - Salt, от него исторически осталось довольно много данных и наработок, мы решили - чо бы не сварить asr + llm как модно?
Ну и сварили. Архитектурно - whisper + qwen, учили на 7к часов аудио только адаптер+llm, сейчас работает только в ASR режиме, позже возможно довезем инструктивный режим. Так же выйдет бенчмарк для русского asr, он пока в доработке.
Блог так же выйдет, там будут небольшие аблейшены по данным
Модель в данный момент бьет whisperы на русском и на части бенчей лучше чем gigam.
Модель
Сolab поиграться
🔥143👍48❤29⚡3🤯3😁2😍2🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
Вертикальные видео в VEO 3
Ну всё, RIP ленты соцсетей. Теперь они будут ещё больше захламлены генеративным слопом, ведь VEO 3 наконец-то научилась генерить вертикальные видео.
Больше не нужно заморачиваться с обрезкой и апскейлом горизонтальных видосов.
Функция уже доступна во Flow и по API (туда ещё и 1080p завезли). В Gemini App пока пусто.
Кстати, во Flow дают 100 бесплатных токенов — хватит примерно на 5 видео в режиме fast. Он, кстати, в 90% случаев не отличим от стандартной модели.
@ai_newz
Ну всё, RIP ленты соцсетей. Теперь они будут ещё больше захламлены генеративным слопом, ведь VEO 3 наконец-то научилась генерить вертикальные видео.
Больше не нужно заморачиваться с обрезкой и апскейлом горизонтальных видосов.
Функция уже доступна во Flow и по API (туда ещё и 1080p завезли). В Gemini App пока пусто.
Кстати, во Flow дают 100 бесплатных токенов — хватит примерно на 5 видео в режиме fast. Он, кстати, в 90% случаев не отличим от стандартной модели.
@ai_newz
🔥107❤35🫡30😁18👍11💔7😍2💯2😱1
Нейродайджест за неделю (#86)
LLM
- ASML инвестирует $1.5 миллиарда в Mistral — Европа встаёт с колен. Оценка компании теперь ~$14 миллиардов, что делает её самой дорогой AI-компанией в Европе.
- Облачный интерпретатор кода в Claude — Anthropic без лишнего шума добавили возможность исполнять Python и Node.js в сендбоксе. Доступно подписчикам Max, Team и Enterprise.
- Qwen 3 Next — Очень эффективные гибридные MoE-модельки (Instruct и Reasoning). На порядок быстрее Qwen 3 32B на больших контекстах при меньших затратах на обучение.
- Vikhr Borealis — Первая русскоязычная открытая audio LLM. Архитектурно это Whisper + Qwen, бьёт Whisper'ы на русском.
Генеративные модели
- Ebsynth v2 — Классический texture-synthesis + optical flow инструмент для видео вернулся. В комбинации с Nano Banana выглядит впечатляюще, хорошая тулза для нейро- и обычных киноделов.
- Вертикальные видео в VEO 3 — RIP ленты соцсетей. Google наконец-то добавил генерацию вертикальных видео.
Прочее
- Воскресное включение из Цюриха — Как отдыхают нормальные пацаны.
> Читать дайджест #85
#дайджест
@ai_newz
LLM
- ASML инвестирует $1.5 миллиарда в Mistral — Европа встаёт с колен. Оценка компании теперь ~$14 миллиардов, что делает её самой дорогой AI-компанией в Европе.
- Облачный интерпретатор кода в Claude — Anthropic без лишнего шума добавили возможность исполнять Python и Node.js в сендбоксе. Доступно подписчикам Max, Team и Enterprise.
- Qwen 3 Next — Очень эффективные гибридные MoE-модельки (Instruct и Reasoning). На порядок быстрее Qwen 3 32B на больших контекстах при меньших затратах на обучение.
- Vikhr Borealis — Первая русскоязычная открытая audio LLM. Архитектурно это Whisper + Qwen, бьёт Whisper'ы на русском.
Генеративные модели
- Ebsynth v2 — Классический texture-synthesis + optical flow инструмент для видео вернулся. В комбинации с Nano Banana выглядит впечатляюще, хорошая тулза для нейро- и обычных киноделов.
- Вертикальные видео в VEO 3 — RIP ленты соцсетей. Google наконец-то добавил генерацию вертикальных видео.
Прочее
- Воскресное включение из Цюриха — Как отдыхают нормальные пацаны.
> Читать дайджест #85
#дайджест
@ai_newz
2🔥41❤23👍12⚡4😁2
Nvidia Rubin CPX — чипы для ИИ всё более специализируются
Инференс современных LLM состоит из двух стадий: prefill и decoding, которые крайне отличаются по своим требованиям. Префил требует вычислительную мощность чтобы сгенерировать KV кэш, а для декодинга нужна пропускная способности памяти, чтобы грузить KV кэш и веса на чип.
Из-за такой разницы, на нодах которые занимаются префилом, простаивает самая дорогая часть современных датацентровых GPU — HBM память, которая сейчас составляет 50%+ всей стоимости GPU. К тому же она всё ещё в дефиците и является чуть ли не основным ограничителем производства видеокарточек.
Решение от Nvidia — сделать специальные, более дешёвые, карточки для префила. В качестве памяти — 128 гигабайт GDDR7 (против 288GB HBM4 у VR200), пропускной способность в 2 терабайта в секунду вполне достаточна для префила. Кроме этого экономят на других штуках вокруг чипа — вместо дефицитного CoWoS-L используют более бюджетный FC-BGA, а связываются карточки друг с другом по PCIe вместо NVLink.
Большой плюс — упаковать в одну стойку можно 144 таких видеокарты, против всего 72 GPU в NVL144. При этом такая стойка с Rubin CPX будет не просто иметь больше компьюта, но и кушать меньше энергии.
Так как префил в больших деплойментах и так делают на отдельных нодах, на высоком уровне мало что изменится — просто машины для префила переедут на специальное железо. Главный минус — такие GPU перекидывать между тренировкой и инференсом вряд-ли выйдет, но это явно будет компенсировано разницей в цене и доступности.
@ai_newz
Инференс современных LLM состоит из двух стадий: prefill и decoding, которые крайне отличаются по своим требованиям. Префил требует вычислительную мощность чтобы сгенерировать KV кэш, а для декодинга нужна пропускная способности памяти, чтобы грузить KV кэш и веса на чип.
Из-за такой разницы, на нодах которые занимаются префилом, простаивает самая дорогая часть современных датацентровых GPU — HBM память, которая сейчас составляет 50%+ всей стоимости GPU. К тому же она всё ещё в дефиците и является чуть ли не основным ограничителем производства видеокарточек.
Решение от Nvidia — сделать специальные, более дешёвые, карточки для префила. В качестве памяти — 128 гигабайт GDDR7 (против 288GB HBM4 у VR200), пропускной способность в 2 терабайта в секунду вполне достаточна для префила. Кроме этого экономят на других штуках вокруг чипа — вместо дефицитного CoWoS-L используют более бюджетный FC-BGA, а связываются карточки друг с другом по PCIe вместо NVLink.
Большой плюс — упаковать в одну стойку можно 144 таких видеокарты, против всего 72 GPU в NVL144. При этом такая стойка с Rubin CPX будет не просто иметь больше компьюта, но и кушать меньше энергии.
Так как префил в больших деплойментах и так делают на отдельных нодах, на высоком уровне мало что изменится — просто машины для префила переедут на специальное железо. Главный минус — такие GPU перекидывать между тренировкой и инференсом вряд-ли выйдет, но это явно будет компенсировано разницей в цене и доступности.
@ai_newz
❤86👍70🔥28😁4🫡1
Tongyi DeepResearch — теперь у нас есть Deep Research дома
Первый открытая модель которая догнала по качеству оригинальный Deep Research от OpenAI — выдаёт 32.9 на Humanity's Last Exam в обычном режиме. Кроме этого существует Heavy Mode, в котором несколько агентов вместе работают над одним отчётом, с ним результаты на HLE растут до 38.3. Моделька основана на Qwen 30B-A3B, так что запуск локально не должен быть проблемой.
Код
Веса
@ai_newz
Первый открытая модель которая догнала по качеству оригинальный Deep Research от OpenAI — выдаёт 32.9 на Humanity's Last Exam в обычном режиме. Кроме этого существует Heavy Mode, в котором несколько агентов вместе работают над одним отчётом, с ним результаты на HLE растут до 38.3. Моделька основана на Qwen 30B-A3B, так что запуск локально не должен быть проблемой.
Код
Веса
@ai_newz
🔥185❤30👍22🤯9😁1💯1
Media is too big
VIEW IN TELEGRAM
Демо World Model от World Labs
Помните World Model от World Labs, стартапа Фей-Фей Ли (она же создатель легендарного курса cs231 c Карпатым), который генерирует целые миры по одной картинке? Я уже писал о том, что это такое и как работает здесь.
Ребята выкатили демо своей модельки. Теперь по сгенерированным мирам можно походить на своих виртуальных двоих прямо в браузере.
Также можно записаться в вейтлист, чтобы получить возможность загружать свои картинки.
Попробовать здесь: marble.worldlabs.ai
@ai_newz
Помните World Model от World Labs, стартапа Фей-Фей Ли (она же создатель легендарного курса cs231 c Карпатым), который генерирует целые миры по одной картинке? Я уже писал о том, что это такое и как работает здесь.
Ребята выкатили демо своей модельки. Теперь по сгенерированным мирам можно походить на своих виртуальных двоих прямо в браузере.
Также можно записаться в вейтлист, чтобы получить возможность загружать свои картинки.
Попробовать здесь: marble.worldlabs.ai
@ai_newz
❤🔥71🔥55❤10👍10🦄3💔1
Mozart AI — полноценная AI DAW для музыкантов
Принёс вам на тест новую тулзу для музыкантов, как раз перед выходными.
Mozart AI — это стартап из Лондона, который делает AI DAW (Digital Audio Workstation). Если Suno и Udio — это Midjourney от мира музыки, то Mozart AI — это Photoshop на AI-стероидах. Он поддерживает работу со слоями, сэмплами и даже MIDI. То есть трек не генерируется с нуля, а создаётся частями, как это делают настоящие музыканты, повторяя классический воркфлоу. Просто теперь вместо того, чтобы записывать гитару под ваш неповторимый вокал, её можно сгенерить. Это кардинально меняет то, как музыканты применяют AI, и делает нейронку полноценным инструментом и ко-продюсером. При этом на сайте пишут, что нейронка обучена на чистом датасете. Ну да, ну да, так мы и поверили...
Главная фишка: можно, как в генераторах картинок, писать промпты в духе "напиши трек в стиле Kanye West". Обещают, что их технология поможет заканчивать втрое больше музыкальных проектов, которые в противном случае были бы заброшены из-за нехватки скила в продюсировании, вдохновения или умения играть на каком-то особенном инструменте.
Ещё одна удобная функция — AI-поиск. Музыканты знают эту боль: тысячи сэмплов ударных хранятся в бесконечных папках, и чтобы найти нужный, приходится либо часами рыться, либо помнить наизусть, что Kick №478 отлично подходит под тёмный deep house. Здесь Моцарт позволяет искать сэмплы по текстовому описанию. Насколько точно это работает, пока непонятно, но даже простейший поиск на основе эмбеддингов явно может быть полезным.
Для тех, кто никогда не писал музыку самостоятельно, сейчас лучшее время попробовать: на сайте есть быстрый walkthrough, который проведёт по основам управления DAW, ну а нотную грамоту можно доверить Моцарту.
Сейчас идёт бесплатный бета-тест, попробовать можно здесь: getmozart.ai
(может подлагивать и долго думать, как у стартапов на релизе бывает)
Кстати, Suno анонсировали такую же DAW. Вейтлист здесь.
PS: Ставь 🦄, если нужны ещё обзоры AI-штук для музыкантов, там вышло много интересных инструментов, которые не так хайпятся в инфополе из-за специфики ниши.
@ai_newz
Принёс вам на тест новую тулзу для музыкантов, как раз перед выходными.
Mozart AI — это стартап из Лондона, который делает AI DAW (Digital Audio Workstation). Если Suno и Udio — это Midjourney от мира музыки, то Mozart AI — это Photoshop на AI-стероидах. Он поддерживает работу со слоями, сэмплами и даже MIDI. То есть трек не генерируется с нуля, а создаётся частями, как это делают настоящие музыканты, повторяя классический воркфлоу. Просто теперь вместо того, чтобы записывать гитару под ваш неповторимый вокал, её можно сгенерить. Это кардинально меняет то, как музыканты применяют AI, и делает нейронку полноценным инструментом и ко-продюсером. При этом на сайте пишут, что нейронка обучена на чистом датасете. Ну да, ну да, так мы и поверили...
Главная фишка: можно, как в генераторах картинок, писать промпты в духе "напиши трек в стиле Kanye West". Обещают, что их технология поможет заканчивать втрое больше музыкальных проектов, которые в противном случае были бы заброшены из-за нехватки скила в продюсировании, вдохновения или умения играть на каком-то особенном инструменте.
Ещё одна удобная функция — AI-поиск. Музыканты знают эту боль: тысячи сэмплов ударных хранятся в бесконечных папках, и чтобы найти нужный, приходится либо часами рыться, либо помнить наизусть, что Kick №478 отлично подходит под тёмный deep house. Здесь Моцарт позволяет искать сэмплы по текстовому описанию. Насколько точно это работает, пока непонятно, но даже простейший поиск на основе эмбеддингов явно может быть полезным.
Для тех, кто никогда не писал музыку самостоятельно, сейчас лучшее время попробовать: на сайте есть быстрый walkthrough, который проведёт по основам управления DAW, ну а нотную грамоту можно доверить Моцарту.
Сейчас идёт бесплатный бета-тест, попробовать можно здесь: getmozart.ai
(может подлагивать и долго думать, как у стартапов на релизе бывает)
Кстати, Suno анонсировали такую же DAW. Вейтлист здесь.
PS: Ставь 🦄, если нужны ещё обзоры AI-штук для музыкантов, там вышло много интересных инструментов, которые не так хайпятся в инфополе из-за специфики ниши.
@ai_newz
5🦄432❤63👍40🔥10⚡3💔3
This media is not supported in your browser
VIEW IN TELEGRAM
У Luma Labs вышла новая видео модель - Ray 3
Новая модель может генерит в 1080p 16-bit HDR, длительность 5 или 9 сек.
➖ Черипики клаcсные - хоть и все-таки видно, что детализация не такая высокая, особенно на дальних планах. Лица у людей на заднем плане тоже плывут. Все-таки маркетинговый отдел любит продать то, чего на самом деле пока нет (на странице релиза написаны довольно смелые заявления о качестве, ризонинге и других возможностях модели).
➖ Есть Draft Mode, который генерит быстрее, но только 5 сек и в ужасном качестве (640 × 352). Бесплатно можно генерить только в нем.
Я попробовал погенерить с премиумной подпиской. И результат прямо очень далек от черипиков.
Так как через интерфейс мы не напрямую дергаем модель, то о её внутренних способностях можно судить только косвенно.
1) Сначала промпт переписывается через LLM, добавляя деталей
2) Забавно, что если выбираешь генерацию на 9 сек, то заметно как сначала генерится грубая версия на 5 сек, а затем запускается extend еще на 5-секундный отрезок с перехлестом в 1 секунду с предыдущим. То есть по сути сама модель может выдавать только отрезки по 5 сек.
Генерация 9 сек в 1080p у меня заняла 5-6 мин. На подписку в $10/мес можно сгенерить примерно 6 таких видосов, затем придется доплачивать.
Черипики можно посмотреть тут: https://lumalabs.ai/ray
Вы уже успели потестить? Что думаете?
@ai_newz
Новая модель может генерит в 1080p 16-bit HDR, длительность 5 или 9 сек.
Я попробовал погенерить с премиумной подпиской. И результат прямо очень далек от черипиков.
Так как через интерфейс мы не напрямую дергаем модель, то о её внутренних способностях можно судить только косвенно.
1) Сначала промпт переписывается через LLM, добавляя деталей
2) Забавно, что если выбираешь генерацию на 9 сек, то заметно как сначала генерится грубая версия на 5 сек, а затем запускается extend еще на 5-секундный отрезок с перехлестом в 1 секунду с предыдущим. То есть по сути сама модель может выдавать только отрезки по 5 сек.
Генерация 9 сек в 1080p у меня заняла 5-6 мин. На подписку в $10/мес можно сгенерить примерно 6 таких видосов, затем придется доплачивать.
Черипики можно посмотреть тут: https://lumalabs.ai/ray
Вы уже успели потестить? Что думаете?
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
👍44❤33🔥16🫡6😁3💔2🦄2😱1💯1
Grok 4 Fast — быстрый и эффективный
Гибридная модель с 2 миллиона токенов контекста, скоростью доходящей до 300 токенов в секунду и очень хорошими результаты на бенчах в ризонинг режиме. По большинству бенчей модель немного отстаёт от Grok 4, но обходит его в тулюзе, при этом будучи почти в 50 раз дешевле. Из минусов — инстракт режим прямо сильно проседает по качеству, по сравнению с ризонингом.
Модель была доступна последние две недели в "стелс режиме" на OpenRouter под названием Sonoma Sky/Dusk для ризонинг/инстракт режимов. Её можно попробовать бесплатно на OpenRouter и Vercel AI Gateway в ближайшее время.
Главное преимущество модели — цена. $0.2/$0.5 за миллион токенов для промптов меньше 128к токенов и $0.4/$1 для более длинных промптов. Судя по тестам Artificial Analysis, в ризонинг режиме модель в два раза дешевле gpt-oss 120B и Grok 3 Mini (high), в 4 раза дешевле DeepSeek V3.1 и в 6 раз дешевле Gemini 2.5 Flash. Похоже у нас новый король эффективности.
@ai_newz
Гибридная модель с 2 миллиона токенов контекста, скоростью доходящей до 300 токенов в секунду и очень хорошими результаты на бенчах в ризонинг режиме. По большинству бенчей модель немного отстаёт от Grok 4, но обходит его в тулюзе, при этом будучи почти в 50 раз дешевле. Из минусов — инстракт режим прямо сильно проседает по качеству, по сравнению с ризонингом.
Модель была доступна последние две недели в "стелс режиме" на OpenRouter под названием Sonoma Sky/Dusk для ризонинг/инстракт режимов. Её можно попробовать бесплатно на OpenRouter и Vercel AI Gateway в ближайшее время.
Главное преимущество модели — цена. $0.2/$0.5 за миллион токенов для промптов меньше 128к токенов и $0.4/$1 для более длинных промптов. Судя по тестам Artificial Analysis, в ризонинг режиме модель в два раза дешевле gpt-oss 120B и Grok 3 Mini (high), в 4 раза дешевле DeepSeek V3.1 и в 6 раз дешевле Gemini 2.5 Flash. Похоже у нас новый король эффективности.
@ai_newz
🔥158❤34🤯27👍11😁3🦄3😍2⚡1
Media is too big
VIEW IN TELEGRAM
Следующим шагом для робота будет научиться бить в ответ.
Жаль этого парня.
--
Видео без ускорения. Это новый гуманоид от китацев – Unitree G1, с улучшенной стабильностью. Только гляньте, как быстро он встает после кунг-фу техник этого паренька.
@ai_newz
Жаль этого парня.
--
Видео без ускорения. Это новый гуманоид от китацев – Unitree G1, с улучшенной стабильностью. Только гляньте, как быстро он встает после кунг-фу техник этого паренька.
@ai_newz
🤯226🔥70❤16😁13👍11😱10💯3💔3🙏2
DeepSeek V3.1 Terminus
Судя по названию, это — последний релиз из линейки V3, как V2.5-1210 была для линейки V2. Между релизом V2.5-1210 и V3 прошло две недели, так что думаю что V4 тоже можно ждать в течении пары недель. DeepSeek обычно релизят модели перед важными китайскими праздниками, а 1 октября — день образования КНР.
По сравнению с V3.1, Terminus выросла по агентским бенчам и HLE, на остальных бенчах изменения незначительные. Из приятного — модель теперь реже срывается на китайский и выдаёт случайные символы в своём выводе.
Веса
@ai_newz
Судя по названию, это — последний релиз из линейки V3, как V2.5-1210 была для линейки V2. Между релизом V2.5-1210 и V3 прошло две недели, так что думаю что V4 тоже можно ждать в течении пары недель. DeepSeek обычно релизят модели перед важными китайскими праздниками, а 1 октября — день образования КНР.
По сравнению с V3.1, Terminus выросла по агентским бенчам и HLE, на остальных бенчах изменения незначительные. Из приятного — модель теперь реже срывается на китайский и выдаёт случайные символы в своём выводе.
Веса
@ai_newz
❤63👍36🔥13❤🔥2
Нейродайджест за неделю (#87)
LLM
- Tongyi DeepResearch — Теперь у нас есть Deep Research дома. Первый открытый аналог от Alibaba, который догнал по качеству оригинальный от OpenAI.
- Grok 4 Fast — Быстрый, эффективный и дешёвый гибрид с 2М токенов контекста. В ризонинг-режиме обходит многих конкурентов по соотношению цена/качество. Новый король эффективности.
Генеративные модели
- Демо World Model от World Labs — Стартап Фей-Фей Ли выкатил демо, где можно походить по мирам, сгенерированным из одной картинки, прямо в браузере.
- Mozart AI — Полноценная AI DAW для музыкантов. Это не генератор треков, а Photoshop на AI-стероидах, который помогает в создании музыки, работая со слоями, сэмплами и MIDI.
- Luma Labs Ray 3 — Новая видеомодель, которая генерирует в 1080p HDR. Черипики красивые, но реальные результаты пока далеки от них.
Прочее
- Nvidia Rubin CPX — Чипы для ИИ становятся всё более специализированными. Nvidia делает более дешёвые карты для prefill-стадии инференса.
> Читать дайджест #86
#дайджест
@ai_newz
LLM
- Tongyi DeepResearch — Теперь у нас есть Deep Research дома. Первый открытый аналог от Alibaba, который догнал по качеству оригинальный от OpenAI.
- Grok 4 Fast — Быстрый, эффективный и дешёвый гибрид с 2М токенов контекста. В ризонинг-режиме обходит многих конкурентов по соотношению цена/качество. Новый король эффективности.
Генеративные модели
- Демо World Model от World Labs — Стартап Фей-Фей Ли выкатил демо, где можно походить по мирам, сгенерированным из одной картинки, прямо в браузере.
- Mozart AI — Полноценная AI DAW для музыкантов. Это не генератор треков, а Photoshop на AI-стероидах, который помогает в создании музыки, работая со слоями, сэмплами и MIDI.
- Luma Labs Ray 3 — Новая видеомодель, которая генерирует в 1080p HDR. Черипики красивые, но реальные результаты пока далеки от них.
Прочее
- Nvidia Rubin CPX — Чипы для ИИ становятся всё более специализированными. Nvidia делает более дешёвые карты для prefill-стадии инференса.
> Читать дайджест #86
#дайджест
@ai_newz
🔥28❤19👍14🫡1