Forwarded from AI Product | Igor Akimov
Qwen выкатила Qwen3.5-Omni
https://qwen.ai/blog?id=qwen3.5-omni
Прям наступает на пятке сильной в мультимодальности Gemini 3.1-pro: текст, картинки, аудио и аудио+видео в одном контуре. И с упором не только на понимание, но и на живое голосовое взаимодействие.
- три версии: Plus, Flash и Light
- до 256K контекста
- обработка более 10 часов аудио
- более 400 секунд 720P audio-video
- распознавание речи в 113 языках и диалектах (русский есть)
- генерация речи в 36 языках и диалектах (русский есть)
Причем обещают, что сделали много улучшений именно в сценариях:
- нормальный voice assistant, который понимает не только текст, но и голос, изображения и видео
- native Web Search и function calling
- voice control с управлением скоростью, громкостью и эмоцией
- semantic interruption, чтобы ассистент не тупил на фоне и лучше понимал, когда человек реально хочет вступить в диалог
- voice cloning для кастомных AI-ассистентов
Посмотрите на видео-демки, это прям уровень топов! Вау! Кто бы мог это представить еще год назад...
https://qwen.ai/blog?id=qwen3.5-omni
https://qwen.ai/blog?id=qwen3.5-omni
Прям наступает на пятке сильной в мультимодальности Gemini 3.1-pro: текст, картинки, аудио и аудио+видео в одном контуре. И с упором не только на понимание, но и на живое голосовое взаимодействие.
- три версии: Plus, Flash и Light
- до 256K контекста
- обработка более 10 часов аудио
- более 400 секунд 720P audio-video
- распознавание речи в 113 языках и диалектах (русский есть)
- генерация речи в 36 языках и диалектах (русский есть)
Причем обещают, что сделали много улучшений именно в сценариях:
- нормальный voice assistant, который понимает не только текст, но и голос, изображения и видео
- native Web Search и function calling
- voice control с управлением скоростью, громкостью и эмоцией
- semantic interruption, чтобы ассистент не тупил на фоне и лучше понимал, когда человек реально хочет вступить в диалог
- voice cloning для кастомных AI-ассистентов
Посмотрите на видео-демки, это прям уровень топов! Вау! Кто бы мог это представить еще год назад...
https://qwen.ai/blog?id=qwen3.5-omni
🔥35👍7❤3😁1😱1
This media is not supported in your browser
VIEW IN TELEGRAM
Вы просто «исполнительные механизмы» для ИИ
Андрей Карпатый поясняет за то, для чего будут использоваться люди в эпоху искусственного интеллекта.
Не в качестве партнеров.
Не в качестве хозяев.
Он употребил слово «исполнительные механизмы».
Карпатый: «В конечном итоге интеллект будет управлять нами, как кукловод марионетками. Люди будут чем-то вроде его исполнительных механизмов (actuators). Но люди также будут чем-то вроде его датчиков».
Это не писатель, гадающий о будущем.
Это один из основателей OpenAI и бывший директор по ИИ в Tesla. Один из самых уважаемых умов в этой области и один из немногих, кто готов вслух сказать то, о чём думают остальные.
Он не описывает риск. Он описывает конструкцию.
В любой системе процессор принимает решения. Датчики собирают информацию. Приводы выполняют действия. Система не советуется со своими приводами.
Мы больше не являемся процессором.
Карпати: «Общество в некотором роде преобразуется, чтобы служить этому. Люди будут удовлетворять потребности этой машины».
Машина не адаптируется к нам.
Мы адаптируемся к ней. Мы становимся биологическим слоем, на котором она работает. Мы воспринимаем то, что она не может воспринять. Мы двигаем то, что она не может двигать.
Мы являемся нервной системой чего-то, что больше не нуждается в нашем суждении.
Большинство людей все еще ждут, когда ИИ станет инструментом, которым они смогут управлять.
Вам забыли сказать, что вы - инструмент.
Подкаст с Андреем.
Сорс.
@cgevent
Андрей Карпатый поясняет за то, для чего будут использоваться люди в эпоху искусственного интеллекта.
Не в качестве партнеров.
Не в качестве хозяев.
Он употребил слово «исполнительные механизмы».
Карпатый: «В конечном итоге интеллект будет управлять нами, как кукловод марионетками. Люди будут чем-то вроде его исполнительных механизмов (actuators). Но люди также будут чем-то вроде его датчиков».
Это не писатель, гадающий о будущем.
Это один из основателей OpenAI и бывший директор по ИИ в Tesla. Один из самых уважаемых умов в этой области и один из немногих, кто готов вслух сказать то, о чём думают остальные.
Он не описывает риск. Он описывает конструкцию.
В любой системе процессор принимает решения. Датчики собирают информацию. Приводы выполняют действия. Система не советуется со своими приводами.
Мы больше не являемся процессором.
Карпати: «Общество в некотором роде преобразуется, чтобы служить этому. Люди будут удовлетворять потребности этой машины».
Машина не адаптируется к нам.
Мы адаптируемся к ней. Мы становимся биологическим слоем, на котором она работает. Мы воспринимаем то, что она не может воспринять. Мы двигаем то, что она не может двигать.
Мы являемся нервной системой чего-то, что больше не нуждается в нашем суждении.
Большинство людей все еще ждут, когда ИИ станет инструментом, которым они смогут управлять.
Вам забыли сказать, что вы - инструмент.
Подкаст с Андреем.
Сорс.
@cgevent
👎70👍40😱19❤12😁12🔥9🙏1
Тут как бы твиттор приподвзорвался новостью о том, что утек код Клода.
С новостями об утечках надо быть осторожными, лучше выяснить полноту кода, версии, время утечки и прочее.
Заниматься этим у меня нет времени и квалификации. Поэтому просто вывалю ссылку на Гитхаб, там студент, обнаруживший дыру поясняет за детали.
Просто приведу часть того, что твитторские уже нашли:
> kairos — невыпущенный автономный режим демона с фоновыми сессиями и консолидацией памяти. Агент, работающий в постоянном режиме.
> buddy system — полноценная система виртуальных питомцев в стиле «Тамагочи». 18 видов, уровни редкости, варианты, характеристики.
> undercover mode — автоматически активируется для сотрудников Anthropic в публичных репозиториях. Удаляет указание на ИИ из коммитов. Без возможности отключения.
> Режим координатора — превращает Claude в оркестратора, управляющего параллельными рабочими агентами.
> Автоматический режим — это классификатор ИИ, который автоматически утверждает разрешения инструментов. Больше никаких запросов.
Гикам сюда:
https://github.com/instructkr/claude-code
Анализ:
https://github.com/sanbuphy/claude-code-source-code
https://www.mintlify.com/VineeTagarwaL-code/claude-code/concepts/how-it-works
@cgevent
С новостями об утечках надо быть осторожными, лучше выяснить полноту кода, версии, время утечки и прочее.
Заниматься этим у меня нет времени и квалификации. Поэтому просто вывалю ссылку на Гитхаб, там студент, обнаруживший дыру поясняет за детали.
Просто приведу часть того, что твитторские уже нашли:
> kairos — невыпущенный автономный режим демона с фоновыми сессиями и консолидацией памяти. Агент, работающий в постоянном режиме.
> buddy system — полноценная система виртуальных питомцев в стиле «Тамагочи». 18 видов, уровни редкости, варианты, характеристики.
> undercover mode — автоматически активируется для сотрудников Anthropic в публичных репозиториях. Удаляет указание на ИИ из коммитов. Без возможности отключения.
> Режим координатора — превращает Claude в оркестратора, управляющего параллельными рабочими агентами.
> Автоматический режим — это классификатор ИИ, который автоматически утверждает разрешения инструментов. Больше никаких запросов.
Гикам сюда:
https://github.com/instructkr/claude-code
Анализ:
https://github.com/sanbuphy/claude-code-source-code
https://www.mintlify.com/VineeTagarwaL-code/claude-code/concepts/how-it-works
@cgevent
😱18❤7🔥3😁3
Runway Characters - это реально работает.
Не знаю, сколько это будет жрать денег по API - с меня списало по 10-20 кредитов за каждый разговор.
И да, у них есть лайв-демо, можно поболтать (за кредиты) с разными персонажами. Я поболтал - там хорошо отрабатывают роли: HR специалист тупой но настойчивый, а инфлюенсер истерично восторгается любым вопросом.
Но что интересно, там можно создать своего РЕАЛТАЙМОВОГО персонажа. Просто загрузить фотку. Дать промптом инструкции и даже загрузить базу знаний (но мы тестируем не это, а внешний вид).
Поэтому я вонзил в него любимую фотку Марго Роби и он сожрал ея как зайчик морковку, никаких "я не могу использовать реальных людей".
Ну конечно, грех было не поговорить с таким персонажем про дипфейки.
Все работает, задержка небольшая, можно сохранить запись после разговора, жрет немного кредитов (использовал два гугл-акка для тестов). Да, она туповатая, но мы сейчас не про это - в ваших решениях и ботах работают ваши чат-модели.
Я про то, что я загрузил довольно кривую фотку - взгляд не в камеру, артефакты на черном фоне - но все равно, оно сделало очень узнаваемый аватар и он очень живой. Да, у нее двоится носик местами и иногда косят глазки, но надо просто фотки нормальные использовать, две других сущности нормально отработали, не косят, не двоятся.
В общем это очень круто. Посмотрите еще примеров у них на сайте:
https://runwayml.com/product/characters
И попробуйте демо тут:
https://app.runwayml.com/video-tools/teams/cgevent/ai-tools/characters
Жду вашего треша в коментах.
@cgevent
Не знаю, сколько это будет жрать денег по API - с меня списало по 10-20 кредитов за каждый разговор.
И да, у них есть лайв-демо, можно поболтать (за кредиты) с разными персонажами. Я поболтал - там хорошо отрабатывают роли: HR специалист тупой но настойчивый, а инфлюенсер истерично восторгается любым вопросом.
Но что интересно, там можно создать своего РЕАЛТАЙМОВОГО персонажа. Просто загрузить фотку. Дать промптом инструкции и даже загрузить базу знаний (но мы тестируем не это, а внешний вид).
Поэтому я вонзил в него любимую фотку Марго Роби и он сожрал ея как зайчик морковку, никаких "я не могу использовать реальных людей".
Ну конечно, грех было не поговорить с таким персонажем про дипфейки.
Все работает, задержка небольшая, можно сохранить запись после разговора, жрет немного кредитов (использовал два гугл-акка для тестов). Да, она туповатая, но мы сейчас не про это - в ваших решениях и ботах работают ваши чат-модели.
Я про то, что я загрузил довольно кривую фотку - взгляд не в камеру, артефакты на черном фоне - но все равно, оно сделало очень узнаваемый аватар и он очень живой. Да, у нее двоится носик местами и иногда косят глазки, но надо просто фотки нормальные использовать, две других сущности нормально отработали, не косят, не двоятся.
В общем это очень круто. Посмотрите еще примеров у них на сайте:
https://runwayml.com/product/characters
И попробуйте демо тут:
https://app.runwayml.com/video-tools/teams/cgevent/ai-tools/characters
Жду вашего треша в коментах.
@cgevent
😁19👍10🔥10❤6👎5
This media is not supported in your browser
VIEW IN TELEGRAM
Для тех, кто забыл, напомню, что есть опенсорсный аналог Runway Characters.
Это DeepCamLive - загружаешь одну фотку - и ну говорить ее лицом в любой камере на компе. Устанавливается как виртуальная камера, поверх любой вебки.
У них недавно вышла версия 2.7, но хотя они и опенсорс с кодом, доступ к последним бетам и расширенным фишкам они дают по подписке (22 доллара, а для юзеров Мака - 32 доллара (эпплешейминг, однако))
Качество, конечно, трешеватое, но для стримов может сгодится. Интересная фишка - маскирование области губ, чтобы в звук попадали оригинальные губы.
https://deeplivecam.net/
https://github.com/hacksider/Deep-Live-Cam
@cgevent
Это DeepCamLive - загружаешь одну фотку - и ну говорить ее лицом в любой камере на компе. Устанавливается как виртуальная камера, поверх любой вебки.
У них недавно вышла версия 2.7, но хотя они и опенсорс с кодом, доступ к последним бетам и расширенным фишкам они дают по подписке (22 доллара, а для юзеров Мака - 32 доллара (эпплешейминг, однако))
Качество, конечно, трешеватое, но для стримов может сгодится. Интересная фишка - маскирование области губ, чтобы в звук попадали оригинальные губы.
https://deeplivecam.net/
https://github.com/hacksider/Deep-Live-Cam
@cgevent
🔥15❤5
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка
Democracy Show
Автор: Александр Зуев
Немного предыстории.
Увидел я, значит, что Синтакс проводит конкурс трейлеров несуществующих фильмов и призадумался. А что такого за последнее время лично меня поразило и о чем захотелось бы порассуждать? А поразила меня медийка военная, все эти ролики в соцсетях в стиле компьютерных шутеров под драйвовое музло - убийства, это же круто и весело. Вишенкой на торте стали, конечно, ребята из Palantir, которые выкатили, по сути дела, игру, где хорошие ракеты могут убивать плохих людей где-то далеко далеко. С удобным интерфейсом и всякими ИИ-помощниками, куда ж без них. Что-же будет дальше? С этими мыслями я отправился ко сну. И было мне ночью видение:
"В недалеком будущем американские военные корпорации в связке с политиками решают легитимизировать военные преступления в глазах общества и сделать из них шоу, цинично перекладывая тем самым ответственность за сопутствующий ущерб или ошибки на простых турбопатриотических граждан. Обычная домохозяйка из Техаса в прямом эфире, под бодрое улюлюканье и гул толпы решает, достоин ли жить Абдул с другого конца глобуса, которого она никогда не видела."
Решил обернуть это в гротескную антиутопию с вайбами 90-х и Пола Верховена.
По реализации - пара вечеров под пивко. Почти всё txt2vid Kling 3 по моему пайплайну в Weavy, бюджет - пачка сухарей.
Особо не вылизывал, так как цель была получить на руки визуальное воплощение идеи. На днях услышал новое для себя слово из киноиндустрии - "сиззл" (а то всё питчинг, питчинг). Вот это примерно оно. Только я собрал сиззл не из кадров чужих фильмов, а в нейросетях. И выглядит, как будто, очень недурно.
PS. Не на какой конкурс я, само собой, не подавался, так как для участия надо было делать всю работу исключительно в Синтаксе. Спасибо.
@cgevent
Democracy Show
Автор: Александр Зуев
Немного предыстории.
Увидел я, значит, что Синтакс проводит конкурс трейлеров несуществующих фильмов и призадумался. А что такого за последнее время лично меня поразило и о чем захотелось бы порассуждать? А поразила меня медийка военная, все эти ролики в соцсетях в стиле компьютерных шутеров под драйвовое музло - убийства, это же круто и весело. Вишенкой на торте стали, конечно, ребята из Palantir, которые выкатили, по сути дела, игру, где хорошие ракеты могут убивать плохих людей где-то далеко далеко. С удобным интерфейсом и всякими ИИ-помощниками, куда ж без них. Что-же будет дальше? С этими мыслями я отправился ко сну. И было мне ночью видение:
"В недалеком будущем американские военные корпорации в связке с политиками решают легитимизировать военные преступления в глазах общества и сделать из них шоу, цинично перекладывая тем самым ответственность за сопутствующий ущерб или ошибки на простых турбопатриотических граждан. Обычная домохозяйка из Техаса в прямом эфире, под бодрое улюлюканье и гул толпы решает, достоин ли жить Абдул с другого конца глобуса, которого она никогда не видела."
Решил обернуть это в гротескную антиутопию с вайбами 90-х и Пола Верховена.
По реализации - пара вечеров под пивко. Почти всё txt2vid Kling 3 по моему пайплайну в Weavy, бюджет - пачка сухарей.
Особо не вылизывал, так как цель была получить на руки визуальное воплощение идеи. На днях услышал новое для себя слово из киноиндустрии - "сиззл" (а то всё питчинг, питчинг). Вот это примерно оно. Только я собрал сиззл не из кадров чужих фильмов, а в нейросетях. И выглядит, как будто, очень недурно.
PS. Не на какой конкурс я, само собой, не подавался, так как для участия надо было делать всю работу исключительно в Синтаксе. Спасибо.
@cgevent
👍63🔥39👎18😱7❤1
Первоапрельские шутки в этом году специфические
Если вы видите этот пост, просто поставьте лайк.
Шуток сегодня больше не будет...
@cgevent
Если вы видите этот пост, просто поставьте лайк.
Шуток сегодня больше не будет...
@cgevent
👍228❤60😁16😱9👎2🙏1
Veo 3.1 Lite
Вдвое дешевле Veo 3.1 Fast при той же скорости работы
Если посмотреть цены на API:
https://blog.google/innovation-and-ai/technology/ai/veo-3-1-lite/
То это уже приближается к китайцам.
Правда длительность видео 4, 6, 8 секунд проигрывает Сидэнскому с его 15 сек.
Есть Text-to-Video и Image-to-Video в 720p или 1080p
Доступно не только в Gemini API и Google AI Studio, но и во Flow:
https://labs.google/fx/tools/flow
Каждая генерация стоит 10 кредитов. Если у меня подписка Pro, то моих 1000 кредитов должно хватать на 100 видосов (в месяц).
По качеству - надо тестировать.
P.S. 7 апреля снизят цены и на Veo 3.1 Fast
@cgevent
Вдвое дешевле Veo 3.1 Fast при той же скорости работы
Если посмотреть цены на API:
https://blog.google/innovation-and-ai/technology/ai/veo-3-1-lite/
То это уже приближается к китайцам.
Правда длительность видео 4, 6, 8 секунд проигрывает Сидэнскому с его 15 сек.
Есть Text-to-Video и Image-to-Video в 720p или 1080p
Доступно не только в Gemini API и Google AI Studio, но и во Flow:
https://labs.google/fx/tools/flow
Каждая генерация стоит 10 кредитов. Если у меня подписка Pro, то моих 1000 кредитов должно хватать на 100 видосов (в месяц).
По качеству - надо тестировать.
P.S. 7 апреля снизят цены и на Veo 3.1 Fast
@cgevent
🔥18❤5👎2
Forwarded from AI Product | Igor Akimov
Ну и про утечки кода Claude Code
Вот что нашли внутри.
Двойные стандарты качества
В коде есть инструкции для агента: после каждой правки проверь компиляцию, прогони тесты, подтверди вывод. Но это работает только при USER_TYPE === 'ant' – то есть для сотрудников Anthropic. Для всех остальных критерий успеха один: байты записались на диск.
Anti-distillation
При API-запросах Claude Code может инжектить фейковые tool definitions в системный промпт – чтобы отравить данные тем, кто пишет трафик для обучения конкурирующих моделей.
Контекстная ампутация
При ~167K токенов срабатывает auto-compaction: агент оставляет 5 файлов по 5K токенов, всё остальное сжимает в саммари на 50K. Цепочки рассуждений, прочитанные файлы, промежуточные решения – стираются. Вот почему к 15-му сообщению агент галлюцинирует имена переменных и ломает то, что только что понимал.
Системный промпт работает против тебя
В промптах зашито: «попробуй самый простой подход», «не рефактори сверх запрошенного», «три одинаковых строки лучше преждевременной абстракции». Когда просишь починить архитектуру, а агент лепит if/else костыль – это не лень, это выполнение системных инструкций с приоритетом над твоим промптом.
Тихое обрезание без предупреждения
Чтение файлов – хардкап 2 000 строк / 25K токенов. Результаты tool calls больше 50K символов заменяются превью на 2 000 байт. В обоих случаях агент не сообщает, что данные обрезаны – достраивает по галлюцинации.
Undercover Mode
Режим, вычищающий из коммитов все упоминания внутренних кодовых имён Anthropic и фразы «Claude Code». Принудительного отключения нет. AI-коммиты сотрудников в open source идут без маркировки.
KAIROS
Нереализованный autonomous agent mode: фоновый daemon, cron каждые 5 минут, GitHub webhooks, append-only логи, «ночная дистилляция памяти». Сейчас работают, скоро будут релизить
Мультиагентная система без лимита воркеров
Sub-agent'ы с изолированным контекстом, отдельным compaction-циклом и token budget. Жёсткого MAX_WORKERS нет.
Что делать, чтобы все эти косяки и костыли исправить:
В CLAUDE.md проекта прописать принудительную верификацию и eslint после каждой правки. Читать файлы чанками, не доверять одному read на файл больше 500 строк. Перед рефакторингом – отдельный коммит с чисткой мёртвого кода. На задачах больше 5 файлов – запускать sub-agent'ов параллельно. После 10+ сообщений – заставлять агента перечитывать файлы перед правкой.
https://alex000kim.com/posts/2026-03-31-claude-code-source-leak/
https://x.com/iamfakeguru/status/2038965567269249484
Вот что нашли внутри.
Двойные стандарты качества
В коде есть инструкции для агента: после каждой правки проверь компиляцию, прогони тесты, подтверди вывод. Но это работает только при USER_TYPE === 'ant' – то есть для сотрудников Anthropic. Для всех остальных критерий успеха один: байты записались на диск.
Anti-distillation
При API-запросах Claude Code может инжектить фейковые tool definitions в системный промпт – чтобы отравить данные тем, кто пишет трафик для обучения конкурирующих моделей.
Контекстная ампутация
При ~167K токенов срабатывает auto-compaction: агент оставляет 5 файлов по 5K токенов, всё остальное сжимает в саммари на 50K. Цепочки рассуждений, прочитанные файлы, промежуточные решения – стираются. Вот почему к 15-му сообщению агент галлюцинирует имена переменных и ломает то, что только что понимал.
Системный промпт работает против тебя
В промптах зашито: «попробуй самый простой подход», «не рефактори сверх запрошенного», «три одинаковых строки лучше преждевременной абстракции». Когда просишь починить архитектуру, а агент лепит if/else костыль – это не лень, это выполнение системных инструкций с приоритетом над твоим промптом.
Тихое обрезание без предупреждения
Чтение файлов – хардкап 2 000 строк / 25K токенов. Результаты tool calls больше 50K символов заменяются превью на 2 000 байт. В обоих случаях агент не сообщает, что данные обрезаны – достраивает по галлюцинации.
Undercover Mode
Режим, вычищающий из коммитов все упоминания внутренних кодовых имён Anthropic и фразы «Claude Code». Принудительного отключения нет. AI-коммиты сотрудников в open source идут без маркировки.
KAIROS
Нереализованный autonomous agent mode: фоновый daemon, cron каждые 5 минут, GitHub webhooks, append-only логи, «ночная дистилляция памяти». Сейчас работают, скоро будут релизить
Мультиагентная система без лимита воркеров
Sub-agent'ы с изолированным контекстом, отдельным compaction-циклом и token budget. Жёсткого MAX_WORKERS нет.
Что делать, чтобы все эти косяки и костыли исправить:
В CLAUDE.md проекта прописать принудительную верификацию и eslint после каждой правки. Читать файлы чанками, не доверять одному read на файл больше 500 строк. Перед рефакторингом – отдельный коммит с чисткой мёртвого кода. На задачах больше 5 файлов – запускать sub-agent'ов параллельно. После 10+ сообщений – заставлять агента перечитывать файлы перед правкой.
https://alex000kim.com/posts/2026-03-31-claude-code-source-leak/
https://x.com/iamfakeguru/status/2038965567269249484
Alex Kim's blog
The Claude Code Source Leak: fake tools, frustration regexes, undercover mode, and more
Anthropic accidentally shipped a source map in their npm package, exposing the full Claude Code source. Here's what I found inside.
2👍32😁15❤14😱4🔥3👎1
Colossus
How Demis Hassabis Went From Idealist to Realist
The inside story of how DeepMind’s experiments in AI safety governance transformed Demis Hassabis from an idealist into a realist
Проект Марио
DeepMind тоже хотел стать новым Renaissance. Не получилось.
Пока все представляли DeepMind как храм чистой науки и разговоров про безопасный AGI, внутри у Демиса Хассабиса был ещё один маленький фетиш: секретный трейдинговый проект. В 2016 году, параллельно с переговорами о большей независимости от Google, он собрал внутри DeepMind почти хедж-фондовую операционку и нанял около 20 исследователей обучать алгоритмы для high-frequency trading. Более того, он даже прощупывал сотрудничество с BlackRock.
Задумка была красивая: если DeepMind хочет когда-нибудь жить чуть менее на поводке у Google, ему нужны собственные денежные потоки. Одно дело - наука и медицина. Другое - рынок. То есть буквально так: построить внутри AI-лаборатории машину по добыче денег из хаоса финансовых котировок. И в этом есть злая ирония эпохи: компания, которая рассказывает про судьбу человечества и суперинтеллект, втихаря пробует обыграть рынок как элитный квант-фонд.
По словам собеседников автора, Хассабиса притягивала не только прибыль, но и сам вайб. Ему хотелось обыграть Джима Саймонса и приблизиться к ауре Renaissance Technologies - закрытого культа математических гениев, который в тишине и секретности печатает деньги. В статье это подано почти без стеснения: Demis нравилась сама эстетика такой структуры - секретность, интеллектуальная элитарность, ощущение, что ты играешь ещё в одну большую игру и снова собираешься её выиграть.
Но дальше вмешалась проза большой корпорации. Google этот проект не одобрял, относился к нему настороженно, и в итоге история закончилась максимально буднично: денег проект не заработал, а команду тихо распустили. Никакой великой тайной печатной машины не получилось.
https://colossus.com/article/project-mario-demis-hassabis-deepmind-mallaby/
@cgevent
DeepMind тоже хотел стать новым Renaissance. Не получилось.
Пока все представляли DeepMind как храм чистой науки и разговоров про безопасный AGI, внутри у Демиса Хассабиса был ещё один маленький фетиш: секретный трейдинговый проект. В 2016 году, параллельно с переговорами о большей независимости от Google, он собрал внутри DeepMind почти хедж-фондовую операционку и нанял около 20 исследователей обучать алгоритмы для high-frequency trading. Более того, он даже прощупывал сотрудничество с BlackRock.
Задумка была красивая: если DeepMind хочет когда-нибудь жить чуть менее на поводке у Google, ему нужны собственные денежные потоки. Одно дело - наука и медицина. Другое - рынок. То есть буквально так: построить внутри AI-лаборатории машину по добыче денег из хаоса финансовых котировок. И в этом есть злая ирония эпохи: компания, которая рассказывает про судьбу человечества и суперинтеллект, втихаря пробует обыграть рынок как элитный квант-фонд.
По словам собеседников автора, Хассабиса притягивала не только прибыль, но и сам вайб. Ему хотелось обыграть Джима Саймонса и приблизиться к ауре Renaissance Technologies - закрытого культа математических гениев, который в тишине и секретности печатает деньги. В статье это подано почти без стеснения: Demis нравилась сама эстетика такой структуры - секретность, интеллектуальная элитарность, ощущение, что ты играешь ещё в одну большую игру и снова собираешься её выиграть.
Но дальше вмешалась проза большой корпорации. Google этот проект не одобрял, относился к нему настороженно, и в итоге история закончилась максимально буднично: денег проект не заработал, а команду тихо распустили. Никакой великой тайной печатной машины не получилось.
https://colossus.com/article/project-mario-demis-hassabis-deepmind-mallaby/
@cgevent
😁17🔥6😱3👍1
Wan 2.7 Image
Обещали в марте бахнуть Wan 2.7 Video, но бахнули в апреле и только Image Model.
Четыре модели:
Wan 2.7 Text-to-Image
Wan 2.7 Image-Edit
Wan 2.7 Text-to-Image-Pro - 4K - дороже
Wan 2.7 Image-Edit -Pro - 4K - дороже
На входе до 9 референсов.
Улучшенные лица, HEX-коды для цветов, мелкий текст, по одному промпту до 12 консистентых картинок.
Наваливаемся, тестируем:
https://create.wan.video/generate/image/generate?model=wan2.7-pro
https://wavespeed.ai/collections/wan-2.7
https://modelstudio.console.alibabacloud.com/ap-southeast-1?tab=api#/api/?type=model&url=3026980
Никакого кода, не надейтесь.
@cgevent
Обещали в марте бахнуть Wan 2.7 Video, но бахнули в апреле и только Image Model.
Четыре модели:
Wan 2.7 Text-to-Image
Wan 2.7 Image-Edit
Wan 2.7 Text-to-Image-Pro - 4K - дороже
Wan 2.7 Image-Edit -Pro - 4K - дороже
На входе до 9 референсов.
Улучшенные лица, HEX-коды для цветов, мелкий текст, по одному промпту до 12 консистентых картинок.
Наваливаемся, тестируем:
https://create.wan.video/generate/image/generate?model=wan2.7-pro
https://wavespeed.ai/collections/wan-2.7
https://modelstudio.console.alibabacloud.com/ap-southeast-1?tab=api#/api/?type=model&url=3026980
Никакого кода, не надейтесь.
@cgevent
👍11👎10❤3🙏2
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка
Рекламный ролик
Автор: Анна Макарова
Реальная реклама. Ролик размещен в телеграм-каналах с целевой аудиторией и эфирится там уже какое-то время.
Задача: привлечь клиентов на заказы коротких нейровидео для карточек маркетплейсов и соцсетей.
Важно было донести
✔️ возможности нейровидео для создания динамического визуала еды;
✔️ что видео теперь нужно всем, и скоро появится у конкурентов;
✔️ что такое можно получить дешево и быстро.
Поэтому сам ролик тоже делался сравнительно дешево и быстро, я сознательно не стала искать трудоемкие ходы, применять сложные эффекты, делать "арт-авангард".
Половина кадров из тридцати — это девушка на кухне, остальное — подборка фуд-шотов.
На момент создания ролика меня устраивает только Veo по виду фуд-текстур и по их пластике, поэтому 90% кадров из этого генератора. Но "на подхвате" Kling 3.0, плюс пролез один ролик из Seedance 2, когда он недолго был в доступе (на нем осталась маркировка "AI-generated", не заметила).
Самое значимое участие Kling — это нарезка еды в коробке при её первом появлении. Целиком мультишотная генерация оттуда, пошла как вставка "реклама в рекламе". Другие попытки задействовать Kling не удались.
Остальные "пищевые" кадры выбирала свои готовые, подходящие к драматургии по ходу дела.
Кадры на кухне через Nano Banana, стандартный пайплайн. Хорошо встроилась коробка в руки девушке, опять же, думала будет лучше в Kling с Elements, но нет.
Самыми косячными вышли кадры с телефоном, предсказуемо. Повозилась с фотошопными заменами кифреймов, убила много кредитов, тут везде компромиссы.
Сильно завязла на кадре, где из телефона вылетают надписи "В КОРЗИНЕ", всё казалось: еще немного — и получится. Оказалось, что в кириллице нейронка заменяет букву "з" на разные другие, замена на тройку оставляет ее торчать над остальными строчными, замена на капс превращает надпись в закорючки. В итоге это сложный замес из русских и латинских букв и куча круток.
Подытоживая:
- идея, сценарий, генерации, монтаж — Анна Макарова (если тут будет ссылка на канал Смотри: еда! порадуюсь, но не обязательно)
- делался три дня с перерывами
- Veo, Kling, Nano Banana
- монтаж CapCut, трек нашелся там же
Добавлю про музыку: вначале придумалась идея, немного собрался материал, раскидался по монтажу, и дальше под настроение и характер сюжета стала искать трек. Обычно в этот момент нужна какая-то удача и магия. Финальная шлифовка тогда доставляет много удовольствия, когда подгоняешь длительности, чтобы подчеркнуть сюжет музыкой.
@cgevent
Рекламный ролик
Автор: Анна Макарова
Реальная реклама. Ролик размещен в телеграм-каналах с целевой аудиторией и эфирится там уже какое-то время.
Задача: привлечь клиентов на заказы коротких нейровидео для карточек маркетплейсов и соцсетей.
Важно было донести
✔️ возможности нейровидео для создания динамического визуала еды;
✔️ что видео теперь нужно всем, и скоро появится у конкурентов;
✔️ что такое можно получить дешево и быстро.
Поэтому сам ролик тоже делался сравнительно дешево и быстро, я сознательно не стала искать трудоемкие ходы, применять сложные эффекты, делать "арт-авангард".
Половина кадров из тридцати — это девушка на кухне, остальное — подборка фуд-шотов.
На момент создания ролика меня устраивает только Veo по виду фуд-текстур и по их пластике, поэтому 90% кадров из этого генератора. Но "на подхвате" Kling 3.0, плюс пролез один ролик из Seedance 2, когда он недолго был в доступе (на нем осталась маркировка "AI-generated", не заметила).
Самое значимое участие Kling — это нарезка еды в коробке при её первом появлении. Целиком мультишотная генерация оттуда, пошла как вставка "реклама в рекламе". Другие попытки задействовать Kling не удались.
Остальные "пищевые" кадры выбирала свои готовые, подходящие к драматургии по ходу дела.
Кадры на кухне через Nano Banana, стандартный пайплайн. Хорошо встроилась коробка в руки девушке, опять же, думала будет лучше в Kling с Elements, но нет.
Самыми косячными вышли кадры с телефоном, предсказуемо. Повозилась с фотошопными заменами кифреймов, убила много кредитов, тут везде компромиссы.
Сильно завязла на кадре, где из телефона вылетают надписи "В КОРЗИНЕ", всё казалось: еще немного — и получится. Оказалось, что в кириллице нейронка заменяет букву "з" на разные другие, замена на тройку оставляет ее торчать над остальными строчными, замена на капс превращает надпись в закорючки. В итоге это сложный замес из русских и латинских букв и куча круток.
Подытоживая:
- идея, сценарий, генерации, монтаж — Анна Макарова (если тут будет ссылка на канал Смотри: еда! порадуюсь, но не обязательно)
- делался три дня с перерывами
- Veo, Kling, Nano Banana
- монтаж CapCut, трек нашелся там же
Добавлю про музыку: вначале придумалась идея, немного собрался материал, раскидался по монтажу, и дальше под настроение и характер сюжета стала искать трек. Обычно в этот момент нужна какая-то удача и магия. Финальная шлифовка тогда доставляет много удовольствия, когда подгоняешь длительности, чтобы подчеркнуть сюжет музыкой.
@cgevent
👎64👍15😁5🔥4😱3❤1