Недавно провела прямой эфир в женском клубе Юлии Высоцкой — было классно!
Разбирали, как нейросети помогают в повседневной жизни: от расшифровки анализов и планирования путешествий до генерации сказок на ночь для детей.
Показала, как превратить нейросеть в полноценного помощника — для работы, здоровья, учёбы и даже вдохновения.
Разобрали всё: от структуры хорошего запроса до работы с DeepSeek.
Спасибо всем, кто был на эфире — вы супер! 💙
Разбирали, как нейросети помогают в повседневной жизни: от расшифровки анализов и планирования путешествий до генерации сказок на ночь для детей.
Показала, как превратить нейросеть в полноценного помощника — для работы, здоровья, учёбы и даже вдохновения.
Разобрали всё: от структуры хорошего запроса до работы с DeepSeek.
Спасибо всем, кто был на эфире — вы супер! 💙
2🔥30❤8🥰4
Media is too big
VIEW IN TELEGRAM
Новости из мира ИИ:
Alibaba выпустила Wan 2.2 — мощную и первую в своём роде open-source модель для генерации видео с кинематографическим контролем, встроенным прямо в текстовый prompt. Это настоящий прорыв: теперь любой желающий может создавать видеоролики с управлением светом, движением камеры, цветовой палитрой и композицией — без сложного интерфейса и с полной свободой творчества.
Что нового в Wan 2.2?
🔵 MoE-архитектура (Mixture of Experts): внутри модели работают специализированные «эксперты» на разных этапах генерации — это даёт высокое качество при оптимальной скорости. Такая архитектура делает модель масштабируемой без увеличения затрат на GPU.
🔵 Управление киноязыком — прямо в тексте: вы можете задать в prompt'е такие параметры, как освещение, ракурс камеры, тип движения, цветовую гамму и атмосферу — и модель всё это учтёт в финальном видео.
🔵 Три режима генерации:
〰️ T2V (Text-to-Video): видео по текстовому описанию.
〰️ I2V (Image-to-Video): видео на основе изображения.
〰️ TI2V (Text+Image-to-Video): гибридный подход с комбинированным управлением.
Поддержка 720p и 24 кадров в секунду на видеокартах вроде RTX 4090 — видео генерируются за считанные минуты.
Полностью открытый код и веса моделей доступны на GitHub и Hugging Face под лицензией Apache 2.0 — модель можно использовать в коммерческих проектах, изменять и адаптировать.
Тестим тут!
GitHub
Hugging Face
ModelScope
Alibaba выпустила Wan 2.2 — мощную и первую в своём роде open-source модель для генерации видео с кинематографическим контролем, встроенным прямо в текстовый prompt. Это настоящий прорыв: теперь любой желающий может создавать видеоролики с управлением светом, движением камеры, цветовой палитрой и композицией — без сложного интерфейса и с полной свободой творчества.
Что нового в Wan 2.2?
Поддержка 720p и 24 кадров в секунду на видеокартах вроде RTX 4090 — видео генерируются за считанные минуты.
Полностью открытый код и веса моделей доступны на GitHub и Hugging Face под лицензией Apache 2.0 — модель можно использовать в коммерческих проектах, изменять и адаптировать.
Тестим тут!
GitHub
Hugging Face
ModelScope
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥14❤7👍4