🎄 К Новому году Yandex Cloud и Forbes подготовили особый подарок для CDO, дата-инженеров и аналитиков! Что, если работа с данными превратится в увлекательную игру во вселенной, вдохновленной классикой — «Героями меча и магии»? ⚔️📊
Игра превращает привычные инструменты обработки данных (PostgreSQL, ClickHouse, Trino, DataLens и другие) в могущественные артефакты. Их можно получить у хранителей или создать самому в кибер-кузнице 🔧✨
В проекте можно найти пасхалки на любимую игру и примеры бизнес-сценариев из финтеха, ритейла и промышленности: помогите персонажам побороть дата-хаос и прокачать навыки работы с данными. Игра доступна на десктопе и телефоне 📱💻
На лендинге также собраны проекты компаний, которые уже используют возможности Yandex Cloud для решения бизнес-задач с данными.
Поиграй и вдохновись работой с данными в новом формате!
👉 Играй и узнай больше
Игра превращает привычные инструменты обработки данных (PostgreSQL, ClickHouse, Trino, DataLens и другие) в могущественные артефакты. Их можно получить у хранителей или создать самому в кибер-кузнице 🔧✨
В проекте можно найти пасхалки на любимую игру и примеры бизнес-сценариев из финтеха, ритейла и промышленности: помогите персонажам побороть дата-хаос и прокачать навыки работы с данными. Игра доступна на десктопе и телефоне 📱💻
На лендинге также собраны проекты компаний, которые уже используют возможности Yandex Cloud для решения бизнес-задач с данными.
Поиграй и вдохновись работой с данными в новом формате!
👉 Играй и узнай больше
👍11❤5
🚀 FineTuningLLMs - понятный и честный разбор fine-tuning LLM
FineTuningLLMs - гайд который объясняет тонкую настройку языковых моделей без лишней теории.
Здесь показывают, как fine-tuning работает на самом деле, где он действительно нужен, а где его использование излишне.
Автор последовательно разбирает весь путь - от подготовки данных до оценки результата. Особое внимание уделено тому, как формат данных и инструкция влияют на поведение модели после обучения. Хорошо видно, почему плохой датасет нельзя «исправить» даже «хорошим» обучением.
Ее каждую задачу стоит решать дообучением, иногда промптинг или RAG дают тот же эффект быстрее и дешевле, а fine-tuning оправдан только там, где нужно устойчивое поведение модели.
Минимум магии, максимум практического смысла и здравого инженерного подхода.
https://github.com/dvgodoy/FineTuningLLMs/
FineTuningLLMs - гайд который объясняет тонкую настройку языковых моделей без лишней теории.
Здесь показывают, как fine-tuning работает на самом деле, где он действительно нужен, а где его использование излишне.
Автор последовательно разбирает весь путь - от подготовки данных до оценки результата. Особое внимание уделено тому, как формат данных и инструкция влияют на поведение модели после обучения. Хорошо видно, почему плохой датасет нельзя «исправить» даже «хорошим» обучением.
Ее каждую задачу стоит решать дообучением, иногда промптинг или RAG дают тот же эффект быстрее и дешевле, а fine-tuning оправдан только там, где нужно устойчивое поведение модели.
Минимум магии, максимум практического смысла и здравого инженерного подхода.
https://github.com/dvgodoy/FineTuningLLMs/
❤9🔥4👍3
✔ Маленькая модель - крутой результат: LFM2-2.6B-Exp набирает 42% на GPQA
Для модели всего 2,6 млрд параметров такой балл обычно недостижим его ждёшь от куда более крупных систем.
Фокус в том, что команда не меняла архитектуру.
Они просто добавили RL поверх того же чекпоинта: модель генерирует ответы, получает оценку по задаче и обучается чаще выдавать выигрышные варианты.
Почему это важно
GPQA - жёсткий набор по научным вопросам, где «угадывание по шаблону» не работает.
Что внутри LFM2-2.6B
• гибрид: 22 слоя + 8 слоёв внимания
• контекст — до 32 768 токенов
• веса в bfloat16
⚡ грамотный дизайн наград + RL способны сильно поднять качество даже у маленьких моделей — без усложнения архитектуры.
https://huggingface.co/LiquidAI/LFM2-2.6B-Exp
Для модели всего 2,6 млрд параметров такой балл обычно недостижим его ждёшь от куда более крупных систем.
Фокус в том, что команда не меняла архитектуру.
Они просто добавили RL поверх того же чекпоинта: модель генерирует ответы, получает оценку по задаче и обучается чаще выдавать выигрышные варианты.
Почему это важно
GPQA - жёсткий набор по научным вопросам, где «угадывание по шаблону» не работает.
Что внутри LFM2-2.6B
• гибрид: 22 слоя + 8 слоёв внимания
• контекст — до 32 768 токенов
• веса в bfloat16
⚡ грамотный дизайн наград + RL способны сильно поднять качество даже у маленьких моделей — без усложнения архитектуры.
https://huggingface.co/LiquidAI/LFM2-2.6B-Exp
❤8👍7🔥3
🚀 MiniMax M2.1 - теперь open-source и один из лучших ИИ для разработчиков
— топ-результаты на кодинговых бенчмарках (SWE, VIBE, Multi-SWE)
— в ряде тестов обгоняет Gemini 3 Pro и Claude Sonnet 4.5
— MoE-архитектура: активны 10B параметров (230B всего)
И это не только цифры модель очень быста в инференсе и просто в деплоится, её можно запустить даже локально.
https://huggingface.co/MiniMaxAI/MiniMax-M2.1
@data_analysis_ml
— топ-результаты на кодинговых бенчмарках (SWE, VIBE, Multi-SWE)
— в ряде тестов обгоняет Gemini 3 Pro и Claude Sonnet 4.5
— MoE-архитектура: активны 10B параметров (230B всего)
И это не только цифры модель очень быста в инференсе и просто в деплоится, её можно запустить даже локально.
https://huggingface.co/MiniMaxAI/MiniMax-M2.1
@data_analysis_ml
❤16🔥7👍3😁1🤨1
Авито внедряет ИИ-помощников для покупателей и продавцов
На технологической платформе началось тестирование двух новых ИИ-ассистентов: Ави для покупателей и Ави Pro для продавцов. На текущем этапе они доступны только ограниченной группе пользователей.
Функционал помощников различается. Ави помогает покупателям: подбирает варианты по описанию, сравнивает товары, выделяет их сильные и слабые стороны, а также предлагает сопутствующие продукты, даже если запрос сформулирован нечетко. Ави Pro, в свою очередь, предназначен для продавцов и работает в их личных кабинетах. Этот ассистент анализирует статистику, отслеживает изменения и даёт рекомендации для повышения эффективности продаж.
Управляющий директор по искусственному интеллекту Авито Андрей Рыбинцев пояснил, что для компании диалоговый интерфейс представляет собой новый этап в развитии пользовательского опыта. По его словам, это решение сократит число действий для решения задач, повысит конверсию в успешные сделки и позволит платформе лучше понимать намерения клиентов.
Запуск ИИ-помощников является ответом компании на запросы рынка. Согласно внутренним исследованиям Авито, 59% пользователей заходят на платформу без четкой цели, при этом 43% уже готовы доверить выбор искусственному интеллекту. На дальнейшее развитие этих технологий в следующем году компания планирует направить около миллиарда рублей.
На технологической платформе началось тестирование двух новых ИИ-ассистентов: Ави для покупателей и Ави Pro для продавцов. На текущем этапе они доступны только ограниченной группе пользователей.
Функционал помощников различается. Ави помогает покупателям: подбирает варианты по описанию, сравнивает товары, выделяет их сильные и слабые стороны, а также предлагает сопутствующие продукты, даже если запрос сформулирован нечетко. Ави Pro, в свою очередь, предназначен для продавцов и работает в их личных кабинетах. Этот ассистент анализирует статистику, отслеживает изменения и даёт рекомендации для повышения эффективности продаж.
Управляющий директор по искусственному интеллекту Авито Андрей Рыбинцев пояснил, что для компании диалоговый интерфейс представляет собой новый этап в развитии пользовательского опыта. По его словам, это решение сократит число действий для решения задач, повысит конверсию в успешные сделки и позволит платформе лучше понимать намерения клиентов.
Запуск ИИ-помощников является ответом компании на запросы рынка. Согласно внутренним исследованиям Авито, 59% пользователей заходят на платформу без четкой цели, при этом 43% уже готовы доверить выбор искусственному интеллекту. На дальнейшее развитие этих технологий в следующем году компания планирует направить около миллиарда рублей.
❤7😐2
💰 ИИ-лабы начали платить начинающим исследователям на уровне опытных инженеров - фактически «закрепляя» таланты ещё на старте.
Сегодня стажировки и junior-позиции в топ-лабораториях - это уже не подработк, а прямой вход в исследование: со стипендией и собственным бюджетом на эксперименты.
Примеры программ
- Anthropic - AI Safety Fellows
~ $3 850 в неделю + примерно $15 000 в месяц на вычисления.
По сути — стипендия плюс мини-грант на исследования.
Business Insider отмечает: 80% участников публикуют статьи — программа даёт результат.
- OpenAI Residency
~ $18 300 в месяц в течение 6 месяцев —
формат как оплаченное обучение внутри фронтир-организации.
Если дать новичкам деньги + доступ к мощностям,
они начинают приносить ощутимый вклад почти сразу.
ИИ-карьера всё больше выглядит как полноценная научная работа с зарплатой и ресурсами - с самого старта.
businessinsider .com/top-paying-ai-internships-fellowships-residencies-openai-anthropic-meta-google-2025-12
Сегодня стажировки и junior-позиции в топ-лабораториях - это уже не подработк, а прямой вход в исследование: со стипендией и собственным бюджетом на эксперименты.
Примеры программ
- Anthropic - AI Safety Fellows
~ $3 850 в неделю + примерно $15 000 в месяц на вычисления.
По сути — стипендия плюс мини-грант на исследования.
Business Insider отмечает: 80% участников публикуют статьи — программа даёт результат.
- OpenAI Residency
~ $18 300 в месяц в течение 6 месяцев —
формат как оплаченное обучение внутри фронтир-организации.
Если дать новичкам деньги + доступ к мощностям,
они начинают приносить ощутимый вклад почти сразу.
ИИ-карьера всё больше выглядит как полноценная научная работа с зарплатой и ресурсами - с самого старта.
businessinsider .com/top-paying-ai-internships-fellowships-residencies-openai-anthropic-meta-google-2025-12
🔥20👍9❤3
⚡️ Matrix Exponential Attention (MEA) - экспериментальный механизм внимания для трансформеров
MEA предлагает альтернативу классическому softmax-attention. Вместо нормализации через softmax используется матричная экспонента, что позволяет моделировать более сложные, высоко-порядковые взаимодействия между токенами.
Ключевая идея
Внимание формулируется как exp(QKᵀ), а вычисление экспоненты аппроксимируется через усечённый ряд. Это даёт возможность считать внимание линейно по длине последовательности, не создавая огромные n×n матрицы.
Что это даёт
- Более выразительное внимание по сравнению с softmax
- Higher-order взаимодействия между токенами
- Линейная сложность по памяти и времени
- Подходит для длинных контекстов и исследовательских архитектур
Проект находится на стыке Linear Attention и Higher-order Attention и носит исследовательский характер. Это не готовая замена стандартному attention, а попытка расширить его математическую форму.
Для ML-исследователей и инженеров, которые изучают новые формы внимания, альтернативы softmax и архитектуры для длинных последовательностей.
Экспериментально. Интересно. Не для продакшена - пока.
GitHub: github.com/yifanzhang-pro/MEA
MEA предлагает альтернативу классическому softmax-attention. Вместо нормализации через softmax используется матричная экспонента, что позволяет моделировать более сложные, высоко-порядковые взаимодействия между токенами.
Ключевая идея
Внимание формулируется как exp(QKᵀ), а вычисление экспоненты аппроксимируется через усечённый ряд. Это даёт возможность считать внимание линейно по длине последовательности, не создавая огромные n×n матрицы.
Что это даёт
- Более выразительное внимание по сравнению с softmax
- Higher-order взаимодействия между токенами
- Линейная сложность по памяти и времени
- Подходит для длинных контекстов и исследовательских архитектур
Проект находится на стыке Linear Attention и Higher-order Attention и носит исследовательский характер. Это не готовая замена стандартному attention, а попытка расширить его математическую форму.
Для ML-исследователей и инженеров, которые изучают новые формы внимания, альтернативы softmax и архитектуры для длинных последовательностей.
Экспериментально. Интересно. Не для продакшена - пока.
GitHub: github.com/yifanzhang-pro/MEA
❤8👍7🔥3
Статья Step-DeepResearch где показано, что даже 32B-модель может делать по-настоящему глубокие исследования при очень низкой стоимости инференса.
📊 На бенчмарке ResearchRubrics модель получает 61.42, а полный отчет стоит меньше 0,50 RMB.
Идея проста: большинство агентов ведут себя как поисковики. Они собирают факты, но не превращают их в проверенный, связный отчет.
Здесь исследование понимается как длинный цикл: понять реальную задачу - составить план - искать источники - сравнивать и проверять - исправлять ошибки - писать отчет.
🧩 Цикл разбили на 4 базовых навыка:
• планирование
• поиск информации
• рефлексия и проверка
• написание отчета
Данные собирали из реальных отчетов, восстанавливая исходные вопросы и планы, а также из вопросов, связанных с базами знаний и документами.
⚙️ Обучение шло в 3 этапа:
1) сначала обучают базовым навыкам
2) затем учат полным цепочкам с инструментами
3) далее добавляют обучение через попытки и проверку, где чек-лист оценивает отчет и награда дается только за полностью пройденный результат
📌 Авторы также представили ADR-Bench, где эксперты сравнивают два отчета бок о бок, а рейтинг строится по системе Elo.
https://arxiv.org/pdf/2512.20491
📊 На бенчмарке ResearchRubrics модель получает 61.42, а полный отчет стоит меньше 0,50 RMB.
Идея проста: большинство агентов ведут себя как поисковики. Они собирают факты, но не превращают их в проверенный, связный отчет.
Здесь исследование понимается как длинный цикл: понять реальную задачу - составить план - искать источники - сравнивать и проверять - исправлять ошибки - писать отчет.
🧩 Цикл разбили на 4 базовых навыка:
• планирование
• поиск информации
• рефлексия и проверка
• написание отчета
Данные собирали из реальных отчетов, восстанавливая исходные вопросы и планы, а также из вопросов, связанных с базами знаний и документами.
⚙️ Обучение шло в 3 этапа:
1) сначала обучают базовым навыкам
2) затем учат полным цепочкам с инструментами
3) далее добавляют обучение через попытки и проверку, где чек-лист оценивает отчет и награда дается только за полностью пройденный результат
📌 Авторы также представили ADR-Bench, где эксперты сравнивают два отчета бок о бок, а рейтинг строится по системе Elo.
https://arxiv.org/pdf/2512.20491
❤17👍5🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
Эрик Шмидт рассказал, что его молодость прошла за кодом: в 20 лет он писал программы днём и ночью: в колледже и аспирантуре и именно это построило его карьеру.
Сегодня всё иначе:
«Каждый из вас носит в кармане суперкомпьютер и суперпрограммиста.»
По словам Шмидта, теперь ИИ способен выполнять всё то, чему он учился годами.
Это не про «конец программирования», а про то, что правила игры меняются.
Выигрывать будут те, кто не сопротивляется, а учится работать вместе с ИИ, как с инструментом, который усиливает человека.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43❤7🥱6🔥3🤔1
Южная Корея обвинила 10 человек, включая экс-топов Samsung, в утечке секретов DRAM в Китай 🏭🇰🇷➡️🇨🇳
Прокуратура утверждает, что группа передала Китаю производственные секреты Samsung по 10-нм DRAM, которые попали к ChangXin Memory Technologies (CXMT).
DRAM производится через сотни строго упорядоченных шагов.
Небольшое отклонение - и хорошая пластина становится браком.
По версии следствия:
- сотрудник компании переписывал процесс вручную, обходя цифровой контроль
- заметки использовали, чтобы восстановить и адаптировать процесс под оборудование CXMT
- дело также затрагивает попытки получить технологии SK hynix через подрядчика
Сообщается, что 5 фигурантов арестованы, остальные проходят без задержания (обвинения по закону о защите промышленных технологий).
Ущерб Samsung оценивается в $7–13 млрд.
На создание такой памяти обычно уходят годы и приходится множество неудачных запусков.
news.yahoo.co.jp/articles/f2f6b69b1ba1395c51a0538a1b24328f776254de
Прокуратура утверждает, что группа передала Китаю производственные секреты Samsung по 10-нм DRAM, которые попали к ChangXin Memory Technologies (CXMT).
10-нм DRAM (Dynamic Random Access Memory) - это динамическая память с произвольным доступом следующего поколения, где «10 нм» указывает на технологический процесс уменьшения размеров транзисторов и ячеек памяти, позволяющий упаковать больше памяти на кристалл, повышая плотность и энергоэффективность.
DRAM производится через сотни строго упорядоченных шагов.
Небольшое отклонение - и хорошая пластина становится браком.
По версии следствия:
- сотрудник компании переписывал процесс вручную, обходя цифровой контроль
- заметки использовали, чтобы восстановить и адаптировать процесс под оборудование CXMT
- дело также затрагивает попытки получить технологии SK hynix через подрядчика
Сообщается, что 5 фигурантов арестованы, остальные проходят без задержания (обвинения по закону о защите промышленных технологий).
Ущерб Samsung оценивается в $7–13 млрд.
На создание такой памяти обычно уходят годы и приходится множество неудачных запусков.
news.yahoo.co.jp/articles/f2f6b69b1ba1395c51a0538a1b24328f776254de
❤10🔥4😐3👍1🥰1
👨🎓 Harvard выложил в открытый доступ учебник по ML-системам и это редкий случай, когда материал действительно полезный.
В учебнике показан полный цикл: от понимания основ до построения продакшн-систем, которые можно запускать в реальном мире.
Что в книге и почему она стоит внимания:
- вы самостоятельно собираете autograd, оптимизаторы, attention и мини-PyTorch — чтобы увидеть, как устроены фреймворки изнутри
- разбираетесь в базах: батчи, архитектуры, процесс обучения
- учитесь оптимизировать производительность: работать с ускорителями, бенчмарками и настраивать модели
📚 То есть это не вводная книжка, а полноценный roadmap от теории к продакшну.
📌Репозиторий: https://github.com/harvard-edge/cs249r_book
📌PDF: https://mlsysbook.ai/assets/downloads/Machine-Learning-Systems.pdf
В учебнике показан полный цикл: от понимания основ до построения продакшн-систем, которые можно запускать в реальном мире.
Что в книге и почему она стоит внимания:
- вы самостоятельно собираете autograd, оптимизаторы, attention и мини-PyTorch — чтобы увидеть, как устроены фреймворки изнутри
- разбираетесь в базах: батчи, архитектуры, процесс обучения
- учитесь оптимизировать производительность: работать с ускорителями, бенчмарками и настраивать модели
📚 То есть это не вводная книжка, а полноценный roadmap от теории к продакшну.
📌Репозиторий: https://github.com/harvard-edge/cs249r_book
📌PDF: https://mlsysbook.ai/assets/downloads/Machine-Learning-Systems.pdf
🔥32👍13❤4🙏2
🇨🇳 Китайские техногиганты устраивают охоту за ИИ-талантами
Крупные компании резко поднимают бонусы и зарплаты, чтобы никто не уходил к конкурентам.
ByteDance увеличивает бонусы на 35% и закладывает на пересмотр зарплат +150%. Вилки доходов расширяют по всем уровням - рынок перегревается.
Tencent активно переманивает специалистов: по сообщениям, отдельные оферы доходят до 2x от текущих зарплат. Плюс в компании появился новый главный AI-учёныйБ бывший исследователь OpenAI Яо Шунью.
Инженеры, которые умеют строить и поддерживать системы обучения и инференса LLM, на вес золота. Маленькая команда может тормозить целые продуктовые направления.
Внутри Tencent усиливают AI-инфраструктуру: распределённое обучение, масштабное развёртывание моделей, большие данные и ML-пайплайны.
И цифры это подтверждают: индекс новых вакансий по ИИ на платформе Maimai вырос на 543% за 2025 год.
Китай делает ставку на ИИ.
scmp.com/tech/tech-trends/article/3338168/chinas-tech-giants-offer-lavish-year-end-bonuses-amid-ai-talent-war
Крупные компании резко поднимают бонусы и зарплаты, чтобы никто не уходил к конкурентам.
ByteDance увеличивает бонусы на 35% и закладывает на пересмотр зарплат +150%. Вилки доходов расширяют по всем уровням - рынок перегревается.
Tencent активно переманивает специалистов: по сообщениям, отдельные оферы доходят до 2x от текущих зарплат. Плюс в компании появился новый главный AI-учёныйБ бывший исследователь OpenAI Яо Шунью.
Инженеры, которые умеют строить и поддерживать системы обучения и инференса LLM, на вес золота. Маленькая команда может тормозить целые продуктовые направления.
Внутри Tencent усиливают AI-инфраструктуру: распределённое обучение, масштабное развёртывание моделей, большие данные и ML-пайплайны.
И цифры это подтверждают: индекс новых вакансий по ИИ на платформе Maimai вырос на 543% за 2025 год.
Китай делает ставку на ИИ.
scmp.com/tech/tech-trends/article/3338168/chinas-tech-giants-offer-lavish-year-end-bonuses-amid-ai-talent-war
❤13🔥5👍3
Вчера, на просторах сети Х, Tongyi Lab запостила тизер "новогоднего подарка, который уже в пути".
Так как все очень сильно и давно ждут Z-Image Base
Розыскную бригаду собирать не пришлось - новинку спойлернул gemini-code-assist в репозитории Modelscope : это будет qwen-image-2512
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍2🥰2
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🎄🎄 Qwen-Image: обновление как раз к Новому году
Свежая версия Qwen-Image получила заметный апгрейд качества.
Модель стала генерировать намного реалистичнее и аккуратнее, особенно в сложных сценах.
Что изменилось:
• более естественные генерации людей, меньше «искусственного» эффекта
• детальнее лица и мимика
• улучшены натуральные текстуры: вода, шерсть, материалы, пейзажи
• намного аккуратнее текст на картинках: лучше верстка и точность в композиции
Модель прошла более 10 000 слепых сравнений на AI Arena и показала результат уровня топов среди open-source, оставаясь конкурентной даже рядом с закрытыми решениями.
▪Qwen Chat: https://chat.qwen.ai/?inputFeature=t2i
▪Hugging Face: https://huggingface.co/Qwen/Qwen-Image-2512
▪ModelScope: https://modelscope.ai/models/Qwen/Qwen-Image-2512
▪GitHub: https://github.com/QwenLM/Qwen-Image
▪Блог: https://qwen.ai/blog?id=qwen-image-2512
▪Демо HF: https://huggingface.co/spaces/Qwen/Qwen-Image-2512
▪Демо ModelScope: https://modelscope.cn/aigc/imageGeneration
▪API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=group-qwen-image-max
@ai_machinelearning_big_data
#qwen #qwenimage #openaimodels #imagemodels
Свежая версия Qwen-Image получила заметный апгрейд качества.
Модель стала генерировать намного реалистичнее и аккуратнее, особенно в сложных сценах.
Что изменилось:
• более естественные генерации людей, меньше «искусственного» эффекта
• детальнее лица и мимика
• улучшены натуральные текстуры: вода, шерсть, материалы, пейзажи
• намного аккуратнее текст на картинках: лучше верстка и точность в композиции
Модель прошла более 10 000 слепых сравнений на AI Arena и показала результат уровня топов среди open-source, оставаясь конкурентной даже рядом с закрытыми решениями.
▪Qwen Chat: https://chat.qwen.ai/?inputFeature=t2i
▪Hugging Face: https://huggingface.co/Qwen/Qwen-Image-2512
▪ModelScope: https://modelscope.ai/models/Qwen/Qwen-Image-2512
▪GitHub: https://github.com/QwenLM/Qwen-Image
▪Блог: https://qwen.ai/blog?id=qwen-image-2512
▪Демо HF: https://huggingface.co/spaces/Qwen/Qwen-Image-2512
▪Демо ModelScope: https://modelscope.cn/aigc/imageGeneration
▪API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=group-qwen-image-max
@ai_machinelearning_big_data
#qwen #qwenimage #openaimodels #imagemodels
❤4🔥3👍2