Forwarded from Machinelearning
Компания представила сразу 2 версии модели для кодинга: флагманскую Devstral 2 (123 млрд. параметров) и облегченную Devstral Small 2 (24 млрд).
Старшая модель выбила 72,2% в бенчмарке SWE-bench Verified, закрепив за собой статус одного из лучших инструментов с открытыми весами.
Благодаря контекстному окну в 256k токенов, алгоритм способен удерживать в памяти структуру больших проектов и корректно управлять зависимостями.
Для локального запуска на GPU или CPU подойдет версия Small 2, опубликованная под лицензией Apache 2.0.
Старшая версия требует серьезного железа (от 4-х H100), но обещает быть до 7 раз экономичнее проприетарных аналогов уровня Claude Sonnet.
Вместе с моделями разработчики анонсировали утилиту Mistral Vibe CLI, которая позволяет внедрять ИИ-агентов непосредственно в терминал для автоматизации рефакторинга и оркестрации изменений сразу в нескольких файлах.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍2
OpenAI строит подписочную империю масштаба Spotify - и делает это невероятно быстро.
Сегодня у ChatGPT уже более 800 млн пользователей и около 35 млн платных подписчиков.
Это больше не просто вирусный инструмент - это превращается в полноценную платформу для продуктивности, на уровне крупных корпоративных экосистем.
К 2030 году OpenAI прогнозирует $200 млрд годовой выручки, рассчитывая догнать (и конкурировать с) Microsoft Office и Google Workspace, конвертируя ещё десятки миллионов пользователей в платные уровни.
ChatGPT - это уже не стартап.
Это новая глобальная инфраструктура для работы.
Сегодня у ChatGPT уже более 800 млн пользователей и около 35 млн платных подписчиков.
Это больше не просто вирусный инструмент - это превращается в полноценную платформу для продуктивности, на уровне крупных корпоративных экосистем.
К 2030 году OpenAI прогнозирует $200 млрд годовой выручки, рассчитывая догнать (и конкурировать с) Microsoft Office и Google Workspace, конвертируя ещё десятки миллионов пользователей в платные уровни.
ChatGPT - это уже не стартап.
Это новая глобальная инфраструктура для работы.
❤5👎2
Что под капотом у поиска в Яндекс Лавке
Хороший живой кейс продакшн-поиска под e-commerce: тут и архитектура, и ML, и работа с логами.
В Лавке поиск — это не просто «BM25 и точка», а взрослый ML-сервис с собственной архитектурой на C++ + userver и плотными бургерами из моделей. В разборе ML-инженер команды показывает, как они эволюционировали от Aho–Corasick и SaaS-поиска до собственного сервиса, заточенного под персонализацию.
Что внутри:
👉 как устроен «бургер» из ML-моделей и кто за что отвечает — генерация кандидатов, фильтрация, ранжирование;
👉 как собирают фичи и действия пользователей в единый датасет для обучения ранжирующей модели;
👉 как дообучают DSSM каждые несколько дней, чтобы новые товары не выпадали из выдачи.
В конце автор буквально «ломает прод»: отключает отдельные слои и показывает, как меняется выдача, когда вы выкидываете, например, семантическую модель или фильтр.
👉 Читать на Хабре
Хороший живой кейс продакшн-поиска под e-commerce: тут и архитектура, и ML, и работа с логами.
В Лавке поиск — это не просто «BM25 и точка», а взрослый ML-сервис с собственной архитектурой на C++ + userver и плотными бургерами из моделей. В разборе ML-инженер команды показывает, как они эволюционировали от Aho–Corasick и SaaS-поиска до собственного сервиса, заточенного под персонализацию.
Что внутри:
👉 как устроен «бургер» из ML-моделей и кто за что отвечает — генерация кандидатов, фильтрация, ранжирование;
👉 как собирают фичи и действия пользователей в единый датасет для обучения ранжирующей модели;
👉 как дообучают DSSM каждые несколько дней, чтобы новые товары не выпадали из выдачи.
В конце автор буквально «ломает прод»: отключает отдельные слои и показывает, как меняется выдача, когда вы выкидываете, например, семантическую модель или фильтр.
👉 Читать на Хабре
❤5🔥5👍3
Claude Code
Claudix - это расширение для Visual Studio Code, которое интегрирует Claude AI прямо в ваш редактор. Оно предлагает интерактивный интерфейс для общения, управление сессиями и анализ кода, что делает процесс программирования более удобным и эффективным.
🚀 Основные моменты:
- Интерактивный чат с Claude Code
- Управление сессиями и история разговоров
- Интеллектуальный анализ кода
- Поддержка нескольких моделей Claude
- Реакция в реальном времени
📌 GitHub: https://github.com/Haleclipse/Claudix
#typescript
Claudix - это расширение для Visual Studio Code, которое интегрирует Claude AI прямо в ваш редактор. Оно предлагает интерактивный интерфейс для общения, управление сессиями и анализ кода, что делает процесс программирования более удобным и эффективным.
🚀 Основные моменты:
- Интерактивный чат с Claude Code
- Управление сессиями и история разговоров
- Интеллектуальный анализ кода
- Поддержка нескольких моделей Claude
- Реакция в реальном времени
📌 GitHub: https://github.com/Haleclipse/Claudix
#typescript
❤5👍2
Forwarded from Machinelearning
Занимательная история Дэвида Ноэля о том, как он купил ИИ-оборудование корпоративного класса, разработанное для серверных стоек с жидкостным охлаждением, которое затем переоборудовал под воздушное охлаждение, потом снова переоборудовал под водяное, пережил множество ситуаций, близких к катастрофе, и, в итоге получил настольный компьютер, способный запускать модели с 235 миллиардами параметров дома.
Это рассказ о сомнительных решениях и нестандартном подходе к решению проблем. И немного о том, что происходит, когда пытаешься превратить оборудование для ЦОДа в домашний сетап.
Если вы когда-либо задавались вопросом, что нужно для запуска действительно крупных моделей локально, или если вы просто хотите посмотреть, как кто-то разбирает оборудование стоимостью 80 000 долларов, полагаясь лишь на надежду и изопропанол, то эта статья не оставит вас равнодушным.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1🔥1
⚡️ Zoom установила новый SOTA-результат на Humanity’s Last Exam (HLE) - 48,1%
Это лучший результат на сегодняшний день:
- +2,3% к предыдущему SOTA
- Zoom обошла другие ведущие AI-модели
Humanity’s Last Exam (HLE) - один из самых строгих и сложных тестов в ИИ. Он проверяет не «красивые ответы», а:
- глубокое reasoning
- экспертные знания
- умение решать сложные, нестандартные задачи
Что это дает пользователям Zoom:
- более точные и полезные саммари встреч
- лучшее логическое понимание контекста
- более мощную автоматизацию в AI Companion 3.0
Zoom делает ставку не на маркетинговые демо, а на реальное качество мышления ИИ. И результаты это подтверждают.
https://www.zoom.com/en/blog/humanitys-last-exam-zoom-ai-breakthrough/
Это лучший результат на сегодняшний день:
- +2,3% к предыдущему SOTA
- Zoom обошла другие ведущие AI-модели
Humanity’s Last Exam (HLE) - один из самых строгих и сложных тестов в ИИ. Он проверяет не «красивые ответы», а:
- глубокое reasoning
- экспертные знания
- умение решать сложные, нестандартные задачи
Что это дает пользователям Zoom:
- более точные и полезные саммари встреч
- лучшее логическое понимание контекста
- более мощную автоматизацию в AI Companion 3.0
Zoom делает ставку не на маркетинговые демо, а на реальное качество мышления ИИ. И результаты это подтверждают.
https://www.zoom.com/en/blog/humanitys-last-exam-zoom-ai-breakthrough/
❤6👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Speech-to-text прямо из терминала 🎤⚡
Удобный терминальный инструмент, который умеет:
- записывать голос;
- превращать речь в текст;
- показывать реальный waveform в терминале со шкалой dBFS и детектором клиппинга.
🦀 Написан на Rust
🎨 Интерфейс собран на ratatui
🎥 У автора есть демо (ниже в треде)
⭐ GitHub: https://github.com/kristoferlund/ostt
Удобный терминальный инструмент, который умеет:
- записывать голос;
- превращать речь в текст;
- показывать реальный waveform в терминале со шкалой dBFS и детектором клиппинга.
🦀 Написан на Rust
🎨 Интерфейс собран на ratatui
🎥 У автора есть демо (ниже в треде)
⭐ GitHub: https://github.com/kristoferlund/ostt
👍4❤2🔥2
⚡️ Разработчики Z-Image Turbo выложили в open-source DistillPatch LoRA - простое решение, которое возвращает настоящую Turbo-скорость генерации в 8 шагов для любых LoRA, дообученных на Z-Image Turbo.
В чём была проблема:
Обычное обучение LoRA ломает ускорение Turbo.
При
Что проверили разработчики:
1️⃣ Стандартный SFT
Качество хорошее, но генерация медленная
2️⃣ Diff-LoRA
Быстро, но плохо подходит для гибких сценариев
3️⃣ SFT + дистилляция
Отличное качество, но сложный и тяжёлый пайплайн
4️⃣ SFT + DistillPatch — рекомендуемый вариант
Подключаешь один LoRA и сразу возвращаешь:
- чёткие изображения
- 8 шагов
- настоящую Turbo-скорость 🚀
Кому это особенно полезно:
- Если у тебя уже есть LoRA под Z-Image Turbo
- Если ты используешь стандартные SFT-пайплайны
- Если важен быстрый инференс без потери качества
DistillPatch не требует переобучения всей модели и не усложняет процесс - он просто возвращает то ускорение, ради которого Z-Image Turbo и существует.
🔗 Grab the model: https://modelscope.cn/models/DiffSynth-Studio/Z-Image-Turbo-DistillPatch
🎨 Try it live: https://modelscope.cn/aigc/imageGeneration?tab=advanced
🤖 Github: https://github.com/modelscope/DiffSynth-Studio/blob/main/docs/en/Model_Details/Z-Image.md
В чём была проблема:
Обычное обучение LoRA ломает ускорение Turbo.
При
steps=8 и cfg=1 изображения получаются размытыми, поэтому приходится повышать шаги до 30 — и теряется весь смысл Turbo.Что проверили разработчики:
1️⃣ Стандартный SFT
Качество хорошее, но генерация медленная
2️⃣ Diff-LoRA
Быстро, но плохо подходит для гибких сценариев
3️⃣ SFT + дистилляция
Отличное качество, но сложный и тяжёлый пайплайн
4️⃣ SFT + DistillPatch — рекомендуемый вариант
Подключаешь один LoRA и сразу возвращаешь:
- чёткие изображения
- 8 шагов
- настоящую Turbo-скорость 🚀
Кому это особенно полезно:
- Если у тебя уже есть LoRA под Z-Image Turbo
- Если ты используешь стандартные SFT-пайплайны
- Если важен быстрый инференс без потери качества
DistillPatch не требует переобучения всей модели и не усложняет процесс - он просто возвращает то ускорение, ради которого Z-Image Turbo и существует.
🔗 Grab the model: https://modelscope.cn/models/DiffSynth-Studio/Z-Image-Turbo-DistillPatch
🎨 Try it live: https://modelscope.cn/aigc/imageGeneration?tab=advanced
🤖 Github: https://github.com/modelscope/DiffSynth-Studio/blob/main/docs/en/Model_Details/Z-Image.md
❤3👍2
Исследователи показали: большие языковые модели могут ощущать, что на их внутреннее состояние что-то сильно влияет, но при этом обычно не способны объяснить, что именно.
Что сделали авторы:
- Они искусственно «подталкивают» скрытые активации модели в заданном направлении
- Модель часто может определить насколько сильным был этот сдвиг
- Но даже заметив изменение внутри себя, она не может корректно назвать внедрённый концепт, например «предательство» или «спутники»
Проще говоря:
Модель может сказать
«на меня сейчас сильно что-то влияет»,
но не может надёжно сказать
«это именно концепт предательства»
Поэтому авторы называют это частичной интроспекцией:
- модель считывает простой сигнал (силу воздействия)
- но не понимает смысл собственного внутреннего состояния
Результаты:
- На Llama 3.1 8B Instruct модель определяет силу инъекции (от слабой до очень сильной) с точностью около 70%
- Случайный уровень - 25%
- Корректно назвать сам концепт удаётся лишь примерно в 20% случаев
- Переформулировка вопроса легко ломает ответы
Некоторые идеи AI-безопасности предполагают, что модель можно спросить, активировано ли внутри неё опасное состояние.
Но эксперимент показывает:
- LLM действительно чувствуют внутренние сигналы
- Однако их объяснения того, что эти сигналы означают, ненадёжны
Как это работает:
- Каждый токен формирует большое числовое состояние
- Авторы создают направление концепта, сравнивая примеры с контрастным набором
- Затем на выбранном слое слегка смещают внутреннее состояние
- И смотрят, что модель может сказать о происходящем
LLM обладают ограниченной самодиагностикой,
но интроспекция не равна пониманию.
Paper:https://arxiv.org/abs/2512.12411
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥5❤3
📘 На Stepik вышел курс — «LLM Security PRO: prompt injection • утечки • tool-abuse»
Если вы используете LLM в проде и в запросы/логи может попасть ПДн — вы рискуете комплаенсом (вплоть до штрафов на миллионы рублей, по отдельным нарушениям — до 6 млн ₽).
А если у вас нет инженерных контуров безопасности, то даже без “юристов” вы можете потерять проект: injection через пользователя/документ, утечки в ответы/логи, опасные tool-действия, cost-DoS и остановка релиза.
Этот курс — практический путь к безопасному LLM-продакшну:
• Prompt injection (direct) + indirect injection через RAG: как это ломает поведение и как закрывать
• Защита RAG: instruction hierarchy, grounded-режим, цитирование, контроль контекста
• Tool security: allowlist, scopes/permissions, approvals (human-in-the-loop), валидация параметров
• Output safety: строгий JSON-контракт (Schema/Pydantic) + safe parsing
• Leakage prevention: redaction, политика логов/ретеншн, memory hygiene
• Cost control: лимиты токенов/времени/tool-calls, anti-loop, quotas/rate limit, circuit breaker
• Red-team suite + security-gates в CI/CD: чтобы регрессы не уезжали в релиз
🎓 Сертификат Stepik — в резюме/LinkedIn
💻 Локальный стенд + реальный LLM (OpenAI API), код на GitHub, сервисы поднимать не нужно
🚀 Скидка 25%, действует 48 часов
👉 Пройти курс со скидкой
Если вы используете LLM в проде и в запросы/логи может попасть ПДн — вы рискуете комплаенсом (вплоть до штрафов на миллионы рублей, по отдельным нарушениям — до 6 млн ₽).
А если у вас нет инженерных контуров безопасности, то даже без “юристов” вы можете потерять проект: injection через пользователя/документ, утечки в ответы/логи, опасные tool-действия, cost-DoS и остановка релиза.
Этот курс — практический путь к безопасному LLM-продакшну:
• Prompt injection (direct) + indirect injection через RAG: как это ломает поведение и как закрывать
• Защита RAG: instruction hierarchy, grounded-режим, цитирование, контроль контекста
• Tool security: allowlist, scopes/permissions, approvals (human-in-the-loop), валидация параметров
• Output safety: строгий JSON-контракт (Schema/Pydantic) + safe parsing
• Leakage prevention: redaction, политика логов/ретеншн, memory hygiene
• Cost control: лимиты токенов/времени/tool-calls, anti-loop, quotas/rate limit, circuit breaker
• Red-team suite + security-gates в CI/CD: чтобы регрессы не уезжали в релиз
🎓 Сертификат Stepik — в резюме/LinkedIn
💻 Локальный стенд + реальный LLM (OpenAI API), код на GitHub, сервисы поднимать не нужно
🚀 Скидка 25%, действует 48 часов
👉 Пройти курс со скидкой
❤2👍1
Depth Anything 3 может предсказывает пространственно-согласованную геометрию по одному или нескольким изображениям, даже без известных параметров камеры. Ключевая особенность релиза - в радикальном упрощении архитектуры.
Под капотом единый трансформер и унифицированное представление depth-ray. Одна и та же модель теперь решает целый спектр задач: от монокулярной оценки глубины и определения поз камеры до прямой генерации 3D гауссианов для синтеза новых ракурсов.
В тестах DA3 превзошла предыдущие версии. Команда выпустила веса моделей, инструментарий CLI и WebUI на Gradio.
depth-anything-3.github.io
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍1
🧠 Anthropic и Claude - одни из главных бенефициаров 2025 года.
Claude продемонстрировал самую долгую автономную работу ИИ-агента на сегодня — 4 часа 49 минут без участия человека.
Это соответствует 50% time horizon и является текущим рекордом в агентных системах.
Но картина не такая однозначная.
У флагманской модели Claude Opus 4.5:
- 80% time horizon составляет всего 27 минут
- это примерно уровень прошлых моделей
- и меньше, чем у GPT-5.1-Codex-Max (32 минуты)
Что это значит по сути:
- Anthropic действительно впереди по длительной устойчивой автономности
- но при более жёстких критериях надёжности лидерство пока не закреплено
- конкуренты остаются очень близко
Гонка не закончена и победитель не определён.
Развитие ИИ-агентов идёт по экспоненте, а не по прямой.
Каждый новый релиз сдвигает ключевую границу:
насколько долго ИИ может работать самостоятельно,
не ломаясь и не теряя качества.
И именно время автономной устойчивой работы, а не классические бенчмарки,
становится главным показателем прогресса в агентном ИИ.
Claude продемонстрировал самую долгую автономную работу ИИ-агента на сегодня — 4 часа 49 минут без участия человека.
Это соответствует 50% time horizon и является текущим рекордом в агентных системах.
Но картина не такая однозначная.
У флагманской модели Claude Opus 4.5:
- 80% time horizon составляет всего 27 минут
- это примерно уровень прошлых моделей
- и меньше, чем у GPT-5.1-Codex-Max (32 минуты)
Что это значит по сути:
- Anthropic действительно впереди по длительной устойчивой автономности
- но при более жёстких критериях надёжности лидерство пока не закреплено
- конкуренты остаются очень близко
Гонка не закончена и победитель не определён.
Развитие ИИ-агентов идёт по экспоненте, а не по прямой.
Каждый новый релиз сдвигает ключевую границу:
насколько долго ИИ может работать самостоятельно,
не ломаясь и не теряя качества.
И именно время автономной устойчивой работы, а не классические бенчмарки,
становится главным показателем прогресса в агентном ИИ.
❤5👍2
Please open Telegram to view this post
VIEW IN TELEGRAM
😁35🔥2👍1😢1
GLM-4.7 - обновление линейки моделей, оптимизированное для разработчиков. При размере в 358 млрд. параметров модель показала существенный прирост производительности в программировании, работе с терминалом и созданию чистого UI-кода (функция Vibe Coding). На SWE-bench Verified модель улучшила результат до 73.8%, а в тестах на сложное математическое рассуждение прирост составил более 12%.
Архитектурное новшество релиза — развитие механизмов мышления. Функция Preserved Thinking позволяет модели сохранять и переиспользовать CoT между репликами, а механизм Interleaved Thinking дает время на анализ перед каждым вызовом внешних инструментов.
GLM-4.7 уже доступна через API и на OpenRouter, а веса модели выложены на HuggingFace и ModelScope.
z.ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍1
Российские генеративные модели Kandinsky 5.0 Video Lite и Pro в международной text-to-video арене
🔘 Pro версия является ТОП-1 опенсорсом в мире
🔘 Lite версия (2B параметров) лучше первой версии Sora
🔘 На данный момент Сбер уступает только топовым мировым бигтех компаниям: Google (Veo 3.1, Veo 3), OpenAI (Sora 2), Alibaba (Wan 2.5), KlingAI (Kling 2.5, 2.6); в паритете с Luma AI (Ray 3), MiniMax (Hailuo 2.3) — отрыв по ELO максимум 3 балла, при 95% доверительном интервале оценивания +-21 балла
🔘 Для российских генеративных моделей выход на международную арену — уникальное событие
🚀 Полезные ссылки:
🔘 Посмотреть весь лидерборд: lmarena
🔘 Почитать подробнее про Kandinsky 5.0: пост, техрепорт
🔘 Open Source Kandinsky 5.0: github и hf
🚀 Полезные ссылки:
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6❤1👍1👎1
This media is not supported in your browser
VIEW IN TELEGRAM
💡 Dario Amodei об AGI и будущем работы.
CEO Anthropic говорит прямо: ИИ может впервые реально убрать необходимость массового человеческого труда.
Ключевое:
• AGI ведёт к технологической безработице
ИИ способен выполнять большую часть экономически полезной работы быстрее и дешевле человека.
• Работа перестаёт быть условием выживания
В будущем труд - это выбор.
Смысл смещается к семье, творчеству и развитию.
• Такой переход нельзя навязать
Общество будет перестраиваться постепенно, а не по указу.
• Изменения идут с разной скоростью
Компании - быстро, отрасли - медленнее, ценность человека вне работы - дольше всего.
Вопрос не в том, придёт ли это.
Вопрос - что сломается раньше: рынок труда или наше представление о ценности человека.
CEO Anthropic говорит прямо: ИИ может впервые реально убрать необходимость массового человеческого труда.
Ключевое:
• AGI ведёт к технологической безработице
ИИ способен выполнять большую часть экономически полезной работы быстрее и дешевле человека.
• Работа перестаёт быть условием выживания
В будущем труд - это выбор.
Смысл смещается к семье, творчеству и развитию.
• Такой переход нельзя навязать
Общество будет перестраиваться постепенно, а не по указу.
• Изменения идут с разной скоростью
Компании - быстро, отрасли - медленнее, ценность человека вне работы - дольше всего.
Вопрос не в том, придёт ли это.
Вопрос - что сломается раньше: рынок труда или наше представление о ценности человека.
❤5👎3🤔3😁1
🧠 MiroThinker: Инновационный исследовательский агент
MiroThinker — это открытый исследовательский агент, который улучшает возможности рассуждений и поиска информации. Он поддерживает инструментальную помощь и демонстрирует выдающиеся результаты на различных бенчмарках, включая HLE и BrowserComp.
🚀 Основные моменты:
- 💡 Поддержка интерактивного масштабирования для глубоких взаимодействий.
- 📚 Доступ к уникальному набору данных MiroVerse с 147k образцами.
- 🔧 Инфраструктура для стабильного обучения моделей.
- 🤖 Совместимость с множеством бенчмарков и инструментов.
📌 GitHub: https://github.com/MiroMindAI/MiroThinker
#python
MiroThinker — это открытый исследовательский агент, который улучшает возможности рассуждений и поиска информации. Он поддерживает инструментальную помощь и демонстрирует выдающиеся результаты на различных бенчмарках, включая HLE и BrowserComp.
🚀 Основные моменты:
- 💡 Поддержка интерактивного масштабирования для глубоких взаимодействий.
- 📚 Доступ к уникальному набору данных MiroVerse с 147k образцами.
- 🔧 Инфраструктура для стабильного обучения моделей.
- 🤖 Совместимость с множеством бенчмарков и инструментов.
📌 GitHub: https://github.com/MiroMindAI/MiroThinker
#python
🤔2
А что, если можно проверить свой уровень в Data Science без собеседований, звонков и HR-скрининга?
Авито вместе с getmatch сделали тест по Data Science, основанный на реальных интервью DS-специалистов компании.
Что даёт тест:
🔍 Оценка компетенций
Поймёте, какие навыки уже хорошо прокачаны, а где есть точки роста – выводы основаны на практике, а не на абстрактной теории.
⚡️ Шанс стать заметнее для рекрутеров
Можно открыть доступ к результатам теста и повысить шансы на оффер.
☑️ Подробный разбор
В течение дня на почту придёт письмо с анализом ответов и рекомендациями.
Отличная возможность спокойно проверить себя на праздниках и понять, куда двигаться дальше.
Ссылку на тест оставили здесь.
Авито вместе с getmatch сделали тест по Data Science, основанный на реальных интервью DS-специалистов компании.
Что даёт тест:
Поймёте, какие навыки уже хорошо прокачаны, а где есть точки роста – выводы основаны на практике, а не на абстрактной теории.
Можно открыть доступ к результатам теста и повысить шансы на оффер.
В течение дня на почту придёт письмо с анализом ответов и рекомендациями.
Отличная возможность спокойно проверить себя на праздниках и понять, куда двигаться дальше.
Ссылку на тест оставили здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Новая версия Qwen-Image-Edit-2511 пришла на смену сборке 2509 и предлагает ряд качественных изменений. Теперь модель лучше сохраняет консистентность персонажей и общую структуру кадра при внесении локальных правок.
Помимо стабильности, усилили способности к геометрическому рассуждению и генерации промышленного дизайна. Попробовать новинку можно через веб-интерфейс Qwen Chat, а веса для локального развертывания уже на HuggingFace и ModelScope.
TongyiLab в сети Х
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Учёные Гарварда заявили о реальном квантовом прорыве для будущего суперкомпьютеров.
Новая экспериментальная платформа решает одну из самых жёстких проблем масштабирования квантовых машин - поддержание управления и когерентности в больших системах связанных кубитов. Это ещё не полное решение, но шаг к аппаратуре, где огромные устойчивые квантовые архитектуры становятся реальнее.
🔹 Почему это важно?
Квантовые компьютеры годами застревали на уровне небольших шумных устройств. Прорыв в масштабировании - это движение к машинам, которые смогут моделировать химию, материалы, климат и криптографию, недоступные обычным суперкомпьютерам.
Квант наконец начинает выглядеть как будущее, а не демонстрационный стенд.
Но путь впереди тяжёлый: одно открытие - легко, а вот построить миллионы одинаково стабильных кубитов — почти невыполнимая задача. Полноценный квантовый суперкомпьютер всё ещё далеко, но теперь он стал немного ближе.
Новая экспериментальная платформа решает одну из самых жёстких проблем масштабирования квантовых машин - поддержание управления и когерентности в больших системах связанных кубитов. Это ещё не полное решение, но шаг к аппаратуре, где огромные устойчивые квантовые архитектуры становятся реальнее.
🔹 Почему это важно?
Квантовые компьютеры годами застревали на уровне небольших шумных устройств. Прорыв в масштабировании - это движение к машинам, которые смогут моделировать химию, материалы, климат и криптографию, недоступные обычным суперкомпьютерам.
Квант наконец начинает выглядеть как будущее, а не демонстрационный стенд.
Но путь впереди тяжёлый: одно открытие - легко, а вот построить миллионы одинаково стабильных кубитов — почти невыполнимая задача. Полноценный квантовый суперкомпьютер всё ещё далеко, но теперь он стал немного ближе.
❤6🤔2🔥1