RL для оптимизации схем квантовых вычислений
Помните ИИ-систему AlphaChip от Google, которую они используют для дизайна TPU? Так вот: теперь в компании сделали что-то подобное для квантовых чипов.
Модель называется AlphaTensor-Quantum, и она действительно может ускорять вычисления, сокращая количество так называемых Т-гейтов.
Гейты – это специальные матрицы для обработки кубитов. Их есть два вида: эффективные Клиффордские и неэффективные T. Вторые необходимы для универсальных вычислений, но очень прожорливы с точки зрения ресурсов. Самое простое решение – воткнуть много таких и все. Но если хотим эффективнее, приходится долго оптимизировать схемы и сокращать их количество.
Так вот AlphaTensor-Quantum как раз обучен строить схемы вычислений с минимальным количеством Т-гейтов. Система экономит просто огромное количество времени по сравнению с ручной настройкой и превосходит все существующие методы.
А самое интересное, что обучено все в игровом стиле. То есть во время трейна модель училась за минимальное количество «ходов» переходить от неэффективного тензора A к более эффективному B.
RL-сила www.nature.com/articles/s42256-025-01001-1
Помните ИИ-систему AlphaChip от Google, которую они используют для дизайна TPU? Так вот: теперь в компании сделали что-то подобное для квантовых чипов.
Модель называется AlphaTensor-Quantum, и она действительно может ускорять вычисления, сокращая количество так называемых Т-гейтов.
Гейты – это специальные матрицы для обработки кубитов. Их есть два вида: эффективные Клиффордские и неэффективные T. Вторые необходимы для универсальных вычислений, но очень прожорливы с точки зрения ресурсов. Самое простое решение – воткнуть много таких и все. Но если хотим эффективнее, приходится долго оптимизировать схемы и сокращать их количество.
Так вот AlphaTensor-Quantum как раз обучен строить схемы вычислений с минимальным количеством Т-гейтов. Система экономит просто огромное количество времени по сравнению с ручной настройкой и превосходит все существующие методы.
А самое интересное, что обучено все в игровом стиле. То есть во время трейна модель училась за минимальное количество «ходов» переходить от неэффективного тензора A к более эффективному B.
RL-сила www.nature.com/articles/s42256-025-01001-1
🔥70👍24❤9🤯2🕊1💅1
Media is too big
VIEW IN TELEGRAM
Тот самый джун в понедельник утром готовится писать «import numpy»
Продуктивной недели, друзья ✨🍌✍️ 🧊
Продуктивной недели, друзья ✨🍌✍️ 🧊
2😁282🔥35👍19❤8🍌7🌚3🤗3🫡2
МТС добавили в свои MTС Web Services платформу для автоматизации разработки Container Platform
Это Kubernetes, DevOps, AI и Data Services в одном флаконе. То есть с таким инструментом не нужно самостоятельно настраивать разные процессы и думать о их совместимости, а можно сосредоточиться именно на продукте. Чем это круто:
➖ Экономит время. Почти всю рутину Container Platform автоматизирует без заморочек.
➖ Снижает косты. Например, платформа поддерживает работу с GPU и позволяет сделать видеокарты эффективнее на 75%.
➖ Упрощает мониторинг. Внутри – Service Mesh на базе Istio, а это == полная наблюдаемость за микросервисами. Можно быстро находить узие места и отслеживать производительность в реальном времени.
А еще у Container Platform открытая архитектура, так что переезд на нее будет максимально плавным и гарантировано ничего вам не поломает.
Подробности – здесь
Это Kubernetes, DevOps, AI и Data Services в одном флаконе. То есть с таким инструментом не нужно самостоятельно настраивать разные процессы и думать о их совместимости, а можно сосредоточиться именно на продукте. Чем это круто:
А еще у Container Platform открытая архитектура, так что переезд на нее будет максимально плавным и гарантировано ничего вам не поломает.
Подробности – здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
😐30👍8🤪8❤7🤔6🌭4🍌2🫡1
Midjourney внезапно опубликовали статью про языковые модели
Оказывается, они активно экспериментируют с файнтюнингом LM на задачи креативного написания текстов. Это действительно актуальная проблема, потому что основные методы пост-трейна, которые направлены на повышение качества генерации, также частно приводят к понижению разнообразия и креатива в ответах. Из-за этого модели и разговаривают часто "не по-человечески".
В статье же предложили вместо классики использовать видоизмененный RL с добавленным «отклонением» (deviation). На практике классические лоссы DPO и ORPO просто домножаются на нормализованную меру того, насколько конкретный ответ отличается от остальных вариантов по тому же промпту.
Получается, модель учится не только генерировать качественный текст, но и демонстрировать разнообразие в стиле и семантике. И это работает: на reddit-reward результаты вот так затюненой Llama-3.1-8B почти совпадают с показателями человеческих данных. То есть люди практически не отличают креативные тексты даже такой крошечной модели от людских.
В общем, Midjourney однозначно удивили. Было бы забавно увидеть от них какую-нибудь не image модельку на проде. Статья
P.S. Что-то подобное недавно показывал в своем твиттере Альтман: он говорит, что OpenAI тоже разработали Creative Writing модель и даже опубликовал пример того, как она пишет рассказ. Однако никакого намека на то, что она выйдет для юзеров, не было.
Оказывается, они активно экспериментируют с файнтюнингом LM на задачи креативного написания текстов. Это действительно актуальная проблема, потому что основные методы пост-трейна, которые направлены на повышение качества генерации, также частно приводят к понижению разнообразия и креатива в ответах. Из-за этого модели и разговаривают часто "не по-человечески".
В статье же предложили вместо классики использовать видоизмененный RL с добавленным «отклонением» (deviation). На практике классические лоссы DPO и ORPO просто домножаются на нормализованную меру того, насколько конкретный ответ отличается от остальных вариантов по тому же промпту.
Получается, модель учится не только генерировать качественный текст, но и демонстрировать разнообразие в стиле и семантике. И это работает: на reddit-reward результаты вот так затюненой Llama-3.1-8B почти совпадают с показателями человеческих данных. То есть люди практически не отличают креативные тексты даже такой крошечной модели от людских.
В общем, Midjourney однозначно удивили. Было бы забавно увидеть от них какую-нибудь не image модельку на проде. Статья
P.S. Что-то подобное недавно показывал в своем твиттере Альтман: он говорит, что OpenAI тоже разработали Creative Writing модель и даже опубликовал пример того, как она пишет рассказ. Однако никакого намека на то, что она выйдет для юзеров, не было.
👍75🔥21❤10🤯6❤🔥3😁1🌚1🙈1
This media is not supported in your browser
VIEW IN TELEGRAM
"Лучше учиться использовать ИИ, чем учиться программировать"
Сэм Альтман в своем новом интервью сказал, что (возможно) в будущем компаниям нужно будет не так много инженеров, и что лучшая тактика сейчас – это в первую очередь научиться хорошо использовать ИИ.
base
Сэм Альтман в своем новом интервью сказал, что (возможно) в будущем компаниям нужно будет не так много инженеров, и что лучшая тактика сейчас – это в первую очередь научиться хорошо использовать ИИ.
"Это естественно, что ИИ будет умнее людей. Мой ребенок никогда не вырастет более умным, чем ИИ. Это нормально, и нам надо переосмыслить то, как ИИ и люди должны взаимодействовать"
base
🤪216💅37👍32🔥22🗿13❤6🌚5🏆5🦄4🤯3💯3
Там мощно обновился DeepSeek-v3
Вообще, это должно было быть рядовое обновление, как время от времени обновляют чекпоинты 4o или других моделей.
Но пользователи говорят, что в данном случае разница в способностях с предыдущей версией разительная, особенно на математике и программировании.
В конфигах ничего особо не поменялось, так что за деталями ждем тех.отчет.
Веса – здесь (почти 700GB 💀). В официальном чате обновления пока нет, но OpenRouter уже все раскатили, так что попробовать бесплатно можно тут
Вообще, это должно было быть рядовое обновление, как время от времени обновляют чекпоинты 4o или других моделей.
Но пользователи говорят, что в данном случае разница в способностях с предыдущей версией разительная, особенно на математике и программировании.
В конфигах ничего особо не поменялось, так что за деталями ждем тех.отчет.
Веса – здесь (почти 700GB 💀). В официальном чате обновления пока нет, но OpenRouter уже все раскатили, так что попробовать бесплатно можно тут
1🔥115👍30❤18🤯3😁1
Ух ты: ученая из Университета Йювяскюля в Финляндии решила задачу, на которую математики не могли найти ответ 40 лет
Это настоящий прорыв в топологии. Задача касается классификации квазирегулярно эллиптических 4-многообразий, то есть понимания того, какие четырехмерные пространства могут быть образованы путем деформации стандартной четырехмерной евклидовой геометрии.
Проблему сформулировал еще в 1981 Михаил Громов. Больше 40 лет в ней не было почти никаких подвижек, пока на днях свою докторскую дисертацию не опубликовала Сусанна Хейккиля.
Девушка, кстати, любит вязание и говорит, что это самый простой способ понять и представить топологию на практике. На презентации этой работы она также объясняла свою идею с помощью вязаной сферы🙂
Статья
Это настоящий прорыв в топологии. Задача касается классификации квазирегулярно эллиптических 4-многообразий, то есть понимания того, какие четырехмерные пространства могут быть образованы путем деформации стандартной четырехмерной евклидовой геометрии.
Проблему сформулировал еще в 1981 Михаил Громов. Больше 40 лет в ней не было почти никаких подвижек, пока на днях свою докторскую дисертацию не опубликовала Сусанна Хейккиля.
Девушка, кстати, любит вязание и говорит, что это самый простой способ понять и представить топологию на практике. На презентации этой работы она также объясняла свою идею с помощью вязаной сферы
Статья
Please open Telegram to view this post
VIEW IN TELEGRAM
4❤435🔥160👍73🏆12🤓11😁7💅5⚡3❤🔥2💘2🍌1
Это вторая версия того самого бенчмарка от ребят из Google, на котором гоняют все ризонинг модели и который считается основным тестом на AGI способности (немного больше про бенч в этом и этом постах).
Отличается он тем, что это не просто ответы на вопросы, а решение головоломок, которое требует от системы умения рассуждать, рекомпозировать и обобщаться на новые задачи.
В предыдущей версии задачи выглядели, как на картинке 2, и в целом бенчмарк был побежден моделькой o3, которая выбила > 85%.
Так что авторы пошли дальше и сегодня объявили, что выпускают вторую, еще более сложную версию бенчмарка специально для теста моделей нового поколения. Задачи в нем будут выглядеть примерно как на картинке 3, 4 и 5.
А картинка 1 – это скоры сегодняшних LLM на ARC-AGI-2. Абсолютно все модели выбивают < 5%, даже o3 и o1-pro. Не ризонинг вообще ни с чем не справляются, там рейтинг около 0.
При этом надо сказать, что люди все еще решают эти задачи легко (авторы тестировали на выборке из 400 человек). То есть это все еще не про какие-то сверхспособности, а про простое «человеческое» умение применять символьную интерпретацию, контекст и композиционное рассуждение.
Кайф youtu.be/z6cTTkVqAyg
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥107👍28❤17🌭1
Google, кажется, готовится к большому релизу
На Lmarena появились результаты двух новых моделей компании. Первая, под кодовым названием Nebula, обходит последнюю o1 и Sonnet 3.7. Вторая – phantom – где-то на уровне Grok-3 и GPT-4.5 (но дисперсия какая-то конская). Вероятно, это новые Gemini 2.0 Pro Thinking и Gemini 2.0 Flash Thinking.
Еще в лидерборде фигурирует centaur – видимо какая-то небольшая, возможно не reasoning модель уровня o3-mini.
Выглядит многообещающе, так что ждем
На Lmarena появились результаты двух новых моделей компании. Первая, под кодовым названием Nebula, обходит последнюю o1 и Sonnet 3.7. Вторая – phantom – где-то на уровне Grok-3 и GPT-4.5 (но дисперсия какая-то конская). Вероятно, это новые Gemini 2.0 Pro Thinking и Gemini 2.0 Flash Thinking.
Еще в лидерборде фигурирует centaur – видимо какая-то небольшая, возможно не reasoning модель уровня o3-mini.
Выглядит многообещающе, так что ждем
🔥84👍23❤9🐳2🎉1
Тест на IQ 2.0: оказывается, плюсом ко всему создатели нового ARC-AGI-2 сделали песочницу, в которой можно порешать задачки бенчмарка самому (и убедиться, что ты все еще умнее LLM )
По данным создателей, в среднем человек решает 60% без какой-либо предварительной подготовки.
И задачки, кстати, действительно интересные. Всего их 120, хватит на целую неделю: arcprize.org/play?task=1ae2feb7
Делитесь самыми сложными в комментариях
По данным создателей, в среднем человек решает 60% без какой-либо предварительной подготовки.
И задачки, кстати, действительно интересные. Всего их 120, хватит на целую неделю: arcprize.org/play?task=1ae2feb7
Делитесь самыми сложными в комментариях
❤65😎21👍15⚡6🤪2
Data Secrets
Там мощно обновился DeepSeek-v3 Вообще, это должно было быть рядовое обновление, как время от времени обновляют чекпоинты 4o или других моделей. Но пользователи говорят, что в данном случае разница в способностях с предыдущей версией разительная, особенно…
А вот и официальный анонс нового чекпоинта DeepSeek-V3 с бенчмарками
Зацените: прирост на LiveCodeBench + 10 процентных пунктов, а на AIME 2024 аж +20. При этом цена не изменилась.
Лучшая не-ризонинг модель для математики и программирования, получается?
Зацените: прирост на LiveCodeBench + 10 процентных пунктов, а на AIME 2024 аж +20. При этом цена не изменилась.
Лучшая не-ризонинг модель для математики и программирования, получается?
🔥118👍28❤10👌2😐1💘1