310K subscribers
4.88K photos
1.07K videos
17 files
5.27K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🔥 GOOGLE AI опубликовали пост о настоящем прорыве в области QUANTUM AI

Сегодня в журнале Nature команда Google впервые показали проверяемое квантовое преимущество с помощью метода, называемого *out-of-time-order correlator (OTOC), или «квантовые эхо».

Эксперимент проведён на квантовом чипе Willow, и он показывает, что квантовые устройства уже способны решать задачи, которые невозможно эффективно симулировать на классических компьютерах.

Квантовый процессор Google выполнил алгоритм под названием Quantum Echoes - в 13 000 раз быстрее, чем лучший классический алгоритм на одном из самых мощных суперкомпьютеров в мире.

🟠Что это значит простыми словами
Учёные научились буквально «отматывать время» в квантовой системе и смотреть, когда она переходит от упорядоченного поведения к хаосу. Этот переход - ключ к пониманию, где начинается настоящее квантовое преимущество.

Проще говоря:

1) Учёные запускают квантовую систему вперёд во времени, позволяя ей запутаться и “рассеять” информацию.

2) Затем применяют обратные операции, как будто “перематывают” процесс назад.

3) Если всё сделано идеально, система должна вернуться в исходное состояние,но из-за квантового хаоса это происходит лишь частично.

4) Разница между “до” и “после” показывает, насколько глубоко информация ушла в хаос.

Работа показывает, что можно извлекать информацию из хаотичных квантовых состояний, ранее считавшихся полностью случайными.

Такой эффект невозможно воспроизвести на обычных суперкомпьютерах. Это шаг к практическим квантовым вычислениям, которые смогут моделировать материалы, молекулы и сложные физические процессы с точностью, недостижимой ранее.

«Quantum Echoes может стать основой будущих квантовых разработок для реального применения.

*Out-of-time-order correlator (сокращённо OTOC) - это специальная метрика, с помощью которой физики измеряют, как быстро информация "распространяется" и смешивается внутри квантовой системы.

🟢 Статья: https://www.nature.com/articles/s41586-025-09526-6

@ai_machinelearning_big_data

#QuantumComputing #Google #AI #Nature #Physics
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥293👍255102🤔70👏53🥰31😐22🤩17🤗13👌6🤓6
⏱️ Speedrun Science: как ИИ-команды Кремниевой долины работают по 100 часов в неделю

Ведущие AI-команды Кремниевой долины работают по 80–100 часов в неделю, стараясь выпускать модели и функции быстрее конкурентов.

Речь идёт об Anthropic, Microsoft, Google, Meta, Apple и OpenAI, где взят темп «прорыв → релиз» измеряется уже месяцами, а не годами. Основная тяжесть ложится на узкий круг инженеров и исследователей, которые буквально живут между тестами и деплоями, в то время как остальная организация работает в нормальном режиме.

Руководители называют это «уникальным окном возможностей» - и многие принимают нагрузку ради влияния на сферу, любопытства и доли в успехе.

В стартапах даже встречаются контракты с ожидаемыми 80+ часами работы, хотя чаще культура компаний сама к этому подталкивает.

Чтобы поддерживать ритм, компании внедряют ротацию “captains” - инженеров, следящих за работой над моделями 24×7.

Разрыв между «исследованием и внедрением» сжался до «разницы между четвергом и пятницей».

Исследователи говорят, что обучение по-прежнему непредсказуемо, поэтому графики постоянно меняются по итогам реальных результатов. Атмосфера -«speedrun-науки».

Один из фаундеров пошутил:

«Если 9-9-6 — это график с 9 утра до 9 вечера, 6 дней в неделю,
то у нас – 0-0-2: с полуночи до полуночи, с 2-часовым перерывом на выходных».


Источник: wsj.com/tech/ai/ai-race-tech-workers-schedule-1ea9a116

@ai_machinelearning_big_data


#AI #Tech #Startups #SiliconValley #OpenAI #Anthropic #Microsoft #Google
👍64😨6219🫡16🔥6🏆6🦄4😁3
💸 Apple будет платить Google около $1 млрд в год, чтобы новая Siri работала на Gemini AI.

Компания завершает сделку по использованию 1.2-триллионной модели Gemini для масштабного апгрейда Siri. Запуск - весна 2026.

Главное:
- Apple протестировала ChatGPT, Claude и Gemini, прежде чем выбрать Google
- Gemini в 8 раз больше нынешней 150B-модели Apple Intelligence
- Запуск будет через Apple Private Cloud Compute - данные остаются изолированы от Google
- Внутреннее кодовое имя проекта - «Linwood»

Apple подаёт это как временное решение, пока сама строит собственную модель на 1 триллион параметров.

Рыночек отреагировал:
$AAPL +0.04%, $GOOGL +2.44% на фоне новости.

https://www.bloomberg.com/news/articles/2025-11-05/apple-plans-to-use-1-2-trillion-parameter-google-gemini-model-to-power-new-siri

@ai_machinelearning_big_data

#Google #Apple #Gemini
1🔥75🤣4728👍10🤝6😁3🤷2🎉1🌭1😨1
🤖 Google представила Nested Learning — новую парадигму ИИ, которая учится как человек и не забывает прошлые знания

Google предлагает новый подход: Nested Learning - *вложенное обучение*, при котором новая информация интегрируется в уже существующую структуру знаний, а не замещает её.

Как это работает?
Каждое новое обучение добавляется внутрь уже выученного, как слой внутри слоя.

Это позволяет модели:

- сохранять предыдущие навыки
- адаптироваться к новым задачам
- отличать, в каком контексте она работает

Что это даёт?

1. Постоянное обучение без потерь
Модель может учиться бесконечно, не забывая старое. Новые знания не затирают прежние.

2. Контекстное понимание
ИИ понимает, *в каком режиме* он работает — это делает поведение гибче и разумнее.

3. Ближе к человеческому мышлению
Nested Learning приближает нейросети к человеческому типу обучения: поэтапному, постепенному и адаптивному.

📌 Подробнее: https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning

#google

@data_analysis_ml
👍178👏11868🔥32🥰20🤩19😁7🎉7🤔4💯3🤣2
✔️ Google выпустил новый 50-страничный документ о том, как создавать AI-агентов, которые реально работают в практических задачах

Это понятное и структурированное введение в основы агентных систем.

В гайде рассматриваются:
- архитектура агента и его основные компоненты
- роль LLM как «мозга» агента
- подключение и использование инструментов
- оркестрация нескольких агентов
- подходы к деплою и продакшн-интеграции
- метрики и способы оценки работы
- как создаются самообучающиеся и эволюционирующие агенты
- пример архитектуры AlphaEvolve

📌 Гайд: https://drive.google.com/file/d/1C-HvqgxM7dj4G2kCQLnuMXi1fTpXRdpx/view

@ai_machinelearning_big_data


#AI #Agents #Google #LLM #MachineLearning #AIResearch
Please open Telegram to view this post
VIEW IN TELEGRAM
172🔥30👍296🙈4🙏2
💰 Уоррен Баффетт делает ставку на Google и это может изменить настроение на рынке

Berkshire Hathaway открыла новую крупную позицию в Alphabet на 4.3 млрд долларов. Впервые за долгие годы компания входит в Google таким масштабом и сразу поднимает его в десятку крупнейших активов своего портфеля.

При это Berkshire сократили Apple примерно на пятнадцать процентов хотя она всё ещё остаётся главным активом компании,

В целом Berkshire продаёт больше чем покупает, но для Google делает редкое исключение

Что это может значить
- Баффетт обычно избегает дорогих технологических компаний.
- Инвестиция в Alphabet выглядит как уверенность в том что ИИ сервисы Google могут быть недооценены рынком

Такой шаг может подтолкнуть более осторожных инвесторов пересмотреть отношение к ИИ сектору

Berkshire снижает риски по рынку но видит в Google одну из немногих точек уверенного роста.

Когда даже Баффетт - человек, который десятилетиями обходил большие технологии стороной - впервые заходит в Alphabet на миллиарды, это говорит о потенциале дальнейшего роста рынка, а не о пузыре.

cnbc.com/2025/11/14/warren-buffetts-berkshire-hathaway-reveals-new-position-in-alphabet.html

@ai_machinelearning_big_data

#Alphabet #Google #Finance
👍8335🤔19😁10🤗4🎅3🔥2🥰2💋2
🔥 Вышла Gemini 3 Pro

Контекст: 1M токенов, вывод — 64k, knowledge cut — январь 2025
• Стоимость: $2 / $12 (<200k токенов) и $4 / $18 (>200k токенов)

• SOTA-результаты на большинстве бенчмарков
• 1501 Elo на LMArena
• next-level возможности для vibe coding и сложных кодовых задач
• продвинутое мультимодальное понимание (текст, код, картинки и не только)

Попробовать можно бесплатно - может понадобиться иностранный IP: https://aistudio.google.com/prompts/new_chat?model=gemini-3-pro-preview

@ai_machinelearning_big_data

#news #ai #google #Gemini
1🔥12130👍16🤬43👏2😁2🍓1💘1
📢 Google уверенно выводит свои TPU на новый уровень — и делает это сразу по трём направлениям.

Компания развивает три семейства собственных ускорителей: Ironwood, Sunfish и Zebrafish.
Так Google закрывает потребности в высокопроизводительном инференсе, обучении моделей и создании огромных суперподов на 2026–2027 годов.

TPU уже используют Safe Superintelligence, Salesforce и Midjourney - то есть экосистема растёт.

**🚀 Ironwood (TPUv7):*

Это самое впечатляющее поколение TPU на сегодня:
• примерно 10× быстрее TPU v5
• примерно 4× производительнее TPU v6
• до 4,600 FP8 TFLOPS на чип
• 192 GB HBM3e
• масштабирование до 9,216 чипов в одном поде
• около 1.77 PB общей памяти

Такой уровень идеально подходит для LLM, где важны скорость и масштаб.

🔥 Sunfish (предположительно TPUv8)

Следующее поколение создаётся совместно с Broadcom.

Запуск ожидается ближе к концу 2020-х, и Sunfish должен стать главным ускорителем Google Cloud.

💡 Zebrafish: гибкая и массовая линейка

MediaTek выступает ключевым партнером по ASIC.
Zebrafish будет:
• более доступным по цене
• с гибкими характеристиками
• подходящим для локальных и более компактных кластеров

То есть не только для гигантских суперкомпьютеров, но и для широкого использования.

🌐 Зачем Google три разных TPU?

Это даёт компании возможность:
• разделять нагрузки между поколениями
• удерживать клиентов уровня Anthropic
• обеспечивать более 1 ГВт выделенной мощности
• конкурировать с Nvidia на уровне не только чипов, но целых систем

Google строит собственную вертикаль ИИ-инфраструктуры - масштабную, гибкую и рассчитанную на годы вперёд. Все это нужно, чтобы доминировать на рынке ИИ.

@ai_machinelearning_big_data

  #google #tpu
62👍53🔥16❤‍🔥2
⚡️ Команда Google Research представила технологию живого перевода речи в речь, которая позволяет говорить на одном языке и почти мгновенно слышать перевод на другом.

Раньше процесс проходил через три этапа: распознавание речи, перевод текста и синтез новой речи, из-за чего задержка могла достигать десятков секунд.

Исследователи оптимизировали весь конвейер, сделали обработку более устойчивой и сократили время реакции. Перевод звучит естественнее, меньше «подправляется» в реальном времени, а паузы стали значительно короче.

Технология приближает момент, когда люди смогут свободно общаться, даже если не знают языка собеседника.

https://research.google/blog/real-time-speech-to-speech-translation

@ai_machinelearning_big_data

#Google #AI #Translation #SpeechToSpeech #GoogleResearch
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
125👍47🔥41😁4👻4🥰3
This media is not supported in your browser
VIEW IN TELEGRAM
Nano Banana очень хороша для генерации схем и слайдов, а как насчёт сделать из них видео. 🎬

Google Vids вместе с Gemini позволяет автоматически превратить презентацию Google Slides в полноценный видеоролик: со сценарием, озвучкой и музыкой.

Вы просто загружаете презентацию, выбираете стиль - и система сама собирает видео из ваших слайдов.

https://workspace.google.com/blog/product-announcements/october-workspace-drop-ai-storytelling-research-and-data-protections

@ai_machinelearning_big_data

#Gemini #google #llm
👍6821🔥7🦄2💯1
✔️ OpenAI входит в сложный период, а Google стремительно усиливается

The Information опубликовала внутреннее письмо Сэма Альтмана, и его тон сильно отличается от привычного оптимизма OpenAI.

CEO прямо предупреждает команду: впереди могут быть серьёзные вызовы.

1. Google сделал резкий рывок
Альтман признаёт, что Google заметно ускорился в области ИИ.
Теперь OpenAI - не компания с комфортным отрывом от конкурентов, а участник гонки, которому снова нужно догонять.

2. Рост OpenAI может существенно замедлиться
По данным источников, к 2026 году рост выручки может уменьшится в разы.

Для компании, которая только что росла взрывными темпами, это серьёзный сигнал.

3. Внутри OPENAI ощущается напряжение
Атмосферу описывают как *«rough vibes»*: меньше уверенности в своих силах, больше осторожности.

Команда впервые за долгое время чувствует давление и неопределённость.

Фаза бурного роста заканчивается, начинается период конкуренции и стратегической выносливости.
OpenAI остаётся сильнейшим игроком, но теперь марафон важнее спринта.

https://www.theinformation.com/articles/openai-ceo-braces-possible-economic-headwinds-catching-resurgent-google

@ai_machinelearning_big_data

#AI #OpenAI #Google #TechNews
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7325🤣17🔥7🗿6🦄3😁2😢1
👑 Gemini 3 Pro теперь лидирует в IQ-тестах, набрав внушительные 130 баллов, опережая все прочие LLM!

По шкале IQ такой результат помещает её в число примерно 2% людей с наивысшим интеллектом среди всех, кто когда-либо проходил подобные тесты.

А в тесте норвежского отделения Mensa модель показала эквивалент 142 баллов IQ, что соответствует уровню лишь 0,3% самых интеллектуальных людей на планете.

@ai_machinelearning_big_data

#Gemini #google
77🔥37👍19😁11🗿7🦄4
🎥 Two Minute Papers выпустили 22-минутное интервью с Джоном Джампером, нобелевским лауреатом и лидом команды DeepMind, создавшей AlphaFold

В беседе Джон Джампер рассказывает, как появилось AlphaFold. Он объясняет, что проект начинался как почти недостижимый идеал: попытка научиться предсказывать структуру белков с точностью, которая раньше казалась невозможной.

Ключевые моменты видео:

Что такое AlphaFold: Система глубокого обучения, которая предсказывает точную трехмерную структуру белка (его рабочую форму) на основе его аминокислотной последовательности.

Революция Скорости: AlphaFold выполняет задачу, которая ранее занимала год и стоила $100 000, всего за 5–10 минут с точностью, близкой к экспериментальной.

Масштаб Влияния: Предсказаны структуры 200 миллионов белков (все известные науке), что сделало AlphaFold фундаментальным инструментом для миллионов ученых в области разработки лекарств и биологии.

Удивительные Открытия: Джампер делится воспоминаниями о том, как команда сомневалась в успехе из-за "слишком легкого" роста производительности, и как модель научилась неявно предсказывать белковые комплексы и даже области, не имеющие фиксированной структуры ("беспорядок").

Будущее: AlphaFold является первым ИИ, который достиг "сверхчеловеческого" уровня в науке, и, по прогнозам, повлияет на почти каждое достижение в современной медицине в ближайшие 20 лет.

✔️ Смотреть интервью: https://www.youtube.com/watch?v=Vhcwjzeukts

@ai_machinelearning_big_data

#DeepMind #google #AlphaFold
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7123🔥18🤣3❤‍🔥2🥱21🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Сергей Брин рассказывает о своей новой привычке

Он разговаривает с Gemini Live прямо за рулём - обсуждает энергопотребление дата-центров, стоимость инфраструктуры и другие рабочие темы.

Это классический Google-style: тестировать собственный продукт в реальной жизни. Напоминает историю про Билла Гейтса, который снял радио из машины, чтобы постоянно думать о Microsoft.

Такой уровень одержимости - редкость. И, честно, именно он отличает по-настоящему больших фаундеров.

Интересная деталь: Сергей говорит, что версия Gemini, которой он пользуется в машине, заметно лучше того, что доступно публично сейчас.

@ai_machinelearning_big_data

#Gemini #google #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1120👍35🤣16🔥15😁15🥱14🤓5🤨2🙊2👏1💋1
Gemini 3 Flash - быстрый ИИ нового поколения от Google

Gemini 3 Flash:
- это очень быстрая модель с минимальной задержкой
- при этом она сохраняет сильные способности к рассуждению
- Frontier-уровень на GPQA Diamond - рассуждения уровня PhD
- Хорошие результаты на Humanity’s Last Exam
- State-of-the-art на MMMU Pro - хорошо работает с видео и мультимодальными данными
- В целом, качество сопоставимо с Gemini 3 Pro

Стоит в четыре раза дешевле, чем Gemini 3.0 Pro, при этом показывает сопоставимые результаты почти во всех бенчмарках, включая HLE и ARC-AGI 2. На некоторых бенчмарках модель обходит GPT-5.2.

Более того, в ряде тестов модель даже превосходит более мощную версию Pro, оставаясь при этом значительно дешевле.

По сути, Flash - это попытка Google сбалансировать три вещи одновременно: скорость + интеллект + стоимость.

Цены:
- Text input: $0.30 per 1M tokens
- Text output: $2.50 per 1M tokens
- Cache read: $0.075 per 1M tokens
- Input audio: $0.999 per 1M tokens
- Input audio (cached): $0.249 per 1M tokens
- Web search: $0.035 per request
- Cache storage: $1 per hour per 1M tokens

https://blog.google/products/gemini/gemini-3-flash/

@ai_machinelearning_big_data

#AI #Gemini #Google #LLM #Multimodal #AIModels #MachineLearning
👍9128🔥21😍5😁2🦄1
⚡️ Gemini 3 Deep Think - ИИ, который решает задачи уровня олимпиад и топ-программистов

Новые модели всё меньше похожи на “чат-ботов” и всё больше - на инструменты для серьёзного анализа.

Deep Think - пример такого перехода от теории к реальным сложным задачам.

Что показывает модель:

- State-of-the-art на ARC-AGI-2 - одном из самых сложных тестов на абстрактное мышление
- Новый результат на Humanity’s Last Exam - задачи высшей сложности по математике, науке и инженерии
- 3455 Elo на Codeforces - уровень сильных спортивных программистов
- Результаты золотого уровня на письменных этапах Олимпиад-2025 по физике и химии

Модель может:
- разбирать сложные технические задачи
- помогать в исследованиях
- анализировать инженерные решения
- работать как партнёр для глубокого анализа

https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-deep-think/

@ai_machinelearning_big_data

#Gemini #google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
81👍42🔥30🤣6🙏2💘2🦄2🍓1
📌 Google разработала алгоритм квантования KV-кэша без потери точности.

Подразделение Research анонсировало TurboQuant, алгоритм векторного квантования, объединяющий 2 других метода - QJL и PolarQuant, который решает проблему увеличения KV-кэша при работе с длинным контекстом.

TurboQuant будет представлен на ICLR 2026, PolarQuant - на AISTATS 2026.

KV-кэш хранит промежуточные представления токенов, чтобы модель не пересчитывала их на каждом шаге генерации. С ростом контекста он превращается в узкое место по памяти.

Обычное векторное квантование сжимает эти данные, но вносит накладные расходы: для каждого блока нужно хранить константы квантования в полной точности, а это плюс 1–2 бита на элемент, что частично обесценивает само сжатие.


🟡TurboQuant - двухэтапный пайплайн.

Сначала PolarQuant: случайный поворот выравнивает геометрию векторов, после чего они переводятся из декартовых координат в полярные (радиус и угол). Распределение углов оказывается предсказуемым и сконцентрированным, поэтому нормализация и хранение дополнительных констант становятся больше не нужны.

На втором этапе подключается QJL, метод на основе преобразования Джонсона-Линденштраусса, который кодирует остаточную ошибку первого этапа всего одним знаковым битом и через встроенную оценочную функцию сочетает высокоточный запрос с низкоточными сжатыми данными, корректно вычисляя attention score.

Ни один из методов не требует обучения или дообучения и работает в режиме "без предварительного анализа набора данных".

Алгоритмы тестили на бенчмарках для длинного контекста: LongBench, Needle In A Haystack, ZeroSCROLLS, RULER и L-Eval с моделями Gemma и Mistral.

При квантовании KV-кэша до 3 бит TurboQuant показал нулевую деградацию точности на всех задачах: поиск «иголки в стоге сена», QA, генерация кода, суммаризация.


Объем KV-кэша при этом сократился в 6 раз. На H100 четырехбитный TurboQuant ускорил вычисление attention-логитов до 8 раз по сравнению с 32-битными ключами.


Область применения не ограничивается KV-кэшем. В экспериментах с высокоразмерным векторным поиском TurboQuant стабильно превзошел по recall методы PQ и RaBitQ несмотря на то, что те использовали крупные код-буки и подстройку под конкретный датасет.


🟡Статья
🟡Arxiv


@ai_machinelearning_big_data

🎯Полезные Мл-ресурсы 🚀 Max

#AI #ML #LLM #TurboQuant #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
127🔥49🎉40👨‍💻12👍11👏8🤩8🥰2
⚡️ Google показала, что квантовые компьютеры угрожают практически всей экосистеме криптовалют.

Команда Google Quantum AI совместно с исследователями Ethereum Foundation и Стэнфорда опубликовали исследование, которое рисует тревожную картину: квантовая угроза касается не отдельных блокчейнов, а криптовалютной индустрии в целом - от базовых транзакций до смарт-контрактов, механизмов консенсуса, стейблкоинов и токенизированных активов.

В центре работы - оценки ресурсов для взлома криптографии на эллиптических кривых secp256k1, которая защищает подписи в Bitcoin, Ethereum и множестве других блокчейнов.

Авторы разработали квантовые схемы, которые потребуют менее 500 тысяч физических кубитов (в 20 раз меньше, чем считалось ранее).

Для контекста: крупнейшие квантовые процессоры сегодня содержат порядка 1000 кубитов, но индустрия масштабируется быстро, и финишная черта теперь значительно ближе.


🟡Скорость

На сверхпроводящей архитектуре такая атака займёт около 9 минут при среднем времени блока Bitcoin в 10 минут. Это означает, что квантовый атакующий теоретически способен перехватить транзакцию прямо из мемпула, вычислить приватный ключ и подменить перевод до его записи в блокчейн.

Вероятность успеха такой атаки авторы оценивают примерно в 41%.

🟡Перехват транзакций - лишь часть проблемы.

Исследование разбирает уязвимости всей криптоэкосистемы. Около 6,9 млн. BTC (порядка 35% всех монет в обращении) уже подвержены атакам по раскрытым или повторно использованным ключам, включая 1,7 млн BTC на ранних адресах эпохи Сатоши.

Современный формат Taproot (P2TR), принятый в 2021 году, парадоксальным образом вернул уязвимость, устраненную предшественниками: он снова записывает публичный ключ открыто в блокчейн.

🟡Ethereum еще уязвимей.

Авторы выделяют 5 отдельных категорий:

🟠аккаунты с раскрытыми ключами (~20,5 млн. ETH в топ-1000 кошельков);
🟠админ-ключи смарт-контрактов (2,5 млн. ETH плюс ~200 млрд. USD в стейблкоинах и токенизированных активах);
🟠код L2-протоколов и мостов (~15 млн. ETH);
🟠консенсусный слой с 37 млн. ETH в стейкинге и механизм Data Availability Sampling, где однократная квантовая атака создает переиспользуемый бэкдор, работающий уже без квантового компьютера.

🟡Угроза распространяется далеко за пределы двух крупнейших блокчейнов.

Litecoin, Dogecoin, Bitcoin Cash, Zcash, Monero, Solana, Cardano, Rootstock - все используют криптографию на эллиптических кривых и находятся в зоне риска.

Приватные блокчейны (Zcash и Monero) столкнутся еще и с ретроактивной деанонимизацией: будущий квантовый атакующий сможет расшифровать исторические конфиденциальные транзакции.

Стейблкоины и токенизированные активы наследуют все уязвимости хост-блокчейнов, а прогнозируемый рост рынка токенизации до 16 трлн USD к 2030 году многократно увеличивает масштаб потенциального ущерба.

При этом Proof-of-Work-майнингу Bitcoin квантовые компьютеры не угрожают: ускорение от алгоритма Гровера полностью поглощается накладными расходами квантовой коррекции ошибок.


Для подтверждения своих оценок без раскрытия деталей атаки команда применила криптографическое доказательство с нулевым разглашением - прецедент ответственного раскрытия в квантовом криптоанализе.

Авторы призывают все криптосообщества как можно скорее начинать миграцию на постквантовую криптографию, ссылаясь на успешные примеры: блокчейн QRL, первую PQC-транзакцию на Algorand, эксперименты на Solana и XRP Ledger.


🟡Блогпост
🟡Исследование


@ai_machinelearning_big_data

#QuantumComputing #Crypto #PostQuantum #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤨131🤔4129😨16🔥12👍8🌚8🤣4😭4👏3🥰1
⭐️ Google DeepMind представил Gemini 3.1 Flash TTS - свою самую управляемую модель генерации речи

Главная фишка - Audio Tags.


Это текстовые команды прямо в промпте, которыми можно управлять стилем голоса, подачей и темпом речи. По сути, вы режиссируете озвучку через текст.

Что ещё важно:
— Более естественное звучание речи
— Поддержка 70+ языков (русский, японский, немецкий и др.)
— Все выходные аудио маркируются SynthID (цифровой водяной знак, чтобы отличить синтезированную речь от настоящей)

На бенчмарке Artificial Analysis TTS Arena модель заняла 2-е место с Elo-рейтингом 1211 - сразу за Inworld TTS 1.5 Max (1215) и выше ElevenLabs v3 (1179).

Где попробовать:
→ Рreview через Gemini API и Google AI Studio
→ Бизнесу -а Vertex AI
→ Всем пользователям - скоро появится в Google Vids

https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-flash-tts/

@ai_machinelearning_big_data

#google `#tts
👍163👏3428🔥23🤩6💯43🎉2
🌟 Google собрал механизм памяти, который учит ИИ-агентов на собственных ошибках

Агенты, которые управляют браузером или правят код, решают каждую задачу с нуля. Провалился - забыл. Получилось - тоже забыл. Google Research предложил фреймворк ReasoningBank, который даёт агенту память и позволяет учиться на ошибках, а не только на победах.

Предшественники (Synapse, AWM) запоминали только успешные прогоны. Когда им скормили провальные - стало хуже: AWM потерял 2,2% точности. ReasoningBank, в свою очередь, из успешной траектории он берёт валидированную стратегию, а из провальной - урок, что пошло не так.

🟡Как это работает на практике

Агент получает задачу "найди дату первой покупки". Без системы памяти он заходит в "Последние заказы", видит свежий заказ и выдаёт неверный ответ.

С ReasoningBank - вспоминает стратегию из прошлого опыта: при поиске в истории проверяй все страницы, а не только первую. Переходит в полный список заказов, листает до конца и находит правильную дату.

Другой пример: задача "купи самый топовый товар из категории мужской обуви". Без памяти агент тратит 29 шагов, потому что не может найти фильтр по категории, а с памятью только 10, так как стратегия фильтрации уже в запасе.

🟡Техническая структура

После каждой задачи та же языковая модель оценивает, удалась попытка или нет. Из траектории извлекаются записи (заголовок, описание, содержание), намеренно абстрагированные от конкретного сайта.

Перед новой задачей агент ищет похожие записи через эмбеддинг-поиск и получает их как часть промпта.

🟡Поверх ReasoningBank построили MaTTS

Это метод (Memory-aware Test-Time Scaling) масштабирования вычислений на инференсе с учётом памяти.

Агент генерирует несколько попыток для одной задачи, сравнивает их между собой и выделяет устойчивые паттерны.

Получается цикл: хорошая память направляет попытки в перспективные области, а разнообразные попытки обогащают память.

🟡Цифры

На WebArena ReasoningBank поднимает процент успеха на 8,3 п.п. с Gemini-2.5-flash и на 7,2 п.п. с Gemini-2.5-pro, сокращая число шагов до 16%.

На SWE-Bench-Verified resolve rate увеличился с 54% до 57,4%, при этом расход токенов больше всего на 4,3%.

Фреймворк работает и на маленьких моделях: на WebArena-Shopping даже Gemma-3-12B с ReasoningBank улучшает показатель с 17,1% до 24,1%.


🟡Статья
🟡Arxiv
🖥Github


@ai_machinelearning_big_data

#AI #ML #Memory #Agents #ReasoningBank #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤩106💯32🔥2721👍14🤓14👏61