🔥 GOOGLE AI опубликовали пост о настоящем прорыве в области QUANTUM AI
Сегодня в журнале Nature команда Google впервые показали проверяемое квантовое преимущество с помощью метода, называемого *out-of-time-order correlator (OTOC), или «квантовые эхо».
Эксперимент проведён на квантовом чипе Willow, и он показывает, что квантовые устройства уже способны решать задачи, которые невозможно эффективно симулировать на классических компьютерах.
Квантовый процессор Google выполнил алгоритм под названием Quantum Echoes - в 13 000 раз быстрее, чем лучший классический алгоритм на одном из самых мощных суперкомпьютеров в мире.
🟠 Что это значит простыми словами
Учёные научились буквально «отматывать время» в квантовой системе и смотреть, когда она переходит от упорядоченного поведения к хаосу. Этот переход - ключ к пониманию, где начинается настоящее квантовое преимущество.
Проще говоря:
1) Учёные запускают квантовую систему вперёд во времени, позволяя ей запутаться и “рассеять” информацию.
2) Затем применяют обратные операции, как будто “перематывают” процесс назад.
3) Если всё сделано идеально, система должна вернуться в исходное состояние,но из-за квантового хаоса это происходит лишь частично.
4) Разница между “до” и “после” показывает, насколько глубоко информация ушла в хаос.
Работа показывает, что можно извлекать информацию из хаотичных квантовых состояний, ранее считавшихся полностью случайными.
Такой эффект невозможно воспроизвести на обычных суперкомпьютерах. Это шаг к практическим квантовым вычислениям, которые смогут моделировать материалы, молекулы и сложные физические процессы с точностью, недостижимой ранее.
«Quantum Echoes может стать основой будущих квантовых разработок для реального применения.
*Out-of-time-order correlator (сокращённо OTOC) - это специальная метрика, с помощью которой физики измеряют, как быстро информация "распространяется" и смешивается внутри квантовой системы.
🟢 Статья: https://www.nature.com/articles/s41586-025-09526-6
@ai_machinelearning_big_data
#QuantumComputing #Google #AI #Nature #Physics
Сегодня в журнале Nature команда Google впервые показали проверяемое квантовое преимущество с помощью метода, называемого *out-of-time-order correlator (OTOC), или «квантовые эхо».
Эксперимент проведён на квантовом чипе Willow, и он показывает, что квантовые устройства уже способны решать задачи, которые невозможно эффективно симулировать на классических компьютерах.
Квантовый процессор Google выполнил алгоритм под названием Quantum Echoes - в 13 000 раз быстрее, чем лучший классический алгоритм на одном из самых мощных суперкомпьютеров в мире.
Учёные научились буквально «отматывать время» в квантовой системе и смотреть, когда она переходит от упорядоченного поведения к хаосу. Этот переход - ключ к пониманию, где начинается настоящее квантовое преимущество.
Проще говоря:
1) Учёные запускают квантовую систему вперёд во времени, позволяя ей запутаться и “рассеять” информацию.
2) Затем применяют обратные операции, как будто “перематывают” процесс назад.
3) Если всё сделано идеально, система должна вернуться в исходное состояние,но из-за квантового хаоса это происходит лишь частично.
4) Разница между “до” и “после” показывает, насколько глубоко информация ушла в хаос.
Работа показывает, что можно извлекать информацию из хаотичных квантовых состояний, ранее считавшихся полностью случайными.
Такой эффект невозможно воспроизвести на обычных суперкомпьютерах. Это шаг к практическим квантовым вычислениям, которые смогут моделировать материалы, молекулы и сложные физические процессы с точностью, недостижимой ранее.
«Quantum Echoes может стать основой будущих квантовых разработок для реального применения.
*Out-of-time-order correlator (сокращённо OTOC) - это специальная метрика, с помощью которой физики измеряют, как быстро информация "распространяется" и смешивается внутри квантовой системы.
@ai_machinelearning_big_data
#QuantumComputing #Google #AI #Nature #Physics
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥293👍255❤102🤔70👏53🥰31😐22🤩17🤗13👌6🤓6
⏱️ Speedrun Science: как ИИ-команды Кремниевой долины работают по 100 часов в неделю
Ведущие AI-команды Кремниевой долины работают по 80–100 часов в неделю, стараясь выпускать модели и функции быстрее конкурентов.
Речь идёт об Anthropic, Microsoft, Google, Meta, Apple и OpenAI, где взят темп «прорыв → релиз» измеряется уже месяцами, а не годами. Основная тяжесть ложится на узкий круг инженеров и исследователей, которые буквально живут между тестами и деплоями, в то время как остальная организация работает в нормальном режиме.
Руководители называют это «уникальным окном возможностей» - и многие принимают нагрузку ради влияния на сферу, любопытства и доли в успехе.
В стартапах даже встречаются контракты с ожидаемыми 80+ часами работы, хотя чаще культура компаний сама к этому подталкивает.
Чтобы поддерживать ритм, компании внедряют ротацию “captains” - инженеров, следящих за работой над моделями 24×7.
Разрыв между «исследованием и внедрением» сжался до «разницы между четвергом и пятницей».
Исследователи говорят, что обучение по-прежнему непредсказуемо, поэтому графики постоянно меняются по итогам реальных результатов. Атмосфера -«speedrun-науки».
Один из фаундеров пошутил:
Источник: wsj.com/tech/ai/ai-race-tech-workers-schedule-1ea9a116
@ai_machinelearning_big_data
#AI #Tech #Startups #SiliconValley #OpenAI #Anthropic #Microsoft #Google
Ведущие AI-команды Кремниевой долины работают по 80–100 часов в неделю, стараясь выпускать модели и функции быстрее конкурентов.
Речь идёт об Anthropic, Microsoft, Google, Meta, Apple и OpenAI, где взят темп «прорыв → релиз» измеряется уже месяцами, а не годами. Основная тяжесть ложится на узкий круг инженеров и исследователей, которые буквально живут между тестами и деплоями, в то время как остальная организация работает в нормальном режиме.
Руководители называют это «уникальным окном возможностей» - и многие принимают нагрузку ради влияния на сферу, любопытства и доли в успехе.
В стартапах даже встречаются контракты с ожидаемыми 80+ часами работы, хотя чаще культура компаний сама к этому подталкивает.
Чтобы поддерживать ритм, компании внедряют ротацию “captains” - инженеров, следящих за работой над моделями 24×7.
Разрыв между «исследованием и внедрением» сжался до «разницы между четвергом и пятницей».
Исследователи говорят, что обучение по-прежнему непредсказуемо, поэтому графики постоянно меняются по итогам реальных результатов. Атмосфера -«speedrun-науки».
Один из фаундеров пошутил:
«Если 9-9-6 — это график с 9 утра до 9 вечера, 6 дней в неделю,
то у нас – 0-0-2: с полуночи до полуночи, с 2-часовым перерывом на выходных».
Источник: wsj.com/tech/ai/ai-race-tech-workers-schedule-1ea9a116
@ai_machinelearning_big_data
#AI #Tech #Startups #SiliconValley #OpenAI #Anthropic #Microsoft #Google
👍64😨62❤19🫡16🔥6🏆6🦄4😁3
💸 Apple будет платить Google около $1 млрд в год, чтобы новая Siri работала на Gemini AI.
Компания завершает сделку по использованию 1.2-триллионной модели Gemini для масштабного апгрейда Siri. Запуск - весна 2026.
Главное:
- Apple протестировала ChatGPT, Claude и Gemini, прежде чем выбрать Google
- Gemini в 8 раз больше нынешней 150B-модели Apple Intelligence
- Запуск будет через Apple Private Cloud Compute - данные остаются изолированы от Google
- Внутреннее кодовое имя проекта - «Linwood»
Apple подаёт это как временное решение, пока сама строит собственную модель на 1 триллион параметров.
Рыночек отреагировал:
$AAPL +0.04%, $GOOGL +2.44% на фоне новости.
https://www.bloomberg.com/news/articles/2025-11-05/apple-plans-to-use-1-2-trillion-parameter-google-gemini-model-to-power-new-siri
@ai_machinelearning_big_data
#Google #Apple #Gemini
Компания завершает сделку по использованию 1.2-триллионной модели Gemini для масштабного апгрейда Siri. Запуск - весна 2026.
Главное:
- Apple протестировала ChatGPT, Claude и Gemini, прежде чем выбрать Google
- Gemini в 8 раз больше нынешней 150B-модели Apple Intelligence
- Запуск будет через Apple Private Cloud Compute - данные остаются изолированы от Google
- Внутреннее кодовое имя проекта - «Linwood»
Apple подаёт это как временное решение, пока сама строит собственную модель на 1 триллион параметров.
Рыночек отреагировал:
$AAPL +0.04%, $GOOGL +2.44% на фоне новости.
https://www.bloomberg.com/news/articles/2025-11-05/apple-plans-to-use-1-2-trillion-parameter-google-gemini-model-to-power-new-siri
@ai_machinelearning_big_data
#Google #Apple #Gemini
1🔥75🤣47❤28👍10🤝6😁3🤷2🎉1🌭1😨1
Forwarded from Анализ данных (Data analysis)
🤖 Google представила Nested Learning — новую парадигму ИИ, которая учится как человек и не забывает прошлые знания
Google предлагает новый подход: Nested Learning - *вложенное обучение*, при котором новая информация интегрируется в уже существующую структуру знаний, а не замещает её.
Как это работает?
Каждое новое обучение добавляется внутрь уже выученного, как слой внутри слоя.
Это позволяет модели:
- сохранять предыдущие навыки
- адаптироваться к новым задачам
- отличать, в каком контексте она работает
Что это даёт?
1. Постоянное обучение без потерь
Модель может учиться бесконечно, не забывая старое. Новые знания не затирают прежние.
2. Контекстное понимание
ИИ понимает, *в каком режиме* он работает — это делает поведение гибче и разумнее.
3. Ближе к человеческому мышлению
Nested Learning приближает нейросети к человеческому типу обучения: поэтапному, постепенному и адаптивному.
📌 Подробнее: https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning
#google
@data_analysis_ml
Google предлагает новый подход: Nested Learning - *вложенное обучение*, при котором новая информация интегрируется в уже существующую структуру знаний, а не замещает её.
Как это работает?
Каждое новое обучение добавляется внутрь уже выученного, как слой внутри слоя.
Это позволяет модели:
- сохранять предыдущие навыки
- адаптироваться к новым задачам
- отличать, в каком контексте она работает
Что это даёт?
1. Постоянное обучение без потерь
Модель может учиться бесконечно, не забывая старое. Новые знания не затирают прежние.
2. Контекстное понимание
ИИ понимает, *в каком режиме* он работает — это делает поведение гибче и разумнее.
3. Ближе к человеческому мышлению
Nested Learning приближает нейросети к человеческому типу обучения: поэтапному, постепенному и адаптивному.
📌 Подробнее: https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning
@data_analysis_ml
👍178👏118❤68🔥32🥰20🤩19😁7🎉7🤔4💯3🤣2
Это понятное и структурированное введение в основы агентных систем.
В гайде рассматриваются:
- архитектура агента и его основные компоненты
- роль LLM как «мозга» агента
- подключение и использование инструментов
- оркестрация нескольких агентов
- подходы к деплою и продакшн-интеграции
- метрики и способы оценки работы
- как создаются самообучающиеся и эволюционирующие агенты
- пример архитектуры AlphaEvolve
📌 Гайд: https://drive.google.com/file/d/1C-HvqgxM7dj4G2kCQLnuMXi1fTpXRdpx/view
@ai_machinelearning_big_data
#AI #Agents #Google #LLM #MachineLearning #AIResearch
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤72🔥30👍29⚡6🙈4🙏2
💰 Уоррен Баффетт делает ставку на Google и это может изменить настроение на рынке
Berkshire Hathaway открыла новую крупную позицию в Alphabet на 4.3 млрд долларов. Впервые за долгие годы компания входит в Google таким масштабом и сразу поднимает его в десятку крупнейших активов своего портфеля.
При это Berkshire сократили Apple примерно на пятнадцать процентов хотя она всё ещё остаётся главным активом компании,
В целом Berkshire продаёт больше чем покупает, но для Google делает редкое исключение
Что это может значить
- Баффетт обычно избегает дорогих технологических компаний.
- Инвестиция в Alphabet выглядит как уверенность в том что ИИ сервисы Google могут быть недооценены рынком
Такой шаг может подтолкнуть более осторожных инвесторов пересмотреть отношение к ИИ сектору
Berkshire снижает риски по рынку но видит в Google одну из немногих точек уверенного роста.
Когда даже Баффетт - человек, который десятилетиями обходил большие технологии стороной - впервые заходит в Alphabet на миллиарды, это говорит о потенциале дальнейшего роста рынка, а не о пузыре.
cnbc.com/2025/11/14/warren-buffetts-berkshire-hathaway-reveals-new-position-in-alphabet.html
@ai_machinelearning_big_data
#Alphabet #Google #Finance
Berkshire Hathaway открыла новую крупную позицию в Alphabet на 4.3 млрд долларов. Впервые за долгие годы компания входит в Google таким масштабом и сразу поднимает его в десятку крупнейших активов своего портфеля.
При это Berkshire сократили Apple примерно на пятнадцать процентов хотя она всё ещё остаётся главным активом компании,
В целом Berkshire продаёт больше чем покупает, но для Google делает редкое исключение
Что это может значить
- Баффетт обычно избегает дорогих технологических компаний.
- Инвестиция в Alphabet выглядит как уверенность в том что ИИ сервисы Google могут быть недооценены рынком
Такой шаг может подтолкнуть более осторожных инвесторов пересмотреть отношение к ИИ сектору
Berkshire снижает риски по рынку но видит в Google одну из немногих точек уверенного роста.
Когда даже Баффетт - человек, который десятилетиями обходил большие технологии стороной - впервые заходит в Alphabet на миллиарды, это говорит о потенциале дальнейшего роста рынка, а не о пузыре.
cnbc.com/2025/11/14/warren-buffetts-berkshire-hathaway-reveals-new-position-in-alphabet.html
@ai_machinelearning_big_data
#Alphabet #Google #Finance
👍83❤35🤔19😁10🤗4🎅3🔥2🥰2💋2
🔥 Вышла Gemini 3 Pro
Контекст: 1M токенов, вывод — 64k, knowledge cut — январь 2025
• Стоимость: $2 / $12 (<200k токенов) и $4 / $18 (>200k токенов)
• SOTA-результаты на большинстве бенчмарков
• 1501 Elo на LMArena
• next-level возможности для vibe coding и сложных кодовых задач
• продвинутое мультимодальное понимание (текст, код, картинки и не только)
Попробовать можно бесплатно - может понадобиться иностранный IP: https://aistudio.google.com/prompts/new_chat?model=gemini-3-pro-preview
@ai_machinelearning_big_data
#news #ai #google #Gemini
Контекст: 1M токенов, вывод — 64k, knowledge cut — январь 2025
• Стоимость: $2 / $12 (<200k токенов) и $4 / $18 (>200k токенов)
• SOTA-результаты на большинстве бенчмарков
• 1501 Elo на LMArena
• next-level возможности для vibe coding и сложных кодовых задач
• продвинутое мультимодальное понимание (текст, код, картинки и не только)
Попробовать можно бесплатно - может понадобиться иностранный IP: https://aistudio.google.com/prompts/new_chat?model=gemini-3-pro-preview
@ai_machinelearning_big_data
#news #ai #google #Gemini
1🔥121❤30👍16🤬4⚡3👏2😁2🍓1💘1
📢 Google уверенно выводит свои TPU на новый уровень — и делает это сразу по трём направлениям.
Компания развивает три семейства собственных ускорителей: Ironwood, Sunfish и Zebrafish.
Так Google закрывает потребности в высокопроизводительном инференсе, обучении моделей и создании огромных суперподов на 2026–2027 годов.
TPU уже используют Safe Superintelligence, Salesforce и Midjourney - то есть экосистема растёт.
**🚀 Ironwood (TPUv7):*
Это самое впечатляющее поколение TPU на сегодня:
• примерно 10× быстрее TPU v5
• примерно 4× производительнее TPU v6
• до 4,600 FP8 TFLOPS на чип
• 192 GB HBM3e
• масштабирование до 9,216 чипов в одном поде
• около 1.77 PB общей памяти
Такой уровень идеально подходит для LLM, где важны скорость и масштаб.
🔥 Sunfish (предположительно TPUv8)
Следующее поколение создаётся совместно с Broadcom.
Запуск ожидается ближе к концу 2020-х, и Sunfish должен стать главным ускорителем Google Cloud.
💡 Zebrafish: гибкая и массовая линейка
MediaTek выступает ключевым партнером по ASIC.
Zebrafish будет:
• более доступным по цене
• с гибкими характеристиками
• подходящим для локальных и более компактных кластеров
То есть не только для гигантских суперкомпьютеров, но и для широкого использования.
🌐 Зачем Google три разных TPU?
Это даёт компании возможность:
• разделять нагрузки между поколениями
• удерживать клиентов уровня Anthropic
• обеспечивать более 1 ГВт выделенной мощности
• конкурировать с Nvidia на уровне не только чипов, но целых систем
Google строит собственную вертикаль ИИ-инфраструктуры - масштабную, гибкую и рассчитанную на годы вперёд. Все это нужно, чтобы доминировать на рынке ИИ.
@ai_machinelearning_big_data
#google #tpu
Компания развивает три семейства собственных ускорителей: Ironwood, Sunfish и Zebrafish.
Так Google закрывает потребности в высокопроизводительном инференсе, обучении моделей и создании огромных суперподов на 2026–2027 годов.
TPU уже используют Safe Superintelligence, Salesforce и Midjourney - то есть экосистема растёт.
**🚀 Ironwood (TPUv7):*
Это самое впечатляющее поколение TPU на сегодня:
• примерно 10× быстрее TPU v5
• примерно 4× производительнее TPU v6
• до 4,600 FP8 TFLOPS на чип
• 192 GB HBM3e
• масштабирование до 9,216 чипов в одном поде
• около 1.77 PB общей памяти
Такой уровень идеально подходит для LLM, где важны скорость и масштаб.
🔥 Sunfish (предположительно TPUv8)
Следующее поколение создаётся совместно с Broadcom.
Запуск ожидается ближе к концу 2020-х, и Sunfish должен стать главным ускорителем Google Cloud.
💡 Zebrafish: гибкая и массовая линейка
MediaTek выступает ключевым партнером по ASIC.
Zebrafish будет:
• более доступным по цене
• с гибкими характеристиками
• подходящим для локальных и более компактных кластеров
То есть не только для гигантских суперкомпьютеров, но и для широкого использования.
🌐 Зачем Google три разных TPU?
Это даёт компании возможность:
• разделять нагрузки между поколениями
• удерживать клиентов уровня Anthropic
• обеспечивать более 1 ГВт выделенной мощности
• конкурировать с Nvidia на уровне не только чипов, но целых систем
Google строит собственную вертикаль ИИ-инфраструктуры - масштабную, гибкую и рассчитанную на годы вперёд. Все это нужно, чтобы доминировать на рынке ИИ.
@ai_machinelearning_big_data
#google #tpu
❤62👍53🔥16❤🔥2
Раньше процесс проходил через три этапа: распознавание речи, перевод текста и синтез новой речи, из-за чего задержка могла достигать десятков секунд.
Исследователи оптимизировали весь конвейер, сделали обработку более устойчивой и сократили время реакции. Перевод звучит естественнее, меньше «подправляется» в реальном времени, а паузы стали значительно короче.
Технология приближает момент, когда люди смогут свободно общаться, даже если не знают языка собеседника.
https://research.google/blog/real-time-speech-to-speech-translation
@ai_machinelearning_big_data
#Google #AI #Translation #SpeechToSpeech #GoogleResearch
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤125👍47🔥41😁4👻4🥰3
This media is not supported in your browser
VIEW IN TELEGRAM
Nano Banana очень хороша для генерации схем и слайдов, а как насчёт сделать из них видео. 🎬
Google Vids вместе с Gemini позволяет автоматически превратить презентацию Google Slides в полноценный видеоролик: со сценарием, озвучкой и музыкой.
Вы просто загружаете презентацию, выбираете стиль - и система сама собирает видео из ваших слайдов.
https://workspace.google.com/blog/product-announcements/october-workspace-drop-ai-storytelling-research-and-data-protections
@ai_machinelearning_big_data
#Gemini #google #llm
Google Vids вместе с Gemini позволяет автоматически превратить презентацию Google Slides в полноценный видеоролик: со сценарием, озвучкой и музыкой.
Вы просто загружаете презентацию, выбираете стиль - и система сама собирает видео из ваших слайдов.
https://workspace.google.com/blog/product-announcements/october-workspace-drop-ai-storytelling-research-and-data-protections
@ai_machinelearning_big_data
#Gemini #google #llm
👍68❤21🔥7🦄2💯1
The Information опубликовала внутреннее письмо Сэма Альтмана, и его тон сильно отличается от привычного оптимизма OpenAI.
CEO прямо предупреждает команду: впереди могут быть серьёзные вызовы.
1. Google сделал резкий рывок
Альтман признаёт, что Google заметно ускорился в области ИИ.
Теперь OpenAI - не компания с комфортным отрывом от конкурентов, а участник гонки, которому снова нужно догонять.
2. Рост OpenAI может существенно замедлиться
По данным источников, к 2026 году рост выручки может уменьшится в разы.
Для компании, которая только что росла взрывными темпами, это серьёзный сигнал.
3. Внутри OPENAI ощущается напряжение
Атмосферу описывают как *«rough vibes»*: меньше уверенности в своих силах, больше осторожности.
Команда впервые за долгое время чувствует давление и неопределённость.
Фаза бурного роста заканчивается, начинается период конкуренции и стратегической выносливости.
OpenAI остаётся сильнейшим игроком, но теперь марафон важнее спринта.
https://www.theinformation.com/articles/openai-ceo-braces-possible-economic-headwinds-catching-resurgent-google
@ai_machinelearning_big_data
#AI #OpenAI #Google #TechNews
Please open Telegram to view this post
VIEW IN TELEGRAM
👍73❤25🤣17🔥7🗿6🦄3😁2😢1
👑 Gemini 3 Pro теперь лидирует в IQ-тестах, набрав внушительные 130 баллов, опережая все прочие LLM!
По шкале IQ такой результат помещает её в число примерно 2% людей с наивысшим интеллектом среди всех, кто когда-либо проходил подобные тесты.
А в тесте норвежского отделения Mensa модель показала эквивалент 142 баллов IQ, что соответствует уровню лишь 0,3% самых интеллектуальных людей на планете.
@ai_machinelearning_big_data
#Gemini #google
По шкале IQ такой результат помещает её в число примерно 2% людей с наивысшим интеллектом среди всех, кто когда-либо проходил подобные тесты.
А в тесте норвежского отделения Mensa модель показала эквивалент 142 баллов IQ, что соответствует уровню лишь 0,3% самых интеллектуальных людей на планете.
@ai_machinelearning_big_data
#Gemini #google
❤77🔥37👍19😁11🗿7🦄4
🎥 Two Minute Papers выпустили 22-минутное интервью с Джоном Джампером, нобелевским лауреатом и лидом команды DeepMind, создавшей AlphaFold
В беседе Джон Джампер рассказывает, как появилось AlphaFold. Он объясняет, что проект начинался как почти недостижимый идеал: попытка научиться предсказывать структуру белков с точностью, которая раньше казалась невозможной.
Ключевые моменты видео:
Что такое AlphaFold: Система глубокого обучения, которая предсказывает точную трехмерную структуру белка (его рабочую форму) на основе его аминокислотной последовательности.
Революция Скорости: AlphaFold выполняет задачу, которая ранее занимала год и стоила $100 000, всего за 5–10 минут с точностью, близкой к экспериментальной.
Масштаб Влияния: Предсказаны структуры 200 миллионов белков (все известные науке), что сделало AlphaFold фундаментальным инструментом для миллионов ученых в области разработки лекарств и биологии.
Удивительные Открытия: Джампер делится воспоминаниями о том, как команда сомневалась в успехе из-за "слишком легкого" роста производительности, и как модель научилась неявно предсказывать белковые комплексы и даже области, не имеющие фиксированной структуры ("беспорядок").
Будущее: AlphaFold является первым ИИ, который достиг "сверхчеловеческого" уровня в науке, и, по прогнозам, повлияет на почти каждое достижение в современной медицине в ближайшие 20 лет.
✔️ Смотреть интервью: https://www.youtube.com/watch?v=Vhcwjzeukts
@ai_machinelearning_big_data
#DeepMind #google #AlphaFold
В беседе Джон Джампер рассказывает, как появилось AlphaFold. Он объясняет, что проект начинался как почти недостижимый идеал: попытка научиться предсказывать структуру белков с точностью, которая раньше казалась невозможной.
Ключевые моменты видео:
Что такое AlphaFold: Система глубокого обучения, которая предсказывает точную трехмерную структуру белка (его рабочую форму) на основе его аминокислотной последовательности.
Революция Скорости: AlphaFold выполняет задачу, которая ранее занимала год и стоила $100 000, всего за 5–10 минут с точностью, близкой к экспериментальной.
Масштаб Влияния: Предсказаны структуры 200 миллионов белков (все известные науке), что сделало AlphaFold фундаментальным инструментом для миллионов ученых в области разработки лекарств и биологии.
Удивительные Открытия: Джампер делится воспоминаниями о том, как команда сомневалась в успехе из-за "слишком легкого" роста производительности, и как модель научилась неявно предсказывать белковые комплексы и даже области, не имеющие фиксированной структуры ("беспорядок").
Будущее: AlphaFold является первым ИИ, который достиг "сверхчеловеческого" уровня в науке, и, по прогнозам, повлияет на почти каждое достижение в современной медицине в ближайшие 20 лет.
@ai_machinelearning_big_data
#DeepMind #google #AlphaFold
Please open Telegram to view this post
VIEW IN TELEGRAM
👍71❤23🔥18🤣3❤🔥2🥱2⚡1🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Он разговаривает с Gemini Live прямо за рулём - обсуждает энергопотребление дата-центров, стоимость инфраструктуры и другие рабочие темы.
Это классический Google-style: тестировать собственный продукт в реальной жизни. Напоминает историю про Билла Гейтса, который снял радио из машины, чтобы постоянно думать о Microsoft.
Такой уровень одержимости - редкость. И, честно, именно он отличает по-настоящему больших фаундеров.
Интересная деталь: Сергей говорит, что версия Gemini, которой он пользуется в машине, заметно лучше того, что доступно публично сейчас.
@ai_machinelearning_big_data
#Gemini #google #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤120👍35🤣16🔥15😁15🥱14🤓5🤨2🙊2👏1💋1
⚡ Gemini 3 Flash - быстрый ИИ нового поколения от Google
Gemini 3 Flash:
- это очень быстрая модель с минимальной задержкой
- при этом она сохраняет сильные способности к рассуждению
- Frontier-уровень на GPQA Diamond - рассуждения уровня PhD
- Хорошие результаты на Humanity’s Last Exam
- State-of-the-art на MMMU Pro - хорошо работает с видео и мультимодальными данными
- В целом, качество сопоставимо с Gemini 3 Pro
Стоит в четыре раза дешевле, чем Gemini 3.0 Pro, при этом показывает сопоставимые результаты почти во всех бенчмарках, включая HLE и ARC-AGI 2. На некоторых бенчмарках модель обходит GPT-5.2.
Более того, в ряде тестов модель даже превосходит более мощную версию Pro, оставаясь при этом значительно дешевле.
По сути, Flash - это попытка Google сбалансировать три вещи одновременно: скорость + интеллект + стоимость.
Цены:
- Text input: $0.30 per 1M tokens
- Text output: $2.50 per 1M tokens
- Cache read: $0.075 per 1M tokens
- Input audio: $0.999 per 1M tokens
- Input audio (cached): $0.249 per 1M tokens
- Web search: $0.035 per request
- Cache storage: $1 per hour per 1M tokens
https://blog.google/products/gemini/gemini-3-flash/
@ai_machinelearning_big_data
#AI #Gemini #Google #LLM #Multimodal #AIModels #MachineLearning
Gemini 3 Flash:
- это очень быстрая модель с минимальной задержкой
- при этом она сохраняет сильные способности к рассуждению
- Frontier-уровень на GPQA Diamond - рассуждения уровня PhD
- Хорошие результаты на Humanity’s Last Exam
- State-of-the-art на MMMU Pro - хорошо работает с видео и мультимодальными данными
- В целом, качество сопоставимо с Gemini 3 Pro
Стоит в четыре раза дешевле, чем Gemini 3.0 Pro, при этом показывает сопоставимые результаты почти во всех бенчмарках, включая HLE и ARC-AGI 2. На некоторых бенчмарках модель обходит GPT-5.2.
Более того, в ряде тестов модель даже превосходит более мощную версию Pro, оставаясь при этом значительно дешевле.
По сути, Flash - это попытка Google сбалансировать три вещи одновременно: скорость + интеллект + стоимость.
Цены:
- Text input: $0.30 per 1M tokens
- Text output: $2.50 per 1M tokens
- Cache read: $0.075 per 1M tokens
- Input audio: $0.999 per 1M tokens
- Input audio (cached): $0.249 per 1M tokens
- Web search: $0.035 per request
- Cache storage: $1 per hour per 1M tokens
https://blog.google/products/gemini/gemini-3-flash/
@ai_machinelearning_big_data
#AI #Gemini #Google #LLM #Multimodal #AIModels #MachineLearning
👍91❤28🔥21😍5😁2🦄1
Новые модели всё меньше похожи на “чат-ботов” и всё больше - на инструменты для серьёзного анализа.
Deep Think - пример такого перехода от теории к реальным сложным задачам.
Что показывает модель:
- State-of-the-art на ARC-AGI-2 - одном из самых сложных тестов на абстрактное мышление
- Новый результат на Humanity’s Last Exam - задачи высшей сложности по математике, науке и инженерии
- 3455 Elo на Codeforces - уровень сильных спортивных программистов
- Результаты золотого уровня на письменных этапах Олимпиад-2025 по физике и химии
Модель может:
- разбирать сложные технические задачи
- помогать в исследованиях
- анализировать инженерные решения
- работать как партнёр для глубокого анализа
https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-deep-think/
@ai_machinelearning_big_data
#Gemini #google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤81👍42🔥30🤣6🙏2💘2🦄2🍓1
Подразделение Research анонсировало TurboQuant, алгоритм векторного квантования, объединяющий 2 других метода - QJL и PolarQuant, который решает проблему увеличения KV-кэша при работе с длинным контекстом.
TurboQuant будет представлен на ICLR 2026, PolarQuant - на AISTATS 2026.
KV-кэш хранит промежуточные представления токенов, чтобы модель не пересчитывала их на каждом шаге генерации. С ростом контекста он превращается в узкое место по памяти.
Обычное векторное квантование сжимает эти данные, но вносит накладные расходы: для каждого блока нужно хранить константы квантования в полной точности, а это плюс 1–2 бита на элемент, что частично обесценивает само сжатие.
Сначала PolarQuant: случайный поворот выравнивает геометрию векторов, после чего они переводятся из декартовых координат в полярные (радиус и угол). Распределение углов оказывается предсказуемым и сконцентрированным, поэтому нормализация и хранение дополнительных констант становятся больше не нужны.
На втором этапе подключается QJL, метод на основе преобразования Джонсона-Линденштраусса, который кодирует остаточную ошибку первого этапа всего одним знаковым битом и через встроенную оценочную функцию сочетает высокоточный запрос с низкоточными сжатыми данными, корректно вычисляя attention score.
Ни один из методов не требует обучения или дообучения и работает в режиме "без предварительного анализа набора данных".
Алгоритмы тестили на бенчмарках для длинного контекста: LongBench, Needle In A Haystack, ZeroSCROLLS, RULER и L-Eval с моделями Gemma и Mistral.
При квантовании KV-кэша до 3 бит TurboQuant показал нулевую деградацию точности на всех задачах: поиск «иголки в стоге сена», QA, генерация кода, суммаризация.
Объем KV-кэша при этом сократился в 6 раз. На H100 четырехбитный TurboQuant ускорил вычисление attention-логитов до 8 раз по сравнению с 32-битными ключами.
Область применения не ограничивается KV-кэшем. В экспериментах с высокоразмерным векторным поиском TurboQuant стабильно превзошел по recall методы PQ и RaBitQ несмотря на то, что те использовали крупные код-буки и подстройку под конкретный датасет.
@ai_machinelearning_big_data
🎯Полезные Мл-ресурсы 🚀 Max
#AI #ML #LLM #TurboQuant #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤127🔥49🎉40👨💻12👍11👏8🤩8🥰2
Команда Google Quantum AI совместно с исследователями Ethereum Foundation и Стэнфорда опубликовали исследование, которое рисует тревожную картину: квантовая угроза касается не отдельных блокчейнов, а криптовалютной индустрии в целом - от базовых транзакций до смарт-контрактов, механизмов консенсуса, стейблкоинов и токенизированных активов.
В центре работы - оценки ресурсов для взлома криптографии на эллиптических кривых secp256k1, которая защищает подписи в Bitcoin, Ethereum и множестве других блокчейнов.
Авторы разработали квантовые схемы, которые потребуют менее 500 тысяч физических кубитов (в 20 раз меньше, чем считалось ранее).
Для контекста: крупнейшие квантовые процессоры сегодня содержат порядка 1000 кубитов, но индустрия масштабируется быстро, и финишная черта теперь значительно ближе.
На сверхпроводящей архитектуре такая атака займёт около 9 минут при среднем времени блока Bitcoin в 10 минут. Это означает, что квантовый атакующий теоретически способен перехватить транзакцию прямо из мемпула, вычислить приватный ключ и подменить перевод до его записи в блокчейн.
Вероятность успеха такой атаки авторы оценивают примерно в 41%.
Исследование разбирает уязвимости всей криптоэкосистемы. Около 6,9 млн. BTC (порядка 35% всех монет в обращении) уже подвержены атакам по раскрытым или повторно использованным ключам, включая 1,7 млн BTC на ранних адресах эпохи Сатоши.
Современный формат Taproot (P2TR), принятый в 2021 году, парадоксальным образом вернул уязвимость, устраненную предшественниками: он снова записывает публичный ключ открыто в блокчейн.
Авторы выделяют 5 отдельных категорий:
Litecoin, Dogecoin, Bitcoin Cash, Zcash, Monero, Solana, Cardano, Rootstock - все используют криптографию на эллиптических кривых и находятся в зоне риска.
Приватные блокчейны (Zcash и Monero) столкнутся еще и с ретроактивной деанонимизацией: будущий квантовый атакующий сможет расшифровать исторические конфиденциальные транзакции.
Стейблкоины и токенизированные активы наследуют все уязвимости хост-блокчейнов, а прогнозируемый рост рынка токенизации до 16 трлн USD к 2030 году многократно увеличивает масштаб потенциального ущерба.
При этом Proof-of-Work-майнингу Bitcoin квантовые компьютеры не угрожают: ускорение от алгоритма Гровера полностью поглощается накладными расходами квантовой коррекции ошибок.
Для подтверждения своих оценок без раскрытия деталей атаки команда применила криптографическое доказательство с нулевым разглашением - прецедент ответственного раскрытия в квантовом криптоанализе.
Авторы призывают все криптосообщества как можно скорее начинать миграцию на постквантовую криптографию, ссылаясь на успешные примеры: блокчейн QRL, первую PQC-транзакцию на Algorand, эксперименты на Solana и XRP Ledger.
@ai_machinelearning_big_data
#QuantumComputing #Crypto #PostQuantum #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤨131🤔41❤29😨16🔥12👍8🌚8🤣4😭4👏3🥰1
⭐️ Google DeepMind представил Gemini 3.1 Flash TTS - свою самую управляемую модель генерации речи
Главная фишка - Audio Tags.
Это текстовые команды прямо в промпте, которыми можно управлять стилем голоса, подачей и темпом речи. По сути, вы режиссируете озвучку через текст.
Что ещё важно:
— Более естественное звучание речи
— Поддержка 70+ языков (русский, японский, немецкий и др.)
— Все выходные аудио маркируются SynthID (цифровой водяной знак, чтобы отличить синтезированную речь от настоящей)
На бенчмарке Artificial Analysis TTS Arena модель заняла 2-е место с Elo-рейтингом 1211 - сразу за Inworld TTS 1.5 Max (1215) и выше ElevenLabs v3 (1179).
Где попробовать:
→ Рreview через Gemini API и Google AI Studio
→ Бизнесу -а Vertex AI
→ Всем пользователям - скоро появится в Google Vids
https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-flash-tts/
@ai_machinelearning_big_data
#google `#tts
Главная фишка - Audio Tags.
Это текстовые команды прямо в промпте, которыми можно управлять стилем голоса, подачей и темпом речи. По сути, вы режиссируете озвучку через текст.
Что ещё важно:
— Более естественное звучание речи
— Поддержка 70+ языков (русский, японский, немецкий и др.)
— Все выходные аудио маркируются SynthID (цифровой водяной знак, чтобы отличить синтезированную речь от настоящей)
На бенчмарке Artificial Analysis TTS Arena модель заняла 2-е место с Elo-рейтингом 1211 - сразу за Inworld TTS 1.5 Max (1215) и выше ElevenLabs v3 (1179).
Где попробовать:
→ Рreview через Gemini API и Google AI Studio
→ Бизнесу -а Vertex AI
→ Всем пользователям - скоро появится в Google Vids
https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-flash-tts/
@ai_machinelearning_big_data
#google `#tts
👍163👏34❤28🔥23🤩6💯4☃3🎉2
Агенты, которые управляют браузером или правят код, решают каждую задачу с нуля. Провалился - забыл. Получилось - тоже забыл. Google Research предложил фреймворк ReasoningBank, который даёт агенту память и позволяет учиться на ошибках, а не только на победах.
Предшественники (Synapse, AWM) запоминали только успешные прогоны. Когда им скормили провальные - стало хуже: AWM потерял 2,2% точности. ReasoningBank, в свою очередь, из успешной траектории он берёт валидированную стратегию, а из провальной - урок, что пошло не так.
Агент получает задачу "найди дату первой покупки". Без системы памяти он заходит в "Последние заказы", видит свежий заказ и выдаёт неверный ответ.
С ReasoningBank - вспоминает стратегию из прошлого опыта: при поиске в истории проверяй все страницы, а не только первую. Переходит в полный список заказов, листает до конца и находит правильную дату.
Другой пример: задача "купи самый топовый товар из категории мужской обуви". Без памяти агент тратит 29 шагов, потому что не может найти фильтр по категории, а с памятью только 10, так как стратегия фильтрации уже в запасе.
После каждой задачи та же языковая модель оценивает, удалась попытка или нет. Из траектории извлекаются записи (заголовок, описание, содержание), намеренно абстрагированные от конкретного сайта.
Перед новой задачей агент ищет похожие записи через эмбеддинг-поиск и получает их как часть промпта.
Это метод (Memory-aware Test-Time Scaling) масштабирования вычислений на инференсе с учётом памяти.
Агент генерирует несколько попыток для одной задачи, сравнивает их между собой и выделяет устойчивые паттерны.
Получается цикл: хорошая память направляет попытки в перспективные области, а разнообразные попытки обогащают память.
На WebArena ReasoningBank поднимает процент успеха на 8,3 п.п. с Gemini-2.5-flash и на 7,2 п.п. с Gemini-2.5-pro, сокращая число шагов до 16%.
На SWE-Bench-Verified resolve rate увеличился с 54% до 57,4%, при этом расход токенов больше всего на 4,3%.
Фреймворк работает и на маленьких моделях: на WebArena-Shopping даже Gemma-3-12B с ReasoningBank улучшает показатель с 17,1% до 24,1%.
@ai_machinelearning_big_data
#AI #ML #Memory #Agents #ReasoningBank #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤩106💯32🔥27❤21👍14🤓14👏6⚡1