379K subscribers
4.37K photos
833 videos
17 files
4.85K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Google выпустили Jules Tools - новую консольную утилиту и API для управления своим AI-агентом прямо из терминала.

Jules - это ИИ, который умеет писать код, исправлять ошибки и создавать тесты для ваших проектов.

Он подключается к GitHub или другому репозиторию, анализирует кодовую базу и выполняет задачи, которые вы ему задаёте.

С помощью Jules Tools можно запускать и управлять этим агентом напрямую через терминал, без браузера.

Пример, вводите:
jules remote new --session "fix login bug"

После запуска команда создаёт виртуальную машину, клонирует репозиторий, решает задачу и отправляет pull request с готовым исправлением.

Что интересного:
- Командная строка и API для управления агентом
- Асинхронные задачи и параллельное выполнение
- Скрипты и автоматизация (через CI, cron, pipelines)
- Память и адаптация под ваш стиль кода
- Безопасное хранение ключей и токенов
- Интерактивный интерфейс в терминале (TUI) с отображением статуса задач в реальном времени

TUI-режим напоминает веб-панель, но работает прямо в консоли, позволяя быстро запускать, отслеживать и управлять сессиями.

Jules можно интегрировать с Slack или системами сборки - агент сам создаёт и выполняет задачи, пока вы занимаетесь другими делами.

Если агент сталкивается с проблемой, то приостанавливает работу и запрашивает помощь, а не «угадывает» решение.

Обе утилиты - Jules и Gemini CLI - работают на Gemini 2.5 Pro, но Jules ориентирован на короткие и точные задачи, а Gemini CLI - на длительную совместную работу.

Бесплатная версия позволяет запускать 15 задач в день (до 3 одновременно).

Платные тарифы - $19.99 и $124.99 - дают лимиты до 100 и 300 задач.

Google также планирует добавить поддержку GitLab, Bitbucket и локальных проектов без Git.

🟠Подробности: https://developers.googleblog.com/en/level-up-your-dev-game-the-jules-api-is-here/
🟠Доки: https://jules.google/docs

@ai_machinelearning_big_data


#Google #Jules #AI #CodingAgent #Gemini25Pro #Automation
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14728👍25🎉12👏7😁6🤩5🥰2🤣2🫡2🤔1
🔥 GOOGLE AI опубликовали пост о настоящем прорыве в области QUANTUM AI

Сегодня в журнале Nature команда Google впервые показали проверяемое квантовое преимущество с помощью метода, называемого *out-of-time-order correlator (OTOC), или «квантовые эхо».

Эксперимент проведён на квантовом чипе Willow, и он показывает, что квантовые устройства уже способны решать задачи, которые невозможно эффективно симулировать на классических компьютерах.

Квантовый процессор Google выполнил алгоритм под названием Quantum Echoes - в 13 000 раз быстрее, чем лучший классический алгоритм на одном из самых мощных суперкомпьютеров в мире.

🟠Что это значит простыми словами
Учёные научились буквально «отматывать время» в квантовой системе и смотреть, когда она переходит от упорядоченного поведения к хаосу. Этот переход - ключ к пониманию, где начинается настоящее квантовое преимущество.

Проще говоря:

1) Учёные запускают квантовую систему вперёд во времени, позволяя ей запутаться и “рассеять” информацию.

2) Затем применяют обратные операции, как будто “перематывают” процесс назад.

3) Если всё сделано идеально, система должна вернуться в исходное состояние,но из-за квантового хаоса это происходит лишь частично.

4) Разница между “до” и “после” показывает, насколько глубоко информация ушла в хаос.

Работа показывает, что можно извлекать информацию из хаотичных квантовых состояний, ранее считавшихся полностью случайными.

Такой эффект невозможно воспроизвести на обычных суперкомпьютерах. Это шаг к практическим квантовым вычислениям, которые смогут моделировать материалы, молекулы и сложные физические процессы с точностью, недостижимой ранее.

«Quantum Echoes может стать основой будущих квантовых разработок для реального применения.

*Out-of-time-order correlator (сокращённо OTOC) - это специальная метрика, с помощью которой физики измеряют, как быстро информация "распространяется" и смешивается внутри квантовой системы.

🟢 Статья: https://www.nature.com/articles/s41586-025-09526-6

@ai_machinelearning_big_data

#QuantumComputing #Google #AI #Nature #Physics
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥292👍255100🤔70👏53🥰31😐22🤩17🤗13👌6🤓6
⏱️ Speedrun Science: как ИИ-команды Кремниевой долины работают по 100 часов в неделю

Ведущие AI-команды Кремниевой долины работают по 80–100 часов в неделю, стараясь выпускать модели и функции быстрее конкурентов.

Речь идёт об Anthropic, Microsoft, Google, Meta, Apple и OpenAI, где взят темп «прорыв → релиз» измеряется уже месяцами, а не годами. Основная тяжесть ложится на узкий круг инженеров и исследователей, которые буквально живут между тестами и деплоями, в то время как остальная организация работает в нормальном режиме.

Руководители называют это «уникальным окном возможностей» - и многие принимают нагрузку ради влияния на сферу, любопытства и доли в успехе.

В стартапах даже встречаются контракты с ожидаемыми 80+ часами работы, хотя чаще культура компаний сама к этому подталкивает.

Чтобы поддерживать ритм, компании внедряют ротацию “captains” - инженеров, следящих за работой над моделями 24×7.

Разрыв между «исследованием и внедрением» сжался до «разницы между четвергом и пятницей».

Исследователи говорят, что обучение по-прежнему непредсказуемо, поэтому графики постоянно меняются по итогам реальных результатов. Атмосфера -«speedrun-науки».

Один из фаундеров пошутил:

«Если 9-9-6 — это график с 9 утра до 9 вечера, 6 дней в неделю,
то у нас – 0-0-2: с полуночи до полуночи, с 2-часовым перерывом на выходных».


Источник: wsj.com/tech/ai/ai-race-tech-workers-schedule-1ea9a116

@ai_machinelearning_big_data


#AI #Tech #Startups #SiliconValley #OpenAI #Anthropic #Microsoft #Google
👍64😨5916🫡16🏆6🔥5🦄4😁3
💸 Apple будет платить Google около $1 млрд в год, чтобы новая Siri работала на Gemini AI.

Компания завершает сделку по использованию 1.2-триллионной модели Gemini для масштабного апгрейда Siri. Запуск - весна 2026.

Главное:
- Apple протестировала ChatGPT, Claude и Gemini, прежде чем выбрать Google
- Gemini в 8 раз больше нынешней 150B-модели Apple Intelligence
- Запуск будет через Apple Private Cloud Compute - данные остаются изолированы от Google
- Внутреннее кодовое имя проекта - «Linwood»

Apple подаёт это как временное решение, пока сама строит собственную модель на 1 триллион параметров.

Рыночек отреагировал:
$AAPL +0.04%, $GOOGL +2.44% на фоне новости.

https://www.bloomberg.com/news/articles/2025-11-05/apple-plans-to-use-1-2-trillion-parameter-google-gemini-model-to-power-new-siri

@ai_machinelearning_big_data

#Google #Apple #Gemini
1🔥74🤣4727👍10🤝6😁3🎉1🌭1😨1🤷1
🤖 Google представила Nested Learning — новую парадигму ИИ, которая учится как человек и не забывает прошлые знания

Google предлагает новый подход: Nested Learning - *вложенное обучение*, при котором новая информация интегрируется в уже существующую структуру знаний, а не замещает её.

Как это работает?
Каждое новое обучение добавляется внутрь уже выученного, как слой внутри слоя.

Это позволяет модели:

- сохранять предыдущие навыки
- адаптироваться к новым задачам
- отличать, в каком контексте она работает

Что это даёт?

1. Постоянное обучение без потерь
Модель может учиться бесконечно, не забывая старое. Новые знания не затирают прежние.

2. Контекстное понимание
ИИ понимает, *в каком режиме* он работает — это делает поведение гибче и разумнее.

3. Ближе к человеческому мышлению
Nested Learning приближает нейросети к человеческому типу обучения: поэтапному, постепенному и адаптивному.

📌 Подробнее: https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning

#google

@data_analysis_ml
👍176👏11866🔥32🥰20🤩19😁7🎉7🤔3💯3🤣2
✔️ Google выпустил новый 50-страничный документ о том, как создавать AI-агентов, которые реально работают в практических задачах

Это понятное и структурированное введение в основы агентных систем.

В гайде рассматриваются:
- архитектура агента и его основные компоненты
- роль LLM как «мозга» агента
- подключение и использование инструментов
- оркестрация нескольких агентов
- подходы к деплою и продакшн-интеграции
- метрики и способы оценки работы
- как создаются самообучающиеся и эволюционирующие агенты
- пример архитектуры AlphaEvolve

📌 Гайд: https://drive.google.com/file/d/1C-HvqgxM7dj4G2kCQLnuMXi1fTpXRdpx/view

@ai_machinelearning_big_data


#AI #Agents #Google #LLM #MachineLearning #AIResearch
Please open Telegram to view this post
VIEW IN TELEGRAM
68🔥30👍285🙈4🙏2
💰 Уоррен Баффетт делает ставку на Google и это может изменить настроение на рынке

Berkshire Hathaway открыла новую крупную позицию в Alphabet на 4.3 млрд долларов. Впервые за долгие годы компания входит в Google таким масштабом и сразу поднимает его в десятку крупнейших активов своего портфеля.

При это Berkshire сократили Apple примерно на пятнадцать процентов хотя она всё ещё остаётся главным активом компании,

В целом Berkshire продаёт больше чем покупает, но для Google делает редкое исключение

Что это может значить
- Баффетт обычно избегает дорогих технологических компаний.
- Инвестиция в Alphabet выглядит как уверенность в том что ИИ сервисы Google могут быть недооценены рынком

Такой шаг может подтолкнуть более осторожных инвесторов пересмотреть отношение к ИИ сектору

Berkshire снижает риски по рынку но видит в Google одну из немногих точек уверенного роста.

Когда даже Баффетт - человек, который десятилетиями обходил большие технологии стороной - впервые заходит в Alphabet на миллиарды, это говорит о потенциале дальнейшего роста рынка, а не о пузыре.

cnbc.com/2025/11/14/warren-buffetts-berkshire-hathaway-reveals-new-position-in-alphabet.html

@ai_machinelearning_big_data

#Alphabet #Google #Finance
👍8131🤔19😁10🤗4🔥2🥰2💋2🎅2
🔥 Вышла Gemini 3 Pro

Контекст: 1M токенов, вывод — 64k, knowledge cut — январь 2025
• Стоимость: $2 / $12 (<200k токенов) и $4 / $18 (>200k токенов)

• SOTA-результаты на большинстве бенчмарков
• 1501 Elo на LMArena
• next-level возможности для vibe coding и сложных кодовых задач
• продвинутое мультимодальное понимание (текст, код, картинки и не только)

Попробовать можно бесплатно - может понадобиться иностранный IP: https://aistudio.google.com/prompts/new_chat?model=gemini-3-pro-preview

@ai_machinelearning_big_data

#news #ai #google #Gemini
1🔥11827👍163🤬3👏2😁2💘1
📢 Google уверенно выводит свои TPU на новый уровень — и делает это сразу по трём направлениям.

Компания развивает три семейства собственных ускорителей: Ironwood, Sunfish и Zebrafish.
Так Google закрывает потребности в высокопроизводительном инференсе, обучении моделей и создании огромных суперподов на 2026–2027 годов.

TPU уже используют Safe Superintelligence, Salesforce и Midjourney - то есть экосистема растёт.

**🚀 Ironwood (TPUv7):*

Это самое впечатляющее поколение TPU на сегодня:
• примерно 10× быстрее TPU v5
• примерно 4× производительнее TPU v6
• до 4,600 FP8 TFLOPS на чип
• 192 GB HBM3e
• масштабирование до 9,216 чипов в одном поде
• около 1.77 PB общей памяти

Такой уровень идеально подходит для LLM, где важны скорость и масштаб.

🔥 Sunfish (предположительно TPUv8)

Следующее поколение создаётся совместно с Broadcom.

Запуск ожидается ближе к концу 2020-х, и Sunfish должен стать главным ускорителем Google Cloud.

💡 Zebrafish: гибкая и массовая линейка

MediaTek выступает ключевым партнером по ASIC.
Zebrafish будет:
• более доступным по цене
• с гибкими характеристиками
• подходящим для локальных и более компактных кластеров

То есть не только для гигантских суперкомпьютеров, но и для широкого использования.

🌐 Зачем Google три разных TPU?

Это даёт компании возможность:
• разделять нагрузки между поколениями
• удерживать клиентов уровня Anthropic
• обеспечивать более 1 ГВт выделенной мощности
• конкурировать с Nvidia на уровне не только чипов, но целых систем

Google строит собственную вертикаль ИИ-инфраструктуры - масштабную, гибкую и рассчитанную на годы вперёд. Все это нужно, чтобы доминировать на рынке ИИ.

@ai_machinelearning_big_data

  #google #tpu
58👍52🔥15❤‍🔥2
⚡️ Команда Google Research представила технологию живого перевода речи в речь, которая позволяет говорить на одном языке и почти мгновенно слышать перевод на другом.

Раньше процесс проходил через три этапа: распознавание речи, перевод текста и синтез новой речи, из-за чего задержка могла достигать десятков секунд.

Исследователи оптимизировали весь конвейер, сделали обработку более устойчивой и сократили время реакции. Перевод звучит естественнее, меньше «подправляется» в реальном времени, а паузы стали значительно короче.

Технология приближает момент, когда люди смогут свободно общаться, даже если не знают языка собеседника.

https://research.google/blog/real-time-speech-to-speech-translation

@ai_machinelearning_big_data

#Google #AI #Translation #SpeechToSpeech #GoogleResearch
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
114👍46🔥41😁4🥰3👻3
This media is not supported in your browser
VIEW IN TELEGRAM
Nano Banana очень хороша для генерации схем и слайдов, а как насчёт сделать из них видео. 🎬

Google Vids вместе с Gemini позволяет автоматически превратить презентацию Google Slides в полноценный видеоролик: со сценарием, озвучкой и музыкой.

Вы просто загружаете презентацию, выбираете стиль - и система сама собирает видео из ваших слайдов.

https://workspace.google.com/blog/product-announcements/october-workspace-drop-ai-storytelling-research-and-data-protections

@ai_machinelearning_big_data

#Gemini #google #llm
👍6519🔥7💯1🦄1
✔️ OpenAI входит в сложный период, а Google стремительно усиливается

The Information опубликовала внутреннее письмо Сэма Альтмана, и его тон сильно отличается от привычного оптимизма OpenAI.

CEO прямо предупреждает команду: впереди могут быть серьёзные вызовы.

1. Google сделал резкий рывок
Альтман признаёт, что Google заметно ускорился в области ИИ.
Теперь OpenAI - не компания с комфортным отрывом от конкурентов, а участник гонки, которому снова нужно догонять.

2. Рост OpenAI может существенно замедлиться
По данным источников, к 2026 году рост выручки может уменьшится в разы.

Для компании, которая только что росла взрывными темпами, это серьёзный сигнал.

3. Внутри OPENAI ощущается напряжение
Атмосферу описывают как *«rough vibes»*: меньше уверенности в своих силах, больше осторожности.

Команда впервые за долгое время чувствует давление и неопределённость.

Фаза бурного роста заканчивается, начинается период конкуренции и стратегической выносливости.
OpenAI остаётся сильнейшим игроком, но теперь марафон важнее спринта.

https://www.theinformation.com/articles/openai-ceo-braces-possible-economic-headwinds-catching-resurgent-google

@ai_machinelearning_big_data

#AI #OpenAI #Google #TechNews
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6621🤣16🔥7🗿5😁2🦄2
👑 Gemini 3 Pro теперь лидирует в IQ-тестах, набрав внушительные 130 баллов, опережая все прочие LLM!

По шкале IQ такой результат помещает её в число примерно 2% людей с наивысшим интеллектом среди всех, кто когда-либо проходил подобные тесты.

А в тесте норвежского отделения Mensa модель показала эквивалент 142 баллов IQ, что соответствует уровню лишь 0,3% самых интеллектуальных людей на планете.

@ai_machinelearning_big_data

#Gemini #google
68🔥34👍17😁10🗿7🦄4