Есть детали и идеи для ламп, а нано банана выдаёт готовое исполнение в разных вариантах на ура, для людей творческих и DIY поделок, кладезь для воображения ✨
🌚3⚡1
Тут Дуров запустил "Убер для видеокарт" - децентрализованную сеть для работы с искусственным интеллектом.
Владельцы мощных видеокарт (уровня H100) сдают свои мощности в аренду и зарабатывают на этом криптовалюту TON.
Разработчики используют эти мощности для задач ИИ полностью анонимно, не боясь утечки данных (верим)
Мы, юзеры, я так понимаю получим очередного умного бота - но прямо в телеге бесплатно и как бы анонимно🌚
ждём больше инфы
https://xn--r1a.website/durov/462
Владельцы мощных видеокарт (уровня H100) сдают свои мощности в аренду и зарабатывают на этом криптовалюту TON.
Разработчики используют эти мощности для задач ИИ полностью анонимно, не боясь утечки данных (верим)
Мы, юзеры, я так понимаю получим очередного умного бота - но прямо в телеге бесплатно и как бы анонимно🌚
ждём больше инфы
https://xn--r1a.website/durov/462
Telegram
Pavel Durov
🐣 It happened. Our decentralized confidential compute network, Cocoon, is live. The first AI requests from users are now being processed by Cocoon with 100% confidentiality. GPU owners are already earning TON. https://cocoon.org is up, with docs and the source…
🔥2🤔2🙏2🤡1
Forwarded from Data Secrets
OpenAI не завершила ни одного нового полного претрейнинга после GPT-4o
По крайней мере, так утверждают аналитики из SemiAnalysis и, в частности, Дилан Пател.
В новой статье про Google TPUv7 они пишут, что сравнили инфраструктурную активность Google и OpenAI и обнаружили, что если Google проявлял явные признаки pretraining-нагрузки, то OpenAI – нет.
Со времен GPT-4o у стартапа не было ни роста потребления нагрузки, ни расширения кластеров и поставок. Видна лишь какая-то активность, похожая на файнтюнинг или RL, но не на масштабный претрейнинг.
Это значит, что, с высокой вероятностью, GPT-5 == тот же претрейн, что и GPT-4o, то есть, фактически, – та же базовая модель. Просто сенсация, если правда.
newsletter.semianalysis.com/p/tpuv7-google-takes-a-swing-at-the
По крайней мере, так утверждают аналитики из SemiAnalysis и, в частности, Дилан Пател.
В новой статье про Google TPUv7 они пишут, что сравнили инфраструктурную активность Google и OpenAI и обнаружили, что если Google проявлял явные признаки pretraining-нагрузки, то OpenAI – нет.
Со времен GPT-4o у стартапа не было ни роста потребления нагрузки, ни расширения кластеров и поставок. Видна лишь какая-то активность, похожая на файнтюнинг или RL, но не на масштабный претрейнинг.
Это значит, что, с высокой вероятностью, GPT-5 == тот же претрейн, что и GPT-4o, то есть, фактически, – та же базовая модель. Просто сенсация, если правда.
newsletter.semianalysis.com/p/tpuv7-google-takes-a-swing-at-the
🤔11😁7
Data Secrets
OpenAI не завершила ни одного нового полного претрейнинга после GPT-4o По крайней мере, так утверждают аналитики из SemiAnalysis и, в частности, Дилан Пател. В новой статье про Google TPUv7 они пишут, что сравнили инфраструктурную активность Google и OpenAI…
У них там теперь "Код красный🚨" после выхода Gemini 3.0 и ходят слухи о новой ризонинг модели на следующей неделе. Ну что ж, не долго получилось маркетингом всем мозги пудрить и в упор игнорировать настоящих конкурентов 👌
А тут ещё какой-то стартап OpenAGI обещает модели уже следующего поколения по совершенно новой архитектуре (по бенчмаркам якобы обходят все передовые модели), ну посмотрим. Вчера ещё DeepSeek 3.2 вышел но потрогать кроме как через API не дают, чуть лучше в коде чем все остальные топ модели. В интересный входим таймлайн, то ли ещё будет 🌚
А тут ещё какой-то стартап OpenAGI обещает модели уже следующего поколения по совершенно новой архитектуре (по бенчмаркам якобы обходят все передовые модели), ну посмотрим. Вчера ещё DeepSeek 3.2 вышел но потрогать кроме как через API не дают, чуть лучше в коде чем все остальные топ модели. В интересный входим таймлайн, то ли ещё будет 🌚
❤3
This media is not supported in your browser
VIEW IN TELEGRAM
Ничего необычного, просто китайские роботы патрулируют границу с Индией в горах🌚 мы уже тут, да
❤5😱3
И как раз в тему поста выше: После активного продвижения развития искусственного интеллекта администрация Трампа переключает свое внимание на сферу робототехники. Согласно данным Politico, Белый дом планирует сделать этот сектор приоритетным в 2026 году, для чего министр торговли Говард Латник уже проводит встречи с лидерами отрасли и рассматривает возможность издания нового исполнительного указа для стимулирования роста. Эта инициатива направлена на усиление конкурентоспособности США в противовес Китаю, который на данный момент значительно превосходит Америку по количеству внедренных промышленных роботов (1,8 миллиона против показателей США).
POLITICO
After AI push, Trump administration is now looking to robots
Five months after releasing a plan to accelerate the development of artificial intelligence, the Trump administration is turning to robots.
Google только сейчас релизнули Gemini 3 Deep Think
Модель использует «параллельное мышление»: проверяет несколько гипотез одновременно.
Это дало рекордные результаты в сложных тестах (41% на HLE), оставив конкурентов далеко позади.
Доступно только подписчикам Ultra. (пока что)
http://blog.google/products/gemini/gemini-3-deep-think/
Модель использует «параллельное мышление»: проверяет несколько гипотез одновременно.
Это дало рекордные результаты в сложных тестах (41% на HLE), оставив конкурентов далеко позади.
Доступно только подписчикам Ultra. (пока что)
http://blog.google/products/gemini/gemini-3-deep-think/
❤7⚡2
Media is too big
VIEW IN TELEGRAM
Пока в OpenAI паника, Google нас к чему-то готовит...
Titans: Начало эры непрерывно обучающегося ИИ
Google Research представили революционную архитектуру Titans, которая превращает нейросети из статичных моделей в непрерывно обучающиеся системы. Titans внедряет полноценный модуль нейронной долгосрочной памяти. Это позволяет модели не просто временно удерживать контекст, а буквально «запоминать» информацию, сжимая её в свои внутренние веса, подобно тому, как человеческий мозг переводит события в долгосрочную память.
Ключевая инновация кроется в способности модели учиться прямо в момент работы: если информация неожиданная и важная, модель мгновенно обновляет параметры своей памяти, чтобы усвоить этот опыт. Это фундаментальный сдвиг парадигмы: ИИ больше не является «застывшим» после тренировки слепком знаний, а становится адаптивным агентом, который эволюционирует и накапливает опыт в реальном времени, не требуя полной перетренировки.
Видео по статье сделал в NoteBookLM для наглядности
Ждём Gemini 3.5/4🌚
Titans: Начало эры непрерывно обучающегося ИИ
Google Research представили революционную архитектуру Titans, которая превращает нейросети из статичных моделей в непрерывно обучающиеся системы. Titans внедряет полноценный модуль нейронной долгосрочной памяти. Это позволяет модели не просто временно удерживать контекст, а буквально «запоминать» информацию, сжимая её в свои внутренние веса, подобно тому, как человеческий мозг переводит события в долгосрочную память.
Ключевая инновация кроется в способности модели учиться прямо в момент работы: если информация неожиданная и важная, модель мгновенно обновляет параметры своей памяти, чтобы усвоить этот опыт. Это фундаментальный сдвиг парадигмы: ИИ больше не является «застывшим» после тренировки слепком знаний, а становится адаптивным агентом, который эволюционирует и накапливает опыт в реальном времени, не требуя полной перетренировки.
Видео по статье сделал в NoteBookLM для наглядности
Ждём Gemini 3.5/4🌚
👍11👾3😱2🤯1
График из статьи на котором наглядно видно сохранение точности нейронки на контексте 10 млн токенов (у Titans остаётся в районе 70-80%), а другие просто даже не тестировали на таком объёме🤷♂️
P.S.
Спасибо подписчикам, уже писал год назад про эту архитектуру, но сейчас Google официально представила её на NeurIPS 2025 в связке с системой MIRAS, сместив фокус с простого увеличения контекста на непрерывное обучение, видимо внедрят в следующие поколения Gemini🌚
AGI v. 0.1?🤔
P.S.
Спасибо подписчикам, уже писал год назад про эту архитектуру, но сейчас Google официально представила её на NeurIPS 2025 в связке с системой MIRAS, сместив фокус с простого увеличения контекста на непрерывное обучение, видимо внедрят в следующие поколения Gemini🌚
AGI v. 0.1?🤔
👍4
This media is not supported in your browser
VIEW IN TELEGRAM
Ну вот, а вы говорите магии не существует, теперь мотаем время на лет 10-15 вперёд и представляем насколько доступнее и реалистичнее будут такие эксперименты с технологиями🥷(этот техно-шиноби, точно уже станет человеком-армией🌚)
🔥7🎃1
This media is not supported in your browser
VIEW IN TELEGRAM
вот что бывает, когда инженер покупает домой робота🤖 1-2 года и создаст себе робота человека-паука🌚
👻12🌚1🎃1
Media is too big
VIEW IN TELEGRAM
Делать крутые видео в домашних условиях становится всё проще 👌✨
Veo 3.1, Kling, nano-banana pro +Suno voiceover
Veo 3.1, Kling, nano-banana pro +Suno voiceover
❤11🔥5🏆3
This media is not supported in your browser
VIEW IN TELEGRAM
лучшее применение умной парковки от безумных людей 🌚
1😁24🔥3
Очередной круговорот моделей.. пока сам не проверю, не поверю. Но так и происходит прогресс...🤓 (если нас нигде не нае🥳🥳 с этими бенчмарками)
И что-то не вижу тестов на SimpleBench🤔
Главный упор: Кодинг, математика и сложные рассуждения. (отрыв от Google не такой уж большой, такое ощущение, что релиз был только ради SWE Bench) Но Google всё ещё удерживает лидерство в работе с длинными контекстом, эрудицией и логикой. В общем, отчаянная попытка OpenAI вернуть разработчиков и инженеров обратно на свою платформу.
ну и то что у Google в канвасе можно целые мини-приложения создавать и пользоваться Nanobanana2 pro, в общем я остаюсь на подписке gemini (но gpt 5.2 потом протестирую ради интереса)
И что-то не вижу тестов на SimpleBench🤔
Главный упор: Кодинг, математика и сложные рассуждения. (отрыв от Google не такой уж большой, такое ощущение, что релиз был только ради SWE Bench) Но Google всё ещё удерживает лидерство в работе с длинными контекстом, эрудицией и логикой. В общем, отчаянная попытка OpenAI вернуть разработчиков и инженеров обратно на свою платформу.
ну и то что у Google в канвасе можно целые мини-приложения создавать и пользоваться Nanobanana2 pro, в общем я остаюсь на подписке gemini (но gpt 5.2 потом протестирую ради интереса)
💯4😁3🌚1