🚨 Новые утечки про “железо” OpenAI: похоже, они реально готовят **замену AirPods**.
Что слили:
🎧 Это аудио-носима (wearable), которую делают как “следующую платформу” вместо наушников
🧩 Кодовое имя: Sweetpea
👀 Внешний вид: металлический “eggstone” + две маленькие капсулы за ухом
⚙️ Железо: ставка на 2nm-чип + возможный кастомный чип для “действий как у телефона”
📦 Амбиции дикие: 40–50 млн устройств в первый год (это почти уровень AirPods по масштабу)
И это только начало: по утечкам Foxconn готовится к массовому производству сразу 5 устройств к Q4 2028 — среди них упоминаются:
- домашний девайс
- “ручка” (pen/stylus)
Если это правда — OpenAI явно строит целую линейку новой экосистемы, а не “один гаджет ради хайпа”.
https://x.com/zhihuipikachu/status/2010745618734759946
Что слили:
🎧 Это аудио-носима (wearable), которую делают как “следующую платформу” вместо наушников
🧩 Кодовое имя: Sweetpea
👀 Внешний вид: металлический “eggstone” + две маленькие капсулы за ухом
⚙️ Железо: ставка на 2nm-чип + возможный кастомный чип для “действий как у телефона”
📦 Амбиции дикие: 40–50 млн устройств в первый год (это почти уровень AirPods по масштабу)
И это только начало: по утечкам Foxconn готовится к массовому производству сразу 5 устройств к Q4 2028 — среди них упоминаются:
- домашний девайс
- “ручка” (pen/stylus)
Если это правда — OpenAI явно строит целую линейку новой экосистемы, а не “один гаджет ради хайпа”.
https://x.com/zhihuipikachu/status/2010745618734759946
❤6👍2🔥1😢1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Мо Гавдат (бывший Google CBO): самое интересное, о чём почти не говорят - самоэволюционирующий ИИ
“Главный инженер мира со временем станет ИИ.
И тогда вопрос простой:
Поэтому AGI - это уже не просто технология.
Это вопрос национальной стратегической важности.”
Суть мысли очень жёсткая, если ИИ становится лучшим разработчиком ИИ, то прогресс начинает ускоряться сам по себе - без человеческого лимита.
И тогда гонка идёт не за “ещё одну модель”.
А за того, кто первым получит систему, способную улучшать саму себя.
“Главный инженер мира со временем станет ИИ.
И тогда вопрос простой:
кого вы наймёте, чтобы создавать следующий ИИ?
— Конечно, этот ИИ.
Поэтому AGI - это уже не просто технология.
Это вопрос национальной стратегической важности.”
Суть мысли очень жёсткая, если ИИ становится лучшим разработчиком ИИ, то прогресс начинает ускоряться сам по себе - без человеческого лимита.
И тогда гонка идёт не за “ещё одну модель”.
А за того, кто первым получит систему, способную улучшать саму себя.
😁6👍3😢3
🌊⚙️ Wavelet Matrix: Эффективная структура для работы с последовательностями
Wavelet Matrix — это высокопроизводительная структура данных для индексированных последовательностей, обеспечивающая быстрые запросы по диапазону и динамическим обновлениям. Она поддерживает операции ранжирования, выбора и вычисления квантилей.
🚀Основные моменты:
- Высокая производительность для работы с большими данными.
- Поддержка динамических обновлений.
- Удобные методы для анализа и манипуляции данными.
📌 GitHub: https://github.com/math-hiyoko/wavelet-matrix
#rust
Wavelet Matrix — это высокопроизводительная структура данных для индексированных последовательностей, обеспечивающая быстрые запросы по диапазону и динамическим обновлениям. Она поддерживает операции ранжирования, выбора и вычисления квантилей.
🚀Основные моменты:
- Высокая производительность для работы с большими данными.
- Поддержка динамических обновлений.
- Удобные методы для анализа и манипуляции данными.
📌 GitHub: https://github.com/math-hiyoko/wavelet-matrix
#rust
GitHub
GitHub - math-hiyoko/wavelet-matrix: wavelet-matrix library for Python
wavelet-matrix library for Python. Contribute to math-hiyoko/wavelet-matrix development by creating an account on GitHub.
❤1👍1🔥1
Media is too big
VIEW IN TELEGRAM
🧠 Sakana AI выпустили RePo - модуль, который делает LLM устойчивее к шуму и длинным текстам
Проблема обычных LLM:
они читают контекст как “ленту токенов”.
Если важная инфа далеко, а рядом куча мусора - внимание размазывается, и качество падает.
✅ RePo (Context Re-Positioning) решает это так:
модель учится переставлять контекст по смыслу:
- важное “подтягивает” ближе
- шум “отодвигает” дальше
И это даёт сильный рост качества именно там, где LLM обычно ломаются.
📊 Результаты в цифрах (главное)
✅ Noisy Context (контекст с шумом)
Среднее по 8 noisy-бенчмаркам:
- Обычный RoPE: 21.07
- RePo: 28.31
📈 Прирост: +7.24 пункта (очень много)
Отдельно авторы фиксируют:
RePo лучше RoPE на noisy-eval на +11.04 пункта (4K контекст).
🔥 Примеры по задачам:
- TriviaQA: 61.47 → 73.02 (**+11.55**)
- GovReport: 6.23 → 16.80 (**+10.57**)
- 2WikiMultihopQA: 23.32 → 30.86 (**+7.54**)
- MuSiQue: 7.24 → 13.45 (**+6.21**)
✅ Длинные контексты (8K / 16K)
Самое важное:
преимущество RePo не исчезает, а растёт на 8K и 16K,
даже если такие длины не встречались в обучении.
Итог:
RePo - это шаг к LLM, которые не просто “читают” промпт,
а сами наводят порядок в памяти: главное ближе, шум дальше.
Paper: arxiv.org/abs/2512.14391
Видео: https://youtu.be/cqWiBIbMK80
Проблема обычных LLM:
они читают контекст как “ленту токенов”.
Если важная инфа далеко, а рядом куча мусора - внимание размазывается, и качество падает.
✅ RePo (Context Re-Positioning) решает это так:
модель учится переставлять контекст по смыслу:
- важное “подтягивает” ближе
- шум “отодвигает” дальше
И это даёт сильный рост качества именно там, где LLM обычно ломаются.
📊 Результаты в цифрах (главное)
✅ Noisy Context (контекст с шумом)
Среднее по 8 noisy-бенчмаркам:
- Обычный RoPE: 21.07
- RePo: 28.31
📈 Прирост: +7.24 пункта (очень много)
Отдельно авторы фиксируют:
RePo лучше RoPE на noisy-eval на +11.04 пункта (4K контекст).
🔥 Примеры по задачам:
- TriviaQA: 61.47 → 73.02 (**+11.55**)
- GovReport: 6.23 → 16.80 (**+10.57**)
- 2WikiMultihopQA: 23.32 → 30.86 (**+7.54**)
- MuSiQue: 7.24 → 13.45 (**+6.21**)
✅ Длинные контексты (8K / 16K)
Самое важное:
преимущество RePo не исчезает, а растёт на 8K и 16K,
даже если такие длины не встречались в обучении.
Итог:
RePo - это шаг к LLM, которые не просто “читают” промпт,
а сами наводят порядок в памяти: главное ближе, шум дальше.
Paper: arxiv.org/abs/2512.14391
Видео: https://youtu.be/cqWiBIbMK80
❤4🔥3👍2
🧠 Claude HUD: Инструмент для улучшения работы с Claude Code
Claude HUD предоставляет визуальную информацию о текущем состоянии вашей сессии в Claude Code. Он показывает активные инструменты, статус агентов и прогресс задач, оставаясь всегда на виду под вашим вводом.
🚀Основные моменты:
- Отображает текущее имя проекта и состояние контекста
- Следит за активностью инструментов и агентов в реальном времени
- Обновляет данные каждые ~300 мс
- Работает без отдельного окна, интегрируясь в терминал
📌 GitHub: https://github.com/jarrodwatts/claude-hud
Claude HUD предоставляет визуальную информацию о текущем состоянии вашей сессии в Claude Code. Он показывает активные инструменты, статус агентов и прогресс задач, оставаясь всегда на виду под вашим вводом.
🚀Основные моменты:
- Отображает текущее имя проекта и состояние контекста
- Следит за активностью инструментов и агентов в реальном времени
- Обновляет данные каждые ~300 мс
- Работает без отдельного окна, интегрируясь в терминал
📌 GitHub: https://github.com/jarrodwatts/claude-hud
GitHub
GitHub - jarrodwatts/claude-hud: A Claude Code plugin that shows what's happening - context usage, active tools, running agents…
A Claude Code plugin that shows what's happening - context usage, active tools, running agents, and todo progress - jarrodwatts/claude-hud
❤4👍3🔥2
Forwarded from Python RU
🔥 На stepik вышел курс, который учит Создавать настоящие AI-сервисы, а не просто запускать скрипты?
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует скидка в 40% процентов
👉 Начать учиться на Stepik
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует скидка в 40% процентов
👉 Начать учиться на Stepik
🔥3❤2👍2
🚀 Легкий плагин для оркестрации агентов OpenCode
oh-my-opencode-slim — это облегченная версия плагина, позволяющая вашему ИИ-ассистенту управлять сложными задачами через специализированные подагенты. С минимальным потреблением токенов, он идеально подходит для многозадачности и фоновых поисков.
🚀 Основные моменты:
- Легкая интеграция с Antigravity для оптимальной работы.
- Поддержка многопоточных рабочих процессов.
- Настраиваемые модели для каждого агента.
- Эффективное управление задачами с помощью специализированных агентов.
📌 GitHub: https://github.com/alvinunreal/oh-my-opencode-slim
#python
oh-my-opencode-slim — это облегченная версия плагина, позволяющая вашему ИИ-ассистенту управлять сложными задачами через специализированные подагенты. С минимальным потреблением токенов, он идеально подходит для многозадачности и фоновых поисков.
🚀 Основные моменты:
- Легкая интеграция с Antigravity для оптимальной работы.
- Поддержка многопоточных рабочих процессов.
- Настраиваемые модели для каждого агента.
- Эффективное управление задачами с помощью специализированных агентов.
📌 GitHub: https://github.com/alvinunreal/oh-my-opencode-slim
#python
❤3🔥2👎1🥰1
PyTorch 2.10 - что нового (коротко и по делу)
PyTorch выпустили версию 2.10 - релиз с упором на ускорение компиляции/инференса и отладку численных расхождений, что особенно полезно в больших distributed-тренировках.
Главное по фичам:
• torch.compile + Python 3.14
Добавили поддержку Python 3.14, включая экспериментальный freethreaded build (3.14t).
• Меньше overhead на GPU (horizontal fusion)
TorchInductor теперь лучше объединяет независимые операции в один GPU kernel, уменьшая kernel launch overhead и ускоряя пайплайны.
• varlen_attn() - attention для variable-length входов
Появилась новая опа в
- работает и на forward, и на backward
- хорошо дружит с
- сейчас через FlashAttention2, дальше планируют поддержку через cuDNN/FA4
- CUDA (A100+), dtype BF16/FP16
• Быстрее eigendecomposition на GPU
В
Отладка / детерминизм:
• torch.compile теперь уважает deterministic mode
Если включить
• DebugMode для поиска numerical divergence
Новый режим для диагностики:
- логирование dispatch
- tensor hashing (видно, где именно “поехали” тензоры)
- dispatch hooks для заметок и аннотаций
Ещё важное:
• TorchScript официально deprecated
Рекомендуемый путь вперёд - torch.export.
• tlparse + TORCH_TRACE
Упростили сбор трассировок и артефактов, чтобы легче репортить баги в компиляторе.
• Релизы чаще в 2026
Планируют перейти на релиз раз в 2 месяца (вместо quarterly).
https://pytorch.org/blog/pytorch-2-10-release-blog/
#PyTorch #OpenSourceAI #AIInfrastructure
PyTorch выпустили версию 2.10 - релиз с упором на ускорение компиляции/инференса и отладку численных расхождений, что особенно полезно в больших distributed-тренировках.
Главное по фичам:
• torch.compile + Python 3.14
Добавили поддержку Python 3.14, включая экспериментальный freethreaded build (3.14t).
• Меньше overhead на GPU (horizontal fusion)
TorchInductor теперь лучше объединяет независимые операции в один GPU kernel, уменьшая kernel launch overhead и ускоряя пайплайны.
• varlen_attn() - attention для variable-length входов
Появилась новая опа в
torch.nn.attention для ragged/packed последовательностей:- работает и на forward, и на backward
- хорошо дружит с
torch.compile- сейчас через FlashAttention2, дальше планируют поддержку через cuDNN/FA4
- CUDA (A100+), dtype BF16/FP16
• Быстрее eigendecomposition на GPU
В
torch.linalg ускорили eigen decomposition на NVIDIA за счёт cuSOLVER DnXgeev.Отладка / детерминизм:
• torch.compile теперь уважает deterministic mode
Если включить
torch.use_deterministic_algorithms(True), то torch.compile сохранит детерминированность между запусками - удобно для дебага.• DebugMode для поиска numerical divergence
Новый режим для диагностики:
- логирование dispatch
- tensor hashing (видно, где именно “поехали” тензоры)
- dispatch hooks для заметок и аннотаций
Ещё важное:
• TorchScript официально deprecated
Рекомендуемый путь вперёд - torch.export.
• tlparse + TORCH_TRACE
Упростили сбор трассировок и артефактов, чтобы легче репортить баги в компиляторе.
• Релизы чаще в 2026
Планируют перейти на релиз раз в 2 месяца (вместо quarterly).
https://pytorch.org/blog/pytorch-2-10-release-blog/
#PyTorch #OpenSourceAI #AIInfrastructure
🔥9👍3🥰2❤1
🧠 Google: сильные reasoning-модели начинают “думать как несколько агентов”
Исследователи Google заметили, что продвинутые модели рассуждений становятся умнее не только из-за большего времени на размышления или роста параметров.
Важнее другое: такие модели сами по себе начинают разыгрывать внутри “мульти-агентный” процесс - как будто несколько разных точек зрения обсуждают задачу.
Внутри появляется условная “команда”:
- разные роли/персоны предлагают идеи
- спорят и проверяют аргументы
- затем сходятся на лучшем решении
Именно эти внутренние мини-дебаты помогают лучше справляться со сложными задачами.
https://arxiv.org/abs/2601.10825
Исследователи Google заметили, что продвинутые модели рассуждений становятся умнее не только из-за большего времени на размышления или роста параметров.
Важнее другое: такие модели сами по себе начинают разыгрывать внутри “мульти-агентный” процесс - как будто несколько разных точек зрения обсуждают задачу.
Внутри появляется условная “команда”:
- разные роли/персоны предлагают идеи
- спорят и проверяют аргументы
- затем сходятся на лучшем решении
Именно эти внутренние мини-дебаты помогают лучше справляться со сложными задачами.
https://arxiv.org/abs/2601.10825
❤5🔥3👍2😁1
🛠️ Универсальный рынок навыков для AI-агентов
n-skills — это курируемая платформа, предлагающая универсальные форматы навыков для различных AI-агентов. Она поддерживает интеграцию с популярными инструментами, такими как GitHub Copilot и OpenAI Codex, обеспечивая совместимость и простоту использования.
🚀Основные моменты:
- Курируемый рынок навыков для AI-агентов
- Поддержка множества платформ и инструментов
- Универсальный формат SKILL.md для навыков
- Автоматическая синхронизация с внешними репозиториями
- Возможность добавления новых навыков
📌 GitHub: https://github.com/numman-ali/n-skills
#markdown
n-skills — это курируемая платформа, предлагающая универсальные форматы навыков для различных AI-агентов. Она поддерживает интеграцию с популярными инструментами, такими как GitHub Copilot и OpenAI Codex, обеспечивая совместимость и простоту использования.
🚀Основные моменты:
- Курируемый рынок навыков для AI-агентов
- Поддержка множества платформ и инструментов
- Универсальный формат SKILL.md для навыков
- Автоматическая синхронизация с внешними репозиториями
- Возможность добавления новых навыков
📌 GitHub: https://github.com/numman-ali/n-skills
#markdown
GitHub
GitHub - numman-ali/n-skills: Curated plugin marketplace for AI agents - works with Claude Code, Codex, and openskills
Curated plugin marketplace for AI agents - works with Claude Code, Codex, and openskills - numman-ali/n-skills
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Простой анализ настроений с использованием Hugging Face Transformer
Используйте библиотеку
Ниже представлен код, который загружает предобученную модель и делает прогноз на входном тексте.
#junior
Используйте библиотеку
transformers от Hugging Face для легкой интеграции моделей машинного обучения в ваши проекты. Ниже представлен код, который загружает предобученную модель и делает прогноз на входном тексте.
from transformers import pipeline
# Загружаем модель для анализа настроений
sentiment_analysis = pipeline("sentiment-analysis")
# Пример текста для анализа
text = "Я очень доволен результатом работы этой команды!"
# Выполняем анализ настроений
results = sentiment_analysis(text)
# Выводим результаты
for result in results:
print(f"Настроение: {result['label']}, Уверенность: {round(result['score'], 2)}")
#junior
❤3👍2🔥2
🎥 Управляйте 3D-камерами с ComfyUI
ComfyUI-qwenmultiangle — это настраиваемый узел для управления углами 3D-камеры в ComfyUI. Он предлагает интерактивный интерфейс на основе Three.js для регулировки углов и масштабирования, а также выводит формализованные строки запросов для генерации изображений с разных ракурсов.
🚀Основные моменты:
- Интерактивное управление углом и масштабом камеры
- Быстрый выбор предустановленных углов через выпадающие меню
- Реальный просмотр сцены в 3D
- Поддержка нескольких языков интерфейса
- Совместимость с Qwen-Image-Edit для генерации изображений
📌 GitHub: https://github.com/jtydhr88/ComfyUI-qwenmultiangle
#typescript
ComfyUI-qwenmultiangle — это настраиваемый узел для управления углами 3D-камеры в ComfyUI. Он предлагает интерактивный интерфейс на основе Three.js для регулировки углов и масштабирования, а также выводит формализованные строки запросов для генерации изображений с разных ракурсов.
🚀Основные моменты:
- Интерактивное управление углом и масштабом камеры
- Быстрый выбор предустановленных углов через выпадающие меню
- Реальный просмотр сцены в 3D
- Поддержка нескольких языков интерфейса
- Совместимость с Qwen-Image-Edit для генерации изображений
📌 GitHub: https://github.com/jtydhr88/ComfyUI-qwenmultiangle
#typescript
❤1👍1
🧠 Mozilla собирает “повстанческий альянс” в мире AI
Mozilla использует свои $1.4 млрд резервов и open-source ДНК, чтобы поддержать прозрачные и надежные альтернативы AI от Big Tech.
Через Mozilla Ventures и инициативу Mozilla.ai фонд инвестирует в ранние стартапы, которые бросают вызов доминированию OpenAI, Anthropic и других гигантов.
В альянс уже входят проекты вроде Trail, Transformer Lab и Oumi.
Цель — не просто стартапы, а формирование устойчивой open-source экосистемы для разработки AI.
Идея в том, чтобы будущее AI не оказалось полностью под контролем нескольких корпораций, а строилось на открытых технологиях, прозрачности и общественных интересах.
Это попытка вернуть AI к корням интернета - открытому, децентрализованному и доступному.
Mozilla использует свои $1.4 млрд резервов и open-source ДНК, чтобы поддержать прозрачные и надежные альтернативы AI от Big Tech.
Через Mozilla Ventures и инициативу Mozilla.ai фонд инвестирует в ранние стартапы, которые бросают вызов доминированию OpenAI, Anthropic и других гигантов.
В альянс уже входят проекты вроде Trail, Transformer Lab и Oumi.
Цель — не просто стартапы, а формирование устойчивой open-source экосистемы для разработки AI.
Идея в том, чтобы будущее AI не оказалось полностью под контролем нескольких корпораций, а строилось на открытых технологиях, прозрачности и общественных интересах.
Это попытка вернуть AI к корням интернета - открытому, децентрализованному и доступному.
👍25❤9🔥9
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 NovaSR - крошечная open-source модель, которая ускоряет обработку аудио в сотни раз
Вышел релиз NovaSR - маленькая, но очень мощная модель для улучшения качества аудио.
Самый громкий факт:
⚡️ 3600 секунд аудио за 1 секунду
То есть целый час звука обрабатывается практически мгновенно - на порядки быстрее прошлых решений.
Зачем это нужно
NovaSR полезна везде, где есть “сырой” звук:
✅ улучшение TTS-озвучки (делает голос чище и приятнее)
✅ улучшение качества датасетов (для обучения ASR/TTS/voice моделей)
✅ очистка и восстановление созвонов / звонков / записей
✅ быстрый preprocessing перед ML пайплайном
Это как “апскейлер” для звука:
меньше шумов, больше чёткости, лучше разборчивость.
Ссылки:
Repo: https://github.com/ysharma3501/NovaSR
Model: https://huggingface.co/YatharthS/NovaSR
Если работаешь с TTS / ASR / аудио-датасетами - это must-have тулза.
Вышел релиз NovaSR - маленькая, но очень мощная модель для улучшения качества аудио.
Самый громкий факт:
⚡️ 3600 секунд аудио за 1 секунду
То есть целый час звука обрабатывается практически мгновенно - на порядки быстрее прошлых решений.
Зачем это нужно
NovaSR полезна везде, где есть “сырой” звук:
✅ улучшение TTS-озвучки (делает голос чище и приятнее)
✅ улучшение качества датасетов (для обучения ASR/TTS/voice моделей)
✅ очистка и восстановление созвонов / звонков / записей
✅ быстрый preprocessing перед ML пайплайном
Это как “апскейлер” для звука:
меньше шумов, больше чёткости, лучше разборчивость.
Ссылки:
Repo: https://github.com/ysharma3501/NovaSR
Model: https://huggingface.co/YatharthS/NovaSR
Если работаешь с TTS / ASR / аудио-датасетами - это must-have тулза.
👍9❤4🔥1🥰1
🎤 Lex Fridman: большой разговор про ИИ в 2026 - от железа и LLM до AGI и будущего цивилизации.
Новый большой эпизод о том, куда движется AI прямо сейчас и что нас ждёт дальше: прорывы, scaling laws, закрытые и open-source LLM, инструменты для разработчиков, гонка Китай vs США, детали обучения моделей, будущее работы и многое другое.
В беседе участвуют два интересных человека из AI-комьюнити:
• Sebastian Raschka - исследователь, инженер и один из лучших AI-объяснителей
• Nathan Lambert - ML-ресёрчер и инженер, глубоко в теме LLM
Разговор получился ураганным: от жёсткого технарства до философии будущего.
Основные темы:
• Кто выигрывает AI-гонку: Китай или США
• ChatGPT vs Claude vs Gemini vs Grok
• Лучшие AI-инструменты для программирования (Claude Code, Cursor и др.)
• Open Source vs Closed Source LLM
• Как эволюционировали трансформеры с 2019 года
• Scaling laws — всё ещё работают или уже ломаются
• Как реально обучаются современные модели: pre-training, mid-training, post-training
• Новые направления в post-training
• Как новичку войти в AI-разработку и исследования
• Культура работы в AI (72+ часов в неделю)
• Пузырь Кремниевой долины
• Diffusion для текста и другие новые направления
• Tool use, continual learning, long context
• Робототехника
• Сроки до AGI и где всё может пойти не так
• Заменит ли ИИ программистов
• Умирает ли мечта об AGI
• Как ИИ будет зарабатывать деньги
• Крупные сделки и поглощения
• Будущее OpenAI, Anthropic, Google DeepMind, xAI, Meta
• «Манхэттенский проект» для ИИ
• Будущее NVIDIA, GPU и AI-кластеров
• И даже-— будущее человеческой цивилизации
YouTube: https://youtube.com/watch?v=EV7WhVT270Q
Spotify: https://open.spotify.com/show/2MAi0BvDc6GTFvKFPXnkCL
Podcast: https://lexfridman.com/podcast
X: https://x.com/lexfridman/status/2017735625227833850
Новый большой эпизод о том, куда движется AI прямо сейчас и что нас ждёт дальше: прорывы, scaling laws, закрытые и open-source LLM, инструменты для разработчиков, гонка Китай vs США, детали обучения моделей, будущее работы и многое другое.
В беседе участвуют два интересных человека из AI-комьюнити:
• Sebastian Raschka - исследователь, инженер и один из лучших AI-объяснителей
• Nathan Lambert - ML-ресёрчер и инженер, глубоко в теме LLM
Разговор получился ураганным: от жёсткого технарства до философии будущего.
Основные темы:
• Кто выигрывает AI-гонку: Китай или США
• ChatGPT vs Claude vs Gemini vs Grok
• Лучшие AI-инструменты для программирования (Claude Code, Cursor и др.)
• Open Source vs Closed Source LLM
• Как эволюционировали трансформеры с 2019 года
• Scaling laws — всё ещё работают или уже ломаются
• Как реально обучаются современные модели: pre-training, mid-training, post-training
• Новые направления в post-training
• Как новичку войти в AI-разработку и исследования
• Культура работы в AI (72+ часов в неделю)
• Пузырь Кремниевой долины
• Diffusion для текста и другие новые направления
• Tool use, continual learning, long context
• Робототехника
• Сроки до AGI и где всё может пойти не так
• Заменит ли ИИ программистов
• Умирает ли мечта об AGI
• Как ИИ будет зарабатывать деньги
• Крупные сделки и поглощения
• Будущее OpenAI, Anthropic, Google DeepMind, xAI, Meta
• «Манхэттенский проект» для ИИ
• Будущее NVIDIA, GPU и AI-кластеров
• И даже-— будущее человеческой цивилизации
Это срез состояния индустрии в моменте, где AI перестаёт быть «фичей» и становится инфраструктурой мира.
YouTube: https://youtube.com/watch?v=EV7WhVT270Q
Spotify: https://open.spotify.com/show/2MAi0BvDc6GTFvKFPXnkCL
Podcast: https://lexfridman.com/podcast
X: https://x.com/lexfridman/status/2017735625227833850
❤3👍3🥰1
Эксперты из ML/AI Хаба «Магнита» зовут на митап, чтобы поделиться реальным опытом применения машинного обучения в бизнес-процессах.
19.02 | Москва | Офлайн + онлайн
Сбор гостей с 18:00
DJ • Welcome🟪 Магнит и AI: как мы строим ML и куда движемся (Алексей Четыркин, MAGNIT TECH, Chief of AI/ML)🟪 Доступность товара: от фильтрующих деревьев до CUSUM и GEE-тестов (Ян Пиле, MAGNIT TECH, Head of OSA)🟪 Опять AI, да сколько можно? Только практические кейсы без воды (Александр Толмачев, ex-Ozon, CDO и председатель комитета данных)🟪 Нетворкинг с ML-лидами и инженерами
DJ • F&B • Good vibes
Модератор: Максим Покусенко, MAGNIT TECH, Head of ML (Logistics & R&D)
Занимайте место: офлайн — в московском офисе MAGNIT TECH (м. Белорусская), или получите ссылку на онлайн трансляцию после регистрации.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥4
🚀 Квантовые процессоры Google могут стать в 1 000 раз эффективнее благодаря новому кубиту из Принстона.
Учёные из Принстона разработали сверхпроводящий кубит с сильно увеличенным временем когерентности - миллисекунды вместо микросекунд, которые считаются нормой в современных квантовых чипах.
Проще говоря:
кубит гораздо дольше «держит» своё квантовое состояние, не разваливаясь из-за шума.
За счёт чего получен прорыв:
- использование тантала
- высокочистый кремний
- резкое снижение потерь энергии в структуре кубита
Почему это критично для квантовых вычислений:
- больше времени когерентности -> меньше ошибок
- меньше ошибок -> меньше коррекции ошибок
- меньше коррекции -> больше полезных вычислений
- при росте системы эффект усиливается
Главное:
если такой кубит встроить в существующие квантовые процессоры (включая платформы Google), эффективная производительность может вырасти примерно в 1 000 раз без изменения алгоритмов и софта.
Важно понимать:
- это не оптимизация кода
- это не трюк с алгоритмами
- это фундаментальный прорыв в материалах и производстве
Именно такие улучшения на уровне физики чаще всего и меняют траекторию развития технологий целиком.
Учёные из Принстона разработали сверхпроводящий кубит с сильно увеличенным временем когерентности - миллисекунды вместо микросекунд, которые считаются нормой в современных квантовых чипах.
Проще говоря:
кубит гораздо дольше «держит» своё квантовое состояние, не разваливаясь из-за шума.
За счёт чего получен прорыв:
- использование тантала
- высокочистый кремний
- резкое снижение потерь энергии в структуре кубита
Почему это критично для квантовых вычислений:
- больше времени когерентности -> меньше ошибок
- меньше ошибок -> меньше коррекции ошибок
- меньше коррекции -> больше полезных вычислений
- при росте системы эффект усиливается
Главное:
если такой кубит встроить в существующие квантовые процессоры (включая платформы Google), эффективная производительность может вырасти примерно в 1 000 раз без изменения алгоритмов и софта.
Важно понимать:
- это не оптимизация кода
- это не трюк с алгоритмами
- это фундаментальный прорыв в материалах и производстве
Именно такие улучшения на уровне физики чаще всего и меняют траекторию развития технологий целиком.
🔥15👍3❤2🥰1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Codex для Mac - среда, где можно запускать сразу несколько агентов для кодинга. Основной упор сделан на параллельные задачи: агенты работают в разных потоках и сгруппированы по проектам, так что между ними удобно переключаться, не теряя контекст.
Разработчикам пригодится нативная поддержка git-worktrees. Можно натравить несколько агентов на один репозиторий в изолированных копиях: они не будут мешать друг другу и не изменят локальное состояние веток до финального ревью. Также добавили «Автоматизации» — это для фоновой рутины вроде разбора тикетов или анализа логов CI по расписанию.
Приложение использует нативный сэндбоксинг: по умолчанию агенты ограничены текущей директорией и требуют подтверждения для сетевых запросов. Доступ уже открыт для подписчиков Plus, Pro и Enterprise, а на ограниченное время Codex стал доступен и на free тарифе ChatGPT.
openai.com
Полупроводниковое подразделение Alibaba, T-Head, поставила более 100 тыс. единиц своих ускорителей, обойдя локального конкурента Cambricon. Источники утверждают, что по производительности новинка сопоставима с Nvidia H20 - максимальным решением, доступным для легального ввоза в Китай.
Zhenwu 810E оснащен 96 ГБ памяти HBM2e с пропускной способностью до 700 ГБ/с. Хотя Nvidia H200 мощнее, Alibaba предлагает в качестве альтернативы полный технологический стек: от собственного облачного софта до железа, которое уже используется в собственных дата-центрах и у внешних клиентов.
scmp.com
Обновленная версия генерирует видео в разрешении 720p длительностью до 10 секунд. Помимо визуальной части, разработчики существенно улучшили качество аудиодорожек и логику взаимодействия: Grok теперь точнее интерпретирует запросы и научился задавать уточняющие вопросы для лучшего результата.
Популярность инструмента растет - за последние 30 дней в Grok Imagine сегерировали более 1,2 млрд. видео.
xAI в сети Х
Adobe пересмотрела правила игры для сервиса Firefly. Теперь пользователи тарифов Pro, Premium и владельцы крупных пакетов кредитов (от 4000) получили безлимитный доступ к генерации картинок и видео.
Самое интересное в этом обновлении - интеграция сторонних моделей. Теперь в интерфейсе Adobe (и в вебе, и в приложениях) можно использовать безлимитно не только родные алгоритмы модели, но и Runway Gen-4, Nano Banana Pro и GPT Image Generation.
Если планируете пользоваться Firefly постоянно, стоит поторопиться: закрепить за собой безлимитный доступ можно только при оформлении подписки до 16 марта.
blog.adobe.com
Флагманская Text-to-Speech модель, Eleven v3, официально вышла из стадии альфа-тестирования и стала доступной для коммерческого использования. Основной упор в финальной версии сделан на точность интерпретации сложных данных, где чтение символов критически зависит от окружения.
Инженеры значительно доработали логику озвучивания телефонных номеров в международном формате, химических формул, валют и спортивных результатов. Внутренние тесты на 27 категориях показали снижение уровня ошибок интерпретации на 68% - показатель упал с 15,3% до 4,9%. Модель уже доступна на всех поддерживаемых платформах.
elevenlabs.io
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1🔥1