Машинное обучение RU
17.8K subscribers
1.61K photos
219 videos
11 files
2.07K links
Все о машинном обучении

админ - @workakkk

@data_analysis_ml - анализ даннных

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram -лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python 📚

@datascienceiot - 📚

РКН: clck.ru/3FmrUw
Download Telegram
🚨 Новые утечки про “железо” OpenAI: похоже, они реально готовят **замену AirPods**.

Что слили:

🎧 Это аудио-носима (wearable), которую делают как “следующую платформу” вместо наушников
🧩 Кодовое имя: Sweetpea
👀 Внешний вид: металлический “eggstone” + две маленькие капсулы за ухом
⚙️ Железо: ставка на 2nm-чип + возможный кастомный чип для “действий как у телефона”
📦 Амбиции дикие: 40–50 млн устройств в первый год (это почти уровень AirPods по масштабу)

И это только начало: по утечкам Foxconn готовится к массовому производству сразу 5 устройств к Q4 2028 — среди них упоминаются:
- домашний девайс
- “ручка” (pen/stylus)

Если это правда — OpenAI явно строит целую линейку новой экосистемы, а не “один гаджет ради хайпа”.

https://x.com/zhihuipikachu/status/2010745618734759946
6👍2🔥1😢1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Мо Гавдат (бывший Google CBO): самое интересное, о чём почти не говорят - самоэволюционирующий ИИ

“Главный инженер мира со временем станет ИИ.

И тогда вопрос простой:
кого вы наймёте, чтобы создавать следующий ИИ?
— Конечно, этот ИИ.


Поэтому AGI - это уже не просто технология.
Это вопрос национальной стратегической важности.”


Суть мысли очень жёсткая, если ИИ становится лучшим разработчиком ИИ, то прогресс начинает ускоряться сам по себе - без человеческого лимита.

И тогда гонка идёт не за “ещё одну модель”.

А за того, кто первым получит систему, способную улучшать саму себя.
😁6👍3😢3
🌊⚙️ Wavelet Matrix: Эффективная структура для работы с последовательностями

Wavelet Matrix — это высокопроизводительная структура данных для индексированных последовательностей, обеспечивающая быстрые запросы по диапазону и динамическим обновлениям. Она поддерживает операции ранжирования, выбора и вычисления квантилей.

🚀Основные моменты:
- Высокая производительность для работы с большими данными.
- Поддержка динамических обновлений.
- Удобные методы для анализа и манипуляции данными.

📌 GitHub: https://github.com/math-hiyoko/wavelet-matrix

#rust
1👍1🔥1
Media is too big
VIEW IN TELEGRAM
🧠 Sakana AI выпустили RePo - модуль, который делает LLM устойчивее к шуму и длинным текстам

Проблема обычных LLM:
они читают контекст как “ленту токенов”.
Если важная инфа далеко, а рядом куча мусора - внимание размазывается, и качество падает.

RePo (Context Re-Positioning) решает это так:
модель учится переставлять контекст по смыслу:
- важное “подтягивает” ближе
- шум “отодвигает” дальше

И это даёт сильный рост качества именно там, где LLM обычно ломаются.

📊 Результаты в цифрах (главное)

Noisy Context (контекст с шумом)
Среднее по 8 noisy-бенчмаркам:

- Обычный RoPE: 21.07
- RePo: 28.31

📈 Прирост: +7.24 пункта (очень много)

Отдельно авторы фиксируют:
RePo лучше RoPE на noisy-eval на +11.04 пункта (4K контекст).

🔥 Примеры по задачам:
- TriviaQA: 61.47 → 73.02 (**+11.55**)
- GovReport: 6.23 → 16.80 (**+10.57**)
- 2WikiMultihopQA: 23.32 → 30.86 (**+7.54**)
- MuSiQue: 7.24 → 13.45 (**+6.21**)

Длинные контексты (8K / 16K)
Самое важное:
преимущество RePo не исчезает, а растёт на 8K и 16K,
даже если такие длины не встречались в обучении.

Итог:
RePo - это шаг к LLM, которые не просто “читают” промпт,
а сами наводят порядок в памяти: главное ближе, шум дальше.

Paper: arxiv.org/abs/2512.14391
Видео: https://youtu.be/cqWiBIbMK80
4🔥3👍2
🧠 Claude HUD: Инструмент для улучшения работы с Claude Code

Claude HUD предоставляет визуальную информацию о текущем состоянии вашей сессии в Claude Code. Он показывает активные инструменты, статус агентов и прогресс задач, оставаясь всегда на виду под вашим вводом.

🚀Основные моменты:
- Отображает текущее имя проекта и состояние контекста
- Следит за активностью инструментов и агентов в реальном времени
- Обновляет данные каждые ~300 мс
- Работает без отдельного окна, интегрируясь в терминал

📌 GitHub: https://github.com/jarrodwatts/claude-hud
4👍3🔥2
Forwarded from Python RU
🔥 На stepik вышел курс, который учит Создавать настоящие AI-сервисы, а не просто запускать скрипты?

Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.

Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.

Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.

🎁 48 часов действует скидка в 40% процентов

👉 Начать учиться на Stepik
🔥32👍2
🚀 Легкий плагин для оркестрации агентов OpenCode

oh-my-opencode-slim — это облегченная версия плагина, позволяющая вашему ИИ-ассистенту управлять сложными задачами через специализированные подагенты. С минимальным потреблением токенов, он идеально подходит для многозадачности и фоновых поисков.

🚀 Основные моменты:
- Легкая интеграция с Antigravity для оптимальной работы.
- Поддержка многопоточных рабочих процессов.
- Настраиваемые модели для каждого агента.
- Эффективное управление задачами с помощью специализированных агентов.

📌 GitHub: https://github.com/alvinunreal/oh-my-opencode-slim

#python
3🔥2👎1🥰1
PyTorch 2.10 - что нового (коротко и по делу)

PyTorch выпустили версию 2.10 - релиз с упором на ускорение компиляции/инференса и отладку численных расхождений, что особенно полезно в больших distributed-тренировках.

Главное по фичам:

torch.compile + Python 3.14
Добавили поддержку Python 3.14, включая экспериментальный freethreaded build (3.14t).

Меньше overhead на GPU (horizontal fusion)
TorchInductor теперь лучше объединяет независимые операции в один GPU kernel, уменьшая kernel launch overhead и ускоряя пайплайны.

varlen_attn() - attention для variable-length входов
Появилась новая опа в torch.nn.attention для ragged/packed последовательностей:
- работает и на forward, и на backward
- хорошо дружит с torch.compile
- сейчас через FlashAttention2, дальше планируют поддержку через cuDNN/FA4
- CUDA (A100+), dtype BF16/FP16

Быстрее eigendecomposition на GPU
В torch.linalg ускорили eigen decomposition на NVIDIA за счёт cuSOLVER DnXgeev.

Отладка / детерминизм:

torch.compile теперь уважает deterministic mode
Если включить torch.use_deterministic_algorithms(True), то torch.compile сохранит детерминированность между запусками - удобно для дебага.

DebugMode для поиска numerical divergence
Новый режим для диагностики:
- логирование dispatch
- tensor hashing (видно, где именно “поехали” тензоры)
- dispatch hooks для заметок и аннотаций

Ещё важное:

TorchScript официально deprecated
Рекомендуемый путь вперёд - torch.export.

tlparse + TORCH_TRACE
Упростили сбор трассировок и артефактов, чтобы легче репортить баги в компиляторе.

Релизы чаще в 2026
Планируют перейти на релиз раз в 2 месяца (вместо quarterly).


https://pytorch.org/blog/pytorch-2-10-release-blog/

#PyTorch #OpenSourceAI #AIInfrastructure
🔥9👍3🥰21
Спасибо, технологический прогресс
🔥119👍5
🧠 Google: сильные reasoning-модели начинают “думать как несколько агентов”

Исследователи Google заметили, что продвинутые модели рассуждений становятся умнее не только из-за большего времени на размышления или роста параметров.

Важнее другое: такие модели сами по себе начинают разыгрывать внутри “мульти-агентный” процесс - как будто несколько разных точек зрения обсуждают задачу.

Внутри появляется условная “команда”:
- разные роли/персоны предлагают идеи
- спорят и проверяют аргументы
- затем сходятся на лучшем решении

Именно эти внутренние мини-дебаты помогают лучше справляться со сложными задачами.

https://arxiv.org/abs/2601.10825
5🔥3👍2😁1
🛠️ Универсальный рынок навыков для AI-агентов

n-skills — это курируемая платформа, предлагающая универсальные форматы навыков для различных AI-агентов. Она поддерживает интеграцию с популярными инструментами, такими как GitHub Copilot и OpenAI Codex, обеспечивая совместимость и простоту использования.

🚀Основные моменты:
- Курируемый рынок навыков для AI-агентов
- Поддержка множества платформ и инструментов
- Универсальный формат SKILL.md для навыков
- Автоматическая синхронизация с внешними репозиториями
- Возможность добавления новых навыков

📌 GitHub: https://github.com/numman-ali/n-skills

#markdown
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Простой анализ настроений с использованием Hugging Face Transformer

Используйте библиотеку transformers от Hugging Face для легкой интеграции моделей машинного обучения в ваши проекты.

Ниже представлен код, который загружает предобученную модель и делает прогноз на входном тексте.


from transformers import pipeline
# Загружаем модель для анализа настроений
sentiment_analysis = pipeline("sentiment-analysis")
# Пример текста для анализа
text = "Я очень доволен результатом работы этой команды!"
# Выполняем анализ настроений
results = sentiment_analysis(text)
# Выводим результаты
for result in results:
print(f"Настроение: {result['label']}, Уверенность: {round(result['score'], 2)}")


#junior
3👍2🔥2
🎥 Управляйте 3D-камерами с ComfyUI

ComfyUI-qwenmultiangle — это настраиваемый узел для управления углами 3D-камеры в ComfyUI. Он предлагает интерактивный интерфейс на основе Three.js для регулировки углов и масштабирования, а также выводит формализованные строки запросов для генерации изображений с разных ракурсов.

🚀Основные моменты:
- Интерактивное управление углом и масштабом камеры
- Быстрый выбор предустановленных углов через выпадающие меню
- Реальный просмотр сцены в 3D
- Поддержка нескольких языков интерфейса
- Совместимость с Qwen-Image-Edit для генерации изображений

📌 GitHub: https://github.com/jtydhr88/ComfyUI-qwenmultiangle

#typescript
1👍1
🧠 Mozilla собирает “повстанческий альянс” в мире AI

Mozilla использует свои $1.4 млрд резервов и open-source ДНК, чтобы поддержать прозрачные и надежные альтернативы AI от Big Tech.

Через Mozilla Ventures и инициативу Mozilla.ai фонд инвестирует в ранние стартапы, которые бросают вызов доминированию OpenAI, Anthropic и других гигантов.

В альянс уже входят проекты вроде Trail, Transformer Lab и Oumi.
Цель — не просто стартапы, а формирование устойчивой open-source экосистемы для разработки AI.

Идея в том, чтобы будущее AI не оказалось полностью под контролем нескольких корпораций, а строилось на открытых технологиях, прозрачности и общественных интересах.

Это попытка вернуть AI к корням интернета - открытому, децентрализованному и доступному.
👍259🔥9
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 NovaSR - крошечная open-source модель, которая ускоряет обработку аудио в сотни раз

Вышел релиз NovaSR - маленькая, но очень мощная модель для улучшения качества аудио.

Самый громкий факт:
⚡️ 3600 секунд аудио за 1 секунду
То есть целый час звука обрабатывается практически мгновенно - на порядки быстрее прошлых решений.

Зачем это нужно
NovaSR полезна везде, где есть “сырой” звук:

улучшение TTS-озвучки (делает голос чище и приятнее)
улучшение качества датасетов (для обучения ASR/TTS/voice моделей)
очистка и восстановление созвонов / звонков / записей
быстрый preprocessing перед ML пайплайном

Это как “апскейлер” для звука:
меньше шумов, больше чёткости, лучше разборчивость.

Ссылки:
Repo: https://github.com/ysharma3501/NovaSR
Model: https://huggingface.co/YatharthS/NovaSR

Если работаешь с TTS / ASR / аудио-датасетами - это must-have тулза.
👍94🔥1🥰1
🎤 Lex Fridman: большой разговор про ИИ в 2026 - от железа и LLM до AGI и будущего цивилизации.

Новый большой эпизод о том, куда движется AI прямо сейчас и что нас ждёт дальше: прорывы, scaling laws, закрытые и open-source LLM, инструменты для разработчиков, гонка Китай vs США, детали обучения моделей, будущее работы и многое другое.

В беседе участвуют два интересных человека из AI-комьюнити:
• Sebastian Raschka - исследователь, инженер и один из лучших AI-объяснителей
• Nathan Lambert - ML-ресёрчер и инженер, глубоко в теме LLM

Разговор получился ураганным: от жёсткого технарства до философии будущего.

Основные темы:

• Кто выигрывает AI-гонку: Китай или США
• ChatGPT vs Claude vs Gemini vs Grok
• Лучшие AI-инструменты для программирования (Claude Code, Cursor и др.)
• Open Source vs Closed Source LLM
• Как эволюционировали трансформеры с 2019 года
• Scaling laws — всё ещё работают или уже ломаются
• Как реально обучаются современные модели: pre-training, mid-training, post-training
• Новые направления в post-training
• Как новичку войти в AI-разработку и исследования
• Культура работы в AI (72+ часов в неделю)
• Пузырь Кремниевой долины
• Diffusion для текста и другие новые направления
• Tool use, continual learning, long context
• Робототехника
• Сроки до AGI и где всё может пойти не так
• Заменит ли ИИ программистов
• Умирает ли мечта об AGI
• Как ИИ будет зарабатывать деньги
• Крупные сделки и поглощения
• Будущее OpenAI, Anthropic, Google DeepMind, xAI, Meta
• «Манхэттенский проект» для ИИ
• Будущее NVIDIA, GPU и AI-кластеров
• И даже-— будущее человеческой цивилизации

Это срез состояния индустрии в моменте, где AI перестаёт быть «фичей» и становится инфраструктурой мира.

YouTube: https://youtube.com/watch?v=EV7WhVT270Q

Spotify: https://open.spotify.com/show/2MAi0BvDc6GTFvKFPXnkCL

Podcast: https://lexfridman.com/podcast

X: https://x.com/lexfridman/status/2017735625227833850
3👍3🥰1
❤️ ML-митап от команды MAGNIT TECH

Эксперты из ML/AI Хаба «Магнита» зовут на митап, чтобы поделиться реальным опытом применения машинного обучения в бизнес-процессах.

19.02 | Москва | Офлайн + онлайн

🎯 Обсудим, что остается "под капотом" ML-решений в крупнейшем ретейле. Без лишних формальностей: в программе диджей и нетворкинг-сессия с экспертами 👇

Сбор гостей с 18:00
DJ • Welcome
🟪Магнит и AI: как мы строим ML и куда движемся (Алексей Четыркин, MAGNIT TECH, Chief of AI/ML)
🟪Доступность товара: от фильтрующих деревьев до CUSUM и GEE-тестов (Ян Пиле, MAGNIT TECH, Head of OSA)
🟪Опять AI, да сколько можно? Только практические кейсы без воды (Александр Толмачев, ex-Ozon, CDO и председатель комитета данных)
🟪Нетворкинг с ML-лидами и инженерами
DJ • F&B • Good vibes

Модератор: Максим Покусенко, MAGNIT TECH, Head of ML (Logistics & R&D)

Занимайте место: офлайн — в московском офисе MAGNIT TECH (м. Белорусская), или получите ссылку на онлайн трансляцию после регистрации.

🟥Участие бесплатное, количество мест офлайн ограничено. До встречи 19 февраля! 🟥
Please open Telegram to view this post
VIEW IN TELEGRAM
7🔥4
🚀 Квантовые процессоры Google могут стать в 1 000 раз эффективнее благодаря новому кубиту из Принстона.

Учёные из Принстона разработали сверхпроводящий кубит с сильно увеличенным временем когерентности - миллисекунды вместо микросекунд, которые считаются нормой в современных квантовых чипах.

Проще говоря:
кубит гораздо дольше «держит» своё квантовое состояние, не разваливаясь из-за шума.

За счёт чего получен прорыв:
- использование тантала
- высокочистый кремний
- резкое снижение потерь энергии в структуре кубита

Почему это критично для квантовых вычислений:
- больше времени когерентности -> меньше ошибок
- меньше ошибок -> меньше коррекции ошибок
- меньше коррекции -> больше полезных вычислений
- при росте системы эффект усиливается

Главное:
если такой кубит встроить в существующие квантовые процессоры (включая платформы Google), эффективная производительность может вырасти примерно в 1 000 раз без изменения алгоритмов и софта.

Важно понимать:
- это не оптимизация кода
- это не трюк с алгоритмами
- это фундаментальный прорыв в материалах и производстве

Именно такие улучшения на уровне физики чаще всего и меняют траекторию развития технологий целиком.
🔥15👍32🥰1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI выпустила приложение Codex для macOS.

Codex для Mac - среда, где можно запускать сразу несколько агентов для кодинга. Основной упор сделан на параллельные задачи: агенты работают в разных потоках и сгруппированы по проектам, так что между ними удобно переключаться, не теряя контекст.

Разработчикам пригодится нативная поддержка git-worktrees. Можно натравить несколько агентов на один репозиторий в изолированных копиях: они не будут мешать друг другу и не изменят локальное состояние веток до финального ревью. Также добавили «Автоматизации» — это для фоновой рутины вроде разбора тикетов или анализа логов CI по расписанию.

Приложение использует нативный сэндбоксинг: по умолчанию агенты ограничены текущей директорией и требуют подтверждения для сетевых запросов. Доступ уже открыт для подписчиков Plus, Pro и Enterprise, а на ограниченное время Codex стал доступен и на free тарифе ChatGPT.
openai.com

✔️ Alibaba отгрузила 100 тыс. ИИ-чипов Zhenwu 810E.

Полупроводниковое подразделение Alibaba, T-Head, поставила более 100 тыс. единиц своих ускорителей, обойдя локального конкурента Cambricon. Источники утверждают, что по производительности новинка сопоставима с Nvidia H20 - максимальным решением, доступным для легального ввоза в Китай.

Zhenwu 810E оснащен 96 ГБ памяти HBM2e с пропускной способностью до 700 ГБ/с. Хотя Nvidia H200 мощнее, Alibaba предлагает в качестве альтернативы полный технологический стек: от собственного облачного софта до железа, которое уже используется в собственных дата-центрах и у внешних клиентов.
scmp.com

✔️ xAI обновила Grok Imagine до версии 1.0.

Обновленная версия генерирует видео в разрешении 720p длительностью до 10 секунд. Помимо визуальной части, разработчики существенно улучшили качество аудиодорожек и логику взаимодействия: Grok теперь точнее интерпретирует запросы и научился задавать уточняющие вопросы для лучшего результата.

Популярность инструмента растет - за последние 30 дней в Grok Imagine сегерировали более 1,2 млрд. видео.
xAI в сети Х

✔️ Adobe Firefly переходит на безлимит.

Adobe пересмотрела правила игры для сервиса Firefly. Теперь пользователи тарифов Pro, Premium и владельцы крупных пакетов кредитов (от 4000) получили безлимитный доступ к генерации картинок и видео.

Самое интересное в этом обновлении - интеграция сторонних моделей. Теперь в интерфейсе Adobe (и в вебе, и в приложениях) можно использовать безлимитно не только родные алгоритмы модели, но и Runway Gen-4, Nano Banana Pro и GPT Image Generation.

Если планируете пользоваться Firefly постоянно, стоит поторопиться: закрепить за собой безлимитный доступ можно только при оформлении подписки до 16 марта.
blog.adobe.com

✔️ ElevenLabs выпустила в релиз модель v3.

Флагманская Text-to-Speech модель, Eleven v3, официально вышла из стадии альфа-тестирования и стала доступной для коммерческого использования. Основной упор в финальной версии сделан на точность интерпретации сложных данных, где чтение символов критически зависит от окружения.

Инженеры значительно доработали логику озвучивания телефонных номеров в международном формате, химических формул, валют и спортивных результатов. Внутренние тесты на 27 категориях показали снижение уровня ошибок интерпретации на 68% - показатель упал с 15,3% до 4,9%. Модель уже доступна на всех поддерживаемых платформах.
elevenlabs.io


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍31🔥1