Машинное обучение RU
17.7K subscribers
1.57K photos
207 videos
11 files
2.04K links
Все о машинном обучении

админ - @workakkk

@data_analysis_ml - анализ даннных

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram -лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python 📚

@datascienceiot - 📚

РКН: clck.ru/3FmrUw
Download Telegram
А что, если можно проверить свой уровень в Data Science без собеседований, звонков и HR-скрининга?

Авито вместе с getmatch сделали тест по Data Science, основанный на реальных интервью DS-специалистов компании.

Что даёт тест:

🔍 Оценка компетенций
Поймёте, какие навыки уже хорошо прокачаны, а где есть точки роста – выводы основаны на практике, а не на абстрактной теории.

⚡️ Шанс стать заметнее для рекрутеров
Можно открыть доступ к результатам теста и повысить шансы на оффер.

☑️ Подробный разбор
В течение дня на почту придёт письмо с анализом ответов и рекомендациями.

Отличная возможность спокойно проверить себя на праздниках и понять, куда двигаться дальше.

Ссылку на тест оставили здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
✔️ Qwen обновила Qwen-Image-Edit.

Новая версия Qwen-Image-Edit-2511 пришла на смену сборке 2509 и предлагает ряд качественных изменений. Теперь модель лучше сохраняет консистентность персонажей и общую структуру кадра при внесении локальных правок.

Помимо стабильности, усилили способности к геометрическому рассуждению и генерации промышленного дизайна. Попробовать новинку можно через веб-интерфейс Qwen Chat, а веса для локального развертывания уже на HuggingFace и ModelScope.
TongyiLab в сети Х
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Учёные Гарварда заявили о реальном квантовом прорыве для будущего суперкомпьютеров.

Новая экспериментальная платформа решает одну из самых жёстких проблем масштабирования квантовых машин - поддержание управления и когерентности в больших системах связанных кубитов. Это ещё не полное решение, но шаг к аппаратуре, где огромные устойчивые квантовые архитектуры становятся реальнее.

🔹 Почему это важно?
Квантовые компьютеры годами застревали на уровне небольших шумных устройств. Прорыв в масштабировании - это движение к машинам, которые смогут моделировать химию, материалы, климат и криптографию, недоступные обычным суперкомпьютерам.

Квант наконец начинает выглядеть как будущее, а не демонстрационный стенд.

Но путь впереди тяжёлый: одно открытие - легко, а вот построить миллионы одинаково стабильных кубитов — почти невыполнимая задача. Полноценный квантовый суперкомпьютер всё ещё далеко, но теперь он стал немного ближе.
5🤔2🔥1
✔️«АльфаСтрахование» создаст ИИ-решения на технологиях Yandex B2B Tech для корпоративной инфраструктуры.

В 2026 году компания реализует более десяти проектов, охватывающих инженерные, аналитические и офисные сценарии.

Технологическая основа:
— SourceCraft Code Assistant — LLM-система для поддержки разработки, ускоряющая работу свыше 500 инженеров.
— Yandex SpeechSense — платформа речевой аналитики, обрабатывающая более 20 тыс. звонков в сутки и формирующая обучающие датасеты для NLP-моделей.
— Yandex AI Studio — среда для создания ИИ-агентов, автоматизирующих обработку документов, протоколирование встреч и HR-воркфлоу.

В фокусе партнёрства — построение распределённой экосистемы Generative AI, где ИИ-сервисы становятся ядром корпоративных процессов.
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1🔥1
⚡️ NVIDIA: как объединять распределённые дата-центры в одну AI-фабрику

NVIDIA предлагает смотреть на дата-центры как на единый вычислительный организм, даже если они находятся на расстоянии десятков и сотен километров.

Ключевая идея — Scale-Across Networking.

Что это значит по-простому:

– Раньше масштабировали внутри сервера (scale-up)
– Потом внутри дата-центра (scale-out)
– Теперь — между дата-центрами, как будто это один большой кластер

Для этого NVIDIA представила Spectrum-XGS Ethernet — сетевую архитектуру, которая позволяет нескольким дата-центрам работать как одна AI-фабрика.

Что внутри:

– Те же Spectrum-X коммутаторы и ConnectX-8 SuperNIC
– Учет расстояния и задержек на уровне сети
– Адаптивный роутинг и контроль перегрузок
– Предсказуемая латентность для обучения и инференса

Почему это важно:

– Можно обучать и запускать большие модели на географически распределённых ресурсах
– Не нужно строить один гигантский дата-центр
– GPU в разных локациях работают как единый пул
– До 1.9× ускорение NCCL all-reduce по сравнению с обычным Ethernet

По сути, NVIDIA двигает индустрию к модели:
AI-фабрика = сеть дата-центров, а не одно здание

И это критично для следующего поколения LLM, агентных систем и промышленных AI-платформ.