Data Science by ODS.ai 🦜
44.8K subscribers
776 photos
85 videos
7 files
1.85K links
First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev
Download Telegram
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ СuML от NVIDIA: Scikit-learn на скорости GPU – без единой строчки нового кода!

Все мы любим scikit-learn за его простоту и мощь. Но что если ваши модели обучаются слишком долго на больших данных? 🤔 NVIDIA предлагает решение!

Вы берете свой обычный скрипт cо scikit-learn, добавляете всего две строки в начало, и он начинает работать в 10, 50, а то и 100+ раз быстрее на NVIDIA GPU! 🔥

Как это работает?

Библиотека cuml от NVIDIA содержит супероптимизированные для GPU версии многих алгоритмов машинного обучения. С помощью простого вызова cuml.patch.apply() вы "патчите" установленный у вас scikit-learn прямо в памяти.

Теперь, когда вы вызываете, например, KNeighborsClassifier или PCA из sklearn:

▶️Патч проверяет, есть ли у вас GPU NVIDIA.
▶️Проверяет, есть ли в cuml быстрая GPU-версия этого алгоритма.
▶️Если да – запускает ускоренную версию на GPU! 🏎️
▶️Если нет (нет GPU или алгоритм не поддерживается) – спокойно запускает обычную CPU-версию scikit-learn.

Ключевые преимущества:

✔️ Нулевые изменения кода: Ваш scikit-learn код остается прежним. Добавляете только 2 строчки:
import cuml.patch и cuml.patch.apply().
✔️ Колоссальное ускорение: Получите прирост производительности на порядки для поддерживаемых алгоритмов (KNN, PCA, линейные модели, Random Forest (инференс), UMAP, DBSCAN, KMeans и др.) за счет мощи GPU.
✔️Автоматическое переключение между GPU и CPU. Ваш скрипт будет работать в любом случае.

Топ инструмент для всех, кто работает с scikit-learn на задачах, требующих значительных вычислений, и у кого есть GPU от NVIDIA.

👇 Как использовать:

Установите RAPIDS cuml (лучше через conda, см. сайт RAPIDS):


python
conda install -c rapidsai -c conda-forge -c nvidia cuml rapids-build-backend


Добавьте в начало скрипта:


import cuml.patch
cuml.patch.apply()


Используйте scikit-learn как обычно!

Попробуйте и почувствуйте разницу! 😉

Блог-пост
Colab
Github
Ускоряем Pandas

@ai_machinelearning_big_data


#python #datascience #machinelearning #scikitlearn #rapids #cuml #gpu #nvidia #ускорение #машинноеобучение #анализданных
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥214👍3🤡1
Forwarded from Китай.AI
🔮 CN-AI-RESEARCH | Исследования в области ИИ

🔥 DeepSeek только что выпустил новую статью о масштабировании во время инференса. Грядёт ли R2?


Исследователи из DeepSeek и Университета Цинхуа предложили инновационный подход Self-Principled Critique Tuning (SPCT), который значительно улучшает качество и адаптивность моделей вознаграждения для крупных языковых моделей (LLM).

📌 Ключевые моменты:
- Новый метод позволяет reward-моделям динамически генерировать критерии оценки во время работы
- Значительно превосходит существующие подходы по точности и масштабируемости
- Реализован в модели DeepSeek-GRM-27B на базе Gemma-2-27B

🔧 Как это работает?
1️⃣ Этап 1: Rejective Fine-Tuning — начальная "холодная" настройка модели
2️⃣ Этап 2: Rule-Based Online RL — постоянная оптимизация через генерацию принципов и критики

💡 Технические детали для специалистов:
- Используется мета-RM модель для фильтрации низкокачественных сэмплов
- KL-штраф с высоким коэффициентом предотвращает смещения
- Подход демонстрирует лучшую масштабируемость чем просто увеличение размера модели

🚀 Результаты:
- Превышение производительности моделей с 671B параметрами
- Лучшие показатели на тестах Reward Bench
- Возможность более точной и детальной оценки ответов LLM

Подробнее в оригинальной статье: Inference-Time Scaling for Generalist Reward Modeling

#КитайскийИИ #КитайAI #DeepSeek #RewardModeling #МашинноеОбучение #Нейросети
3👍3🤡3
Forwarded from Китай.AI
🔥 Китайский ИИ ставит рекорды: Qwen3-Max набирает 100 баллов по математике!

Алибаба представляет новое поколение флагманских моделей, которые устанавливают новые стандарты в мире искусственного интеллекта. Главная звезда — Qwen3-Max — впервые в истории китайских больших языковых моделей набрала максимальные 100 баллов в престижных математических тестах AIME25 и HMMT.

Ключевые достижения:
Qwen3-Max (Base): Более 1 триллиона параметров, обучена на 36 триллионах токенов, поддерживает контекст до 1 млн. токенов
Qwen3-Max (Thinking): Показывает 100% точность на сложных математических тестах AIME 25 и HMMT
Qwen3-Max (Instruct): 69.6% в SWE-Bench (кодинг) и 74.8% в Tau2 Bench (инструменты)

Но это только начало! На конференции Yunqi представлена целая экосистема мощных моделей.

👁️ Qwen3-VL: Монстр визуального понимания
Мультимодальная модель, которая уже доступна в открытом доступе. Она способна:
- Превращать рукописные эскизы веб-страниц в HTML/CSS код
- Детально анализировать изображения и видео
- Понимать сложные временные последовательности

🔊 Qwen3-Omni: Универсальный мультимодальный ИИ
Первая в мире end-to-end модель, объединяющий текст, изображения, аудио и видео. Достигает state-of-the-art результатов в 22 бенчмарках.

🌐 Qwen3-LiveTranslate: Революция в переводе
Модель для живого перевода с поддержкой 18 языков, включая шумные среды. Уже превосходит аналоги от Google и OpenAI.

Вывод: Алибаба демонстрирует впечатляющий прогресс в разработке ИИ, особенно в областях математики, компьютерного зрения и мультимодального обучения. Их открытые модели задают новые ориентиры для всей индустрии.

Qwen Chat | Cайт исследований Qwen

#КитайскийИИ #КитайAI #Qwen3 #ИскусственныйИнтеллект #МашинноеОбучение #Нейросети #AIРеволюция
🔥82👍1🤡1