Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
Все мы любим scikit-learn за его простоту и мощь. Но что если ваши модели обучаются слишком долго на больших данных? 🤔 NVIDIA предлагает решение!
Вы берете свой обычный скрипт cо scikit-learn, добавляете всего две строки в начало, и он начинает работать в 10, 50, а то и 100+ раз быстрее на NVIDIA GPU!
✨ Как это работает?
Библиотека cuml от NVIDIA содержит супероптимизированные для GPU версии многих алгоритмов машинного обучения. С помощью простого вызова
cuml.patch.apply() вы "патчите" установленный у вас scikit-learn прямо в памяти.Теперь, когда вы вызываете, например,
KNeighborsClassifier или PCA из sklearn:Ключевые преимущества:
2 строчки:import cuml.patch и cuml.patch.apply().Топ инструмент для всех, кто работает с scikit-learn на задачах, требующих значительных вычислений, и у кого есть GPU от NVIDIA.
👇 Как использовать:
Установите RAPIDS cuml (лучше через conda, см. сайт RAPIDS):
python
conda install -c rapidsai -c conda-forge -c nvidia cuml rapids-build-backend
Добавьте в начало скрипта:
import cuml.patch
cuml.patch.apply()
Используйте scikit-learn как обычно!
Попробуйте и почувствуйте разницу! 😉
▪Блог-пост
▪Colab
▪Github
▪Ускоряем Pandas
@ai_machinelearning_big_data
#python #datascience #machinelearning #scikitlearn #rapids #cuml #gpu #nvidia #ускорение #машинноеобучение #анализданных
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21❤4👍3🤡1
Forwarded from Китай.AI
🔮 CN-AI-RESEARCH | Исследования в области ИИ
🔥 DeepSeek только что выпустил новую статью о масштабировании во время инференса. Грядёт ли R2?
Исследователи из DeepSeek и Университета Цинхуа предложили инновационный подход Self-Principled Critique Tuning (SPCT), который значительно улучшает качество и адаптивность моделей вознаграждения для крупных языковых моделей (LLM).
📌 Ключевые моменты:
- Новый метод позволяет reward-моделям динамически генерировать критерии оценки во время работы
- Значительно превосходит существующие подходы по точности и масштабируемости
- Реализован в модели DeepSeek-GRM-27B на базе Gemma-2-27B
🔧 Как это работает?
1️⃣ Этап 1: Rejective Fine-Tuning — начальная "холодная" настройка модели
2️⃣ Этап 2: Rule-Based Online RL — постоянная оптимизация через генерацию принципов и критики
💡 Технические детали для специалистов:
- Используется мета-RM модель для фильтрации низкокачественных сэмплов
- KL-штраф с высоким коэффициентом предотвращает смещения
- Подход демонстрирует лучшую масштабируемость чем просто увеличение размера модели
🚀 Результаты:
- Превышение производительности моделей с 671B параметрами
- Лучшие показатели на тестах Reward Bench
- Возможность более точной и детальной оценки ответов LLM
Подробнее в оригинальной статье: Inference-Time Scaling for Generalist Reward Modeling
#КитайскийИИ #КитайAI #DeepSeek #RewardModeling #МашинноеОбучение #Нейросети
🔥 DeepSeek только что выпустил новую статью о масштабировании во время инференса. Грядёт ли R2?
Исследователи из DeepSeek и Университета Цинхуа предложили инновационный подход Self-Principled Critique Tuning (SPCT), который значительно улучшает качество и адаптивность моделей вознаграждения для крупных языковых моделей (LLM).
📌 Ключевые моменты:
- Новый метод позволяет reward-моделям динамически генерировать критерии оценки во время работы
- Значительно превосходит существующие подходы по точности и масштабируемости
- Реализован в модели DeepSeek-GRM-27B на базе Gemma-2-27B
🔧 Как это работает?
1️⃣ Этап 1: Rejective Fine-Tuning — начальная "холодная" настройка модели
2️⃣ Этап 2: Rule-Based Online RL — постоянная оптимизация через генерацию принципов и критики
💡 Технические детали для специалистов:
- Используется мета-RM модель для фильтрации низкокачественных сэмплов
- KL-штраф с высоким коэффициентом предотвращает смещения
- Подход демонстрирует лучшую масштабируемость чем просто увеличение размера модели
🚀 Результаты:
- Превышение производительности моделей с 671B параметрами
- Лучшие показатели на тестах Reward Bench
- Возможность более точной и детальной оценки ответов LLM
Подробнее в оригинальной статье: Inference-Time Scaling for Generalist Reward Modeling
#КитайскийИИ #КитайAI #DeepSeek #RewardModeling #МашинноеОбучение #Нейросети
arXiv.org
Inference-Time Scaling for Generalist Reward Modeling
Reinforcement learning (RL) has been widely adopted in post-training for large language models (LLMs) at scale. Recently, the incentivization of reasoning capabilities in LLMs from RL indicates...
❤3👍3🤡3
Forwarded from Китай.AI
🔥 Китайский ИИ ставит рекорды: Qwen3-Max набирает 100 баллов по математике!
Алибаба представляет новое поколение флагманских моделей, которые устанавливают новые стандарты в мире искусственного интеллекта. Главная звезда — Qwen3-Max — впервые в истории китайских больших языковых моделей набрала максимальные 100 баллов в престижных математических тестах AIME25 и HMMT.
Ключевые достижения:
• Qwen3-Max (Base): Более 1 триллиона параметров, обучена на 36 триллионах токенов, поддерживает контекст до 1 млн. токенов
• Qwen3-Max (Thinking): Показывает 100% точность на сложных математических тестах AIME 25 и HMMT
• Qwen3-Max (Instruct): 69.6% в SWE-Bench (кодинг) и 74.8% в Tau2 Bench (инструменты)
Но это только начало! На конференции Yunqi представлена целая экосистема мощных моделей.
👁️ Qwen3-VL: Монстр визуального понимания
Мультимодальная модель, которая уже доступна в открытом доступе. Она способна:
- Превращать рукописные эскизы веб-страниц в HTML/CSS код
- Детально анализировать изображения и видео
- Понимать сложные временные последовательности
🔊 Qwen3-Omni: Универсальный мультимодальный ИИ
Первая в мире end-to-end модель, объединяющий текст, изображения, аудио и видео. Достигает state-of-the-art результатов в 22 бенчмарках.
🌐 Qwen3-LiveTranslate: Революция в переводе
Модель для живого перевода с поддержкой 18 языков, включая шумные среды. Уже превосходит аналоги от Google и OpenAI.
Вывод: Алибаба демонстрирует впечатляющий прогресс в разработке ИИ, особенно в областях математики, компьютерного зрения и мультимодального обучения. Их открытые модели задают новые ориентиры для всей индустрии.
Qwen Chat | Cайт исследований Qwen
#КитайскийИИ #КитайAI #Qwen3 #ИскусственныйИнтеллект #МашинноеОбучение #Нейросети #AIРеволюция
Алибаба представляет новое поколение флагманских моделей, которые устанавливают новые стандарты в мире искусственного интеллекта. Главная звезда — Qwen3-Max — впервые в истории китайских больших языковых моделей набрала максимальные 100 баллов в престижных математических тестах AIME25 и HMMT.
Ключевые достижения:
• Qwen3-Max (Base): Более 1 триллиона параметров, обучена на 36 триллионах токенов, поддерживает контекст до 1 млн. токенов
• Qwen3-Max (Thinking): Показывает 100% точность на сложных математических тестах AIME 25 и HMMT
• Qwen3-Max (Instruct): 69.6% в SWE-Bench (кодинг) и 74.8% в Tau2 Bench (инструменты)
Но это только начало! На конференции Yunqi представлена целая экосистема мощных моделей.
👁️ Qwen3-VL: Монстр визуального понимания
Мультимодальная модель, которая уже доступна в открытом доступе. Она способна:
- Превращать рукописные эскизы веб-страниц в HTML/CSS код
- Детально анализировать изображения и видео
- Понимать сложные временные последовательности
🔊 Qwen3-Omni: Универсальный мультимодальный ИИ
Первая в мире end-to-end модель, объединяющий текст, изображения, аудио и видео. Достигает state-of-the-art результатов в 22 бенчмарках.
🌐 Qwen3-LiveTranslate: Революция в переводе
Модель для живого перевода с поддержкой 18 языков, включая шумные среды. Уже превосходит аналоги от Google и OpenAI.
Вывод: Алибаба демонстрирует впечатляющий прогресс в разработке ИИ, особенно в областях математики, компьютерного зрения и мультимодального обучения. Их открытые модели задают новые ориентиры для всей индустрии.
Qwen Chat | Cайт исследований Qwen
#КитайскийИИ #КитайAI #Qwen3 #ИскусственныйИнтеллект #МашинноеОбучение #Нейросети #AIРеволюция
chat.qwen.ai
Qwen Chat
Qwen Chat offers comprehensive functionality spanning chatbot, image and video understanding, image generation, document processing, web search integration, tool utilization, and artifacts.
🔥8❤2👍1🤡1