🔥 Дайджест полезных материалов из мира Машинного обучения за неделю
Почитать:
— Bounding boxes для обнаружения объектов — что это, простым языком
— Разработка алгоритмов обработки данных в реальном времени на Python
— Лучшие практики Golang (20 лучших)
— Нейронные сети для новичков и профи: топ бесплатных курсов по ИИ
— 5 уровней зрелости MLOps
— Персонализация тарифного плана для новых абонентов: как оцифровать привлекательность
— Создание видео zoom in и zoom out с помощью inpainting в Kandinsky
— Парк юрского периода глазами нейросети: как развернуть Diffusers для генерации изображений за 10 минут
— Ближайшее будущее AI в рентгенологии. Мои комментарии к статье в RSNA
— Использование Insightface для быстрого поиска и сравнения лиц на изображениях
— OpenAI DevDay – ещё 5 видео про то, как работает компания, и как AI применять разработчикам
— How to install NVIDIA drivers for machine learning on Ubuntu
— Working through the fast.ai book in Rust - Part 1
— Why ChatGPT and other LLMs are overrated and won't take your job
— Demystifying Transformer Models: Unveiling the Magic of Natural Language Processing
— A Quick Look At Natural Language Generation (NLG)
— AI Log #2: What is a Cost Function in Machine Learning?
— The Next Generation of AI Developer Tools
— AI Development Guide 2024
— What is a Conditional Generative Adversarial Network?
— The State of Serverless GPU Part -2
Посмотреть:
🌐 Lightning Interview “Large Language Models: Past, Present and Future” (⏱ 01:00:00)
🌐 Leveraging Generative AI in Education - A M Aditya (⏱ 31:24)
Посмотреть:
🌐 Пишем генератор Shorts видео на Python для заработка на YouTube. (⏱ 11:50)
🌐 Озвучка и генерации контента с помощью #Python и AI (⏱ 00:44)
🌐 Замена лица на любой фотографии с помощью #python БЕСПЛАТНО! (⏱ 00:59)
🌐 Lightning Interview “Large Language Models: Past, Present and Future” (⏱ 01:00:00)
🌐 Thomas Scialom, PhD - Large Language Models: Past, Present and Future (⏱ 34:45)
🌐 Leveraging Generative AI in Education - A M Aditya (⏱ 31:24)
🌐 AI Art: How is This Quality Even Possible? (⏱ 05:29)
Хорошего дня!
#digest #machinelearning
@machinelearning_interview
Почитать:
— Bounding boxes для обнаружения объектов — что это, простым языком
— Разработка алгоритмов обработки данных в реальном времени на Python
— Лучшие практики Golang (20 лучших)
— Нейронные сети для новичков и профи: топ бесплатных курсов по ИИ
— 5 уровней зрелости MLOps
— Персонализация тарифного плана для новых абонентов: как оцифровать привлекательность
— Создание видео zoom in и zoom out с помощью inpainting в Kandinsky
— Парк юрского периода глазами нейросети: как развернуть Diffusers для генерации изображений за 10 минут
— Ближайшее будущее AI в рентгенологии. Мои комментарии к статье в RSNA
— Использование Insightface для быстрого поиска и сравнения лиц на изображениях
— OpenAI DevDay – ещё 5 видео про то, как работает компания, и как AI применять разработчикам
— How to install NVIDIA drivers for machine learning on Ubuntu
— Working through the fast.ai book in Rust - Part 1
— Why ChatGPT and other LLMs are overrated and won't take your job
— Demystifying Transformer Models: Unveiling the Magic of Natural Language Processing
— A Quick Look At Natural Language Generation (NLG)
— AI Log #2: What is a Cost Function in Machine Learning?
— The Next Generation of AI Developer Tools
— AI Development Guide 2024
— What is a Conditional Generative Adversarial Network?
— The State of Serverless GPU Part -2
Посмотреть:
🌐 Lightning Interview “Large Language Models: Past, Present and Future” (⏱ 01:00:00)
🌐 Leveraging Generative AI in Education - A M Aditya (⏱ 31:24)
Посмотреть:
🌐 Пишем генератор Shorts видео на Python для заработка на YouTube. (⏱ 11:50)
🌐 Озвучка и генерации контента с помощью #Python и AI (⏱ 00:44)
🌐 Замена лица на любой фотографии с помощью #python БЕСПЛАТНО! (⏱ 00:59)
🌐 Lightning Interview “Large Language Models: Past, Present and Future” (⏱ 01:00:00)
🌐 Thomas Scialom, PhD - Large Language Models: Past, Present and Future (⏱ 34:45)
🌐 Leveraging Generative AI in Education - A M Aditya (⏱ 31:24)
🌐 AI Art: How is This Quality Even Possible? (⏱ 05:29)
Хорошего дня!
#digest #machinelearning
@machinelearning_interview
👍8🔥4❤3👎1
⚡️ Complete-Applied-Machine-Learning-with-Projects-Series
В этом репозитории собрано все, что нужно для того, чтобы стать экспертом в прикладном #MachineLearning 53+ готовых проектов с кодом.
https://github.com/Coder-World04/Complete-Applied-Machine-Learning-with-Projects-Series
@machinelearning_interview
В этом репозитории собрано все, что нужно для того, чтобы стать экспертом в прикладном #MachineLearning 53+ готовых проектов с кодом.
https://github.com/Coder-World04/Complete-Applied-Machine-Learning-with-Projects-Series
@machinelearning_interview
❤13🔥3👍2🥰1
⚡️ Бесплатный курс по фундаментальным моделям от Университета Ватерлоо
Курс охватывает обширный круг тем, связанных с глубоким обучением и его практическими приложениями.
Отличный курс для подготовки к собесу.
Вот краткий обзор тем:
🔘 Рекуррентные и свёрточные нейронные сети (RNN и CNN). 🔘 Обработка естественного языка (NLP) и компьютерное зрение (CV).
🔘 Механизмы внимания и трансформеры.
🔘 Предобучение языковых моделей.
🔘 Обучение с подкреплением через обратную связь (RLHF). 🔘 Создание мультимодальных моделей.
🔘 Диффузионные модели и генерация изображений.
📌 Курс
@machinelearning_interview
#datascience #python #machinelearning
Курс охватывает обширный круг тем, связанных с глубоким обучением и его практическими приложениями.
Отличный курс для подготовки к собесу.
Вот краткий обзор тем:
🔘 Рекуррентные и свёрточные нейронные сети (RNN и CNN). 🔘 Обработка естественного языка (NLP) и компьютерное зрение (CV).
🔘 Механизмы внимания и трансформеры.
🔘 Предобучение языковых моделей.
🔘 Обучение с подкреплением через обратную связь (RLHF). 🔘 Создание мультимодальных моделей.
🔘 Диффузионные модели и генерация изображений.
📌 Курс
@machinelearning_interview
#datascience #python #machinelearning
❤11🔥7👍4👎1
#курс #deeplearning #machinelearning #bigdata #ai
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🙏7⚡5🔥5❤1
#курс #machinelearning
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14👍6❤5
#курс #machinelearning #claude
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9👍3🔥3🤔1
#учебник #machinelearning
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥4❤2
#deeplearning #machinelearning
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16❤5🔥4
#курс #machinelearning
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥24👍5❤3⚡1
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
Все мы любим scikit-learn за его простоту и мощь. Но что если ваши модели обучаются слишком долго на больших данных? 🤔 NVIDIA предлагает решение!
Вы берете свой обычный скрипт cо scikit-learn, добавляете всего две строки в начало, и он начинает работать в 10, 50, а то и 100+ раз быстрее на NVIDIA GPU!
✨ Как это работает?
Библиотека cuml от NVIDIA содержит супероптимизированные для GPU версии многих алгоритмов машинного обучения. С помощью простого вызова
cuml.patch.apply() вы "патчите" установленный у вас scikit-learn прямо в памяти.Теперь, когда вы вызываете, например,
KNeighborsClassifier или PCA из sklearn:Ключевые преимущества:
2 строчки:import cuml.patch и cuml.patch.apply().Топ инструмент для всех, кто работает с scikit-learn на задачах, требующих значительных вычислений, и у кого есть GPU от NVIDIA.
👇 Как использовать:
Установите RAPIDS cuml (лучше через conda, см. сайт RAPIDS):
python
conda install -c rapidsai -c conda-forge -c nvidia cuml rapids-build-backend
Добавьте в начало скрипта:
import cuml.patch
cuml.patch.apply()
Используйте scikit-learn как обычно!
Попробуйте и почувствуйте разницу! 😉
▪Блог-пост
▪Colab
▪Github
▪Ускоряем Pandas
@ai_machinelearning_big_data
#python #datascience #machinelearning #scikitlearn #rapids #cuml #gpu #nvidia #ускорение #машинноеобучение #анализданных
Please open Telegram to view this post
VIEW IN TELEGRAM
❤19👍7🔥7
Forwarded from Machinelearning
▪API:https://bailian.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2979031
▪ModelScope Demo: https://modelscope.cn/studios/Qwen/Qwen3-ASR-Demo
▪Hugging Face Demo: https://huggingface.co/spaces/Qwen/Qwen3-ASR-Demo
▪Blog:https://qwen.ai/blog?id=41e4c0f6175f9b004a03a07e42343eaaf48329e7&from=research.latest-advancements-list
@ai_machinelearning_big_data
#ASR #SpeechRecognition #Qwen3 #AI #MachineLearning #DeepLearning #VoiceAI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11❤9👏2
Ответы пишите в комменариях👇
🤔 Проблема
Катастрофическое забывание возникает, когда модель во время дообучения на новых данных теряет уже выученные знания.
Ещё хуже ситуация с коллапсом модели — когда в датасет начинают попадать тексты, сгенерированные самой LLM: это искажает данные, стирает редкие примеры и усиливает ошибки.
✅ Подходы на практике:
1️⃣ LoRA / параметро-эффективное дообучение:
- Обновляются не все веса, а только адаптеры.
- Это снижает риск забывания базовых знаний, сохраняя при этом гибкость для дообучения.
2️⃣Dynamic replay / rehearsal (динамическое повторное смешивание)
- К кастомному датасету подмешивают данные из предобучения.
- Обычно берут в 2–3 раза больше примеров из базового корпуса.
- Так сохраняется «фон» общих знаний модели.
3️⃣ Dataset mixing (смешивание датасетов)
- Не дают модели «зарыться» в узкий домен.
- Сочетание специализированных и базовых данных удерживает баланс.
4️⃣ Variation across epochs (вариативность между эпохами)
- На каждой эпохе берут новые сэмплы из предобученного корпуса.
- Это повышает разнообразие и снижает риск переобучения к конкретному подмножеству.
📌 Как ответить на собеседовании
«Чтобы избежать забывания, используют LoRA (параметро-эффективное дообучение), динамический replay с базовыми данными (в пропорции 1:2 или 1:3), а также варьируют сэмплы из pretrain-корпуса между эпохами. Это сохраняет старые знания и даёт гибкость для новых».
@machinelearning_interview
#AI #LLM #MachineLearning #Forgetting #FineTuning
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14🔥7❤3😘3💯1
This media is not supported in your browser
VIEW IN TELEGRAM
На первый взгляд формула кажется простой -
её легко выучить и даже воспроизвести по памяти.
Но разобраться интуитивно, как взаимодействуют Q (Query), K (Key) и V (Value), - совсем другое дело. Именно это видео или схема помогает «увидеть», что происходит внутри трансформера.
#machinelearning #deeplearning #transformers #attention #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥23👍11❤8
Forwarded from Machinelearning
Ключевые характеристики:
- MoE-архитектура: 30B параметров всего, ~3.5B активных
- Контекст до 1 миллиона токенов
- Гибридная архитектура:
- 23 слоя Mamba-2 + MoE
- 6 attention-слоёв
- Баланс между скоростью и качеством рассуждений
Требования:
- необходимо около 24 ГБ видеопамяти для локального запуска
Модель хорошо подходит для длинных диалогов, анализа документов и reasoning-задач
Интересный пример того, как MoE и Mamba начинают реально снижать требования к железу, сохраняя масштаб контекста и качество.
Для обучения Super и Ultra используется NVFP4 и новая архитектура Latent Mixture of Experts. Она позволяет задействовать в четыре раза больше экспертов при той же стоимости инференса. По сути, модель становится «умнее» за счёт более гибкого выбора экспертов, а не за счёт постоянной активации всех параметров.
Дополнительно применяется Multi-Token Prediction, что ускоряет обучение и улучшает качество рассуждений на длинных последовательностях. Это особенно важно для agentic и multi-agent сценариев, где модели работают с длинным контекстом и сложными цепочками решений.
NVIDIA публикует не только веса, но и данные для предобучения и постобучения, а также технические детали, которые объясняют, почему эти модели одновременно быстрые и сильные.
Такой уровень открытости - редкость для моделей этого масштаба и хороший сигнал для индустрии.@ai_machinelearning_big_data
#AI #LLM #NVIDIA #Nemotron3 #OpenSource #MachineLearning
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9❤6👍5
🚨 DeepSeek уже в первый день года выкатывает сильное обновление: важное улучшение архитектуры трансформеров.
Китайцы предложили способ сделать shortcut-путь ( это когда выход слоя прибавляется к его же входу, то есть сеть не «заменяет» информацию, а добавляет к ней улучшенную версию) в трансформерах гибче, но при этом сохранить стабильность даже у очень больших моделей.
В обычном трансформере каждый блок что-то считает, а потом просто добавляет результат к исходному сигналу.
Это помогает информации проходить через много слоёв, не теряясь.
Hyper-Connections меняют shortcut-путь.
Был один поток, а стало несколько.
То есть shortcut превращается из простого «input + output» в умный маршрутизатор сигналов.
Проблема в том, что без ограничений такие смешивания могут усиливать сигнал слишком сильно или, наоборот, гасить его и большие модели начинают вести себя нестабильно.
mHC решает это так:
потоки остаются, но каждое смешивание работает как аккуратное усреднение.
Сигнал не может «взорваться» или исчезнуть - он остаётся под контролем.
Что это даёт на практике:
- модели остаются стабильными даже на масштабе 27B, дают лучшее качество и не страдают от скачков лосса.
Там, где обычные Hyper-Connections раздували сигнал до 3000×, mHC держат его примерно на уровне 1.6×.
Если коротко: был один shortcut,. сделали несколько, но заставили их смешиваться безопасно.
И трансформеры стали гибче и стабильнее.
Статья: https://arxiv.org/abs/2512.24880
Видео: https://www.youtube.com/watch?v=gT-0Qryi5KA
#AI #DeepSeek #MachineLearning #NeuralNetworks #Research
Китайцы предложили способ сделать shortcut-путь ( это когда выход слоя прибавляется к его же входу, то есть сеть не «заменяет» информацию, а добавляет к ней улучшенную версию) в трансформерах гибче, но при этом сохранить стабильность даже у очень больших моделей.
В обычном трансформере каждый блок что-то считает, а потом просто добавляет результат к исходному сигналу.
Это помогает информации проходить через много слоёв, не теряясь.
Hyper-Connections меняют shortcut-путь.
Был один поток, а стало несколько.
Перед блоком модель выбирает, какие потоки подать на вычисления.
Во время блока часть сигнала идёт «в обход»,
чтобы ничего не потерять.
После блока всё снова аккуратно объединяется.
То есть shortcut превращается из простого «input + output» в умный маршрутизатор сигналов.
Проблема в том, что без ограничений такие смешивания могут усиливать сигнал слишком сильно или, наоборот, гасить его и большие модели начинают вести себя нестабильно.
mHC решает это так:
потоки остаются, но каждое смешивание работает как аккуратное усреднение.
Сигнал не может «взорваться» или исчезнуть - он остаётся под контролем.
Что это даёт на практике:
- модели остаются стабильными даже на масштабе 27B, дают лучшее качество и не страдают от скачков лосса.
Там, где обычные Hyper-Connections раздували сигнал до 3000×, mHC держат его примерно на уровне 1.6×.
Если коротко: был один shortcut,. сделали несколько, но заставили их смешиваться безопасно.
И трансформеры стали гибче и стабильнее.
Статья: https://arxiv.org/abs/2512.24880
Видео: https://www.youtube.com/watch?v=gT-0Qryi5KA
#AI #DeepSeek #MachineLearning #NeuralNetworks #Research
❤22🔥7👍4🤔1