Machine learning Interview
33K subscribers
1.47K photos
113 videos
13 files
1.01K links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1


@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
🔥 Дайджест полезных материалов из мира Машинного обучения за неделю

Почитать:
Bounding boxes для обнаружения объектов — что это, простым языком
Разработка алгоритмов обработки данных в реальном времени на Python
Лучшие практики Golang (20 лучших)
Нейронные сети для новичков и профи: топ бесплатных курсов по ИИ
5 уровней зрелости MLOps
Персонализация тарифного плана для новых абонентов: как оцифровать привлекательность
Создание видео zoom in и zoom out с помощью inpainting в Kandinsky
Парк юрского периода глазами нейросети: как развернуть Diffusers для генерации изображений за 10 минут
Ближайшее будущее AI в рентгенологии. Мои комментарии к статье в RSNA
Использование Insightface для быстрого поиска и сравнения лиц на изображениях
OpenAI DevDay – ещё 5 видео про то, как работает компания, и как AI применять разработчикам
How to install NVIDIA drivers for machine learning on Ubuntu
Working through the fast.ai book in Rust - Part 1
Why ChatGPT and other LLMs are overrated and won't take your job
Demystifying Transformer Models: Unveiling the Magic of Natural Language Processing
A Quick Look At Natural Language Generation (NLG)
AI Log #2: What is a Cost Function in Machine Learning?
The Next Generation of AI Developer Tools
AI Development Guide 2024
What is a Conditional Generative Adversarial Network?
The State of Serverless GPU Part -2

Посмотреть:
🌐 Lightning Interview “Large Language Models: Past, Present and Future” ( 01:00:00)
🌐 Leveraging Generative AI in Education - A M Aditya ( 31:24)
Посмотреть:
🌐 Пишем генератор Shorts видео на Python для заработка на YouTube. ( 11:50)
🌐 Озвучка и генерации контента с помощью #Python и AI ( 00:44)
🌐 Замена лица на любой фотографии с помощью #python БЕСПЛАТНО! ( 00:59)
🌐 Lightning Interview “Large Language Models: Past, Present and Future” ( 01:00:00)
🌐 Thomas Scialom, PhD - Large Language Models: Past, Present and Future ( 34:45)
🌐 Leveraging Generative AI in Education - A M Aditya ( 31:24)
🌐 AI Art: How is This Quality Even Possible? ( 05:29)

Хорошего дня!

#digest #machinelearning

@machinelearning_interview
👍8🔥43👎1
⚡️ Complete-Applied-Machine-Learning-with-Projects-Series

В этом репозитории собрано все, что нужно для того, чтобы стать экспертом в прикладном #MachineLearning 53+ готовых проектов с кодом.

https://github.com/Coder-World04/Complete-Applied-Machine-Learning-with-Projects-Series

@machinelearning_interview
13🔥3👍2🥰1
⚡️ Бесплатный курс по фундаментальным моделям от Университета Ватерлоо

Курс охватывает обширный круг тем, связанных с глубоким обучением и его практическими приложениями.

Отличный курс для подготовки к собесу.

Вот краткий обзор тем:

🔘 Рекуррентные и свёрточные нейронные сети (RNN и CNN). 🔘 Обработка естественного языка (NLP) и компьютерное зрение (CV).
🔘 Механизмы внимания и трансформеры.
🔘 Предобучение языковых моделей.
🔘 Обучение с подкреплением через обратную связь (RLHF). 🔘 Создание мультимодальных моделей.
🔘 Диффузионные модели и генерация изображений.

📌 Курс

@machinelearning_interview

#datascience #python #machinelearning
11🔥7👍4👎1
🖥 Большой плейлист Deep Learning лекций от MIT!

🌟 72 видео

🔗 Ссылка: *клик*

#курс #deeplearning #machinelearning #bigdata #ai

@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🙏75🔥51
🔥 Бесплатный курс от Simplilearn, который знакомит пользователей с основами алгоритмов машинного обучения!

🌟 Этот курс охватывает различные методы машинного обучения, такие как регрессия, классификация, кластеризация и др., и предназначен для самостоятельного изучения. Курс включает лекции, видео и практические задания, что позволяет участникам изучить основные концепции и алгоритмы, применяемые в машинном обучении

🔗 Ссылка: *клик*

#курс #machinelearning

@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14👍65
📖 Полезный репозиторий с курсами от компании Anthropic!

💡 Это — полезные материалы, которые обучают основам работы с языковой моделью Claude и включают курсы по основам API, интерактивному обучению инженерии промптов, применению промптов в реальных сценариях, их оценке и интеграции инструментов

🖥 Github

#курс #machinelearning #claude

@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
9👍3🔥3🤔1
📖 Огромный и крайне полезный бесплатный учебник: Обзор больших языковых моделей!

🔗 Ссылка: *клик*

#учебник #machinelearning

@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥42
🔍 Подготовка к собеседованию по Deep Learning!

🌟 Этот комплексный курс содержит 50 наиболее распространенных вопросов с подробными объяснениями для каждого!

🔗 Ссылка: *клик*

#deeplearning #machinelearning

@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
👍165🔥4
🔥 nn-zero-to-hero — учебный проект, который охватывает создание нейронных сетей с нуля!

🌟 В репозитории содержатся подробные шаги для создания простой нейронной сети, начиная с базовых понятий и заканчивая более сложными архитектурами, включая различные типы слоев, оптимизаторы и методы обучения.

🔐 Лицензия: MIT

🖥 Github

#курс #machinelearning

@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥24👍531
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ СuML от NVIDIA: Scikit-learn на скорости GPU – без единой строчки нового кода!

Все мы любим scikit-learn за его простоту и мощь. Но что если ваши модели обучаются слишком долго на больших данных? 🤔 NVIDIA предлагает решение!

Вы берете свой обычный скрипт cо scikit-learn, добавляете всего две строки в начало, и он начинает работать в 10, 50, а то и 100+ раз быстрее на NVIDIA GPU! 🔥

Как это работает?

Библиотека cuml от NVIDIA содержит супероптимизированные для GPU версии многих алгоритмов машинного обучения. С помощью простого вызова cuml.patch.apply() вы "патчите" установленный у вас scikit-learn прямо в памяти.

Теперь, когда вы вызываете, например, KNeighborsClassifier или PCA из sklearn:

▶️Патч проверяет, есть ли у вас GPU NVIDIA.
▶️Проверяет, есть ли в cuml быстрая GPU-версия этого алгоритма.
▶️Если да – запускает ускоренную версию на GPU! 🏎️
▶️Если нет (нет GPU или алгоритм не поддерживается) – спокойно запускает обычную CPU-версию scikit-learn.

Ключевые преимущества:

✔️ Нулевые изменения кода: Ваш scikit-learn код остается прежним. Добавляете только 2 строчки:
import cuml.patch и cuml.patch.apply().
✔️ Колоссальное ускорение: Получите прирост производительности на порядки для поддерживаемых алгоритмов (KNN, PCA, линейные модели, Random Forest (инференс), UMAP, DBSCAN, KMeans и др.) за счет мощи GPU.
✔️Автоматическое переключение между GPU и CPU. Ваш скрипт будет работать в любом случае.

Топ инструмент для всех, кто работает с scikit-learn на задачах, требующих значительных вычислений, и у кого есть GPU от NVIDIA.

👇 Как использовать:

Установите RAPIDS cuml (лучше через conda, см. сайт RAPIDS):


python
conda install -c rapidsai -c conda-forge -c nvidia cuml rapids-build-backend


Добавьте в начало скрипта:


import cuml.patch
cuml.patch.apply()


Используйте scikit-learn как обычно!

Попробуйте и почувствуйте разницу! 😉

Блог-пост
Colab
Github
Ускоряем Pandas

@ai_machinelearning_big_data


#python #datascience #machinelearning #scikitlearn #rapids #cuml #gpu #nvidia #ускорение #машинноеобучение #анализданных
Please open Telegram to view this post
VIEW IN TELEGRAM
19👍7🔥7
Forwarded from Machinelearning
🎙️ Qwen3-ASR — универсальная модель распознавания речи!

🟢Поддержка EN/CN + ещё 9 языков: ar, de, en, es, fr, it, ja, ko, pt, ru, zh
🟢 Авто-определение языка
🟢 Модель умеет распознавать речь даже в сложных условиях — когда человек поёт, читает рэп или говорит под фоновую музыку. — WER <8% (ошибки меньше 8 слов на каждые 100)
🟢 Работает даже в шуме, низком качестве и на расстоянии
🟢 В модель можно добавить свои слова/термины/имена и фразы, и она будет их правильно распознавать

API:https://bailian.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2979031
ModelScope Demo: https://modelscope.cn/studios/Qwen/Qwen3-ASR-Demo
Hugging Face Demo: https://huggingface.co/spaces/Qwen/Qwen3-ASR-Demo
Blog:https://qwen.ai/blog?id=41e4c0f6175f9b004a03a07e42343eaaf48329e7&from=research.latest-advancements-list

@ai_machinelearning_big_data

#ASR #SpeechRecognition #Qwen3 #AI #MachineLearning #DeepLearning #VoiceAI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍119👏2
Как большие языковые модели могут избежать катастрофического забывания во время файнтюнига?

Ответы пишите в комменариях👇

🤔 Проблема
Катастрофическое забывание возникает, когда модель во время дообучения на новых данных теряет уже выученные знания.

Ещё хуже ситуация с коллапсом модели — когда в датасет начинают попадать тексты, сгенерированные самой LLM: это искажает данные, стирает редкие примеры и усиливает ошибки.

Подходы на практике:

1️⃣ LoRA / параметро-эффективное дообучение:
- Обновляются не все веса, а только адаптеры.
- Это снижает риск забывания базовых знаний, сохраняя при этом гибкость для дообучения.
2️⃣Dynamic replay / rehearsal (динамическое повторное смешивание)
- К кастомному датасету подмешивают данные из предобучения.
- Обычно берут в 2–3 раза больше примеров из базового корпуса.
- Так сохраняется «фон» общих знаний модели.
3️⃣ Dataset mixing (смешивание датасетов)
- Не дают модели «зарыться» в узкий домен.
- Сочетание специализированных и базовых данных удерживает баланс.
4️⃣ Variation across epochs (вариативность между эпохами)
- На каждой эпохе берут новые сэмплы из предобученного корпуса.
- Это повышает разнообразие и снижает риск переобучения к конкретному подмножеству.

📌 Как ответить на собеседовании
«Чтобы избежать забывания, используют LoRA (параметро-эффективное дообучение), динамический replay с базовыми данными (в пропорции 1:2 или 1:3), а также варьируют сэмплы из pretrain-корпуса между эпохами. Это сохраняет старые знания и даёт гибкость для новых».

@machinelearning_interview

#AI #LLM #MachineLearning #Forgetting #FineTuning
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14🔥73😘3💯1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Одна из самых наглядных визуализаций механизма внимания - темы, которую многим разработчикам долго было трудно по-настоящему понять.

На первый взгляд формула кажется простой -
её легко выучить и даже воспроизвести по памяти.

Но разобраться интуитивно, как взаимодействуют Q (Query), K (Key) и V (Value), - совсем другое дело. Именно это видео или схема помогает «увидеть», что происходит внутри трансформера.

#machinelearning #deeplearning #transformers #attention #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥23👍118
Forwarded from Machinelearning
🖥 NVIDIA представила новое открытое семейство моделей Nemotron 3

✔️ Nemotron 3 Nano - это универсальная модель для рассуждений и чата, ориентированная на локальный запуск.

Ключевые характеристики:
- MoE-архитектура: 30B параметров всего, ~3.5B активных
- Контекст до 1 миллиона токенов
- Гибридная архитектура:
- 23 слоя Mamba-2 + MoE
- 6 attention-слоёв
- Баланс между скоростью и качеством рассуждений

Требования:
- необходимо около 24 ГБ видеопамяти для локального запуска

Модель хорошо подходит для длинных диалогов, анализа документов и reasoning-задач

Интересный пример того, как MoE и Mamba начинают реально снижать требования к железу, сохраняя масштаб контекста и качество.

✔️ Nemotron 3 Super и Nemotron 3 Ultra значительно превосходят Nano по масштабу - примерно в 4 раза и 16 раз соответственно. Но ключевой момент здесь не просто в размере моделей, а в том, как NVIDIA удалось увеличить мощность без пропорционального роста стоимости инференса.

Для обучения Super и Ultra используется NVFP4 и новая архитектура Latent Mixture of Experts. Она позволяет задействовать в четыре раза больше экспертов при той же стоимости инференса. По сути, модель становится «умнее» за счёт более гибкого выбора экспертов, а не за счёт постоянной активации всех параметров.

Дополнительно применяется Multi-Token Prediction, что ускоряет обучение и улучшает качество рассуждений на длинных последовательностях. Это особенно важно для agentic и multi-agent сценариев, где модели работают с длинным контекстом и сложными цепочками решений.

NVIDIA публикует не только веса, но и данные для предобучения и постобучения, а также технические детали, которые объясняют, почему эти модели одновременно быстрые и сильные.

Такой уровень открытости - редкость для моделей этого масштаба и хороший сигнал для индустрии.

🟡Release: https://developer.nvidia.com/blog/inside-nvidia-nemotron-3-techniques-tools-and-data-that-make-it-efficient-and-accurate/
🟡Guide: https://docs.unsloth.ai/models/nemotron-3
🟡GGUF: https://huggingface.co/unsloth/Nemotron-3-Nano-30B-A3B-GGUF
🟡lmstudio: https://lmstudio.ai/models/nemotron-3

@ai_machinelearning_big_data


#AI #LLM #NVIDIA #Nemotron3 #OpenSource #MachineLearning
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥96👍5
🚨 DeepSeek уже в первый день года выкатывает сильное обновление: важное улучшение архитектуры трансформеров.

Китайцы предложили способ сделать shortcut-путь ( это когда выход слоя прибавляется к его же входу, то есть сеть не «заменяет» информацию, а добавляет к ней улучшенную версию) в трансформерах гибче, но при этом сохранить стабильность даже у очень больших моделей.

В обычном трансформере каждый блок что-то считает, а потом просто добавляет результат к исходному сигналу.

Это помогает информации проходить через много слоёв, не теряясь.

Hyper-Connections меняют shortcut-путь.
Был один поток, а стало несколько.

Перед блоком модель выбирает, какие потоки подать на вычисления.

Во время блока часть сигнала идёт «в обход»,
чтобы ничего не потерять.

После блока всё снова аккуратно объединяется.


То есть shortcut превращается из простого «input + output» в умный маршрутизатор сигналов.

Проблема в том, что без ограничений такие смешивания могут усиливать сигнал слишком сильно или, наоборот, гасить его и большие модели начинают вести себя нестабильно.

mHC решает это так:
потоки остаются, но каждое смешивание работает как аккуратное усреднение.

Сигнал не может «взорваться» или исчезнуть - он остаётся под контролем.

Что это даёт на практике:

- модели остаются стабильными даже на масштабе 27B, дают лучшее качество и не страдают от скачков лосса.

Там, где обычные Hyper-Connections раздували сигнал до 3000×, mHC держат его примерно на уровне 1.6×.

Если коротко: был один shortcut,. сделали несколько, но заставили их смешиваться безопасно.

И трансформеры стали гибче и стабильнее.

Статья: https://arxiv.org/abs/2512.24880

Видео: https://www.youtube.com/watch?v=gT-0Qryi5KA

#AI #DeepSeek #MachineLearning #NeuralNetworks #Research
22🔥7👍4🤔1