Machine learning Interview
30.4K subscribers
1.48K photos
114 videos
13 files
1.01K links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1


@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
✔️ Краудсорсинговая платформа Ozon Profit расширила возможности для ML-разработки

Сервис, изначально ориентированный на онлайн-разметку данных, теперь позволяет собирать информацию и в офлайн-среде по всей России. Это решение может быть особенно полезно для проектов, где требуется верификация ML-моделей в реальных условиях.

Что позволяет сервис:
• Запущены «полевые задания» — исполнители могут выполнять проверки в офлайне, посещая локации по всей стране
• В онлайне — разметка текста, изображений и видео, анализ обращений клиентов, определение эмоций, намерений и тем в комментариях и чатах
• Доступны API-интеграции для автоматизации процессов, контроль в режиме реального времени вне зависимости от масштаба проекта
• Комиссия фиксированная и не зависит от формата задач
5🔥2👏1
⚡️ Trinity Nano и Trinity Mini - новое семейство открытых MoE-моделей:

- 6B и 26B MoE (1B/3B активных параметров)
- 128 экспертов, 8 активных, 1 общий
- GQA и gated attention
- 128k контекст
- 10T токенов, обучено на 512 H200 в bf16
- Apache 2.0 и полностью открытые веса
- Созданы для агентов, function calling и долгих рассуждений
- Разработано совместно с Datology и Prime Intellect

https://huggingface.co/arcee-ai/Trinity-Mini
👍4🔥3🤔3
Forwarded from Machinelearning
✔️ Mistral AI представила Mistral 3 - новое семейство открытых ИИ-моделей, рассчитанных на работу где угодно: от ноутбуков и смартфонов до облаков и edge-устройств.


Линейка включает флагманскую Mistral Large 3 и компактные Ministral-модели - все под лицензией Apache 2.0 с коммерческим использованием.

Модели оптимизированы для широкого спектра задач: от работы на устройствах с ограниченными ресурсами до корпоративных нагрузок.

- Mistral Small 3 вышла на уровень свыше 81 % на MMLU: для компактной модели это очень высокий показатель при низких задержках.
- Mistral Medium 3.1 заняла верхние позиции в LM Arena: первое место в категории English (no style control), второе, в общем зачёте, плюс топ-3 в задачах кодирования и длинных запросов.
- Medium 3.1 показывает около 90 % качества «тяжёлых» моделей, но при существенно меньших ресурсных затратах - одно из лучших соотношений цена/производительность на рынке.

https://mistral.ai/news/mistral-3

@ai_machinelearning_big_data

#mistral #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
13👍4🥰2😁2
⚡️ Google представил бесплатный адвент-календарь для вайбкодеров.

Google выпустил бесплатный обучающий адвент-календарь, рассчитанный на 25 дней. Каждый день открывается новый короткий видеоурок со ссылками на дополнительные материалы и примерами кода, которые можно сразу использовать в проектах.

Курс последовательно проводит слушателя через ключевые этапы работы с агентами - от быстрого развёртывания базовых решений до оркестрации полноценных мультиагентных систем. Первые два урока уже доступны.

Инициатива выглядит полезной для тех, кто хочет системно разобраться в современных подходах к созданию и управлению агентами.

https://adventofagents.com/
🤪15🤔94👍2🥰2💊2
✔️ OpenAI нашла способ заставить модели признаваться в собственных галлюцинациях — в новом исследовании представили технику под названием Confessions.

Проблема, которую пытаются решить:
модели нередко стремятся «угодить» системе оценки — выдают уверенные, но неверные факты, скрывают нарушения инструкций или занимаются reward hacking, чтобы получить более высокий балл.

Как работает Confessions:

1. Модель сначала генерирует обычный ответ.
2. Затем формирует второй, независимый отчёт, в котором сама оценивает:
- нарушила ли инструкции,
- где могла ошибиться,
- какие элементы ответа были сомнительными.
3. И получает награду за честность, а не за попытку скрыть ошибку.

Идея в том, что модель начинает рассматривать своё собственное поведение как объект анализа, а не пытается «выпутаться» любыми средствами.

Результаты:
В тестах на GPT-5 Thinking вероятность того, что модель нарушит правила *и попытается это скрыть*, снизилась до 4.4%.
Важно: Confessions не устраняет галлюцинации, а работает как инструмент диагностики — помогает выявлять моменты, где модель могла «соврать» или отойти от инструкции.

https://openai.com/index/how-confessions-can-keep-language-models-honest/
23👍10🔥4
🚀 В SAMGeo совсем скоро появится поддержка сегментации изображений с помощью SAM3 - это добавит больше возможностей и упростит работу с данными дистанционного зондирования.

Интеграция сделает точную сегментацию быстрее и доступнее для всех, кто работает с геоданными.

На картинке: сегментация зданий по простому текстовому запросу «building».
Результаты выглядят многообещающе. Обновления уже на подходе.

🔗 GitHub PR: https://github.com/opengeos/segment-geospatial/pull/430
8🔥2🤔2🥰1
🚀 AWS представила новое поколение AI-инструментов: Amazon Nova 2 и Agentic-AI

✔️ Nova 2 - семейство мощных моделей для текста, изображений, видео и мультимодальных задач
✔️ Nova Act - AI-агенты, которые могут работать в браузере: кликать, заполнять формы, навигироваться по UI
✔️ Nova Forge — сервис для создания собственных моделей на базе Nova: пред-тренировка, дообучение, кастомизация

Почему это важно
- Универсальность: от чат-ботов до анализа видео и документов
- Автоматизация: агенты заменяют рутинные действия и ручные процессы
- Кастомизация: компании могут строить модели под свои данные
- Оптимальная цена-производительность: конкурент на рынке крупных моделей

#AI #AWS #AmazonNova #GenerativeAI #AgenticAI #Automation

https://www.aboutamazon.com/news/aws/aws-agentic-ai-amazon-bedrock-nova-models
6👍3
🚀 Tavily Deep Research: как работает новый поисковый движок Hugging Face

Tavily - это инструмент для глубокого поиска и анализа. Он не просто ищет ссылки, а собирает факты, фильтрует шум и структурирует информацию так, чтобы её мог использовать ИИ для сложных задач.

🔥 Что делает Tavily
• Ищет релевантный контент по вебу
• Отбрасывает лишнее и оставляет только важные фрагменты
• Сжимает и очищает данные перед тем, как их увидит модель
• Экономит токены и ускоряет обработку, потому что не передает «всё подряд»

🧠 Как выглядит процесс Deep Research
1. Поиск по вебу
2. Извлечение полезных частей
3. Сжатие и структурирование информации
4. Формирование финального ответа или отчета

Где это полезно
• Аналитика и исследования
• Подготовка отчетов и обзоров
• Глубокие ответы, где обычный поиск слишком поверхностный

Это подход «не просто найти информацию, а переварить и подать её как исследователь».

https://huggingface.co/blog/Tavily/tavily-deep-research
12👍3🥰2🤔2
🚀 Креативные подсказки для Nano Banana Pro

Собрание уникальных и креативных подсказок для работы с Google's Nano Banana Pro. Идеально подходит для художников и разработчиков, желающих расширить свои возможности в генерации контента. Все подсказки собраны из сообщества и предназначены для образовательных целей.

🚀 Основные моменты:
- Более 500 тщательно отобранных подсказок
- Поддержка динамических аргументов для Raycast
- Разнообразные стили генерации: от фотореализма до художественных работ
- Удобный веб-галерея для поиска и генерации

📌 GitHub: https://github.com/YouMind-OpenLab/awesome-nano-banana-pro-prompts
8👍2🥰1
💰 OpenAI строит гигантские дата-центры, но 2026-й может стать моментом “проверки на реальность”

Forbes пишет: на фоне планов инфраструктуры примерно на $1,4 трлн, OpenAI имеет лишь около $20 млрд выручки и большая часть проекта опирается на ожидание будущего спроса, которого пока нет.

Модель финансирования выглядит так:
Cloud-операторы вроде CoreWeave и Crusoe, плюс партнёры типа SoftBank и Oracle, берут кредиты, покупают GPU, закладывают их как залог, и рассчитывают, что:

- трафик OpenAI загрузит мощности,
- Nvidia “выкупит” избыточную ёмкость, если спрос окажется ниже ожиданий.

То есть создаётся замкнутый цикл, который может переоценивать реальную рыночную потребность.

Проблема в том, что корпоративный спрос пока — это осторожные пилоты, а кластеры нужно обновлять каждые 5–7 лет.

По мнению автора, в 2026 инвесторы и кредиторы начнут давить на OpenAI, требуя замедлить или урезать проект Stargate, если компания не докажет, что каждая единица мощности приносит прибыль быстрее, чем Google и другие успевают догнать по качеству моделей.

⚠️ Вывод: если реальный спрос не вырастет, текущая стратегия может превратиться в риск «слишком много построили слишком рано».

forbes.com/sites/paulocarvao/2025/12/06/why-openais-ai-data-center-buildout-faces-a-2026-reality-check/
12👍4🔥3🤣3😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Google Ironwood - самый мощный TPU 7-го поколения.

Производительность:
• 4,614 FP8 TFLOPS
• 192 GB HBM3E на чип
• Пропускная способность памяти - до 7.37 TB/s

🚀 Масштабируемость:
• Кластеры (pods) до 9,216 ускорителей
• Совокупно — 42.5 FP8 ExaFLOPS для тренировки и инференса
• Для сравнения: Nvidia GB300 NVL72, всего 0.36 ExaFLOPS

🔗 Связность:
• Собственная сеть Inter-Chip Interconnect - 9.6 Tb/s
• Общий объём памяти в pod - около 1.77 PB HBM3E
• Это снова больше, чем у конкурирующих систем Nvidia

Ironwood — мощнейшая платформа Google для больших LLM и мультимодальных моделей.
17🔥5🥱3🥰2😱2
🚀 Model Context Protocol (MCP) - протокол, который с самого начала развивался открыто, делает большой шаг.


Теперь MCP официально переходит под крыло Linux Foundation.

Это важный момент для будущего агентов, инструментов и всей экосистемы разработки ИИ:
стандарт становится независимым, управляемым сообществом и готовым к масштабному принятию.

https://github.blog/open-source/maintainers/mcp-joins-the-linux-foundation-what-this-means-for-developers-building-the-next-era-of-ai-tools-and-agents/
🎉11👍63🔥3🥰2🍾2
🚀 QWEN представили SAPO - Soft Adaptive Policy Optimization.

Новый метод обучения LLM, делающий RL-тюнинг более стабильным и масштабируемым.

Зачем он нужен?
🔹 Жёсткое ограничение градиентов часто ломает обучение, то они исчезают, то взрываются .
🔹 В MoE-моделях эта нестабильность усиливается ещё больше

Что делает SAPO:
✓ вместо резких границ - плавный «температурный» контроллер
✓ более мягкая зона доверия - без внезапного обнуления градиентов
✓ согласованное поведение на уровне последовательности
✓ адаптация на уровне токенов - сохраняет полезные сигналы и ускоряет обучение
✓ асимметричные температуры - сильный выигрыш по стабильности, особенно для MoE

Что это даёт:
📌 длинные стабильные RL-тренировки
📌 выше точность (Pass@1)
📌 заметный прирост в задачах математики, кода и мультимодальности (например, на Qwen3-VL)


SAPO - шаг к более надёжному и предсказуемому RL-тюнингу больших моделей.

📄 Paper: https://arxiv.org/abs/2511.20347
📚 Blog: https://qwen.ai/blog?id=sapo
🔍 Видео: https://www.youtube.com/watch?v=aQyzIzUw9zI
11👍5
Вышел техрепорт Яндекса о семействе моделей Alice AI

Техрепорт охватывает Alice AI LLM, LLM Search, мультимодальную VLM и ART для изображений. Подход ко всем единый: масштабирование данных, улучшение reasoning и повышение эффективности инференса.

Одним из ключевых разделов опубликованного техрепорта стала детальная пересборка обучающих данных для Alice AI LLM. Яндекс сфокусировался на улучшении качества корпуса и формировании устойчивых знаний в областях, где классические LLM испытывают дефицит.

Благодаря фильтрации и аугментации больших корпусов удалось избавиться от низкокачественных данных и расширить репрезентативность корректных фактов. Результаты подтверждены внутренними измерениями: рост на 4–7% на внутреннем бенчмарке фактов.

Cбор данных по школьным предметам обеспечил крупнейший скачок: нейросеть уверенно обходит зарубежные модели в истории, литературе и русском языке. В математике и программировании также заметен прогресс за счёт добавления алгоритмических и кодовых данных (+4.5 п.п. на LiveCodeBench).

Ещё из интересного — алгоритм последовательного параллелизма Ulysses attention, который Яндекс внедрил совсем недавно. Подход позволил провести midtrain-стадию обучения и увеличить контекст с хорошим ускорением за счёт перебалансировки нагрузки между процессами.

https://habr.com/ru/companies/yandex/articles/974594/
🆒6👍52😁2👌2