Machine learning Interview
30.2K subscribers
1.49K photos
110 videos
13 files
995 links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1


@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
🚀 Ваш ИИ-агент забывает только потому что вы ему позволяете

Есть простая техника, которая радикально улучшает качество агента. Её почти никто не применяет, хотя прирост достигает 51.1%.

Называется workflow memory.

Представьте задачу: вы просите агента обучить ML-модель на вашем CSV. Он пишет код на PyTorch, перебирает гиперпараметры, правит конфиг, оптимизирует пайплайн и выдаёт финальный скрипт. Всё отлично. Но через пару дней вы даёте похожее задание, и агент снова проходит весь путь, повторяет ошибки и тратит токены.

Workflow memory меняет правила. Агент должен помнить процесс и свой опыт: что делал, какие сложности встречал, какие решения сработали, что нужно избегать. Это не ретри, а развитие навыка.

В конце задачи агент записывает ключевую информацию в обычный markdown-файл: описание задачи, проблемы, выводы. А при старте новой задачи получает краткие описания прошлых workflow.md и сам выбирает, что ему пригодится.

Это дешёвый способ дать агенту рабочую память, не полагаясь на гигантский контекст.

Результат
- меньше токенов и расходов
- нет повторяющихся ошибок
- реальное обучение на опыте, а не на нуле каждый раз

Это можно реализовать хоть сегодня в вашем агенте. Нужны только markdown-файлы и продуманный prompt.

Вот выборка готовых появилась готовых workflow.

Агент сам определяет, какая память релевантна новой задаче. Исследование MIT показало рост качества на 24.6% и 51.1% в тестах на веб-навигацию.

👉 Github: https://github.com/camel-ai/camel/pull/3291
👉 Paper: https://arxiv.org/pdf/2409.07429
25🔥10👍3🥰2🍾1
📦 Samsung и NVIDIA строят AI-мегафабрику на 50000 GPU

Samsung и NVIDIA запускают новый формат производства чипов: цифровой завод, где ключевые этапы литографии, проектирования и роботизации работают на GPU, а не на классических CPU-кластерах.

Что это значит:
- цифровые двойники фабрик и чипов на NVIDIA Omniverse
- до 20 раз быстрее вычислительная литография (cuLitho)
- ИИ-ускоренное OPC - корректировка масок для точной печати транзисторов
- ускоренный EDA - моделирование, верификация и проектирование
- внедрение Blackwell и Jetson Thor в заводские роботы
- применение цифровых двойников в производстве смартфонов и техники Samsung

Ключевые участники:
- Samsung - фабрики, данные, OPC-пайплайн, производство
- NVIDIA - GPU, CUDA-X, cuLitho, Omniverse, Isaac Sim
- партнёры: Synopsys, Cadence, Siemens

Почему это важно:
Процесс OPC - один из самых тяжёлых вычислительных этапов в производстве чипов. GPU дают прирост в 20 раз, значит маски готовятся быстрее и точнее. Это сокращает цикл: проектирование - симуляция - производство.

Апгрейд памяти:
- HBM4 с 10-нм DRAM и 4-нм логическим слоем
- до 11 Гбит/с пропускной способности

Роботы и автономия:
- Isaac Sim и Jetson Thor для заводских роботов
- RTX PRO 6000 Blackwell Server Edition для реального восприятия и планирования
- AI-RAN для низкой задержки между сенсорами, базовыми станциями и роботами

Плюс Samsung будет разворачивать модели Megatron на 400 млн устройств - чат, перевод, суммаризация прямо в производственных процессах.

По сути, это шаг к полному цифровому конвейеру чипостроения: от виртуального проектирования до реальных роботов на фабрике.

wsj.com/tech/ai/samsung-electronics-nvidia-to-build-ai-factory-in-new-chip-deal-c97e623f
17🔥10👍4
Суровая правда 😂
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣5429👍5💯4🤔2🥴2😭2😁1🤝1
🧠 ThinkMorph - новый скачок в мультимодальном мышлении

Модель обучена на 24K высококачественных интерливинговых трасс рассуждений и умеет генерировать прогрессивные текстово-визуальные шаги мышления, где текст и изображение усиливают друг друга.

Что это даёт
- резкий прирост в задачах с визуальным контекстом
- постепенное мультимодальное рассуждение шаг за шагом
- неожиданные способности: адаптивная логика и невиданные ранее визуальные манипуляции

Модель не просто видит и описывает картинку - она развивается в процессе рассуждения, корректируя и дополняя свои выводы с каждым новым текстово-графическим шагом.

Это уже не просто VLM - это механизм, который учится думать с помощью изображения и текста одновременно, усиливая одно другим.

Исследование называется ThinkMorph - можно найти на Hugging Face Papers по номеру 2510.27492

https://huggingface.co/papers/2510.27492
🔥162👍2👏2
🧠 Deta Surf: Ваш AI-блокнот

Deta Surf — это AI-блокнот, который объединяет ваши файлы и веб-ресурсы, упрощая процесс исследования и мышления. Он позволяет работать с различными медиа одновременно, минимизируя рутинные задачи.

🚀 Основные моменты:
- Поддержка локальных файлов, веб-сайтов и ссылок.
- Умные заметки с интеграцией AI и возможностью поиска.
- Разделение экрана для одновременной работы с несколькими ресурсами.
- Генерация интерактивных приложений без кода.
- Открытые форматы данных и локальное хранение.

📌 GitHub: https://github.com/deta/surf

#svelte
10👍6🥰1
MIT + Harvard + Google DeepMind показали, почему обычные трансформеры почти не умеют в многозначное умножение — и как это починить одной идеей

Команда обучила два маленьких Transformer-а считать 4-значное × 4-значное умножение.

Первый - с методом implicit chain-of-thought (ICoT): модель сначала видит все промежуточные шаги вычисления, а затем эти шаги постепенно убирают.
То есть модель вынуждают “думать внутри себя”, а не на видимых подсказках.

Результат: 100% точность на всех примерах.

Второй - обычное обучение: вход → ответ, без промежуточных шагов.
Результат: около 1% правильных ответов.

Почему так?

- Многозначное умножение требует длинных зависимостей
- Нужно запоминать и переносить “сумму + перенос” между разными позициями
- Модель должна хранить промежуточные частичные произведения и возвращаться к ним позже
- Рабочая модель формирует “бегущую сумму” и carry, как человек
- Внутри attention появляется структура наподобие небольшого бинарного дерева
- Представления цифр формируют особое пространство (пятилучевая призма + Fourier-код)

Обычное обучение захватывает “краевые” цифры и застревает — не может связать середину.
ICoT даёт правильный inductive bias: заставляет модель строить внутренний алгоритм, а не угадывать шаблон.

Главная идея: чтобы ИИ делал арифметику (и, возможно, логику), ему нужен скрытый расчётный процесс, а не просто больше данных.

Это шаг к пониманию того, как обучать модели *думать*, а не просто *запоминать*.
🔥33👍5👌21🥰1
🚀 LLM с контекстом 64k+ пример того, как можно эффективно обучать модель даже на потребительских GPU - благодаря связке Ulysses + Ring Attention!

В ModelScope SWIFT объединили два метода параллелизма по последовательности:

Ulysses - делит внимание по головам, почти не тратит трафик (но упирается в число heads)
Ring Attention - масштабируется выше числа голов через кольцевые P2P-коммуникации, с «зиг-заг» балансировкой для causal-моделей

💡 Комбо-подход: сначала работает Ulysses, и только когда он перестаёт тянуть (например, GQA или кластер >8 GPU), подключается Ring.

🔥 Результат на Qwen2.5-3B при 65k токенов:
75.4 GiB → 17.9 GiB VRAM на 8× A100
Работает с SFT, DPO, GRPO, мультимодальностью и padding-free входами.

Крутая инженерия:
Сплит последовательности встроен прямо в forward-hook модели —
никаких костылей в данных, полная совместимость с FlashAttention.

🔧 Включается одной флаг-командой:
--sequence_parallel_size 8

🟠Подробнее : https://modelscope.cn/learn/1799
🟠 GitHub: https://github.com/modelscope/ms-swift
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥118
This media is not supported in your browser
VIEW IN TELEGRAM
Два 23-летних разработчика из Индии выпустили вторую по качеству open-weight AI-голосовую модель в мире.

Maya1 уже входит в топ-20 глобального рейтинга и обгоняет лучшие решения Google.
3B параметров, запускается на одной GPU, выдаёт более 20 эмоций и работает с задержкой <100 мс.

Главный вывод прост — сегодня можно просто взять и сделать.

huggingface.co/maya-research/maya1
36🔥19👏8👍3💊2
Alibaba-EI представили систему, которая “понимает” резюме на уровне структуры и контекста — и делает извлечение данных с точностью, сравнимой с ручной разметкой. В основе — доработанная модель Qwen3 на 0.6B параметров.

Главные особенности:
- высокая точность извлечения полей и разметки
- очень быстрый инференс, подходит для больших потоков
- масштабируемость для реальных HR-платформ и автоматизации найма

Система не просто читает текст — она учитывает макет, блоки, порядок разделов, визуальные элементы и превращает резюме в аккуратный JSON со структурой.

Модель и демо доступны на ModelScope и Hugging Face, а подробности описаны в статье на arXiv.

Подобные компактные модели показывают, что качественный документ-AI уже необязательно должен быть большим — достаточно правильной архитектуры и тонкой настройки.

🔗 ModelScope: https://modelscope.cn/models/Alibaba-EI/SmartResume
🤗 Hugging Face:https://huggingface.co/Alibaba-EI/SmartResume
🧪Demo:https://modelscope.cn/studios/Alibaba-EI/SmartResumeDemo
📄 Paper: https://arxiv.org/abs/2510.09722
👍74🫡3🤔1
Microsoft запускает MAI Superintelligence Team — ставка на медицину

Microsoft создает новую команду MAI Superintelligence Team, начав с задач медицинской диагностики. Мустафа Сулейман заявляет, что у них есть «прямая траектория» к медицинскому суперинтеллекту за 2–3 года.

Цели команды: решать конкретные задачи — раннее выявление болезней, разработка батарей и материалов, проектирование молекул. Компания обещает массовые инвестиции в это направление.

Толчком стал недавний результат системы MAI-DxO — их оркестратор диагностики показал качество анализа сложных клинических случаев выше, чем у групп врачей. Сторонники считают это возможным шагом к сверхчеловеческому клиническому рассуждению — если удержать надежность, калибровку и прозрачность на масштабе.

Источник: reuters.com/technology/microsoft-launches-superintelligence-team-targeting-medical-diagnosis-start-2025-11-06/
17
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
✔️ На OpenRouter появилась модель, которую считают прототипом GPT-5.1.

Без официального анонса стала доступна новая ИИ-модель Polaris Alpha с контекстным окном до 256 тыс. токенов. Она описывается как универсальный инструмент для генерации кода и выполнении инструкций. Модель была запущена для сбора обратной связи от пользователей.

В технических сообществах предполагают, что Polaris Alpha может быть тестовой версией GPT-5.1 от OpenAI. Эту гипотезу подкрепляют отзывы первых пользователей, отмечающих крайне низкий уровень галлюцинаций и стиль ответов, характерный для GPT. Сама Polaris Alpha на прямой вопрос о своей связи с GPT-4 отвечает утвердительно.

По результатам бенчмарка EQ-Bench, производительность модели сопоставима с Claude-3.5-Sonnet. Доступ к Polaris Alpha открыт бесплатно через веб-интерфейс и API на OpenRouter.
openrouter.ai

✔️ Microsoft создает команду для разработки гуманистического сверхинтеллекта.

Мустафа Сулейман, CEO Microsoft AI, анонсировал новую стратегию, основанную на концепции «гуманистического сверхинтеллекта» (HSI). Для работы над этим направлением создается специальное подразделение - MAI Superintelligence Team.

В отличие от идеи AGI, подход Microsoft предполагает создание узкоспециализированных и контролируемых систем для решения конкретных проблем человечества. Стратегия отказывается от гонки за ASI в пользу разработки практических технологий.

Цели HSI — добиться прорывов в медицине, поиск чистой энергии и создание персонализированных ИИ-ассистентов, избегая рисков создания автономных и неконтролируемых систем. По словам Сулеймана, это должно гарантировать, что самые топовые версии ИИ будут создаваться строго в интересах людей.
microsoft.ai

✔️ Google выпустила Magika 1.0: ИИ-систему для определения типов файлов.

Google представила первый стабильный релиз опенсорсной утилиты Magika с полностью переписанным с нуля на Rust движком. Новая версия способна сканировать сотни файлов в секунду на одном ядре процессора, используя ONNX Runtime для инференса и Tokio для асинхронной обработки.

Количество поддерживаемых типов файлов было удвоено и теперь превышает 200. Добавилась поддержка актуальных форматов для Data Science и ML (Jupyter, PyTorch, ONNX), современных языков программирования (Swift, Kotlin, TypeScript, Zig) и DevOps-инструментов (Dockerfile, TOML, HCL). Разработчикам доступны обновленные модули для Python и TypeScript, а также новый нативный клиент командной строки.
opensource.googleblog.com

✔️ Foxconn внедрит человекоподобных роботов на производстве ИИ-серверов.

Крупнейший в мире контрактный производитель электроники в течение 6 месяцев начнет использовать человекоподобных роботов на своем заводе в Техасе. Роботы будут задействованы в сборке серверов для ИИ-систем. По словам CEO Янг Лю, это первый подобный опыт за более чем 50-летнюю историю Foxconn.

Этот шаг является частью стратегии по агрессивному расширению производства в Северной Америке. Компания, являясь ключевым поставщиком Nvidia, считает Северную Америку своим главным хабом по выпуску ИИ-серверов на ближайшие 3 года. Решение о роботизации принято для повышения эффективности производства, которое, по словам Лю, критически важно в сфере ИИ.
asia.nikkei.com

✔️ Сооснователь и руководитель PyTorch Сумит Чинтала покидает компанию Марка Цукерберга.

Сумит Чинтала, один из создателей и ключевых руководителей проекта PyTorch, объявил о своем уходе. Его последний рабочий день в компании - 17 ноября. Чинтала, проработавший у Цукерберга 11 лет, возглавлял PyTorch с момента его создания. За это время фреймворк стал индустриальным стандартом, заняв, по оценкам, более 90% рынка ИИ-разработки.

Свой уход он объяснил желанием после долгого отпуска заняться чем-то новым. По его словам, PyTorch достиг зрелости и стабильности, а сильная команда готова продолжать его развитие. Сам Чинтала планирует остаться активным участником open-source сообщества.
Soumith Chintala в сети X

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥125👍3
🚨 Google предлагает обучать ИИ в космосе

В новом исследовании Google рассматривает идею орбитальных дата центров для машинного обучения: спутники с TPU, объединённые лазерными каналами и питаемые напрямую Солнцем.

Причина проста: потребность в вычислениях растёт быстрее, чем растёт энергоэффективность. Солнце даёт энергии в 100 триллионов раз больше, чем производит всё человечество, а солнечные панели на орбите получают в 8 раз больше мощности, чем наземные.

Что Google уже проверила:

- TPU под космической радиацией выдержали эквивалент 5 лет на орбите
- Лазерные каналы связи достигли 1.6 Тбит/с в лаборатории с обычной оптикой
- Орбитальная архитектура: кластер из 81 спутника на дистанции 1 км с миллисекундными задержками
- Экономика запусков: при <$200 за кг на низкую орбиту к 2035 году космические вычисления могут стать конкурентоспособными с наземными дата центрами

Видение: автономные рои спутников, собирающие солнечную энергию и формирующие космические вычислительные кластеры. Без земли, без охлаждающей воды, только непрерывная солнечная мощность.

Google называет это moonshot для инфраструктуры ИИ.
Фактически это может стать чертежом первой межпланетной облачной платформы.

https://goo.gle/project-suncatcher-paper
28👍6🥰1
⚡️ Почему современные LLM почти не умеют играть злодеев

Новый отчёт Tencent показывает: модели, обученные на безопасность, плохо справляются с ролями злодеев, манипуляторов и эгоистов. Безопасностное обучение заставляет их быть честными и полезными, а это напрямую блокирует неэтичные черты вроде лжи, хитрости и скрытых мотивов.

Исследователи создали Moral RolePlay — тест из 800 персонажей с четырьмя уровнями морали. Модель помещают в сцену и оценивают, насколько её реакция совпадает с заданным характером.

Что обнаружили:
- чем «темнее» персонаж, тем сильнее падает качество ролевой игры
- самый резкий провал - переход от «слегка порочного добра» к эгоисту
- модели часто заменяют хитрое планирование вспышками злости, полностью руша образ
- высокие баллы как чат-бот не связаны с умением играть злодеев
- усиленное этическое выравнивание делает ситуацию только хуже

Главный вывод: текущие методы безопасности конфликтуют с задачами, где требуется реалистичное непроsocialное поведение - игры, сценарии, художественный текст.

Источник: arxiv.org/abs/2511.04962
12👍7🔥4
Агент, который думает и действует одновременно

Исследователи из Stanford и Цинхуа представили подход для агентов, которым нужно принимать решения в реальном времени. В таких средах у каждого действия есть жёсткий дедлайн: не успел — выполняется безопасный ход по умолчанию.

Главная идея: смешать мгновенную реакцию и параллельное планирование. Когда мир постоянно меняется, чисто реактивные агенты действуют быстро, но глупо, а долгие планировщики — умно, но слишком медленно и часто опаздывают. Комбинация работает лучше обоих.

Новый метод называется AgileThinker. Он запускает два потока:
- быстрый — основывается на частичных планах и свежем наблюдении
- планирующий — постоянно обновляет стратегию и дополняет план

Время измеряется не секундами, а токенами — что почти идеально коррелирует с реальным временем исполнения.

Авторы собрали тестовый набор: Freeway, Snake и Overcooked.
Результаты просты: под нагрузкой и жёсткими таймингами AgileThinker стабильно обгоняет оба базовых подхода — и быстрый, и «долго думающий».

Итог: это шаг к агентам, которые сохраняют интеллект, не теряя скорость, и могут действовать в динамичных средах, где промедление = ошибка.

Источник: arxiv.org/abs/2511.04898
13🔥4👍3🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
Открытый проект, цель которого — сделать 100 миллионов научных статей доступными с помощью LLM-генерированных структурированных саммари.

🧠 Набор данных из 100 000 саммари

🧩 Два дообученных LLM-моделя для анализа и структурирования

🌐 3D-визуализатор, который показывает взаимосвязи между научными работами

Blog: https://laion.ai/notes/summaries/
Models: https://huggingface.co/inference-net
Visualizer: https://aella.inference.net
🔥176👍5👀2
📘 CocoIndex: Knowledge Graph for Documents

Отличный пример того, как можно создавать граф знаний в реальном времени на основе документов с помощью CocoIndex.

🔍 Основные идеи:
- Используется LLM для извлечения связей между сущностями и построения графа знаний.
- Поддерживается экспорт узлов и отношений в графовые базы данных, такие как Neo4j или Kuzu.
- Пример пайплайна на Python: добавление источников, извлечение сущностей, формирование связей и экспорт.
- После построения можно выполнять графовые запросы вроде MATCH p=()-->() RETURN p.

📎 Подробнее:
https://cocoindex.io/docs/examples/knowledge-graph-for-docs

#AI #KnowledgeGraph #RAG #CocoIndex
3👍2🔥2
Forwarded from Machinelearning
⚡️ ChatGPT-5.1

OpenAI выпустила GPT-5.1, сделав основной упор на интеллект и качество диалога.

🟢GPT-5.1 Instant - модель с функцией адаптивного мышления. Она способна самостоятельно «задумываться» над сложными задачами, что позволило выбивать более высокие баллы по математическим задачам AIME 2025 и задачам по программированию Codeforces. Модель стала лучше следовать инструкциям и получила более «теплый» стиль общения по умолчанию.

🟢GPT-5.1 Thinking тоже была улучшена: она быстрее справляется с простыми запросами и выдает более четкие ответы с меньшим количеством жаргона.

Вместе с моделями OpenAI расширила возможности кастомизации тона ответов, добавив новые стили: «Профессиональный», «Откровенный» и «Необычный».

Обновление уже раскатывают на платных подписчиков, а доступ через API появится в ближайшие дни. Предыдущие версии GPT-5 останутся доступны в течение трех месяцев.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍3🗿2🔥1
Google запустил 5-дневный курс по AI-агентам на Kaggle. Их прошлый курс прошли более 420 000 человек.

В новом курсе будут темы:

Агенты и их архитектуры
Интеграция инструментов и MCP
Контекстная инженерия
Оценка качества агентов
От прототипа к продакшну

📅 Даты: 10–14 ноября
🔗 Регистрация: hkaggle.com/learn-guide/5-day-genai

#AI #Agents #Google #Kaggle #Learning
13👍9😁4