Machine learning Interview
30K subscribers
1.65K photos
139 videos
13 files
1.12K links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1

@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
⚡️ Карпати собрал второй мозг на LLM

Андрей Карпаты, один из самых влиятельных людей в мире AI, поделился подходом, который может изменить то, как мы работаем с информацией. Он перестал тратить токены LLM на написание кода и переключился на нечто более интересное: построение персональных баз знаний с помощью языковых моделей.

Идея простая, но мощная. Карпаты собирает сырые данные из разных источников (статьи, научные работы, репозитории, датасеты, изображения) в директорию raw/.

Затем LLM инкрементально “компилирует” из этого вики – коллекцию .md файлов с четкой структурой директорий. Модель сама создает саммари, обратные ссылки, категоризирует данные по концептам, пишет статьи для каждого из них и связывает все между собой. Для конвертации веб-статей в .md файлы он использует расширение Obsidian Web Clipper, а все связанные изображения скачивает локально, чтобы LLM мог к ним обращаться.

В качестве IDE выступает Obsidian. Через него Карпаты просматривает сырые данные, скомпилированную вики и визуализации. Важный момент: LLM пишет и поддерживает все данные вики самостоятельно, человек почти не трогает это руками. Плюс Obsidian-плагины вроде Marp позволяют рендерить данные в других форматах, например в слайды.

Еще один крутой прием - LLM-«линтинг» вики. Модель прогоняет проверки здоровья базы, находит противоречивые данные, заполняет пробелы через веб-поиск, обнаруживает интересные связи для новых статей и постепенно повышает целостность данных.

Следующий логичный шаг - синтетическая генерация данных и файнтюнинг, чтобы LLM «знала» данные в своих весах, а не только через контекстное окно. Карпати считает, что здесь есть место для нового крутого продукта, а не просто набора скриптов. И с этим сложно не согласиться.

https://uproger.com/karpati-sobral-vtoroj-mozg-na-llm/

🐍 полезные ресурсы 🚀Max

@machinelearning_interview
33🔥23🙉6👍5🤣5
⚡️ PicoClaw: ИИ-ассистент на Go, который работает на железе за $10 и жрёт меньше 10 МБ оперативки

Sipeed выложили PicoClaw - ультралёгкого AI-агента, написанного на Go с нуля. Это не форк и не обёртка, а самостоятельный проект.

Около 95% кода сгенерировал сам агент, а люди уже довели его до рабочего состояния.

По цифрам всё выглядит очень мощно: меньше 10 МБ оперативки против гигабайтов у многих аналогов, запуск меньше чем за секунду даже на одноядерном процессоре с частотой 0.6 ГГц. Один бинарник работает на x86, ARM, MIPS, RISC-V и LoongArch. То есть PicoClaw можно запустить хоть на Raspberry Pi, хоть на дешёвом одноплатнике, хоть на старом Android-смартфоне через Termux.

По возможностям тоже: 30+ LLM-провайдеров, 17+ каналов связи, MCP для внешних инструментов, веб-поиск, работа с файлами, выполнение кода, cron-задачи, субагенты, роутинг моделей и vision pipeline.

Интерфейсы тоже на любой случай: WebUI для обычной работы, TUI для серверов, CLI для совсем минимальных сред. Docker Compose тоже есть из коробки.

За два месяца проект набрал 26 тысяч звёзд на GitHub и 190 контрибьюторов. До полноценного продакшена он ещё не дорос, но для домашней автоматизации, умных камер, мини-серверов и edge-задач уже выглядит очень серьёзно.

https://github.com/sipeed/picoclaw
🔥177👍3👏2😁2
😁19😭7👍3
⚡️ В крупнейшей больнице Нью-Йорка заговорили о замене радиологов ИИ

CEO NYC Health + Hospitals Митчелл Кац прямо заявил: уже сейчас ИИ способен закрыть значительную часть задач радиологии. Главный барьер не технологии, а регуляция.

Речь не про будущее, а про текущие возможности. ИИ уже активно используют для анализа маммограмм и рентгена, и это помогает справляться с растущим потоком исследований.

Как это может выглядеть на практике
ИИ делает первичное чтение снимков, а врач подключается только там, где есть отклонения или сомнения. Это ускоряет поток и снижает нагрузку на специалистов.

Радиология это не поиск одной «точки на снимке». Это работа с контекстом: анатомия, история пациента, прошлые исследования, уровень неопределённости. И именно здесь ИИ пока не дотягивает до полной автономии.

Поэтому даже одобренные FDA решения сегодня остаются ассистентами
они улучшают качество изображений, помогают с триажем и подсвечивают аномалии, но не берут на себя финальное решение.

Технология уже готова менять процесс, но ответственность пока остаётся за врачом

futurism.com/artificial-intelligence/hospital-ceo-ai-radiology
11👍5🔥3
🚀 Автоматизация оптимизации GPU-ядра с AutoKernel

AutoKernel - это инструмент для автономной оптимизации GPU-ядр на основе моделей PyTorch. Он профилирует модели, выявляет узкие места и автоматически генерирует оптимизированные ядра Triton или CUDA C++. Пользователь может просто запустить процесс и проснуться с готовыми улучшениями.

🚀 Основные моменты:
- Автономное извлечение и оптимизация GPU-ядр.
- Поддержка различных моделей PyTorch.
- Интеграция с KernelBench для глубокого тестирования.
- Высокая скорость экспериментов — до 320 за ночь.
- Проверка корректности и производительности на каждом этапе.

📌 GitHub: https://github.com/RightNow-AI/autokernel

#python
13👍31
🔥 AlphaEvolveИ против классической оптимизации, результат минус 15 000 км

Google показали кейс FM Logistic, и он куда интереснее, чем кажется на первый взгляд. Это не стартап с хаосом, а большая международная компания с уже хорошо оптимизированными процессами. Тем ценнее результат.

В центре история про классическую задачу коммивояжера. Нужно построить самый короткий маршрут через все точки. Формулировка простая, но на практике это одна из самых сложных задач оптимизации. Количество вариантов растет так быстро, что даже для сотни точек полный перебор невозможен.

Теперь масштаб. Склад FM Logistic это 17 700 точек и площадь примерно как 8 футбольных полей. Одновременно работают несколько операторов, маршруты ограничены по длине и должны строиться прямо в процессе работы. То есть это уже не учебная задача, а жесткий прод с кучей ограничений.

Они дали свой алгоритм AlphaEvolve и дальше началось самое интересное. Система сама генерировала новые версии решения, прогоняла их на реальных данных и отбирала лучшие по метрикам. По сути, это эволюция кода под реальные условия, а не лабораторная оптимизация.

В результате нашли конкретные улучшения, которые дали плюс 10.4% к эффективности маршрутов. В логистике это огромная цифра. В их случае это около 15 000 километров в год и серьезная экономия денег.

Решение уже работает в проде и его планируют масштабировать на другие склады. Хороший пример того, как агентный подход и эволюционные алгоритмы начинают менять не демки, а реальные бизнес-процессы.

https://cloud.google.com/blog/products/ai-machine-learning/how-fm-logistic-tackled-the-traveling-salesman-problem-at-warehouse-scale-with-alphaevolve
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🔥8
🔥 Лучшие курсы по ИИ, которые можно пройти бесплатно в 2026:

Anthropic: http://anthropic.skilljar.com
Google: http://grow.google/ai
NVIDIA: http://developer.nvidia.com/training
(топ уровень)
Огромный список лучших бесплатных курсов Data Science на русском: https://uproger.com/data-science-luchshie-besplatnye-kursy/
Microsoft: http://learn.microsoft.com/training
OpenAI: http://academy.openai.com
IBM: http://skillsbuild.org
AWS: http://skillbuilder.aws
Математика машинного обучения: https://www.youtube.com/watch?v=ma50i4M5aAw
DeepLearningAI: http://deeplearning.ai
Hugging Face: http://huggingface.co/learn
FastAI: http://course.fast.ai
Kaggle Learn: http://kaggle.com/learn
Stanford AI: http://cs231n.stanford.edu
MIT OpenCourseWare: http://ocw.mit.edu
Full Stack Deep Learning: http://fullstackdeeplearning.com
DeepMind Resources: http://deepmind.com/learning-resources
OpenAI Cookbook: http://github.com/openai/openai-cookbook
Papers With Code: http://paperswithcode.com
AssemblyAI Blog: http://assemblyai.com/blog
10👍8🔥5
После LLM Wiki Карпаты появился следующий уровень работы с контекстом

LLM читает источники, вытаскивает знания и собирает их в Markdown-вики с ссылками и связями. Получается база, которая не пересчитывается заново каждый раз.

Для ресёрча это работает отлично. Концепты и их связи почти не меняются.

Но как только ты переносишь это в реальную работу, модель начинает теряться.

Потому что рабочий контекст живой:
▫️ встречи
▫️ дедлайны
▫️ решения
▫️ договорённости

Вики хранит описание проекта. Но не хранит, что реально произошло и как это менялось.

И здесь появляется другой подход.

Rowboat берёт ту же базу с Markdown и Obsidian, но вместо вики строит граф знаний.

Каждая сущность становится отдельным объектом:
▫️ человек
▫️ решение
▫️ обязательство
▫️ дедлайн

И всё это связывается между собой через ссылки.

Разница ощущается сразу.

Вики даёт тебе «о чём был проект».
Граф даёт тебе:
▫️ кто принял решение
▫️ что именно пообещали
▫️ когда это сделали
▫️ что изменилось

Rowboat подтягивает данные из Gmail, Granola, Fireflies и разбивает разговоры не на страницы, а на факты.

Каждое решение или обязательство становится отдельным md-файлом с привязкой к людям и проектам.

Поверх этого крутятся фоновые агенты.

Например, ежедневный бриф собирается автоматически из всех изменений в графе. Ты сам контролируешь, что запускать и что записывать обратно.

Модель можно подключить любую:
▫️ через Ollama
▫️ LM Studio
▫️ или API

Все данные лежат в обычном Markdown. Можно открыть в Obsidian, изменить или удалить.

Карпаты показал, как компилировать знания.
Rowboat показывает, как фиксировать реальность работы.

Следующий шаг после «умной вики» это система, которая помнит не только идеи, но и решения.

Repo: https://github.com/rowboatlabs/rowboat
👍135🔥5💊2🤪1
Claude Opus 4.6 внезапно «потупил» на 67%

Появились данные, что новая версия Claude Opus думает заметно меньше. Минус 67% reasoning, и это уже прозвали AI shrinkflation.

Цена при этом не изменилась. А вот поведение изменилось. Пользователи отмечают более жёсткие ограничения и менее глубокие ответы.

Самое интересное, что Anthropic никак это не комментировали, пока цифры не начали разлетаться публично.

Есть версия, что это банальная оптимизация затрат. Меньше compute на текущей модели, чтобы освободить ресурсы под следующую, которую называют Mythos.

Если это так, то тренд становится очевидным. Модели будут не только умнеть, но и «ужиматься» под экономику. И не всегда в пользу качества.

Вопрос теперь не в том, какая модель сильнее на бенчмарках. А в том, какую версию ты реально получаешь сегодня в проде.
🤣19😱6👍54🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Anthropic отвязала мозги агентов от рук, и это меняет всю архитектуру

Сегодня Anthropic выкатила в открытую бету Claude Managed Agents. Вы описываете задачи, инструменты и guardrails, а платформа хостит и запускает долгоживущих агентов за вас.

Ключевое архитектурное решение: декомпозиция агента на три изолированных интерфейса. Session (append-only лог событий), Harness (stateless оркестратор вызовов модели) и Sandbox (среда исполнения кода). Каждый компонент независим, при падении перезапускается без потери состояния. Harness обращается к sandbox как к обычному tool call: execute(name, input) → string. Контейнер больше не "питомец", а "скот")

Зачем это сделано: первая версия пихала всё в один контейнер. Падал контейнер - терялась сессия. Credentials лежали рядом с пользовательским кодом, что открывало вектор для prompt injection. Подключить клиентский VPC можно было только через пиринг сетей.

Теперь sandbox физически изолирован от токенов (Git-ключи прошиваются при инициализации, OAuth живет в vault за прокси). TTFT на p50 упал на 60%, на p95 - больше чем на 90%. Архитектура поддерживает "many brains, many hands": один агент рулит несколькими sandbox-ами, агенты передают окружения друг другу.

Самое любопытное в философии. Anthropic называет это мета-harness и намеренно не фиксирует конкретную оркестрацию, потому что она устаревает с каждым поколением моделей. Они уже наступили на эти грабли: workaround для "context anxiety" в Sonnet 4.5 превратился в мертвый код на Opus 4.5. Ставка на стабильные интерфейсы при сменяемой реализации - ровно как POSIX, где read() одинаково работает для диска из 70-х и современного SSD.
Notion уже в закрытой альфе: команды делегируют задачи Claude прямо из воркспейса, десятки задач параллельно.

https://www.anthropic.com/engineering/managed-agents
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14👍74💊3
Модель OpenAI закрыла пять задач Эрдёша. Пять, Карл.

Команда OpenAI выложила статью, где их внутренняя модель доказала пять открытых задач Пала Эрдёша.

Не помогала доказывать, не подсказывала направление, а именно выдала доказательства, которые потом записали в статью на 28 страниц.

Задачи из комбинаторики, теории чисел и теории вероятностей. Среди них, например, вопрос про обыкновенные прямые в планарных множествах точек и теорема конечности для целых чисел с определенными свойствами простых делителей. Вещи, которые висели открытыми десятилетиями.
Важный контекст: это уже вторая такая статья (в названии прямо стоит "II").

То есть первая не была случайностью и разовым хайпом. Процесс поставлен на поток: берем открытую задачу, скармливаем модели, получаем доказательство, проверяем, публикуем.


Речь про "internal model". Не GPT-4o, не o1, не что-то публично доступное. Где-то внутри OpenAI сидит штука, которая щелкает задачи из списка Эрдёша. И мы пока не знаем, как далеко она ушла от того, чем мы пользуемся.

📄 arxiv.org/abs/2604.06609
🔥4113👍11🤣5😱3😢3
✔️ Cursor перевел ревьюера Bugbot на онлайн-обучение.

Cursor изменил схему тренировки Bugbot, ИИ-инструмента для код-ревью. Раньше модель обновляли редкими офлайн-итерациями, теперь она дообучается в процессе ревью реальных PR.

Bugbot собирает 3 типа сигналов: дизлайки на собственные замечания, ответы разработчиков с разбором ошибок модели и комментарии людей, которые указывают на пропущенные баги. На основе этой обратной связи бот формулирует кастомные инструкции, подстраивающие его под бизнес-логику целевого репозитория.

После перехода на непрерывное обучение доля валидных срабатываний выросла до 78%. Это выше, чем у Greptile, CodeRabbit и GitHub Copilot. Включить генерацию правил и прогнать ретроспективное обучение можно в дашборде Cursor.
cursor.com
Please open Telegram to view this post
VIEW IN TELEGRAM
👍84🔥1
🚨 scientific-agent-skills этобиблиотека из 130+ готовых навыков для агентов, которые работают с научными задачами.

Это процедурные навыки. То есть пошаговые сценарии, которые уже проверены и упакованы в формат, понятный агенту.

Агент получает не «знание», а готовый способ решать задачу.

Внутри покрываются реальные домены. Геномика, химия, анализ данных, молекулярное моделирование, прогнозирование.

Фактически формируется слой между моделью и реальным миром.

Ты не просишь LLM «сделай анализ». Ты даёшь ей skill, который уже знает, какие библиотеки использовать, какие шаги выполнить и какой результат вернуть.

https://github.com/K-Dense-AI/scientific-agent-skills
16👍8
😁38🤣14🥰52🔥2
🔥 Плохой день для хейтеров ИИ. Сообщество Linux согласилось принимать код, сгенерированный ИИ, если это не низкокачественный мусор.

При этом вся ответственность остаётся за людьми - именно они должны гарантировать, что код соответствует стандартам Linux.

Линус не шутит, когда речь идёт о качестве кода. Это серьёзный шаг. (уже слышно, как он орёт в PR-ах)

На этой неделе в проекте Linux kernel впервые официально разрешили использовать ИИ при написании кода. Но с важным условием - вся ответственность теперь полностью на разработчике.

Позиция Линуса Торвальдса максимально простая: ИИ - это просто инструмент. Если разработчик приносит плохой код, проблема не в инструменте, а в нём самом. Поэтому вместо запретов решили ужесточить правила ответственности.

Ключевой момент - подпись в коммите. Строка Signed-off-by теперь ещё жёстче закрепляет правило: только человек имеет право её ставить. Это юридическое подтверждение того, что именно ты отвечаешь за код. Никакие AI-агенты не могут это делать.

Если, например, Claude сгенерировал race condition в block layer, а ты это пропустил - это твой баг. В истории останется твоя подпись, не модели.

Контекст важен. Open-source сейчас буквально захлёбывается от AI-кода сомнительного качества. Уже есть последствия:

создатель cURL закрыл bug bounty из-за потока галлюцинированных патчей
tldraw начал автоматически закрывать внешние PR
Node.js и OCaml ловят гигантские AI-патчи на 10k+ строк

Linux выбрал самый прагматичный путь - не запрещать, а заставить отвечать.

ИИ можно использовать. Но теперь без иллюзий: написал ты. Проверил ты. Отвечаешь тоже ты.

🖥 Полезные Linux ресурсы 🚀 Max

@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
22🔥14👍9💊2🤔1
⚡️ Вышло большое обновление популярного курса- Ai AI агенты, которые реально работают в проде!

Вы всё ещё пишете обёртки над ChatGPT и называете это «AI-продуктом»?

Пока вы промптите - рынок переходит на агентные системы. Те, что принимают решения, ходят в API, работают с Postgres и Redis, управляют браузером через Playwright.

И 90% таких систем ломаются между ноутбуком и продом.

AI Agents Engineering - курс, который закрывает этот разрыв. LangGraph, AutoGen, Computer Use, LLMOps. 8 модулей, 120+ шагов - от архитектуры до деплоя в Docker.

На выходе: реальный опыт на большой практической базе, а production-агент и навыки, за которые уже платят.

👉 48 часов действует скидка на курс 55 процентов: https://stepik.org/a/276971/
😁6🔥32👍2