Machine learning Interview
30K subscribers
1.65K photos
139 videos
13 files
1.12K links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1

@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Microsoft Critique: deep research на стероидах, где одна модель генерирует, а вторая её критикует

Microsoft выкатили Critique. Это инструмент для deep research, который одновременно запускает несколько моделей на один запрос.

Работает так: первая модель берёт на себя генерацию, вторая выступает рецензентом и вычищает ошибки и неточности до того, как вы увидите финальный ответ. Какие именно модели работали над ответом, видно в шапке.

По бенчмарку DRACO показывают SOTA, других замеров пока нет. Так что насколько это реально лучше обычного deep research, вопрос открытый.

Отдельно интересен режим Council для обычных запросов. Ваш промпт прогоняется через несколько моделей параллельно, и вы видите все варианты сразу. Плюс краткая выжимка: где модели согласны, а где разошлись во мнениях.

На широкую аудиторию пока не раскатили, можно подать заявку на ранний доступ. Будет ли это в обычной подписке за $20, неизвестно. Хотя, если честно, мультимодельный пайплайн с критиком можно собрать самому за вечер через API. И точно выйдет дешевле.

techcommunity.microsoft.com/blog/microsoft365copilotblog/introducing-multi-model-intelligence-in-researcher/4506011
🤪5🔥3💯31
Осталось 10 дней регистрации на Agents Week — интенсив по созданию ИИ-агентов от ШАДа

Пять вечеров с лекциями и возможностью задавать вопросы экспертам, много и ещё раз много практики. Всё будет проходить с 6 по 10 апреля. За одну рабочую неделю погрузитесь в проектирование, настройку и продакшен ИИ-агентов.

Четыре главных итога интенсива:

→ минус рутина
→ минус времени на рабочие и личные задачи
→ плюс возможностей и креативности
→ плюс вайб от нетворкинга

Скорее регистрируемся по этой ссылке. Заявки принимают до 9 апреля включительно
4🤣2👏1🤔1
Тест свежих LLM теперь - полноценная работа в 2026
🤣2717😁3🔥2
Парень переписал Claude Code на Python за ночь - и взорвал GitHub

Anthropic случайно засветили исходники своего ИИ-редактора Claude Code и они мгновенно разлетелись по сети.

Разработчик из Южной Кореи, Sigrid Jin, увидел это в 4 утра и не стал ждать.

За одну ночь он переписал ключевые части проекта на Python и выложил форк под названием Claw Code.

Результат:
- 50 000 звёзд всего за 2 часа
- вирусное распространение по всему GitHub
- полноценный агентный стек, сохранённый в новой реализации

Сейчас он уже работает над версией на Rust.

История про то, как скорость и скилл иногда решают больше, чем команды и бюджеты

https://github.com/instructkr/claw-code

🐍 полезные ресурсы 🚀Max

@machinelearning_interview
🔥28👍166🤣5
⚡️ OpenAI УНИЧТОЖЕН - правительство Индии обвиняет компанию в незаконном использовании рабского труда индийских программистов.

По «утечке», до 40% всех запросов по программированию якобы обрабатывает не GPT-5.4 Codex, а реальные разработчики из Индии, работающие в закрытых центрах в Корапуте.

История получила продолжение после «закрытия» Sora, якобы сотни аниматоров вышли наружу и рассказали, как всё устроено на самом деле.

Вишенка на торте - к теме даже «подключили» Трампа: он якобы заявил, что с американскими программистами у ChatGPT был бы шанс снова стать великим.

Звучит как громкое расследование.

Источник: Reuters/openaiindias.com
🤣138🔥10🥴71
⚡️ 10 полностью бесплатных курсов по ИИ актуальных на 2026 год:

Anthropic: http://anthropic.skilljar.com
Google: http://grow.google/ai
Meta: http://ai.meta.com/resources
NVIDIA: http://developer.nvidia.com/training
Microsoft: http://learn.microsoft.com/training
OpenAI: http://academy.openai.com
IBM: http://skillsbuild.org
AWS: http://skillbuilder.aws
DeepLearningAI: http://deeplearning.ai
Hugging Face: http://huggingface.co/learn
👍117🔥4😁1
Forwarded from Machinelearning
🚀 Gemma 4 - новое семейство открытых моделей Google, которые можно запускать прямо на своём железе.

Модели заточены для сложного reasoning и агентных задач.

🔵 Доступны в четырёх вариантах:

31B Dense и 26B MoE
Топовый уровень производительности для сложных локальных задач: кастомные код-ассистенты, анализ научных данных и не только.

E4B и E2B (Edge)
Оптимизированы для мобильных устройств — работают в реальном времени с текстом, изображениями и аудио.

🤖 Что можно делать:

• строить автономных ИИ-агентов
• планировать и выполнять многошаговые задачи
• взаимодействовать с приложениями
• искать данные и вызывать API

👉 Встроенная работа с инструментами (tool use) из коробки.

🧠 Контекст до 256K токенов:

• анализ целых кодовых баз
• длинные цепочки действий без потери контекста
• стабильная работа в сложных сценариях

⚡️ Начать можно уже сейчас через Google AI Studio

Также веса моделей доступны на Hugging Face, Kaggle и Ollama.

Лицензия: Apache 2.0.

https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/

@ai_machinelearning_big_data

#Gemma
🔥105👍4
⚡️ Карпати собрал второй мозг на LLM

Андрей Карпаты, один из самых влиятельных людей в мире AI, поделился подходом, который может изменить то, как мы работаем с информацией. Он перестал тратить токены LLM на написание кода и переключился на нечто более интересное: построение персональных баз знаний с помощью языковых моделей.

Идея простая, но мощная. Карпаты собирает сырые данные из разных источников (статьи, научные работы, репозитории, датасеты, изображения) в директорию raw/.

Затем LLM инкрементально “компилирует” из этого вики – коллекцию .md файлов с четкой структурой директорий. Модель сама создает саммари, обратные ссылки, категоризирует данные по концептам, пишет статьи для каждого из них и связывает все между собой. Для конвертации веб-статей в .md файлы он использует расширение Obsidian Web Clipper, а все связанные изображения скачивает локально, чтобы LLM мог к ним обращаться.

В качестве IDE выступает Obsidian. Через него Карпаты просматривает сырые данные, скомпилированную вики и визуализации. Важный момент: LLM пишет и поддерживает все данные вики самостоятельно, человек почти не трогает это руками. Плюс Obsidian-плагины вроде Marp позволяют рендерить данные в других форматах, например в слайды.

Еще один крутой прием - LLM-«линтинг» вики. Модель прогоняет проверки здоровья базы, находит противоречивые данные, заполняет пробелы через веб-поиск, обнаруживает интересные связи для новых статей и постепенно повышает целостность данных.

Следующий логичный шаг - синтетическая генерация данных и файнтюнинг, чтобы LLM «знала» данные в своих весах, а не только через контекстное окно. Карпати считает, что здесь есть место для нового крутого продукта, а не просто набора скриптов. И с этим сложно не согласиться.

https://uproger.com/karpati-sobral-vtoroj-mozg-na-llm/

🐍 полезные ресурсы 🚀Max

@machinelearning_interview
33🔥23🙉6👍5🤣5
⚡️ PicoClaw: ИИ-ассистент на Go, который работает на железе за $10 и жрёт меньше 10 МБ оперативки

Sipeed выложили PicoClaw - ультралёгкого AI-агента, написанного на Go с нуля. Это не форк и не обёртка, а самостоятельный проект.

Около 95% кода сгенерировал сам агент, а люди уже довели его до рабочего состояния.

По цифрам всё выглядит очень мощно: меньше 10 МБ оперативки против гигабайтов у многих аналогов, запуск меньше чем за секунду даже на одноядерном процессоре с частотой 0.6 ГГц. Один бинарник работает на x86, ARM, MIPS, RISC-V и LoongArch. То есть PicoClaw можно запустить хоть на Raspberry Pi, хоть на дешёвом одноплатнике, хоть на старом Android-смартфоне через Termux.

По возможностям тоже: 30+ LLM-провайдеров, 17+ каналов связи, MCP для внешних инструментов, веб-поиск, работа с файлами, выполнение кода, cron-задачи, субагенты, роутинг моделей и vision pipeline.

Интерфейсы тоже на любой случай: WebUI для обычной работы, TUI для серверов, CLI для совсем минимальных сред. Docker Compose тоже есть из коробки.

За два месяца проект набрал 26 тысяч звёзд на GitHub и 190 контрибьюторов. До полноценного продакшена он ещё не дорос, но для домашней автоматизации, умных камер, мини-серверов и edge-задач уже выглядит очень серьёзно.

https://github.com/sipeed/picoclaw
🔥177👍3👏2😁2
😁19😭7👍3
⚡️ В крупнейшей больнице Нью-Йорка заговорили о замене радиологов ИИ

CEO NYC Health + Hospitals Митчелл Кац прямо заявил: уже сейчас ИИ способен закрыть значительную часть задач радиологии. Главный барьер не технологии, а регуляция.

Речь не про будущее, а про текущие возможности. ИИ уже активно используют для анализа маммограмм и рентгена, и это помогает справляться с растущим потоком исследований.

Как это может выглядеть на практике
ИИ делает первичное чтение снимков, а врач подключается только там, где есть отклонения или сомнения. Это ускоряет поток и снижает нагрузку на специалистов.

Радиология это не поиск одной «точки на снимке». Это работа с контекстом: анатомия, история пациента, прошлые исследования, уровень неопределённости. И именно здесь ИИ пока не дотягивает до полной автономии.

Поэтому даже одобренные FDA решения сегодня остаются ассистентами
они улучшают качество изображений, помогают с триажем и подсвечивают аномалии, но не берут на себя финальное решение.

Технология уже готова менять процесс, но ответственность пока остаётся за врачом

futurism.com/artificial-intelligence/hospital-ceo-ai-radiology
11👍5🔥3
🚀 Автоматизация оптимизации GPU-ядра с AutoKernel

AutoKernel - это инструмент для автономной оптимизации GPU-ядр на основе моделей PyTorch. Он профилирует модели, выявляет узкие места и автоматически генерирует оптимизированные ядра Triton или CUDA C++. Пользователь может просто запустить процесс и проснуться с готовыми улучшениями.

🚀 Основные моменты:
- Автономное извлечение и оптимизация GPU-ядр.
- Поддержка различных моделей PyTorch.
- Интеграция с KernelBench для глубокого тестирования.
- Высокая скорость экспериментов — до 320 за ночь.
- Проверка корректности и производительности на каждом этапе.

📌 GitHub: https://github.com/RightNow-AI/autokernel

#python
13👍31
🔥 AlphaEvolveИ против классической оптимизации, результат минус 15 000 км

Google показали кейс FM Logistic, и он куда интереснее, чем кажется на первый взгляд. Это не стартап с хаосом, а большая международная компания с уже хорошо оптимизированными процессами. Тем ценнее результат.

В центре история про классическую задачу коммивояжера. Нужно построить самый короткий маршрут через все точки. Формулировка простая, но на практике это одна из самых сложных задач оптимизации. Количество вариантов растет так быстро, что даже для сотни точек полный перебор невозможен.

Теперь масштаб. Склад FM Logistic это 17 700 точек и площадь примерно как 8 футбольных полей. Одновременно работают несколько операторов, маршруты ограничены по длине и должны строиться прямо в процессе работы. То есть это уже не учебная задача, а жесткий прод с кучей ограничений.

Они дали свой алгоритм AlphaEvolve и дальше началось самое интересное. Система сама генерировала новые версии решения, прогоняла их на реальных данных и отбирала лучшие по метрикам. По сути, это эволюция кода под реальные условия, а не лабораторная оптимизация.

В результате нашли конкретные улучшения, которые дали плюс 10.4% к эффективности маршрутов. В логистике это огромная цифра. В их случае это около 15 000 километров в год и серьезная экономия денег.

Решение уже работает в проде и его планируют масштабировать на другие склады. Хороший пример того, как агентный подход и эволюционные алгоритмы начинают менять не демки, а реальные бизнес-процессы.

https://cloud.google.com/blog/products/ai-machine-learning/how-fm-logistic-tackled-the-traveling-salesman-problem-at-warehouse-scale-with-alphaevolve
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🔥8
🔥 Лучшие курсы по ИИ, которые можно пройти бесплатно в 2026:

Anthropic: http://anthropic.skilljar.com
Google: http://grow.google/ai
NVIDIA: http://developer.nvidia.com/training
(топ уровень)
Огромный список лучших бесплатных курсов Data Science на русском: https://uproger.com/data-science-luchshie-besplatnye-kursy/
Microsoft: http://learn.microsoft.com/training
OpenAI: http://academy.openai.com
IBM: http://skillsbuild.org
AWS: http://skillbuilder.aws
Математика машинного обучения: https://www.youtube.com/watch?v=ma50i4M5aAw
DeepLearningAI: http://deeplearning.ai
Hugging Face: http://huggingface.co/learn
FastAI: http://course.fast.ai
Kaggle Learn: http://kaggle.com/learn
Stanford AI: http://cs231n.stanford.edu
MIT OpenCourseWare: http://ocw.mit.edu
Full Stack Deep Learning: http://fullstackdeeplearning.com
DeepMind Resources: http://deepmind.com/learning-resources
OpenAI Cookbook: http://github.com/openai/openai-cookbook
Papers With Code: http://paperswithcode.com
AssemblyAI Blog: http://assemblyai.com/blog
10👍8🔥5
После LLM Wiki Карпаты появился следующий уровень работы с контекстом

LLM читает источники, вытаскивает знания и собирает их в Markdown-вики с ссылками и связями. Получается база, которая не пересчитывается заново каждый раз.

Для ресёрча это работает отлично. Концепты и их связи почти не меняются.

Но как только ты переносишь это в реальную работу, модель начинает теряться.

Потому что рабочий контекст живой:
▫️ встречи
▫️ дедлайны
▫️ решения
▫️ договорённости

Вики хранит описание проекта. Но не хранит, что реально произошло и как это менялось.

И здесь появляется другой подход.

Rowboat берёт ту же базу с Markdown и Obsidian, но вместо вики строит граф знаний.

Каждая сущность становится отдельным объектом:
▫️ человек
▫️ решение
▫️ обязательство
▫️ дедлайн

И всё это связывается между собой через ссылки.

Разница ощущается сразу.

Вики даёт тебе «о чём был проект».
Граф даёт тебе:
▫️ кто принял решение
▫️ что именно пообещали
▫️ когда это сделали
▫️ что изменилось

Rowboat подтягивает данные из Gmail, Granola, Fireflies и разбивает разговоры не на страницы, а на факты.

Каждое решение или обязательство становится отдельным md-файлом с привязкой к людям и проектам.

Поверх этого крутятся фоновые агенты.

Например, ежедневный бриф собирается автоматически из всех изменений в графе. Ты сам контролируешь, что запускать и что записывать обратно.

Модель можно подключить любую:
▫️ через Ollama
▫️ LM Studio
▫️ или API

Все данные лежат в обычном Markdown. Можно открыть в Obsidian, изменить или удалить.

Карпаты показал, как компилировать знания.
Rowboat показывает, как фиксировать реальность работы.

Следующий шаг после «умной вики» это система, которая помнит не только идеи, но и решения.

Repo: https://github.com/rowboatlabs/rowboat
👍135🔥5💊2🤪1