Machine learning Interview
30.2K subscribers
1.6K photos
131 videos
13 files
1.08K links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1

@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
Это войдёт в историю: как основатель GitLab использовал ИИ в борьбе с раком

У Сида Сийбранди, основателя GitLab, диагностировали редкую форму рака. Стандартные протоколы лечения не давали результата, и в какой-то момент врачи сказали: больше ничего нельзя сделать.

Сид не принял это как приговор. Он собрал команду экспертов, погрузился в медицинскую литературу и начал самостоятельно разбираться в вариантах терапии. В этом процессе одним из главных инструментов стал ChatGPT.

Что именно делал ИИ в этой истории? Не ставил диагнозы и не назначал лечение - это по-прежнему задача врачей.

Но он помог в разы ускорить работу с огромным массивом научных данных: быстро находить релевантные исследования среди тысяч публикаций, структурировать медицинскую информацию о состоянии здоровья, формулировать правильные вопросы для специалистов и сравнивать разные подходы к лечению.

Сейчас рак Сида в ремиссии

@machinelearning_interview
🎉3622👍3🤣3
LongCat-AudioDiT - новая SOTA диффузионная TTS-модель от Meituan.

Модель генерирует речт напрямую в латентном пространстве аудиоволн (waveform latent space), без авторегрессии → меньше накапливаемых ошибок.
Ключевое:

Архитектура: Wav-VAE + Diffusion
Размеры: 1B и 3.5B параметров
Языки: китайский + английский
SOTA по клонированию голоса (SIM: 0.818 / 0.797 на Seed-ZH / Seed-Hard)
Алгоритм APG вместо CFG — лучшее качество и естественность звука
Решена проблема несоответствия обучения и инференса в диффузионных TTS

Неочевидный вывод: лучший VAE ≠ лучший TTS

📄 Tech Report: https://github.com/meituan-longcat/LongCat-AudioDiT/blob/main/LongCat-AudioDiT.pdf
🐙 GitHub: https://github.com/meituan-longcat/LongCat-AudioDiT
🤗 Hugging Face: https://huggingface.co/meituan-longcat/LongCat-AudioDiT-3.5B
👍75🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Microsoft Critique: deep research на стероидах, где одна модель генерирует, а вторая её критикует

Microsoft выкатили Critique. Это инструмент для deep research, который одновременно запускает несколько моделей на один запрос.

Работает так: первая модель берёт на себя генерацию, вторая выступает рецензентом и вычищает ошибки и неточности до того, как вы увидите финальный ответ. Какие именно модели работали над ответом, видно в шапке.

По бенчмарку DRACO показывают SOTA, других замеров пока нет. Так что насколько это реально лучше обычного deep research, вопрос открытый.

Отдельно интересен режим Council для обычных запросов. Ваш промпт прогоняется через несколько моделей параллельно, и вы видите все варианты сразу. Плюс краткая выжимка: где модели согласны, а где разошлись во мнениях.

На широкую аудиторию пока не раскатили, можно подать заявку на ранний доступ. Будет ли это в обычной подписке за $20, неизвестно. Хотя, если честно, мультимодельный пайплайн с критиком можно собрать самому за вечер через API. И точно выйдет дешевле.

techcommunity.microsoft.com/blog/microsoft365copilotblog/introducing-multi-model-intelligence-in-researcher/4506011
🤪5💯3🔥21
Осталось 10 дней регистрации на Agents Week — интенсив по созданию ИИ-агентов от ШАДа

Пять вечеров с лекциями и возможностью задавать вопросы экспертам, много и ещё раз много практики. Всё будет проходить с 6 по 10 апреля. За одну рабочую неделю погрузитесь в проектирование, настройку и продакшен ИИ-агентов.

Четыре главных итога интенсива:

→ минус рутина
→ минус времени на рабочие и личные задачи
→ плюс возможностей и креативности
→ плюс вайб от нетворкинга

Скорее регистрируемся по этой ссылке. Заявки принимают до 9 апреля включительно
4🤣2👏1🤔1
Тест свежих LLM теперь - полноценная работа в 2026
🤣2617🔥2😁2
Парень переписал Claude Code на Python за ночь - и взорвал GitHub

Anthropic случайно засветили исходники своего ИИ-редактора Claude Code и они мгновенно разлетелись по сети.

Разработчик из Южной Кореи, Sigrid Jin, увидел это в 4 утра и не стал ждать.

За одну ночь он переписал ключевые части проекта на Python и выложил форк под названием Claw Code.

Результат:
- 50 000 звёзд всего за 2 часа
- вирусное распространение по всему GitHub
- полноценный агентный стек, сохранённый в новой реализации

Сейчас он уже работает над версией на Rust.

История про то, как скорость и скилл иногда решают больше, чем команды и бюджеты

https://github.com/instructkr/claw-code

🐍 полезные ресурсы 🚀Max

@machinelearning_interview
🔥25👍166🤣4
С тебя — желание работать над передовой генеративной языковой моделью.
С нас — классные условия и возможность попасть в Сбер за один день! 😉

4 апреля состоится One Day Offer* для NLP-специалистов, которые готовы изменить представление о возможностях ИИ и создать технологию будущего.

За последний год твоя будущая команда:
✔️ выпустила сильную русскоязычную модель GigaChat MAX уровня GPT-4
✔️открыла доступ к MoE-модели

А следующее достижение может быть уже с твоим участием. Регистрируйся по ссылке и будь готов к карьерному взлёту!

* One Day Offer — предложение о работе за один день.
* NLP-специалист — инженер по разработке больших языковых моделей
👍6🤣4🔥2🥰2👨‍💻2👌1🥴1🤨1
⚡️ OpenAI УНИЧТОЖЕН - правительство Индии обвиняет компанию в незаконном использовании рабского труда индийских программистов.

По «утечке», до 40% всех запросов по программированию якобы обрабатывает не GPT-5.4 Codex, а реальные разработчики из Индии, работающие в закрытых центрах в Корапуте.

История получила продолжение после «закрытия» Sora, якобы сотни аниматоров вышли наружу и рассказали, как всё устроено на самом деле.

Вишенка на торте - к теме даже «подключили» Трампа: он якобы заявил, что с американскими программистами у ChatGPT был бы шанс снова стать великим.

Звучит как громкое расследование.

Источник: Reuters/openaiindias.com
🤣131🔥10🥴61
⚡️ 10 полностью бесплатных курсов по ИИ актуальных на 2026 год:

Anthropic: http://anthropic.skilljar.com
Google: http://grow.google/ai
Meta: http://ai.meta.com/resources
NVIDIA: http://developer.nvidia.com/training
Microsoft: http://learn.microsoft.com/training
OpenAI: http://academy.openai.com
IBM: http://skillsbuild.org
AWS: http://skillbuilder.aws
DeepLearningAI: http://deeplearning.ai
Hugging Face: http://huggingface.co/learn
👍87🔥3😁1
Forwarded from Machinelearning
🚀 Gemma 4 - новое семейство открытых моделей Google, которые можно запускать прямо на своём железе.

Модели заточены для сложного reasoning и агентных задач.

🔵 Доступны в четырёх вариантах:

31B Dense и 26B MoE
Топовый уровень производительности для сложных локальных задач: кастомные код-ассистенты, анализ научных данных и не только.

E4B и E2B (Edge)
Оптимизированы для мобильных устройств — работают в реальном времени с текстом, изображениями и аудио.

🤖 Что можно делать:

• строить автономных ИИ-агентов
• планировать и выполнять многошаговые задачи
• взаимодействовать с приложениями
• искать данные и вызывать API

👉 Встроенная работа с инструментами (tool use) из коробки.

🧠 Контекст до 256K токенов:

• анализ целых кодовых баз
• длинные цепочки действий без потери контекста
• стабильная работа в сложных сценариях

⚡️ Начать можно уже сейчас через Google AI Studio

Также веса моделей доступны на Hugging Face, Kaggle и Ollama.

Лицензия: Apache 2.0.

https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/

@ai_machinelearning_big_data

#Gemma
🔥84👍4
⚡️ Карпати собрал второй мозг на LLM

Андрей Карпаты, один из самых влиятельных людей в мире AI, поделился подходом, который может изменить то, как мы работаем с информацией. Он перестал тратить токены LLM на написание кода и переключился на нечто более интересное: построение персональных баз знаний с помощью языковых моделей.

Идея простая, но мощная. Карпаты собирает сырые данные из разных источников (статьи, научные работы, репозитории, датасеты, изображения) в директорию raw/.

Затем LLM инкрементально “компилирует” из этого вики – коллекцию .md файлов с четкой структурой директорий. Модель сама создает саммари, обратные ссылки, категоризирует данные по концептам, пишет статьи для каждого из них и связывает все между собой. Для конвертации веб-статей в .md файлы он использует расширение Obsidian Web Clipper, а все связанные изображения скачивает локально, чтобы LLM мог к ним обращаться.

В качестве IDE выступает Obsidian. Через него Карпаты просматривает сырые данные, скомпилированную вики и визуализации. Важный момент: LLM пишет и поддерживает все данные вики самостоятельно, человек почти не трогает это руками. Плюс Obsidian-плагины вроде Marp позволяют рендерить данные в других форматах, например в слайды.

Еще один крутой прием - LLM-«линтинг» вики. Модель прогоняет проверки здоровья базы, находит противоречивые данные, заполняет пробелы через веб-поиск, обнаруживает интересные связи для новых статей и постепенно повышает целостность данных.

Следующий логичный шаг - синтетическая генерация данных и файнтюнинг, чтобы LLM «знала» данные в своих весах, а не только через контекстное окно. Карпати считает, что здесь есть место для нового крутого продукта, а не просто набора скриптов. И с этим сложно не согласиться.

https://uproger.com/karpati-sobral-vtoroj-mozg-na-llm/

🐍 полезные ресурсы 🚀Max

@machinelearning_interview
29🔥20🙉6🤣5👍4
⚡️ PicoClaw: ИИ-ассистент на Go, который работает на железе за $10 и жрёт меньше 10 МБ оперативки

Sipeed выложили PicoClaw - ультралёгкого AI-агента, написанного на Go с нуля. Это не форк и не обёртка, а самостоятельный проект.

Около 95% кода сгенерировал сам агент, а люди уже довели его до рабочего состояния.

По цифрам всё выглядит очень мощно: меньше 10 МБ оперативки против гигабайтов у многих аналогов, запуск меньше чем за секунду даже на одноядерном процессоре с частотой 0.6 ГГц. Один бинарник работает на x86, ARM, MIPS, RISC-V и LoongArch. То есть PicoClaw можно запустить хоть на Raspberry Pi, хоть на дешёвом одноплатнике, хоть на старом Android-смартфоне через Termux.

По возможностям тоже: 30+ LLM-провайдеров, 17+ каналов связи, MCP для внешних инструментов, веб-поиск, работа с файлами, выполнение кода, cron-задачи, субагенты, роутинг моделей и vision pipeline.

Интерфейсы тоже на любой случай: WebUI для обычной работы, TUI для серверов, CLI для совсем минимальных сред. Docker Compose тоже есть из коробки.

За два месяца проект набрал 26 тысяч звёзд на GitHub и 190 контрибьюторов. До полноценного продакшена он ещё не дорос, но для домашней автоматизации, умных камер, мини-серверов и edge-задач уже выглядит очень серьёзно.

https://github.com/sipeed/picoclaw
🔥96👍2😁2👏1
😁9😭4👍1