Machine learning Interview
30K subscribers
1.65K photos
139 videos
13 files
1.12K links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1

@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
😁19👍95💊3
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ Claude Code превратился в полноценного агента, а не просто ассистента в терминале

Если последний раз смотрели на Claude Code полгода назад, открывайте заново. За Q1 2026 Anthropic выкатил столько, что инструмент перестал быть «чатом с кодом» и стал автономной рабочей единицей.

Что реально поменялось. Routines запускают агента по расписанию на облачной инфраструктуре Anthropic, то есть ночью можно триажить баги из Linear, а утром получать готовый PR - ноутбук при этом выключен.

Remote Control разрывает привязку к локальной машине: Claude Code крутится на сервере или в CI, а вы даёте команды через API, вебхуки или с телефона. Computer Use дотягивается туда, куда не достают терминальные тулы - браузер, десктоп-приложения, системный UI. Channels решают координацию между несколькими агентами через типизированные сообщения со схемой, без кустарных парсеров.

Под капотом тоже сдвиг. По умолчанию теперь Opus 4.7, контекст до 1M токенов на Max и Enterprise, Auto Mode пропускает безопасные действия без подтверждения и блокирует рискованные (93% аппрувов и так были формальностью).

Вышла интеграция голоса на 20 языках с пушем-ту-ток, включая русский.

Как с этим работать, чтобы не разориться. Token-стоимость растёт геометрически: каждый следующий ход пересылает всю историю, и 200-й ход дороже 5-го не потому что задача сложнее, а потому что Claude заново читает 199 сообщений.

Практические приёмы: держите CLAUDE.md до 200 строк, он инжектится в каждый запрос. Используйте /compact после завершения фичи, чтобы свернуть промежуточные попытки. На смене темы жмите /clear. Отключайте неиспользуемые MCP-серверы, один подключённый сервер стоит до 18K токенов оверхеда на каждый ход.

По дефолту гоняйте Sonnet, на Opus переключайтесь руками.
Тайминг задач. Короткие правки и написание кода - обычный интерактивный режим. Большие рефакторы и миграции - Plan mode, где вы ревьюите план до запуска.

Рутинные задачи - Routines на расписании. Многошаговые автономные цепочки — Remote Control плюс Auto Mode плюс Channels для координации.
Главный сдвиг в том, что разработчик из исполнителя превращается в оркестратора: не пишет код построчно, а управляет парой-тройкой параллельных сессий через сайдбар Mission Control, ревьюит диффы и принимает стратегические решения. Кто не перестроится, тот будет писать код вручную, пока конкуренты закрывают спринты за пару часов.

Документация и свежие релизы: code.claude.com/docs/en/whats-new

https://www.youtube.com/shorts/y5L8i8MECo4
Please open Telegram to view this post
VIEW IN TELEGRAM
11🔥5👍2😁2
👉 Поднимите приватный инференс на выделенном железе

В Selectel сделали поддержку видеокарт в управляемых кластерах Kubernetes на выделенных серверах.

Теперь модели можно запускать на отдельном железе: стабильная производительность, изоляция данных и конфигурации под разные задачи. По стоимости — до 40% дешевле, чем использовать ускорители в облачных серверах.

Попробуйте сами, на тест дают до 30 000 бонусных рублей: https://slc.tl/tzexo

Реклама. АО "Селектел". erid:2W5zFGLoYXT
🗂️ Живая база лучших AI-инструментов - обновляется с 2023 и держит только актуальное

В одном месте собрали весь стек, который реально используют сейчас:

- свежие LLM и новые релизы
- мультимодалка: изображения, видео, аудио
- AI-агенты и автоматизация
- dev-платформы и API
- инфраструктура, плагины и утилиты

Это не статичный список, а постоянно обновляемая карта рынка.

Сохрани - пригодится.

https://github.com/eudk/awesome-ai-tools
👍5🔥2🥰1🥴1
🚀 OpenMythos. Впечатление смешанное.

Проект честно помечен как theoretical reconstruction и hypothesis document, автор не выдаёт его за утечку, в README есть дисклеймер про отсутствие связи с Anthropic.

Архитектурные идеи не с потолка: Recurrent-Depth Transformer, MoE с роутингом в духе DeepSeek, Multi-Latent Attention, ACT-халтинг, Universal Transformers - всё это реальные направления из литературы.

Код рабочий, лицензия MIT, есть документация и конфиг через единый dataclass. Для изучения looped-трансформеров это полезная песочница.

Минусы: в посте подаётся как реконструкция Claude Mythos, но Anthropic не публиковала технических деталей Mythos, так что это по сути догадки, а не восстановление. Цифра 4.7K звёзд для автора с историей громких репозиториев мало говорит о качестве, kyegomez известен склонностью к быстрым имплементациям чужих идей с громкими названиями, к заявлениям стоит относиться осторожно.

Фраза «770M параметров догоняют 1.3B трансформер» основана на эксперименте уровня Tiny Shakespeare, экстраполировать на фронтир-модели рано. Бенчмарков в масштабе, сравнимом с реальными LLM, в репо нет.
Итог: любопытный educational-проект и набор гипотез для обсуждения, но не «открытый Mythos». Читать как discussion paper с кодом, а не как воспроизведение модели.

github.com/kyegomez/OpenMythos
👍76🥱2🔥1🤔1
Изучаем машинное обучение всё лето: Яндекс приглашает в Летний кампус ML-Академии

Познакомьтесь с трендами ML‑индустрии и получите прикладной опыт в московском офисе Яндекса.

3 месяца студенты и начинающие ML-спецы будут работать совместно с экспертами из Яндекса над задачами по компьютерному зрению, обработке естественного языка, рекомендательным системам, LLM и другим ML-направлениям. В конце обучения участников ждет выпускной.

Обучение бесплатное, участникам из других городов Яндекс оплачивает переезд и проживание. А еще это хороший шанс начать карьеру: лучших выпускников Академии пригласят на стажировку.

Подать заявку можно тут.
10👍4🔥4💊2😁1💯1
Интервьюер: где вы видите себя через 5 лет?

Я:
😁32👍32🔥1💯1
Сделано с помощью GPT Image 2)
🤣18🔥15😢7👍53🤔2🥰1
Mythos, закрытая модель Anthropic, заточенная под поиск уязвимостей, утекла за пределы круга избранных.

По данным Bloomberg, неизвестная группа получила к ней регулярный доступ через стороннего подрядчика и даже прислала журналистам скриншоты и живую демонстрацию работы.

Самое ироничное, что Mythos создавалась в рамках Project Glasswing, идея которого как раз в ограниченной дистрибуции: пусть модель видят только проверенные команды, и тогда её мощь не обернётся против индустрии.

План красивый, реальность жёстче. Ядро Anthropic никто не ломал. Ломать не пришлось. Хватило одного партнёра с дырявым контролем доступа.
И вот здесь начинается настоящий сюжет. Модель, которая ищет уязвимости быстрее людей, сама оказалась уязвима через самое слабое звено периметра. Подрядчик, чужой ноутбук, забытый токен, предсказуемое имя сервиса, и всё, твой закрытый оружейный ИИ гуляет в чужих руках.

Вывод неприятный, но его придётся принять всем, кто работает с фронтирными моделями. Секретность ИИ заканчивается там, где начинается цепочка поставок. Можно сколько угодно прятать веса, фильтровать доступ и подписывать NDA, но если у вендора слабый пароль, вся архитектура доверия рушится за одну ночь.

Mythos не первый такой случай и точно не последний. Вопрос уже не в том, утекают ли мощные модели. Вопрос в том, кто и когда поймает следующую.

techcrunch.com/2026/04/21/unauthorized-group-has-gained-access-to-anthropics-exclusive-cyber-tool-mythos-report-claims/
18🔥6🤣6👍5👨‍💻3
🚀 50+ команд Claude Code, которые реально ускоряют разработку

Если ты используешь Claude Code как обычный чат - ты теряешь 80% его мощности.

Это не просто AI. Это полноценная система разработки внутри терминала.

Вот как его правильно использовать:


База, без которой никуда:

- /init - создаёт CLAUDE.md и память проекта
- /memory - открывает контекст проекта
- /add-dir - подключает новые директории
- /compact - чистит контекст и экономит токены

Работа с кодом:

- /diff - показывает изменения
- /review - ревью кода
- /simplify - 3 агента анализируют код
- /debug - системный дебаг

Контроль процесса:

- /plan - сначала думает, потом пишет код
- /permissions - контроль действий
- --dangerously-skip-permissions - полный автопилот

Продвинутые фичи:

- /agents - параллельные агенты
- /loop - повтор задач
- /bash - выполнение команд
- /remote-control - управление через браузер

Модели и режимы:

- /model - переключение моделей
- /effort - глубина мышления
- /fast - быстрый режим

Что важно знать:

- Claude Code = не чат, а инженер внутри проекта
- память (CLAUDE.md) решает больше, чем промпты
- агенты дают x2-x5 ускорение на сложных задачах
10👍9🔥6🥱1🌭1
Forwarded from Machinelearning
🚀 OpenAI представила GPT-5.5

Она заметно сильнее в самом главном: код, ресёрч, аналитика и работа с документами.

GPT 5.5 хороша в многоступенчатых задачах.

И почти во всём обходит конкурентов - например, на Terminal-Bench выбивает 82,7% против 69% у свежей Claude.
GPT-5.5 уже доступна пользователям Plus, Pro, Business и Enterprise - в ChatGPT и Codex.

Модель стала дороже: ~$5 / $30 за млн токенов.

Уже раскатывают на всех платных подписчиков.

Тестим! 🔥

https://openai.com/index/introducing-gpt-5-5/
8🔥5🦄3👍2
Anthropic признали, что Claude Code действительно тупил, и раздали всем компенсацию

Целый месяц разработчики жаловались: Claude Code стал хуже писать код, тормозит, ломает то, что раньше делал с закрытыми глазами. Anthropic сначала отмалчивались, как это обычно и бывает у больших лабораторий.

Но вчера вечером команда ClaudeDevs выкатила пост-мортем и признала: да, проблема была, мы её нашли, мы её починили.
Интересно, что дело оказалось не в самой модели. По словам Anthropic, регрессии в Claude не было, API тоже работал штатно. Сломались три вещи внутри обвязки Claude Code и Agent SDK, на котором ещё сидит Cowork, поэтому ему тоже прилетело. Конкретные баги спрятаны в пост-мортеме на сайте Anthropic, но суть в том, что пользователи месяц страдали из-за харнесса, а не из-за мозгов модели.

Фикс раскатали в версии 2.1.116 и выше, лимиты использования обнулили всем подписчикам, то есть по сути подарили ещё один цикл квоты. Плюс пообещали изменить внутренние процессы: больше догфудинга с теми же конфигами, что у реальных юзеров, и расширенный набор эвалов, которые будут гонять против каждого изменения системного промпта отдельно.

А вот под постом народ не в восторге. Самый показательный комментарий собрал тихую волну лайков: «Могли бы просто сказать, что вас поймали на троттлинге». Кто-то жалуется, что лимиты и так должны были сброситься сегодня, так что никакой это не жест доброй воли.

Другие напоминают, что проблема видна не только в Claude Code, но и через сторонние обвязки к API, значит, три бага это явно не всё. Есть и те, кто благодарит за честность: мол, другие команды в такой ситуации уходят в тишину или валят всё на «оптимизацию», а тут хотя бы признали вину и починили.

Отдельно упомянули параллель с OpenAI: осенью 2023 года пользователи GPT-4 месяцами кричали про деградацию, а OpenAI отвечали сухим «мы модель не тупили» и никакого пост-мортема так и не выпустили. На этом фоне Anthropic выглядят прилично, хотя осадочек у коммьюнити всё равно остался, и многие уже поглядывают в сторону выходящего сегодня Codex.

Если вы последний месяц материли Claude Code и думали, что сходите с ума, вы не сходили. Обновляйтесь до 2.1.116 и забирайте сброшенные лимиты, пока дают.

https://x.com/ClaudeDevs/status/2047371123185287223
8👍7🥴4🔥2😍2🫡2🎉1
Forwarded from Machinelearning
🚀 DeepSeek выкатили V4 и сделали то, к чему все шли последние два года.

Длинный контекст больше не фича для демо. Теперь это базовый уровень.

Пока Запад празднует релизы с пафосными стримами, китайцы из DeepSeek сегодня утром просто выложили в Hugging Face две открытые модели и пошли пить чай. А теперь весь твиттер пытается осознать, что произошло. V4-Pro на 1.6 триллиона параметров с 49 миллиардами активных и V4-Flash на 284 миллиарда с 13 активными. Обе открытые, обе с миллионом контекста по дефолту, обе уже доступны через API и на chat.deepseek.com.

Главная фишка даже не в размере, а в том, что DeepSeek пересобрали внимание. Они запихнули в модель токенную компрессию и свою DeepSeek Sparse Attention, за счёт чего длинный контекст стал буквально дешёвым.

Не «технически возможным за пять долларов за запрос», как у конкурентов, а реально дешёвым. 1М теперь стандарт во всех официальных сервисах, а не премиум-опция за отдельную плату.

По цифрам V4-Pro претендует на открытый SOTA в агентном кодинге, тащит математику и STEM и в общих знаниях уступает только Gemini 3.1 Pro. Flash-версия идёт следом почти вплотную по ризонингу и ровно держит планку Pro на простых агентных задачах, но с меньшей задержкой и смешным прайсом.

Отдельно интересно, что API теперь поддерживает и формат OpenAI ChatCompletions, и Anthropic, с переключением между Thinking и Non-Thinking режимами. Старые deepseek-chat и deepseek-reasoner отключат 24 июля 2026, так что у команд есть три месяца на миграцию.

И конечно, DeepSeek не забыли ткнуть Anthropic в бок: в треде прямо написано, что V4 «бесшовно интегрируется с Claude Code, OpenClaw и OpenCode». То есть пока у Anthropic вчера был пост-мортем про сломанный харнесс, DeepSeek сегодня предлагает подменить им модель и сэкономить.

Закрытые лаборатории будут делать вид, что ничего не случилось, но стоимость миллиона токенов контекста только что стала публичной ценой, и от неё уже не отмотаешь.

📄 Tech Report: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
🤗 Open Weights: https://huggingface.co/collections/deepseek-ai/deepseek-v4

@ai_machinelearning_big_data

#DeepSeek
🔥277👍3😍2😁1
👣 На Stepik обновили курс «Rust: полный курс разработчика. С нуля до профи»

Представьте: через три месяца вы открываете чужой Rust-код и читаете его как книгу.

Arc<Mutex<T>> не вызывает панику. impl Future не пугает. Вы точно знаете, почему компилятор ругается и как это починить за 10 секунд.

Это не фантазия. Это результат 50 уроков, в которых каждая концепция объясняется через код и закрепляется практикой.

Ownership, traits, generics, async, unsafe - всё, что казалось магией, станет рабочим инструментом.

А бонусом - портфолио проектов: от CLI-утилит до REST API и WebAssembly.

Вы и так знаете, что Rust - ваш следующий язык. Этот курс просто сделает это реальностью.

Сегодня - 55% процентов от цены, торопись: https://stepik.org/a/269250/
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍4🔥1🤣1👀1
😁23👍96😍3🎉1