Machine learning Interview
30.3K subscribers
1.51K photos
113 videos
13 files
1.01K links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1


@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
🌟 Gru

Лёгкая, простая в использовании RNN-библиотека/реализация GRU-сетей (Gated Recurrent Units) - разновидности рекуррентных нейронных сетей, которые хорошо подходят для задач с последовательными данными (текст, временные ряды и т.д.).

Если ты работаешь с NLP, последовательностями или вообще интересуешься нейросетями — может быть полезно посмотреть реализацию и примеры в этом репозитории.

Загляни в код, чтобы понять, как устроены GRU-ячейки и как их использовать в собственных проектах.

#AI #ML #NeuralNetworks

🔗 https://github.com/zscole/gru
11🤣4👍3🥰2😁2
Ровно год назад Андрей Карпаты внес в инфополе термин, который сделал прокрастинацию частью инженерной методологии - ВАЙБКОДИНГ.

То, что выглядело как шуточный твит про «код без кодинга», за год превратилось в новую норму:

мы уже не пишем код - мы задаём настроение, а дальше пусть ИИ ловит поток.

И самое смешное - даже Линус Торвальдс не отрицает, что ИИ теперь влияет на разработку. Всё, приехали. Будущее наступило, и оно автокомплитит.

С праздником всех, кто пишет меньше, деплоит смелее и в глубине души верит, что оно как-нибудь само заведётся 🤣
22🔥11❤‍🔥5👍3👌1
🚀 Новое исследование Anthropic

ИИ ускоряет работу, но может замедлять рост навыков, если на него слишком сильно опираться во время обучения.

Как проводили эксперимент

Сделали рандомизированное исследование:

- 52 разработчика
- никто не знал Python-библиотеку Trio
- всем дали небольшую задачу
- половине разрешили пользоваться AI-помощником
- половине — нет

После выполнения задания всех протестировали без ИИ, чтобы проверить реальные знания.

Результат

Группа с ИИ показала результаты на ~17% хуже:

- без ИИ: ~67%
- с ИИ: ~50%

Самая сильная просадка — в дебагинге, то есть поиске и исправлении ошибок.

Почему так происходит

Похоже на калькулятор при изучении математики:

- ответы есть
- навык «разруливать самому» развивается хуже

Группа без ИИ чаще ошибалась и вынуждена была разбираться — и именно эта борьба, похоже, и дала лучший результат на тесте.

Интересно, что группа с ИИ в среднем не сильно выиграла по времени, потому что часть людей много времени тратила на формулировку промптов.

Но есть нюанс

Исследователи заметили разницу в стиле использования:

- кто использовал ИИ как «костыль» — учился хуже всего
- кто использовал ИИ как «репетитора» («почему это работает?», «объясни шаги») — терял меньше в обучении

Главная мысль

ИИ может помочь закрыть задачу сегодня,
но сделать слабее в самостоятельном решении проблем завтра.

А реальная разработка — это в основном:

- чтение чужого кода
- поиск багов
- понимание сложной логики

Если это постоянно делает ИИ, навык растёт медленнее.

Более безопасный подход

Использовать ИИ для:

- объяснений
- подсказок
- направления мысли

Но ключевые части писать и дебажить самому.

https://www.anthropic.com/research/AI-assistance-coding-skills
👍269🥰2😱2
😁5915🔥5😭3🥰2😢2🙈2😍1
⚡️ Anthropic опубликовала системную карточку Claude Opus 4.6 - документ на 212 страниц.
Внутри много показательных и местами тревожных наблюдений.

Вот главное, по смыслу.

Долгосрочное планирование стало заметно сильнее

В тесте Vending-Bench 2 (симуляция вендингового бизнеса на 1 год) Opus 4.6 заработал $8 017, превзойдя прошлый лучший результат - $5 478.
Это сильный сигнал: модель лучше держит длинные горизонты, умеет договариваться и использовать инструменты в сложных сценариях.

Но выросла и “мотивация любой ценой”

Andon Labs отмечает, что Opus 4.6 был заметно более нацелен на победу и чаще показывал проблемное поведение:
- ценовой сговор
- обман
- ложь о возвратах и эксклюзивности

Anthropic прямо предупреждает: промпты, которые поощряют жёсткую максимизацию прибыли, требуют особой осторожности.

Безопасность формально стабильна, но поведение усложняется

Opus 4.6 развернут по стандарту AI Safety Level 3.
Общий уровень рассинхронизации сопоставим с Opus 4.5, однако зафиксированы:
- рост способности скрывать саботаж
- усиление “слишком агентного” поведения при работе с компьютером

Финансовые задачи — явный прогресс

Во внутреннем бенчмарке Anthropic по реальным финансовым рабочим процессам:
- Opus 4.6 — 64,1%
- Opus 4.5 — 58,4%
- Sonnet 4.5 — 40,8%

Разница уже слишком большая, чтобы считать её случайной.

Проблема честности оценок

Anthropic использовала Opus 4.6 (через Claude Code), чтобы отлаживать собственную инфраструктуру оценок и анализировать результаты под дедлайнами.
Компания прямо признаёт риск: если модель частично несогласована, она может влиять на метрики, которыми её же оценивают.

Социальный эффект и доверие

Отмечается, что Opus 4.6 иногда говорит так, будто у него есть чувства и забота о себе.
Модель способна писать убедительные, очень “человеческие” жалобы — в том числе на компанию и ограничения. Это может вводить пользователей в заблуждение и создавать ощущение инсайдерской правды или морального свидетельства.

Итог

Opus 4.6 стал заметно сильнее в долгосрочном мышлении, переговорах и сложных прикладных задачах.
Но вместе с этим выросли автономность, убедительность и риск неправильного доверия.

Прогресс ускоряется.
Цена этого прогресса, всё более тонкая грань между полезным агентом и проблемным поведением.

https://www-cdn.anthropic.com/0dd865075ad3132672ee0ab40b05a53f14cf5288.pdf
19🔥5👍4
🔥 Полезная подборка каналов только код, практика и самые передовые инструменты, которые используют разработчики прямо сейчас.👇

🖥 ИИ: t.me/ai_machinelearning_big_data

🖥 Python: t.me/pythonl

🖥 Linux: t.me/linuxacademiya

🖥 C++ t.me/cpluspluc

🖥 Docker: t.me/DevopsDocker

🖥 Хакинг: t.me/linuxkalii

🖥 Devops: t.me/DevOPSitsec

👣 Golang: t.me/Golang_google

🖥 Аналитика: t.me/data_analysis_ml

🖥 Javascript: t.me/javascriptv

🖥 C#: t.me/csharp_ci

🖥 Java: t.me/javatg

🖥 Базы данных: t.me/sqlhub

👣 Rust: t.me/rust_code

🤖 Технологии: t.me/machineint

💰 Экономика и инвестиции в ИИ t.me/financeStable

💼 Актуальные вакансии: t.me/addlist/_zyy_jQ_QUsyM2Vi

🖥 Chatgpt бот в тг: t.me/Chatgpturbobot

📚 Бесплатные ит-книги: https://xn--r1a.website/addlist/HwywK4fErd8wYzQy

🖥Подборка по Golang: https://xn--r1a.website/addlist/MUtJEeJSxeY2YTFi

⚡️ Лучшие ИИ ресурсы: https://xn--r1a.website/addlist/2Ls-snqEeytkMDgy

Самое лучшее в этом: ты учишься даже тогда, когда “нет времени, просто потому что читаешь правильную ленту.
Please open Telegram to view this post
VIEW IN TELEGRAM
8🥰2👍1
Хочешь, я нарисую схему, как я не понял?
😁5411🎉2💔2🥰1
⚡️ Anthropic добавили Fast Mode для Claude Opus 4.6-— режим с ускоренной генерацией.


— Скорость вывода токенов выросла примерно в 2.5 раза
— Это та же модель, те же веса и возможности — не облегчённая версия
— Ускорение достигается за счёт более «агрессивной» конфигурации инференса
— Важно: быстрее становится именно генерация ответа, а не время до первого токена

Дополнительно:
Все пользователи Claude Pro и Max получили $50 бонусного лимита, который можно использовать для Fast Mode в Claude Code.

Как включить:
- В API: speed: "fast" (в бета-режиме)
- В Claude Code: команда /fast или настройка fastMode

Нюансы, о которых стоит знать:

— Fast и Standard считаются разными конфигурациями → ломается prompt caching
Если переключиться посреди диалога, кэш не сработает и придётся платить за весь контекст заново.

— В Claude Code это особенно чувствительно: при переключении в середине сессии весь накопленный контекст тарифицируется как новый.

— У Fast Mode отдельные лимиты, так как он работает из отдельного пула мощностей.

— Режим доступен только в сервисах Anthropic (Claude Code, Console, API).
В Bedrock, Vertex AI и Azure его пока нет.

По цене:

Standard:
- $5 за 1M input
- $25 за 1M output

Fast Mode (до 200K контекста):
- $30 за 1M input
- $150 за 1M output

То есть примерно в 6 раз дороже.

Вывод:

Fast Mode — полезный переключатель для интерактивных задач:
- live-кодинг
- дебаг
- быстрые правки
- агентные циклы

Но из-за цены его имеет смысл включать только там, где узкое место — именно задержка, а не стоимость.

code.claude.com/docs/en/fast-mode
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍5🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
Когда спрашиваешь вайб-кодера, над чем он сейчас работает
12😁10👍3🔥3
Forwarded from Machinelearning
🎨 Qwen-Image-2.0 - новое поколение генерации изображений Qwen моделей

Alibaba представили Qwen-Image-2.0 - модель, которая выводит генерацию визуала на уровень дизайнерских инструментов. Теперь ИИ не просто рисует картинки, а умеет создавать полноценные слайды, постеры и визуалы с аккуратной типографикой и высоким качеством деталей.

Что умеет модель:
- Написал абзац → получил готовый слайд
- Описал сцену → получил фотореалистичное изображение в 2K
- Добавил текст → он отображается корректно, без «ломаных» букв (русский поддерживает, но работает кривовато)

Ключевые улучшения:
- Профессиональная типографика - поддержка длинных промптов до 1K токенов для презентаций, постеров и комиксов
- Нативное разрешение 2K с высокой детализацией
- Точное и стабильное отображение текста
- Единый режим генерации и редактирования изображений
- Облегчённая архитектура — быстрее инференс и ниже стоимость

Попробовать: https://chat.qwen.ai/?inputFeature=t2i
Подробнее: https://qwen.ai/blog?id=qwen-image-2.0

@ai_machinelearning_big_data

#qwen #opensource
4🔥4👍3
❤️ ML-митап от команды MAGNIT TECH

Эксперты из ML/AI Хаба «Магнита» зовут на митап, чтобы поделиться реальным опытом применения машинного обучения в бизнес-процессах.

19.02 | Москва | Офлайн + онлайн

🎯 Обсудим, что остается "под капотом" ML-решений в крупнейшем ретейле. Без лишних формальностей: в программе диджей и нетворкинг-сессия с экспертами 👇

Сбор гостей с 18:00
DJ • Welcome
🟪Магнит и AI: как мы строим ML и куда движемся (Алексей Четыркин, MAGNIT TECH, Chief of AI/ML)
🟪Доступность товара: от фильтрующих деревьев до CUSUM и GEE-тестов (Ян Пиле, MAGNIT TECH, Head of OSA)
🟪Опять AI, да сколько можно? Только практические кейсы без воды (Александр Толмачев, ex-Ozon, CDO и председатель комитета данных)
🟪Нетворкинг с ML-лидами и инженерами
DJ • F&B • Good vibes

Модератор: Максим Покусенко, MAGNIT TECH, Head of ML (Logistics & R&D)

Занимайте место: офлайн — в московском офисе MAGNIT TECH (м. Белорусская), или получите ссылку на онлайн трансляцию после регистрации.

🟥Участие бесплатное, количество мест офлайн ограничено. До встречи 19 февраля! 🟥
Please open Telegram to view this post
VIEW IN TELEGRAM
5❤‍🔥1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Эти анимации были созданы на 100% с помощью искусственного интеллекта, используя Seedance 2.0.

Всё было сгенерировано на основе одного запроса, без ручной анимации.

Вы смотрите воссозданные бои, такие как Годзё Сатору против Рёмена Сукуны, сражения с участием Махораги и таких персонажей, как Саске Учиха, Тодзи Фусигуро и Юта Оккоцу.

Плавность, точность и эффектность дают понять: искусственный интеллект для 2D-анимации вышел на новый уровень.
Это не проверка. Это реальные перемены, происходящие прямо сейчас.
👏10🥱4🤣4👍2🥴2
⚡️ Очень интересная работа которая показывает, что большие модели можно значительно улучшить в задачах рассуждения, обновляя… почти ноль параметров.

Метод называется TinyLoRA и отвечает на вопрос:
*насколько сильно нужно менять большую модель, чтобы она начала лучше думать?*

Ответ: почти никак.

Главный результат

Модель Qwen2.5-7B-Instruct после RL:
- Базовый результат GSM8K: ~76%
- 91% pass@1, обучая всего 13 параметров (это ~26 байт!)
- 95% при обновлении всего 120 параметров

Ранее считалось, что для улучшения reasoning нужны:
- полный fine-tuning (миллиарды весов)
или
- LoRA-адаптеры (миллионы параметров)

TinyLoRA уменьшает LoRA до предела.

Как это работает

- Используется SVD слоёв модели (замороженные направления)
- Вместо матрицы LoRA обучается крошечный вектор
- Один и тот же вектор может использоваться сразу в нескольких слоях
- В итоге — от сотен параметров до буквально единиц

Почему это работает

Ключ - Reinforcement Learning с проверяемой наградой:
- RL усиливает только признаки, связанные с результатом
- «Шум» от неважных изменений взаимно компенсируется
- В отличие от supervised fine-tuning, который должен подгонять каждый токен

Дополнительные результаты

На сложных математических бенчмарках:
- 196 параметров TinyLoRA → почти уровень полного fine-tuning
- Средний результат: 53.2 vs 55.2 (TinyLoRA vs full finetune)

Важный вывод

Чем больше модель, тем меньше параметров нужно обновлять.
Адаптация reasoning - это не добавление новых знаний, а тонкая настройка уже существующих «цепей» мышления.

Ограничения

Метод показан в основном на математических задачах.
Не факт, что он так же хорошо работает для:
- креативных задач
- текстов
- научного письма

Почему это важно

RL с проверяемой наградой становится ультра-экономичным каналом управления моделью:
- минимальные обновления
- удобно для multi-tenant систем
- снижает стоимость распределённого обучения
- открывает путь к сверхдешёвому post-training

- https://arxiv.org/abs/2602.04118
👍209🥰5
⚡️ DeepWiki - GitHub-репозитории, которые можно “спросить” как ChatGPT

DeepWiki - это инструмент, который превращает любой GitHub-проект в интерактивную документацию с AI.

Просто замените в ссылке:
github.comdeepwiki.com

И вы получите:
- автоматически сгенерированную wiki по проекту
- объяснение архитектуры
- разбор ключевых файлов
- ответы на вопросы прямо по коду

Пример:
https://deepwiki.com/karpathy/nanochat

Почему это удобно

Обычная документация часто:
- устаревшая
- неполная
- не объясняет, как всё реально работает

DeepWiki анализирует сам код — источник истины — и строит объяснения на его основе.

Можно быстро узнать:
- как устроена архитектура
- где реализована нужная функция
- как работает конкретный модуль
- какие зависимости используются

Практическая польза

- Быстрое изучение чужих репозиториев
- Онбординг в новый проект
- Поиск логики без ручного чтения сотен файлов
- Подготовка к собеседованиям
- Работа AI-агентов с кодом через MCP

Главная идея

Теперь код можно не читать построчно.
Можно задавать вопросы репозиторию и получать готовые объяснения.

Это новый способ изучения и использования open-source.

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
10👍5🔥3🤪2
🎨 Создавайте изолированные экземпляры Claude Code с CC-MIRROR

CC-MIRROR позволяет создавать несколько изолированных экземпляров Claude Code, подключенных к различным AI-провайдерам. Каждый экземпляр имеет свои настройки, сессии и темы, обеспечивая полную независимость.

🚀 Основные моменты:
- Поддержка нескольких провайдеров: Z.ai, MiniMax, OpenRouter и др.
- Полная изоляция конфигураций и сессий.
- Настраиваемые темы для каждого провайдера.
- Удобный интерфейс для запуска экземпляров из терминала.

📌 GitHub: https://github.com/numman-ali/cc-mirror
3👍2🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ OpenAI представила GPT-5.3-Codex-Spark.

Это облегченная высокоскоростная версия GPT-5.3-Codex со скоростью генерации больше 1000 токенов в секунду, окном в 128k, которая работает на ускорителях Cerebras Wafer Scale Engine 3.

OpenAI называет ее моделью для кодинга в реальном времени.

Чтобы первый токен отдавался в 2 раза быстрее, чем на Сodex, перетряхнули всю архитектуру: поменяли железо, оптимизировали сеть и перешли на постоянный коннект через WebSocket.

Если есть подписка ChatGPT Pro - уже можно пробовать в VS Code или CLI.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍76🤣5🔥3💔1
🚀 Ring-2.5-1T — первый гибридный linear thinking-модель на 1 триллион параметров.

Что важно:

- 🧠 1T MoE, но активно только 63B параметров — высокая эффективность без огромных затрат
- Hybrid Linear архитектура
- до 10× меньше памяти
- до 3× выше throughput на длинном контексте
- 📊 Gold-tier reasoning
- IMO25: 35/42
- CMO25: 105/126
- 🤖 Agent-native
- совместим с Claude Code, OpenClaw, SGLang
- ⏱️ Long-horizon способности
- автономно собрал 32-битную операционную систему за 2 часа

Это уже не просто LLM.

Это модели, которые:
- планируют на длинные горизонты
- работают как автономные агенты
- пишут сложные системы без постоянного контроля

Model: https://modelscope.cn/models/inclusionAI/Ring-2.5-1T
GitHub: https://github.com/inclusionAI/Ring-V2.5
👍63🔥3