Google теперь официально поддерживает MCP для своих сервисов и Google Cloud — единая точка входа для агентов, Gemini CLI и AI Studio. Если коротко: еще один шаг к миру, где агентам не нужно знать, куда именно они ходят — лишь бы работало.
Открытые модели для реальной работы с кодом: большие репозитории, баги и зависимости, а не «Hello World». Devstral 2 берет 72.2% на SWE-bench, а Small-версия запускается локально. Приятно видеть, что «меньше параметров» перестает звучать как оправдание.
Стартап Starcloud обучил модель на спутнике с NVIDIA H100, запустив Gemma прямо на орбите. Когда говорят «облако», теперь стоит уточнять — земное или орбитальное.
Теперь автономные ресерч-агенты Google можно встраивать в свои приложения. Плюс — открытый бенчмарк DeepSearchQA. Исследователи счастливы, студенты — немного напуганы.
Модель позиционируют как «лучшую для повседневной профессиональной работы». Звучит так, будто GPT теперь тоже ходит на созвоны и пишет отчеты.
Как считать размерность изображений с учетом stride, padding и dilation. Та самая статья, к которой возвращаешься каждый раз с мыслью «ну сейчас-то точно запомню».
Разбор возможностей новой модели и расстановки сил на рынке.
Честный рассказ о том, как должен выглядеть ML-проект без боли и хаоса. Редкий жанр — статья, где хочется кивнуть, а не спорить.
Пошаговый гайд без магии. Хорошо подходит, чтобы наконец объяснить себе, что же ты делаешь на работе.
Про метрики, деградацию и реальную эксплуатацию. Напоминание, что модель не заканчивается на model.fit().
Ожидания рынка и технологий на ближайшие годы.
Разбор CV-подходов с примерами.
🔸 Курс «Специалист по ИИ»
🔸 Получить консультацию менеджера
🔸 Сайт Академии 🔸 Сайт Proglib
#свежак
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥3❤2😢1🙏1
После релиза reasoning-моделей вроде DeepSeek-R1 стало ясно: без RL современный AI дальше не едет. Но при этом всё не так радужно, как может показаться из твиттер-тредов.
В отличие от supervised learning («вот правильный ответ, учись») и unsupervised learning («сам разберись, что тут происходит»), reinforcement learning учится через взаимодействие:
В случае LLM:
Reinforcement Learning from Human Feedback окончательно стал стандартом выравнивания моделей.
Классическая схема:
1. SFT — обучаем модель на хороших человеческих ответах
2. Reward model — люди выбирают, какой ответ лучше
3. RL (обычно PPO) — модель учится радовать reward-модель, а не людей напрямую
Проблема очевидна:
Поэтому индустрия закономерно пошла дальше. Так, в 2025 активно взлетел Reinforcement Learning from AI Feedback.
Теперь вместо человека:
Плюсы:
Минусы:
Настоящий поворотный момент — Reinforcement Learning with Verifiable Rewards (RLVR).
Идея простая и красивая: если ответ можно проверить автоматически — не нужен человек
Как это работает:
Именно так появились reasoning-модели с длинными цепочками рассуждений. Да, те самые, которые думают вслух и пугают своей логикой.
Но почему Карпати говорит, что RL — «ужасен»?
Потому что:
Просто альтернативы ещё хуже. RL — это не магия. Это рабочий костыль, который пока лучше всего справляется с реальностью.
📍 Навигация: Вакансии • Задачи • Собесы
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤4😁2
Оптимизируй функцию потерь своего кошелька
Data Science требует постоянного дообучения. Чтобы модель твоей карьеры не оверфитнулась на старых задачах, нужно добавлять новые веса.
Масштабируем знания: 3 курса по цене 1.
Оплачиваешь только трек с максимальной стоимостью, остальные два получаешь в подарок.
Твой стек на 2026:
— математика для Data Science (база);
— ML для старта в Data Science;
— AI-агенты для DS-специалистов (тренд года).
Сделать fit
Эпоха заканчивается 31 декабря.
Нужен тюнинг параметров выбора? Пиши: @manager_proglib
Data Science требует постоянного дообучения. Чтобы модель твоей карьеры не оверфитнулась на старых задачах, нужно добавлять новые веса.
Масштабируем знания: 3 курса по цене 1.
Оплачиваешь только трек с максимальной стоимостью, остальные два получаешь в подарок.
Твой стек на 2026:
— математика для Data Science (база);
— ML для старта в Data Science;
— AI-агенты для DS-специалистов (тренд года).
Сделать fit
Эпоха заканчивается 31 декабря.
Нужен тюнинг параметров выбора? Пиши: @manager_proglib
👍2🙏1
matplotlib-cheat-sheet.pdf
2.4 MB
📊 Matplotlib под рукой: всё главное для графиков и анализа
Сохраняйте, пригодится не раз.
📍 Навигация: Вакансии • Задачи • Собесы
🐸 Библиотека дата-сайентиста
#буст
Сохраняйте, пригодится не раз.
📍 Навигация: Вакансии • Задачи • Собесы
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤5🎉2🔥1
🧩 Matrix World: карта мира линейной алгебры
Это не просто схема, а иерархия всех ключевых типов матриц и разложений — от самых общих до «чистого ядра».
📍 Навигация: Вакансии • Задачи • Собесы
🐸 Библиотека дата-сайентиста
#буст
Это не просто схема, а иерархия всех ключевых типов матриц и разложений — от самых общих до «чистого ядра».
📍 Навигация: Вакансии • Задачи • Собесы
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤3🔥2
Выберите сценарий использования и платформу — и получите готовые к запуску инструкции для нужной LFM-модели.
LFM (Large Foundation Model) — это универсальная базовая модель, обученная на больших объёмах данных и пригодная для разных задач: от чатов и кода до изображений и аудио.
Поддерживаемые кейсы:
Быстрый старт, понятные примеры и минимум лишней настройки — можно сразу переходить к результату.
📍 Навигация: Вакансии • Задачи • Собесы
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍7❤2🤩1
Появился наглядный пример того, как можно делать real-time audio-to-text полностью локально — без облаков и интернета. В основе связка llama.cpp и компактной модели LFM2-Audio-1.5B.
Идея простая: небольшая, но достаточно мощная аудиомодель + эффективный рантайм = транскрипция прямо на устройстве.
Фактически, это ещё один шаг к edge-ассистентам, которые умеют слушать и понимать речь без отправки данных в облако.
Репозиторий — хороший ориентир для тех, кто хочет собрать подобное решение у себя.
📍 Навигация: Вакансии • Задачи • Собесы
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍3😁2🎉1
Senior Data Engineer — 4 000-5 000 $, удалёнка
Data Analyst — от 1 500 до 3 000 $, удалёнка
Data Analyst (Product, Marketing) — от 200 000 ₽, офис (Санкт-Петербург)
📍 Навигация: Вакансии • Задачи • Собесы
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2❤1
📊 datasetiq: Python-клиент для миллионов экономических датасетов
Вышла datasetiq v0.1.2 — лёгкая Python-библиотека для работы с глобальными макроэкономическими данными.
Она объединяет данные из FRED, IMF, World Bank, OECD, BLS, US Census и других источников и возвращает их сразу в виде чистых pandas DataFrame. Под капотом — кэширование, async-запросы и простая настройка, поэтому библиотека хорошо подходит и для ноутбуков, и для продакшена.
Пример использования:
В отличие от
✔️ работает сразу с множеством источников;
✔️ имеет встроенное кэширование и защиту от rate limits;
✔️ сфокусирован именно на глобальных макро-данных и тайм-сериях.
Подойдёт аналитикам, исследователям, студентам и всем, кто работает с экономическими данными.
📱 GitHub: https://clc.to/O42hIA
🔗 Документация: https://clc.to/lO7Sng
📍 Навигация: Вакансии • Задачи • Собесы
🐸 Библиотека дата-сайентиста
#буст
Вышла datasetiq v0.1.2 — лёгкая Python-библиотека для работы с глобальными макроэкономическими данными.
Она объединяет данные из FRED, IMF, World Bank, OECD, BLS, US Census и других источников и возвращает их сразу в виде чистых pandas DataFrame. Под капотом — кэширование, async-запросы и простая настройка, поэтому библиотека хорошо подходит и для ноутбуков, и для продакшена.
Пример использования:
import datasetiq as iq
iq.set_api_key("your_api_key_here")
df = iq.get("FRED/CPIAUCSL")
print(df.head())
df["yoy_inflation"] = df["value"].pct_change(12) * 100
print(df.tail())
В отличие от
fredapi, pandas-datareader и похожих библиотек, datasetiq:Подойдёт аналитикам, исследователям, студентам и всем, кто работает с экономическими данными.
📍 Навигация: Вакансии • Задачи • Собесы
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩5❤3👍2🙏1
Что послушать: почему без математики и алгоритмов невозможно полноценно развиваться в ИИ. В новом эпизоде Machine Learning Podcast Алексей Толстиков, руководитель Школы анализа данных Яндекса, рассказывает, как фундаментальная математика помогает не просто запускать нейросети, а глубоко понимать, почему и как они работают.
В подкасте обсуждали полезные подходы и идеи:
✅ Почему даже опытным ИИ, ML-спецам и датасаентистам полезно возвращаться к фундаментальным дисциплинам
✅ Как математика реально прокачивает карьеру и приближает специалиста к заветному офферу
✅ Почему теория — выжимка из тысяч успешных и неудачных практик, а не скучная формальность
Если вы хотите прокачать мышление в ИИ и Data и не теряться на рынке труда — этот выпуск для вас
👉Ссылка: https://mlpodcast.mave.digital/ep-76
#буст
В подкасте обсуждали полезные подходы и идеи:
✅ Почему даже опытным ИИ, ML-спецам и датасаентистам полезно возвращаться к фундаментальным дисциплинам
✅ Как математика реально прокачивает карьеру и приближает специалиста к заветному офферу
✅ Почему теория — выжимка из тысяч успешных и неудачных практик, а не скучная формальность
Если вы хотите прокачать мышление в ИИ и Data и не теряться на рынке труда — этот выпуск для вас
👉Ссылка: https://mlpodcast.mave.digital/ep-76
#буст
🎉2❤1
Please open Telegram to view this post
VIEW IN TELEGRAM
😁10🥰1
Unsloth вместе с PyTorch показали, что деплой LLM на смартфон — это уже не демо из будущего, а рабочая практика. Модель можно дообучить и запустить локально прямо на Android или iPhone — без облаков и интернета.
Есть и практическая часть: выложен бесплатный Colab-ноутбук, где показан полный путь — от fine-tuning до экспорта модели для запуска на телефоне.
Кажется, «edge-LLM» окончательно перестали быть экспериментом и начали превращаться в нормальный инженерный сценарий.
📍 Навигация: Вакансии • Задачи • Собесы
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤4
RAG, Vector DBs и мультиагентность: апгрейд курса по AI-агентам
Коллеги, мы знаем, что базовый DS-курс вам уже не интересен. Рынок требует инженерии: как заставить LLM работать с вашими данными и не галлюцинировать.
Мы перезапустили курс «Разработка AI-агентов», превратив его в мощный инструмент для ML-инженеров.
Что под капотом новой программы:
— Hardcore Tech:
— Infrastructure: Работа с векторными БД (Pinecone, Weaviate) и семантическим поиском.
— Science: Факультатив по RL и эмерджентному поведению.
— Production: AgentOps, мониторинг через LangSmith, деплой.
⚡️ Киллер-фича: Студентам продвинутого трека даем доступ к GPU-кластеру для обучения моделей.
Строим production-ready решения, а не игрушки.
Программа и силлабус
Коллеги, мы знаем, что базовый DS-курс вам уже не интересен. Рынок требует инженерии: как заставить LLM работать с вашими данными и не галлюцинировать.
Мы перезапустили курс «Разработка AI-агентов», превратив его в мощный инструмент для ML-инженеров.
Что под капотом новой программы:
— Hardcore Tech:
LangGraph (state-машины), протоколы MCP и A2A .— Infrastructure: Работа с векторными БД (Pinecone, Weaviate) и семантическим поиском.
— Science: Факультатив по RL и эмерджентному поведению.
— Production: AgentOps, мониторинг через LangSmith, деплой.
⚡️ Киллер-фича: Студентам продвинутого трека даем доступ к GPU-кластеру для обучения моделей.
Строим production-ready решения, а не игрушки.
Программа и силлабус
🔥1🎉1
Этот код выглядит безобидно.
Именно поэтому он опасен.
👉 Проверить себя
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🥰1
🎓 Твой опыт стоит дорого — стань экспертом Proglib Academy
Чувствуешь, что накопил достаточно знаний, чтобы делиться ими с другими?
Мы ищем сильных практиков, которые хотят попробовать себя в роли:
— преподавателей;
— авторов курсов;
— наставников.
Это возможность не только монетизировать экспертизу, но и прокачать личный бренд, структурировать собственные знания и вырастить новое поколение специалистов.
👉 Заполни короткую анкету
Чувствуешь, что накопил достаточно знаний, чтобы делиться ими с другими?
Мы ищем сильных практиков, которые хотят попробовать себя в роли:
— преподавателей;
— авторов курсов;
— наставников.
Это возможность не только монетизировать экспертизу, но и прокачать личный бренд, структурировать собственные знания и вырастить новое поколение специалистов.
👉 Заполни короткую анкету
❤4🔥1
Please open Telegram to view this post
VIEW IN TELEGRAM
😁5🔥1
DS умер? Нет, он эволюционировал в Agent Engineering
Модели стали commodity. Теперь ценность не в
Мы представляем радикально обновленный курс «Разработка AI-агентов».
Старая версия (5 недель) была лишь введением. Новая — это 13 модулей хардкора.
Advanced Track для ML-инженеров:
— RAG 2.0: Векторные БД (Pinecone, Chroma), семантический поиск, гибридные методы.
— Fine-tuning & RL: Обучение агентов, RLHF, MARL (Multi-Agent Reinforcement Learning).
— Frameworks: Глубокий дайв в
— Infra: Доступ к GPU-кластеру для ваших экспериментов.
Мы учим не просто «промтить», а строить сложные системы с памятью и инструментами.
🧪 Акция 3 в 1:
Покупаешь этот курс — выбираешь два любых других в подарок.
Data Science 2026
Модели стали commodity. Теперь ценность не в
model.fit(), а в том, как заставить LLM надежно выполнять сложные цепочки действий.Мы представляем радикально обновленный курс «Разработка AI-агентов».
Старая версия (5 недель) была лишь введением. Новая — это 13 модулей хардкора.
Advanced Track для ML-инженеров:
— RAG 2.0: Векторные БД (Pinecone, Chroma), семантический поиск, гибридные методы.
— Fine-tuning & RL: Обучение агентов, RLHF, MARL (Multi-Agent Reinforcement Learning).
— Frameworks: Глубокий дайв в
CrewAI, AutoGen и LangGraph.— Infra: Доступ к GPU-кластеру для ваших экспериментов.
Мы учим не просто «промтить», а строить сложные системы с памятью и инструментами.
🧪 Акция 3 в 1:
Покупаешь этот курс — выбираешь два любых других в подарок.
Data Science 2026
❤2👍1😢1
OpenAI выложила код и веса по sparsity-подходу
OpenAI продолжает ломать привычный пайплайн «сначала жирно, потом обрезаем» — теперь разреженность закладывается прямо в обучение. Самое любопытное: после жёсткого прунинга остаются маленькие, почти читаемые схемы, которые всё ещё работают. Похоже, мы всё ближе к моменту, когда «понять модель» станет не просто красивой метафорой.
NVIDIA выпускает Nemotron 3 — модели для многоагентных систем
Это не очередной чат-бот, а инфраструктура под агентные системы на масштабе. NVIDIA явно делает ставку на будущее, где один LLM — это мало, а вот десяток координирующихся агентов — норма.
Google анонсировала Gemini 3 Flash
Быстро, дёшево и почти как большой — классическая формула Flash. Google явно показывает, что «быстрее и дешевле» теперь важнее, чем «на 2% лучше в бенчмарке». Отличный кандидат для продакшена, где latency важнее эго.
OpenAI представила GPT-Image-1.5
Генерация картинок стала в 4 раза быстрее и заметно лучше управляется при редактировании. Модель тихо заменяет предыдущую версию — без революций, но с ощущением, что image-stack наконец-то взрослеет и перестаёт быть игрушкой.
В ChatGPT появился App Store
Теперь прямо из чата можно заказывать еду, собирать презентации и дергать сторонние сервисы через
@. ChatGPT всё меньше «модель» и всё больше «операционная система».OpenAI выпускает GPT-5.2-Codex
Специализированная версия GPT-5.2 под длинные инженерные задачи: рефакторинги, миграции, сложные пайплайны.
📍 Навигация: Вакансии • Задачи • Собесы
#свежак
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍4
📦 Docker & Kubernetes: визуальная шпаргалка
Современные приложения почти всегда живут в контейнерах и работают на кластерах.
Docker решает первую проблему — упаковать приложение со всеми зависимостями и запустить его где угодно: локально, на сервере, в облаке.
Kubernetes решает следующую — как запустить много таких контейнеров, следить, чтобы они не падали, масштабировать их под нагрузкой и обновлять без простоя.
💡 Проще говоря:
Docker — это «собрать и запустить одно приложение в коробке».
Kubernetes — это «надёжно управлять тысячами таких коробок на куче машин».
📍 Навигация: Вакансии • Задачи • Собесы
🐸 Библиотека дата-сайентиста
#буст
Современные приложения почти всегда живут в контейнерах и работают на кластерах.
Docker решает первую проблему — упаковать приложение со всеми зависимостями и запустить его где угодно: локально, на сервере, в облаке.
Kubernetes решает следующую — как запустить много таких контейнеров, следить, чтобы они не падали, масштабировать их под нагрузкой и обновлять без простоя.
💡 Проще говоря:
Docker — это «собрать и запустить одно приложение в коробке».
Kubernetes — это «надёжно управлять тысячами таких коробок на куче машин».
📍 Навигация: Вакансии • Задачи • Собесы
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10🔥1
Российские генеративные модели Kandinsky 5.0 Video Lite и Pro в международной text-to-video арене
🔘 Pro версия является ТОП-1 опенсорсом в мире
🔘 Lite версия (2B параметров) лучше первой версии Sora
🔘 На данный момент Сбер уступает только топовым мировым бигтех компаниям: Google (Veo 3.1, Veo 3), OpenAI (Sora 2), Alibaba (Wan 2.5), KlingAI (Kling 2.5, 2.6); в паритете с Luma AI (Ray 3), MiniMax (Hailuo 2.3) — отрыв по ELO максимум 3 балла, при 95% доверительном интервале оценивания +-21 балла
🔘 Для российских генеративных моделей выход на международную арену — уникальное событие
🚀 Полезные ссылки:
🔘 Посмотреть весь лидерборд: lmarena
🔘 Почитать подробнее про Kandinsky 5.0: пост, техрепорт
🔘 Open Source Kandinsky 5.0: github и hf
🚀 Полезные ссылки:
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤3🌚1
Когда большая языковая модель генерирует текст, она каждый раз решает одну простую задачу:
какой токен выбрать следующим?
Но способов принять это решение — несколько. На инфографике показаны 4 основные стратегии, вот кратко и по делу:
Самый простой и быстрый вариант. Модель всегда выбирает токен с максимальной вероятностью на текущем шаге (argmax).
Здесь модель не обязана выбирать самый вероятный токен. Она случайно сэмплирует слово из распределения вероятностей (softmax + temperature).
Модель думает не только о следующем слове, а о всей последовательности целиком. Она параллельно держит несколько наиболее вероятных вариантов продолжения (beam width) и выбирает лучший путь.
Добавляет штраф за повторяемость. При выборе следующего токена учитывается не только вероятность, но и насколько он похож на уже сгенерированные слова (косинусное сходство).
📍 Навигация: Вакансии • Задачи • Собесы
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤2