📈 От экспериментов в
Главная проблема современных агентов — непредсказуемость. Как измерить качество, избежать регрессий и оптимизировать
📚 В обновлённой программе:
— продвинутый
— метрики и оценка: тестирование производительности и выявление деградации моделей;
— управление ресурсами: токены, кэширование и роутинг как инженерная дисциплина;
—
Материалы для предварительной подготовки доступны сразу — приступайте к изучению актуальных инструментов 2026 года.
⏳ Специальные условия до 28 февраля:
— введите промокод
— участвуйте в **акции «3 курса по цене 1» — выберите два любых курса в дополнение к основному.
👉 Получить доступ к курсу и подаркам
Jupyter к управляемым AI-системам в продакшенеГлавная проблема современных агентов — непредсказуемость. Как измерить качество, избежать регрессий и оптимизировать
RAG для работы с «грязными» данными? В новом запуске курса мы сделали упор на измеримость и промышленный подход.📚 В обновлённой программе:
— продвинутый
RAG: практические рекомендации по подготовке данных и продвинутые методы поиска;— метрики и оценка: тестирование производительности и выявление деградации моделей;
— управление ресурсами: токены, кэширование и роутинг как инженерная дисциплина;
—
human-in-the-loop: интеграция человека в цепочки принятия решений LangGraph.Материалы для предварительной подготовки доступны сразу — приступайте к изучению актуальных инструментов 2026 года.
⏳ Специальные условия до 28 февраля:
— введите промокод
Agent для получения скидки 10 000 рублей**; — участвуйте в **акции «3 курса по цене 1» — выберите два любых курса в дополнение к основному.
👉 Получить доступ к курсу и подаркам
❤3👍1
Чтобы не гадать, почему упала точность модели, подготовили для вас шпаргалку по мониторингу и борьбе с дрейфом данных.
📍 Навигация: Вакансии • Задачи • Собесы
🐸 Библиотека дата-сайентиста
#буст
📍 Навигация: Вакансии • Задачи • Собесы
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤5😢3🎉2👍1
Lockdown Mode в ChatGPT
OpenAI добавили режим повышенной изоляции для чувствительных сценариев и метки “Elevated Risk” для функций, уязвимых к prompt-injection.
Reverse-engineering GPT-5 tokenizer
Глубокий разбор того, как устроен токенайзер GPT-5 через библиотеку tiktoken.
Qwen3.5 — к «нативным» мультимодальным агентам
397B параметров, из которых активны только 17B за проход — гибрид linear attention + sparse MoE. Поддержка 200+ языков и упор на reasoning + агентику.
ZVEC — лёгкая in-process векторная БД от Alibaba
Открытая, быстрая, без отдельного сервиса. Подходит для ноутбуков, edge и прототипов.
Claude Sonnet 4.6
Anthropic обновили Sonnet: лучше кодинг, планирование и long-context reasoning, плюс 1M токенов контекста (в бете).
Prompt Caching 201
OpenAI подробно разобрали, как повторное использование префиксов снижает latency и стоимость. Практичный материал для тех, кто строит прод-агентов и устал платить за одинаковый system prompt 1000 раз.
От MNIST к Transformer — работа с памятью
Продолжение серии с упором на внутренние механизмы и архитектурные детали.
Хроники ML-инженера на крупнейшем хакатоне
Про гипотезы, быстрые эксперименты и реальность продакшена под давлением дедлайнов.
Трансформер своими руками (Numpy)
Реализация с нуля — отличный способ перестать бояться слов вроде “multi-head attention” и “positional encoding”.
📍 Навигация: Вакансии • Задачи • Собесы
#свежак
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍4😢1
🔝 10 самых ценных GitHub-репозиториев для изучения ИИ (2026)
Вот база, которая сделает вас сильнее в AI:
1. microsoft/generative-ai-for-beginners (~105k ⭐)
Полноценный курс от Microsoft по созданию GenAI-приложений. От теории до первых рабочих чат-ботов.
2. rasbt/LLMs-from-scratch (~83k ⭐)
Легендарный репозиторий Себастьяна Рашки. Пишем свою GPT-подобную модель с чистого листа: архитектура, обучение и инференс.
3. microsoft/ai-agents-for-beginners (~49k ⭐)
Курс по созданию ИИ-агентов. Инструменты, память, планирование и сложные рабочие процессы (agentic workflows).
4. microsoft/ML-For-Beginners (~83k ⭐)
Классика машинного обучения: 26 уроков по фундаментальным алгоритмам. Если не знаете, что под капотом у Scikit-Learn — вам сюда.
5. openai/openai-cookbook (~71k ⭐)
Официальные рецепты от OpenAI. Примеры использования API, паттерны промптов и готовые демки для продакшена.
6. jackfrued/Python-100-Days (~177k ⭐)
Интенсивный марафон: 100 дней практики Python. От основ до работы с данными. База, без которой в AI делать нечего.
7. pathwaycom/llm-app (~54k ⭐)
Набор шаблонов для RAG-систем. Как строить пайплайны, которые работают с вашими данными в реальном времени.
8. jakevdp/PythonDataScienceHandbook (~46k ⭐)
Золотой стандарт Data Science. Всё по NumPy, Pandas, Matplotlib и Scikit-Learn в одном месте.
9. CompVis/stable-diffusion (~72k ⭐)
Исходники первой Stable Diffusion. Лучший материал, чтобы понять, как работают диффузионные модели генерации изображений.
10. facebookresearch/segment-anything (~53k ⭐)
Модель SAM. Мастер-класс по сегментации изображений: как ИИ «видит» и выделяет объекты.
Сохраняйте подборку в «Избранное», чтобы не потерять.
📍 Навигация: Вакансии • Задачи • Собесы
🐸 Библиотека дата-сайентиста
#буст
Вот база, которая сделает вас сильнее в AI:
1. microsoft/generative-ai-for-beginners (~105k ⭐)
Полноценный курс от Microsoft по созданию GenAI-приложений. От теории до первых рабочих чат-ботов.
2. rasbt/LLMs-from-scratch (~83k ⭐)
Легендарный репозиторий Себастьяна Рашки. Пишем свою GPT-подобную модель с чистого листа: архитектура, обучение и инференс.
3. microsoft/ai-agents-for-beginners (~49k ⭐)
Курс по созданию ИИ-агентов. Инструменты, память, планирование и сложные рабочие процессы (agentic workflows).
4. microsoft/ML-For-Beginners (~83k ⭐)
Классика машинного обучения: 26 уроков по фундаментальным алгоритмам. Если не знаете, что под капотом у Scikit-Learn — вам сюда.
5. openai/openai-cookbook (~71k ⭐)
Официальные рецепты от OpenAI. Примеры использования API, паттерны промптов и готовые демки для продакшена.
6. jackfrued/Python-100-Days (~177k ⭐)
Интенсивный марафон: 100 дней практики Python. От основ до работы с данными. База, без которой в AI делать нечего.
7. pathwaycom/llm-app (~54k ⭐)
Набор шаблонов для RAG-систем. Как строить пайплайны, которые работают с вашими данными в реальном времени.
8. jakevdp/PythonDataScienceHandbook (~46k ⭐)
Золотой стандарт Data Science. Всё по NumPy, Pandas, Matplotlib и Scikit-Learn в одном месте.
9. CompVis/stable-diffusion (~72k ⭐)
Исходники первой Stable Diffusion. Лучший материал, чтобы понять, как работают диффузионные модели генерации изображений.
10. facebookresearch/segment-anything (~53k ⭐)
Модель SAM. Мастер-класс по сегментации изображений: как ИИ «видит» и выделяет объекты.
Сохраняйте подборку в «Избранное», чтобы не потерять.
📍 Навигация: Вакансии • Задачи • Собесы
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍3🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
⏳ Интерактивная хронология 171 LLM (2017–2026)
Если вам казалось, что новости про нейросети выходят слишком часто — вам не казалось. Разработчик собрал LLM Timeline — визуальную карту развития технологий от первой статьи про Transformer до новейших GPT-5.3 Codex.
🔗 Залипнуть в историю: https://clc.to/RP3Ppg
📍 Навигация: Вакансии • Задачи • Собесы
🐸 Библиотека дата-сайентиста
#буст
Если вам казалось, что новости про нейросети выходят слишком часто — вам не казалось. Разработчик собрал LLM Timeline — визуальную карту развития технологий от первой статьи про Transformer до новейших GPT-5.3 Codex.
🔗 Залипнуть в историю: https://clc.to/RP3Ppg
📍 Навигация: Вакансии • Задачи • Собесы
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍2🔥2🥰1
📚 Полка AI/ML инженера: 13 бесплатных книг на все случаи жизни
Автор репозитория бережно отбирал материалы, которые помогают «подтянуть» теорию, подготовиться к собесу в BigTech или разобраться в архитектуре систем.
Что в коллекции (самое интересное):
🌟 Deep Learning Interviews: 400+ вопросов и ответов по CNN, трансформерам и системному дизайну.
🌟 Machine Learning Systems: Свежий гайд от Гарварда по инженерии ML-систем — от распределенного обучения до оптимизации моделей уровня AGI.
🌟 The Matrix Cookbook: Легендарный справочник-шпаргалка по матричным вычислениям и производным.
🌟 OpenAI Guide to Building Practical Agents: Паттерны проектирования и «хитрости» для создания реальных ИИ-агентов.
🌟 Fine-tuning Guide: Исчерпывающий обзор технологий и лучших практик дообучения LLM.
🌟 Math for ML: Линейная алгебра, матанализ и тервер «на пальцах» специально для практиков.
🔗 Забрать библиотеку себе: https://clc.to/qpt1Rg
📍 Навигация: Вакансии • Задачи • Собесы
🐸 Библиотека дата-сайентиста
#буст
Автор репозитория бережно отбирал материалы, которые помогают «подтянуть» теорию, подготовиться к собесу в BigTech или разобраться в архитектуре систем.
Что в коллекции (самое интересное):
🌟 Deep Learning Interviews: 400+ вопросов и ответов по CNN, трансформерам и системному дизайну.
🌟 Machine Learning Systems: Свежий гайд от Гарварда по инженерии ML-систем — от распределенного обучения до оптимизации моделей уровня AGI.
🌟 The Matrix Cookbook: Легендарный справочник-шпаргалка по матричным вычислениям и производным.
🌟 OpenAI Guide to Building Practical Agents: Паттерны проектирования и «хитрости» для создания реальных ИИ-агентов.
🌟 Fine-tuning Guide: Исчерпывающий обзор технологий и лучших практик дообучения LLM.
🌟 Math for ML: Линейная алгебра, матанализ и тервер «на пальцах» специально для практиков.
🔗 Забрать библиотеку себе: https://clc.to/qpt1Rg
📍 Навигация: Вакансии • Задачи • Собесы
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍5
🏗 Metaxy: как перестать пересчитывать лишнее в ML-пайплайнах
В обычном Data Engineering всё просто: обновился файл — пересчитываем весь граф. Но в мультимодальном ML (видео + аудио + текст) такой подход — это прямой путь к сжиганию бюджета на облака.
Metaxy — это умный слой метаданных, который понимает внутреннюю структуру данных и умеет «отсекать» ненужные вычисления.
Данные (видео, картинки) лежат в S3, а Metaxy хранит их «цифровые следы»: версии, пути и связи. Но главное — он знает, какая часть файла нужна конкретной модели.
Кейс из жизни:
У вас есть пайплайн распознавания лиц. На вход идет видеофайл. Вы решили заменить в нем аудиодорожку на более качественную.
❌ Обычный пайплайн: увидит изменение файла и заново запустит тяжелую модель распознавания лиц.
✅ Metaxy: «поймет», что блок Face Recognition зависит только от видеокадров. Раз кадры не менялись — вычисления просто пропускаются (pruning).
🔗 Репозиторий проекта: https://clc.to/Jwgv2g
📍 Навигация: Вакансии • Задачи • Собесы
🐸 Библиотека дата-сайентиста
#буст
В обычном Data Engineering всё просто: обновился файл — пересчитываем весь граф. Но в мультимодальном ML (видео + аудио + текст) такой подход — это прямой путь к сжиганию бюджета на облака.
Metaxy — это умный слой метаданных, который понимает внутреннюю структуру данных и умеет «отсекать» ненужные вычисления.
Данные (видео, картинки) лежат в S3, а Metaxy хранит их «цифровые следы»: версии, пути и связи. Но главное — он знает, какая часть файла нужна конкретной модели.
Кейс из жизни:
У вас есть пайплайн распознавания лиц. На вход идет видеофайл. Вы решили заменить в нем аудиодорожку на более качественную.
🔗 Репозиторий проекта: https://clc.to/Jwgv2g
📍 Навигация: Вакансии • Задачи • Собесы
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2❤1👍1
За год мы провели три потока курса по ИИ-агентам, а теперь запускаем масштабное обновление!
В новом, четвёртом потоке мы учли все пожелания студентов, добавили большой блок про
В программе:
— практика в
— продвинутый
— оркестрация в
— метрики качества моделей и защита от деградации пайплайна;
— развёртывание локальных опенсорс-моделей с соблюдением 152-ФЗ.
В честь старта продаж действует спецпредложение: 3 курса по цене 1 (два дополнительных курса в подарок).
Доступ к материалам для предварительной подготовки откроется сразу после оплаты.
По промокоду
👉 Присоединиться к четвёртому потоку и вывести пайплайны в прод
В новом, четвёртом потоке мы учли все пожелания студентов, добавили большой блок про
AgentOps и сместили фокус с базовых концепций на суровый инжиниринг. Написать скрипт генерации легко, а вот заставить агентов работать со сложным RAG, не галлюцинировать и соблюдать бюджет пайплайна в проде — задача со звёздочкой.В программе:
— практика в
Jupyter-ноутбуках: от прототипа до продакшена;— продвинутый
RAG: обработка разнородных документов и улучшение поиска;— оркестрация в
LangGraph: human-in-the-loop и механизм time-travel;— метрики качества моделей и защита от деградации пайплайна;
— развёртывание локальных опенсорс-моделей с соблюдением 152-ФЗ.
В честь старта продаж действует спецпредложение: 3 курса по цене 1 (два дополнительных курса в подарок).
Доступ к материалам для предварительной подготовки откроется сразу после оплаты.
По промокоду
Agent забирайте скидку 10 000 ₽ (89 000 ₽ вместо 99 000 ₽). Успейте занять место до 28 февраля!👉 Присоединиться к четвёртому потоку и вывести пайплайны в прод
This media is not supported in your browser
VIEW IN TELEGRAM
💻 Узнай, какие LLM «взлетят» на твоем железе
Проблема локального запуска ИИ всегда одна: скачиваешь 50 ГБ весов, а в итоге получаешь 0.2 токена в секунду или ошибку
Что умеет тулза:
✔️ Автодетект железа: Мгновенно сканирует вашу RAM, VRAM (включая Multi-GPU), CPU и архитектуру.
✔️ Анализ 200+ моделей: Сверяет ваши ресурсы с базой данных из 206 моделей от 57 провайдеров.
✔️ Умный скоринг: Каждая модель получает оценку по 4 параметрам.
✔️ Динамическое квантование: Инструмент сам подскажет, в каком сжатии (Q4, Q8, IQ4_XS) модель лучше всего сбалансирует скорость и качество.
🔗 Попробовать: https://clc.to/U7aQyw
📍 Навигация: Вакансии • Задачи • Собесы
🐸 Библиотека дата-сайентиста
#буст
Проблема локального запуска ИИ всегда одна: скачиваешь 50 ГБ весов, а в итоге получаешь 0.2 токена в секунду или ошибку
Out of Memory. Этот инструмент решает проблему одной командой.Что умеет тулза:
🔗 Попробовать: https://clc.to/U7aQyw
📍 Навигация: Вакансии • Задачи • Собесы
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6🎉2👍1🔥1🙏1
📂 Идеальная структура Data Analysis проекта
Из чего состоит правильный проект:
—
—
— notebooks/: Только для экспериментов, EDA и черновых находок.
— src/: Здесь живет «чистый» и переиспользуемый код для очистки данных, генерации признаков и моделей.
— tests/: Юнит-тесты, которые гарантируют, что логика обработки данных не сломалась после правок.
Золотые правила работы:
1. Как только код в Jupyter стал стабильным и переиспользуемым — выносите его в модули в папку
2. Читайте из
3. Описывайте методику и логику анализа в папке
👇 Забирайте шаблон себе в закладки.
📍 Навигация: Вакансии • Задачи • Собесы
Библиотека дата-сайентиста
#буст
Из чего состоит правильный проект:
—
config/: Централизованное хранение путей и параметров в config.yaml.—
data/: Разделение данных на сырые (`raw`), промежуточные (`interim`) и готовые к анализу (`processed`).— notebooks/: Только для экспериментов, EDA и черновых находок.
— src/: Здесь живет «чистый» и переиспользуемый код для очистки данных, генерации признаков и моделей.
— tests/: Юнит-тесты, которые гарантируют, что логика обработки данных не сломалась после правок.
Золотые правила работы:
1. Как только код в Jupyter стал стабильным и переиспользуемым — выносите его в модули в папку
src/.2. Читайте из
raw, очищайте в src/ и сохраняйте результат в processed. Никогда не перезаписывайте сырые данные!3. Описывайте методику и логику анализа в папке
docs/, а не только в комментариях к коду.👇 Забирайте шаблон себе в закладки.
📍 Навигация: Вакансии • Задачи • Собесы
Библиотека дата-сайентиста
#буст
❤8😁2🤩2🙏2
🌸 Куда катятся LLM в 2026 году
Себастьян Рашка выпустил свой традиционный «весенний» обзор открытых моделей, и, кажется, индустрия окончательно переросла старый добрый Трансформер. Если вы думали, что в архитектурах нейросетей всё замерло — вы сильно ошибались.
Вот главные тезисы:
🌟 Прощай, классический Attention: Внедрение Sliding Window Attention (SWA) позволило моделям «переваривать» гигантские контексты без потери памяти.
🌟 Gated Attention: На выходе внимания теперь стоят сигмоидные «гейты» (как в Qwen3-Next). Это позволяет модели динамически решать, какие данные важны, а какие — шум.
🌟 Inference-time scaling: Главный хайп сезона. Модели учат «думать» дольше во время генерации (reasoning), что дает прирост качества без раздувания количества параметров.
🌟 Tiny is the new Big: Компактные модели вроде Tiny Aya (3.35B) показывают, что мультиязычность и интеллект теперь можно упаковать в смартфон.
🔗 Весь разбор здесь
📍 Навигация: Вакансии • Задачи • Собесы
Библиотека дата-сайентиста
Себастьян Рашка выпустил свой традиционный «весенний» обзор открытых моделей, и, кажется, индустрия окончательно переросла старый добрый Трансформер. Если вы думали, что в архитектурах нейросетей всё замерло — вы сильно ошибались.
Вот главные тезисы:
🌟 Прощай, классический Attention: Внедрение Sliding Window Attention (SWA) позволило моделям «переваривать» гигантские контексты без потери памяти.
🌟 Gated Attention: На выходе внимания теперь стоят сигмоидные «гейты» (как в Qwen3-Next). Это позволяет модели динамически решать, какие данные важны, а какие — шум.
🌟 Inference-time scaling: Главный хайп сезона. Модели учат «думать» дольше во время генерации (reasoning), что дает прирост качества без раздувания количества параметров.
🌟 Tiny is the new Big: Компактные модели вроде Tiny Aya (3.35B) показывают, что мультиязычность и интеллект теперь можно упаковать в смартфон.
🔗 Весь разбор здесь
📍 Навигация: Вакансии • Задачи • Собесы
Библиотека дата-сайентиста
👍6❤3🤩1
Последний шанс: 3 курса по цене 1 и запуск AI-агентов в продакшн
Запускать модели в
В обновлённой программе фокус смещён на жёсткий ML-инжиниринг и вывод в прод. Вы научитесь строить ReAct-циклы, работать с
Почему нельзя откладывать:
— масштабная акция «3 курса по цене 1» сгорит уже завтра;
— промокод
— сразу после оформления открываются материалы для подготовки — начать учиться можно прямо сейчас.
Забронировать место на курсе и забрать бонусы до 28 февраля
Запускать модели в
Jupyter — весело, но бизнесу нужны готовые агентные пайплайны. Как превратить «голую» LLM в автономную систему с RAG, контролировать затраты на инференс и не нарушить 152-ФЗ?В обновлённой программе фокус смещён на жёсткий ML-инжиниринг и вывод в прод. Вы научитесь строить ReAct-циклы, работать с
LangGraph и AutoGen, внедрять RAG высокого уровня, протоколы MCP и AgentOps. Все ключевые навыки в одном месте: защита от деградации, time-travel дебаггинг, оценка качества генерации, human-in-the-loop и развёртывание отечественных моделей.Почему нельзя откладывать:
— масштабная акция «3 курса по цене 1» сгорит уже завтра;
— промокод
Agent на скидку 10 000 рублей действует последние часы;— сразу после оформления открываются материалы для подготовки — начать учиться можно прямо сейчас.
Забронировать место на курсе и забрать бонусы до 28 февраля
🙏1
🧬 SymTorch: превращаем нейросети в читаемые формулы
Интерпретируемость моделей — одна из главных проблем современного ML. SymTorch — это новый инструментарий, который использует символическую регрессию, чтобы раскрыть поведение «черных ящиков».
Вместо того чтобы гадать, как нейронка пришла к результату, SymTorch автоматически извлекает из обученных моделей человекочитаемые математические формулы.
Ключевые особенности:
🛠 Инструмент объединяет мощь PyTorch (нейронные сети) и PySR (символическая регрессия).
🛠 Вместо «черного ящика» вы получаете наглядные математические зависимости, которые обнаружила модель в процессе обучения.
🛠 Это позволяет верифицировать логику модели и использовать её находки в научных или аналитических целях.
🔗 Репозиторий проекта: https://clc.to/F967PQ
📍 Навигация: Вакансии • Задачи • Собесы
Библиотека дата-сайентиста
Интерпретируемость моделей — одна из главных проблем современного ML. SymTorch — это новый инструментарий, который использует символическую регрессию, чтобы раскрыть поведение «черных ящиков».
Вместо того чтобы гадать, как нейронка пришла к результату, SymTorch автоматически извлекает из обученных моделей человекочитаемые математические формулы.
Ключевые особенности:
🛠 Инструмент объединяет мощь PyTorch (нейронные сети) и PySR (символическая регрессия).
🛠 Вместо «черного ящика» вы получаете наглядные математические зависимости, которые обнаружила модель в процессе обучения.
🛠 Это позволяет верифицировать логику модели и использовать её находки в научных или аналитических целях.
🔗 Репозиторий проекта: https://clc.to/F967PQ
📍 Навигация: Вакансии • Задачи • Собесы
Библиотека дата-сайентиста
❤7👍3🤩1
Обучить модель на исторических данных — это только полдела. Настоящий вызов начинается, когда её нужно выпустить к реальным пользователям. Вот 4 проверенных сценария, как это сделать безопасно:
Стандарт индустрии. Мы делим пользователей на две группы: контрольную (старая модель) и тестовую (новая).
Суть: Сравниваем бизнес-метрики (конверсию, CTR, выручку) между группами.
Когда использовать: Когда нужно четкое статистическое подтверждение, что новая модель действительно лучше старой.
Выкатываем новую модель не на всех сразу, а на маленькую долю трафика или конкретный регион.
Суть: Если за час мониторинга мы не увидели всплеска ошибок или падения метрик, постепенно увеличиваем долю трафика (5% -> 20% -> 100%).
Когда использовать: Когда важно минимизировать «радиус поражения» в случае критического бага.
Часто применяется в ранжировании и поиске. Вместо того чтобы делить пользователей, мы смешиваем ответы от двух моделей в один список.
Суть: Мы смотрим, на какие позиции в выдаче пользователь кликает чаще. Это позволяет быстрее получить статистически значимый результат, чем в обычном A/B тесте.
Когда использовать: В рекомендательных системах, где нужно быстро отсеять неудачные гипотезы.
Самый спокойный вариант. Новая модель работает параллельно со старой, получает те же запросы, но её ответы никуда не уходят — они просто пишутся в логи.
Суть: Мы проверяем, как модель держит нагрузку и какие предсказания выдает на живом трафике, вообще не влияя на пользовательский опыт.
Когда использовать: Перед первым серьезным релизом, чтобы убедиться в стабильности инфраструктуры.
📍 Навигация: Вакансии • Задачи • Собесы
Библиотека дата-сайентиста
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🥰2👍1🔥1🎉1🙏1
ИИ-агенты меняют образование. Хочешь быть тем, кто их проектирует? 🚀
Пока другие только пробуют промпты, Proglib App внедряет LLM в ядро продукта. Это EdTech-платформа с курсами и квизами, где ИИ помогает разработчикам расти. MVP в проде, пользователи на борту.
Проекту нужен технический кофаундер, способный соединить Fullstack-разработку и работу с ИИ-агентами.
🛠️ Технологический стек:
React 18, TypeScript, Express 5, PostgreSQL, Drizzle ORM.
Что предстоит:
• Проектировать архитектуру сервиса и интеграцию LLM. • Развивать ИИ-агентов для персонализации обучения. • Работать автономно: от архитектурного наброска до прода.
Идеальный мэтч, если:
• Уверенно чувствуешь себя в TS, React и Node.js. • Умеешь выжимать максимум из Claude Code и Cursor. • Бонус: опыт создания ИИ-агентов и интерес к EdTech.
Удалёнка, гибкость, работа напрямую с фаундером. Никаких «менеджеров среднего звена».
Готов строить самый умный образовательный сервис для профи? Пиши о себе 👇
@proglibrary_feedback_bot
Пока другие только пробуют промпты, Proglib App внедряет LLM в ядро продукта. Это EdTech-платформа с курсами и квизами, где ИИ помогает разработчикам расти. MVP в проде, пользователи на борту.
Проекту нужен технический кофаундер, способный соединить Fullstack-разработку и работу с ИИ-агентами.
🛠️ Технологический стек:
React 18, TypeScript, Express 5, PostgreSQL, Drizzle ORM.
Что предстоит:
• Проектировать архитектуру сервиса и интеграцию LLM. • Развивать ИИ-агентов для персонализации обучения. • Работать автономно: от архитектурного наброска до прода.
Идеальный мэтч, если:
• Уверенно чувствуешь себя в TS, React и Node.js. • Умеешь выжимать максимум из Claude Code и Cursor. • Бонус: опыт создания ИИ-агентов и интерес к EdTech.
Удалёнка, гибкость, работа напрямую с фаундером. Никаких «менеджеров среднего звена».
Готов строить самый умный образовательный сервис для профи? Пиши о себе 👇
@proglibrary_feedback_bot
🥰2
🧠 Agentic reasoning: 3 уровня автономности LLM
Команда из University of Illinois Urbana-Champaign, Meta, Amazon и Google DeepMind предлагает смотреть на LLM не как на «умный чат», а как на полноценного агента — с памятью, планированием и координацией. Фреймворк из трёх слоёв (base → self-evolving → collective) выглядит как попытка систематизировать весь хайп вокруг AI-агентов и сделать его инженерно управляемым.
🚨 Anthropic и массовая дистилляция Claude
Anthropic заявила, что DeepSeek, Moonshot AI и MiniMax через десятки тысяч фейковых аккаунтов собрали ~16 млн ответов Claude, чтобы воспроизвести его агентные способности.
⏳ 25 часов автономного кодинга от OpenAI
OpenAI провела стресс-тест: GPT-5.3-Codex получил пустой репозиторий и 25 часов времени. Итог — полноценный инструмент, 30k строк кода и 13 млн токенов.
💻 FDM-1 — универсальная модель для работы за компьютером
FDM-1 обучили на 11 млн часов видео, чтобы она могла выполнять реальные компьютерные задачи — от CAD до навигации в GUI. Интересно, что акцент сделан на масштабируемость и отказ от дорогой разметки.
🔥 Qwen3.5-35B-A3B
Новая версия Qwen от Alibaba Cloud усиливает позиции open-weight моделей в среднем размере (30–40B). Мультимодальность, RL-скейл и архитектурные улучшения — китайские модели продолжают стабильно сокращать разрыв с западными лидерами.
⚡ MIT про ускорение обучения LLM
Исследователи из MIT предлагают использовать idle-время вычислений, чтобы почти вдвое ускорить обучение без потери качества. На фоне дефицита GPU такие инженерные оптимизации могут оказаться не менее важными, чем новые архитектуры.
🍌 Nano Banana 2 от Google
Google обновила свою image-модель: больше скорости, больше контроля, уровень Pro в компактном формате. Сегмент «быстро и качественно» в генерации изображений становится всё плотнее.
📍 Навигация: Вакансии • Задачи • Собесы
#свежак
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🙏2❤1
🍳AI Cookbook: локальный ИИ правильно
Если вы проспали последние полгода, Liquid AI — это те ребята, которые делают нейронки на альтернативной архитектуре (LFM), забивая на классические трансформеры ради безумной эффективности.
Их свежий Cookbook на GitHub — это не просто доки, а готовый набор хаков для тех, кто хочет запустить серьезный ИИ на «калькуляторе».
Разбираем репозиторий:
🔛 Примеры того, как запустить LFM 2.5 (включая "думающие" модели) прямо в браузере через WebGPU. Никаких API-ключей и облаков, всё шуршит на твоем GPU.
🔛 Готовые проекты для iOS (Swift) и Android (Kotlin). Хочешь свой локальный ChatGPT, который не сливает переписку? Бери за основу их LeapChat.
🔛 Обработка аудио в реальном времени (LFM2-Audio) и разбор инвойсов по фото (LFM2-VL) на моделях смешного размера (от 1.2B до 3B параметров), которые выдают результат уровня гигантов.
🔛 Ноутбуки для дообучения через Unsloth и GRPO (привет, OpenAI o1 стиль рассуждений). Можно быстро натаскать модель под специфический домен.
🔗 Заглянуть в репозиторий: https://clc.to/1BVkhw
📍 Навигация: Вакансии • Задачи • Собесы
Библиотека дата-сайентиста
#буст
Если вы проспали последние полгода, Liquid AI — это те ребята, которые делают нейронки на альтернативной архитектуре (LFM), забивая на классические трансформеры ради безумной эффективности.
Их свежий Cookbook на GitHub — это не просто доки, а готовый набор хаков для тех, кто хочет запустить серьезный ИИ на «калькуляторе».
Разбираем репозиторий:
🔗 Заглянуть в репозиторий: https://clc.to/1BVkhw
📍 Навигация: Вакансии • Задачи • Собесы
Библиотека дата-сайентиста
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1😢1🤩1
Media is too big
VIEW IN TELEGRAM
Cамый наглядный способ понять устройство больших языковых моделей (LLM) через глубокую 3D-визуализацию.
🔗 Попробовать: https://clc.to/kmCVsw
📍 Навигация: Вакансии • Задачи • Собесы
Библиотека дата-сайентиста
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1😢1
🏛️ MIT выложил свою AI-библиотеку бесплатно
Это не просто статьи — это база, на которой построены OpenAI, Google DeepMind и Anthropic. Если вы хотели серьезно зайти в ИИ, это ваш знак.
🧭 Навигация по библиотеке:
1. Фундамент (Для старта):
Foundations of Machine Learning — база алгоритмов.
Understanding Deep Learning — самый наглядный современный учебник. Если пугает математика, начинайте здесь.
Algorithms for ML — как устроены «внутренности» моделей.
2. Глубокое обучение (Deep Learning):
Deep Learning — легендарная «библия» DL. По ней училось всё нынешнее поколение топ-инженеров.
Probabilistic ML — всё о том, как заставить ИИ работать с неопределенностью.
3. Обучение с подкреплением (RL) — разум машин:
RL Basics — абсолютный стандарт. Без этой книги в RL делать нечего.
Multi-Agent Systems — как обучать целые группы агентов взаимодействовать друг с другом.
4. Этика и будущее:
Fairness in ML — как избежать предвзятости и сделать ИИ справедливым.
📌 Чтобы не потерять вакансии и анонсы — добавь папку
🐸 Библиотека дата-сайентиста
#буст
Это не просто статьи — это база, на которой построены OpenAI, Google DeepMind и Anthropic. Если вы хотели серьезно зайти в ИИ, это ваш знак.
🧭 Навигация по библиотеке:
1. Фундамент (Для старта):
Foundations of Machine Learning — база алгоритмов.
Understanding Deep Learning — самый наглядный современный учебник. Если пугает математика, начинайте здесь.
Algorithms for ML — как устроены «внутренности» моделей.
2. Глубокое обучение (Deep Learning):
Deep Learning — легендарная «библия» DL. По ней училось всё нынешнее поколение топ-инженеров.
Probabilistic ML — всё о том, как заставить ИИ работать с неопределенностью.
3. Обучение с подкреплением (RL) — разум машин:
RL Basics — абсолютный стандарт. Без этой книги в RL делать нечего.
Multi-Agent Systems — как обучать целые группы агентов взаимодействовать друг с другом.
4. Этика и будущее:
Fairness in ML — как избежать предвзятости и сделать ИИ справедливым.
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14❤4👍2🎉2🙏2
🛠 Git Submodules: как не плодить копипасту в ML-проектах
Представьте: у вас три команды (Fraud Detection, Credit Scoring и Trading). Всем им нужна одна и та же функция
Обычно это превращается в кошмар:
1. Команды копируют код себе.
2. Одна команда находит баг и исправляет его.
3. Остальные два проекта остаются с багами, потому что даже не знают об исправлении.
Итог: «расползание» версий (version drift) и ошибки в продакшене.
✅ Решение: Git Submodules
Это способ вставить одну Git-репозиторий внутрь другого как подпапку. Вы не копируете код, а ссылаетесь на конкретный коммит в общем репозитории библиотек.
🚀 Шпаргалка по командам
1. Добавить общую библиотеку в проект:
Это создаст папку
2. Клонировать проект со всеми зависимостями:
Если вы просто сделаете
3. Обновить общие утилиты до последней версии:
📍 Навигация: Вакансии • Задачи • Собесы
🐸 Библиотека дата-сайентиста
#буст
Представьте: у вас три команды (Fraud Detection, Credit Scoring и Trading). Всем им нужна одна и та же функция
calculate_risk_score().Обычно это превращается в кошмар:
1. Команды копируют код себе.
2. Одна команда находит баг и исправляет его.
3. Остальные два проекта остаются с багами, потому что даже не знают об исправлении.
Итог: «расползание» версий (version drift) и ошибки в продакшене.
✅ Решение: Git Submodules
Это способ вставить одну Git-репозиторий внутрь другого как подпапку. Вы не копируете код, а ссылаетесь на конкретный коммит в общем репозитории библиотек.
🚀 Шпаргалка по командам
1. Добавить общую библиотеку в проект:
git submodule add https://github.com/user/ml-utils.git ml-utils
Это создаст папку
ml-utils/ и файл .gitmodules, где прописана ссылка на репозиторий.2. Клонировать проект со всеми зависимостями:
Если вы просто сделаете
git clone, папка с сабмодулем будет пустой. Нужно так:
git clone --recurse-submodules https://github.com/user/main-project.git
3. Обновить общие утилиты до последней версии:
git submodule update --remote ml-utils
git add ml-utils
git commit -m "Update shared ML utils"
📍 Навигация: Вакансии • Задачи • Собесы
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤4🙏3🎉1
🎓 PaperDebugger: личный ИИ-соавтор прямо в Overleaf
Написание научной статьи — это бесконечный цикл правок и споров с «Рецензентом №2». Проект PaperDebugger ломает эту стену, внедряя продвинутого ИИ-ассистента прямо в редактор Overleaf.
В основе проекта лежит уникальный движок на базе MCP (Model Context Protocol). Он имитирует полный рабочий процесс ученого: Исследование → Критика → Ревизия.
Основные фишки:
— Работает как расширение Chrome. Читает ваш проект и дает советы, не выходя из вкладки.
— Модель анализирует текст глазами строгого рецензента конференции.
— Проверка цитат, верификация литературы и глубокая работа с предметной областью.
— Инструмент только читает ваш код и предлагает правки. Окончательное решение и вставка — всегда за вами (Instant Insert).
🔗 Репозиторий проекта: https://clc.to/rfexYQ
📍 Навигация: Вакансии • Задачи • Собесы
Библиотека дата-сайентиста
#буст
Написание научной статьи — это бесконечный цикл правок и споров с «Рецензентом №2». Проект PaperDebugger ломает эту стену, внедряя продвинутого ИИ-ассистента прямо в редактор Overleaf.
В основе проекта лежит уникальный движок на базе MCP (Model Context Protocol). Он имитирует полный рабочий процесс ученого: Исследование → Критика → Ревизия.
Основные фишки:
— Работает как расширение Chrome. Читает ваш проект и дает советы, не выходя из вкладки.
— Модель анализирует текст глазами строгого рецензента конференции.
— Проверка цитат, верификация литературы и глубокая работа с предметной областью.
— Инструмент только читает ваш код и предлагает правки. Окончательное решение и вставка — всегда за вами (Instant Insert).
🔗 Репозиторий проекта: https://clc.to/rfexYQ
📍 Навигация: Вакансии • Задачи • Собесы
Библиотека дата-сайентиста
#буст
❤5👍2🥰2