Python RU
12.8K subscribers
1K photos
90 videos
40 files
1.25K links
Все для python разработчиков

админ - @notxxx1

@python_job_interview - Python собеседования

@ai_machinelearning_big_data - машинное обучение

@itchannels_telegram - 🔥лучшие ит-каналы

@programming_books_it - it книги

@pythonl

РКН: clck.ru/3Fmy2j
Download Telegram
🧠 Claude-Mem: Умная система памяти для Claude Code

Claude-Mem обеспечивает сохранение контекста между сессиями, автоматически фиксируя использование инструментов и создавая семантические резюме. Это позволяет Claude поддерживать непрерывность знаний о проектах даже после завершения сессий.

🚀 Основные моменты:
- Автоматическое сохранение контекста между сессиями
- Генерация семантических резюме
- Поддержка Claude Code
- Легкая установка через плагины

📌 GitHub: https://github.com/thedotmack/claude-mem

#javascript
5👍1
😁10
«Кодинг уже solved problem»
— говорят люди,
которые смотрят на страницу статуса Claude перед каждым деплоем.
3
Новая модель GPT-5.4 от OpenAI поднялась на 6 пунктов и разделила 1-е место в Intelligence Index вместе с Gemini 3.1 Pro Preview от Google.

Модель показывает очень сильные результаты в задачах уровня научных исследований, особенно в физике и агентном программировании, устанавливая новые рекорды по нескольким бенчмаркам.

Также у неё огромное контекстное окно — 1.05 млн токенов.

Но есть и минус.

Модель очень дорогая:

• запуск бенчмарков обошёлся почти в 3 раза дороже, чем у Gemini

• уровень галлюцинаций вырос до 89%, потому что модель слишком стремится отвечать на вопросы, даже когда не уверена.

🐍 Python полезные ресурсы 🚀Max
3👍2
Forwarded from Machinelearning
🌟 Tencent HY-WU: динамические LoRA для редактирования изображений.

Tencent HY опубликовала первую часть серии работ под названием HY-WU (Weight Unleashing). Суть метода в отказе от стандартной парадигмы адаптации, при которой модель получает один фиксированный набор весов для всех задач.

Специальная модель-генератор синтезирует LoRA отдельно под каждый входной пример прямо во время инференса, без дополнительной оптимизации на тест-тайме.

Проблема, которую решает HY-WU, хорошо знакома всем, кто работал с дообучением: когда задачи противоречат друг другу (например, "размыть" против "убрать размытие" или "состарить лицо" против "восстановить"), общий адаптер вынужден идти на компромисс.

Градиенты конфликтуют, и результат оказывается хуже, чем если бы задачи обучались раздельно.

Чтобы не быть голословными, авторы измерили это напрямую: косинусное сходство градиентов между разнородными задачами устойчиво отрицательно, среднее около −0.30, то есть задачи буквально тянут веса в противоположные стороны.


HY-WU предлагает условную генерацию параметров. Модель-генератор (8B параметров) принимает на вход совместное представление изображения и текстового запроса через энкодер SigLIP2, после чего генерирует LoRA-матрицы (~0.72B) и инжектирует их в базовую модель.

Обучение сквозное, только через downstream-loss, без предварительно собранных чекпойнтов адаптеров.

🟡Тесты и результаты

Для тестов выбрали задачу редактирования изображения текстовым запросом - в нем конфликты неизбежны и визуально очевидны.

🟢В попарном human evaluation (GSB) HY-WU выигрывает у всех топовых open-source редакторов с большим отрывом: 67–78% против Step1X, Qwen, LongCat и FLUX;

🟢Среди закрытых систем модель обошла Seedream 4.5 (55.6%) и GPT Image 1.5 (55.5%).

🟠Единственные, кто пока впереди - Nano Banana 2 и Nano Banana Pro.

Tencent проверили: прирост качества дается именно условной маршрутизацией, а не просто увеличением числа параметров. Когда генератор использовали с перемешанными или усредненными условиями, результат проваливался до уровня базовой модели.

Полный SFT с намного большим числом обучаемых параметров давал сопоставимый результат с обычным Shared LoRA, так как в обоих случаях в инференсе применяется одна фиксированная точка в пространстве весов.


Выпущенная работа - первая часть серии исследований по функциональной памяти для генеративных моделей. В планах:

🟢сравнить функциональную память с retrieval-подходами и понять, когда каждый из них уместен;

🟢разработать протоколы онлайн-обучения, при которых модель усваивает новые задачи без деградации на старых;

🟢исследовать масштабирование модели-генератора отдельно от базовой модели.

Помимо этого, в планах выйти за пределы LoRA на другие операторные интерфейсы, распространить метод на видео и агентные системы, а также проработать возможность точечно удалять поведение модели через управление состоянием генератора.

Кроме этого архиполезного исследования Tencent выложили связку из модели-генератора и базовой модели HY-Image-3.0-Instruct, поверх которой она и работает.

Поиграться этой красотой можно, если под рукой простаивает 8х40 GB или 4х80 GB VRAM.


📌Лицензирование: Tencent Hunyuan Community License.


🟡Страница проекта
🟡Prompt Handbook (китайский)
🟡Модель
🟡Техотчет
🖥Github


@ai_machinelearning_big_data

#AI #ML #ImageEdit #HYWU #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍1
🧠 Python-библиотеки для AI-агентов - сложность изучения 🔥

🟢 Легко
• LangChain
• вызов инструментов (tool calling)
• память агента
• простые агенты

• CrewAI
• агенты с ролями
• коллаборация нескольких агентов

• SmolAgents
• лёгкие агенты
• быстрые эксперименты

🟡 Средне
• LangGraph
• stateful-воркфлоу
• оркестрация агентов

• LlamaIndex
• RAG-пайплайны
• индексирование данных
• knowledge-агенты

• OpenAI Agents SDK
• интеграции инструментов
• агентные workflow

• Strands
• оркестрация агентов
• координация задач

• Semantic Kernel
• skills / плагины
• оркестрация AI-процессов

• PydanticAI
• типизированные LLM-приложения
• структурированные workflow агентов

• Langroid
• обмен сообщениями между агентами
• взаимодействие с инструментами

🔴 Сложно
• AutoGen
• мультиагентные диалоги
• автономная кооперация агентов

• DSPy
• программируемый prompting
• оптимизация LLM-пайплайнов

• A2A
• протокол agent-to-agent
• распределённые агентные системы
6👍4
😁11👍42
Forwarded from Machinelearning
🌟 OLMo Hybrid: RNN плюс трансформер в одной модели.

Институт Аллена опубликовал OLMo Hybrid 7B - модель, которая построена на чередовании слоев Gated DeltaNet и стандартного внимания в соотношении 3:1. Такая архитектура решает больше подзадач из обучающих данных за меньшее число токенов, что напрямую снижает потребность в данных при обучении.

Gated DeltaNet - это RNN с расширением в виде отрицательных значений матрицы переходов. Это небольшое изменение в правиле обновления внутреннего состояния позволяет слоям Gated DeltaNet реализовывать динамику попарной перестановки элементов и за счет этого решать задачи отслеживания состояния, недоступные чистым трансформерам.


В OLMo Hybrid Ai2 показали, что гибридные модели выразительнее суммы своих частей. Существует класс задач (назовем их отслеживание состояния с обращением к памяти), которые не решают ни чистые трансформеры, ни чистые RNN, но гибрид справляется с ними уже при одинарном чередовании типов слоев.

Абляционные эксперименты от 60M до 1B параметров показали, что GDN стабильно лучше Mamba2 как в чистом, так и в гибридном варианте, равномерное чередование слоев лучше концентрации внимания в середине сети, а соотношение 3:1 - оптимальный баланс между качеством и вычислительной стоимостью на средних и крупных масштабах.

🟡Тесты

🟢На MMLU OLMo Hybrid достигает той же точности, что OLMo 3 7B, используя на 49% меньше токенов; на срезе Common Crawl - на 35% меньше.

🟢Коэффициент эффективности использования данных у гибрида равен 83,7 против 94,9 у трансформера.

🟢Экономия данных растет с размером модели: примерно в 1,3 раза на 1B параметров и в 1,9 раза на 70B.

После дообучения и адаптации к длинному контексту OLMo Hybrid обходит OLMo 3 во всех категориях оценки. На RULER при 64k токенах - 85,0 против 70,9 у базовой модели.


📌Лицензирование: Apache 2.0 License.


🟡Статья
🟡Набор моделей
🟡Техотчет


@ai_machinelearning_big_data

#AI #ML #LLM #OLMoHybrid #Ai2
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32
⚠️ В России всё чаще блокируют Telegram и другие зарубежные сервисы.

Это значит, что многие IT-ресурсы, каналы и источники новостей могут стать недоступны в любой момент.

Если вы хотите оставаться в курсе технологий, AI и новых фреймворков, лучше заранее иметь альтернативную площадку.

Мы собрали лучшие IT-каналы в MAX, где публикуются:

новости развития AI
новые фреймворки и инструменты
полезные ресурсы для разработчиков
разборы технологий и трендов

ИИ: https://max.ru/ai_machinelearning_big_data
Max Ml: https://max.ru/vistehno
Max Python: https://max.ru/pythonl
Max Go: https://max.ru/Golang_google
Max Linux: https://max.ru/linuxkalii
Max Java: https://max.ru/javatg
Max Sql: https://max.ru/sqlhub
Max Devops: https://max.ru/DevOPSitsec
Анализ данных: https://max.ru/data_analysis_ml
C++ : https://max.ru/cpluspluc
C#: https://max.ru/csharp_ci

https://uproger.com/luchshie-kanaly-v-max-po-it-i-ii-podborka-2026-goda/
👎203😁2👍1🔥1🤯1😱1
Выпуск Java SE 26 и OpenJDK 26. Проект по интеграции поддержки JavaScript и Python в JVM

После шести месяцев разработки компания Oracle опубликовала платформу Java SE 26 (Java Platform, Standard Edition 26), в качестве эталонной реализации которой используется открытый проект OpenJDK. За исключением удаления некоторых устаревших возможностей в Java SE 26 сохранена обратная совместимость с прошлыми выпусками платформы Java - большинство ранее написанных Java-проектов без изменений будут работоспособны при запуске под управлением новой версии. Готовые для установки сборки Java SE 26 (JDK, JRE и Server JRE) подготовлены для Linux (x86_64, AArch64), Windows (x86_64) и macOS (x86_64, AArch64). Разработанная в рамках проекта OpenJDK эталонная реализация Java SE 26 полностью открыта под лицензией GPLv2 с исключениями GNU ClassPath, разрешающими динамическое связывание с коммерческими продуктами.

https://opennet.ru/65009/
2🔥2👍1
Ailia-models

Этот репозиторий содержит коллекцию предварительно обученных моделей машинного обучения, совместимых с платформой AILIA SDK. В нем представлены модели для различных задач, включая компьютерное зрение, обработку естественного языка и другие области искусственного интеллекта.

https://github.com/axinc-ai/ailia-models
2
Архитектура Docker, если убрать лишнее, выглядит очень просто:

Есть образ (image) - это слепок приложения с зависимостями.

Один раз собрал - запускаешь где угодно.

Есть контейнер (container) - это уже запущенный образ.

По сути изолированный процесс с файловой системой, сетью и настройками.

Docker Engine - сердце всей системы.
Он принимает команды через CLI/API и управляет контейнерами.

Docker Daemon - фоновый процесс, который:

• создаёт контейнеры
• запускает их
• следит за состоянием

Docker Client - то, через что ты работаешь (docker CLI).

Docker Hub / Registry - место, где хранятся образы.
Оттуда ты делаешь pull, туда - push.

Как это работает в реальности:

Ты пишешь Dockerfile →
docker build → получаешь image

docker push → отправляешь в registry

На сервере:
docker pull → скачал
docker run → запустил контейнер

Зачем это:
Одинаковая среда везде (dev = prod)
быстрый деплой без «у меня работает»
изоляция сервисов
масштабирование через контейнеры

Если упростить до одной мысли:

Docker - это не про контейнеры.
Это про предсказуемый запуск кода в любой среде.
👍81
Claude Code — это уже не просто инструмент. Это система разработки с памятью, автоматизацией и агентами.

Коротко по сути:

CLAUDE.md — мозг проекта
Хранит архитектуру, правила и контекст. Загружается автоматически.

• Skills — навыки
Позволяют автоматизировать ревью, тесты, деплой и любые процессы.

• Hooks — автодействия
Запускают проверки и действия без твоего участия.

• Agents — параллельная работа
Разбивают задачи и выполняют их одновременно.

• Workflow
plan → execute → auto
Минимум ручной работы, максимум результата.

• Структура
.claude / skills / commands / agents
Всё как у полноценной инженерной системы.

• Безопасность
permissions, sandbox, контроль доступа.

Это уже не про «спросить у ИИ».
Это про «дать задачу и получить результат».

Сохрани себе - пригодится.
👍53
☠️ Новая атака на цепочку поставок — на этот раз затронут npm-пакет axios, самый популярный HTTP-клиент с ~300 млн загрузок в неделю.

Уязвимость проявляется через зависимости: в одном из кейсов пакет подтянулся через googleworkspace/cli, использовавшийся для работы с Gmail и Google Calendar. При этом установленная версия оказалась безопасной — 1.13.5. Однако зависимость не была зафиксирована (unpinned), и при установке в другое время могла подтянуться уже заражённая версия.

Это ключевая проблема всей экосистемы: если версии не закреплены, сборка может в любой момент «подхватить» компрометированный релиз.

Частично защититься можно локальными мерами — например:
ограничивать минимальный «возраст» релизов, использовать контейнеры, проверять зависимости.

Но системно проблему должны решать сами пакетные менеджеры (pip, npm и др.), меняя дефолтное поведение. Иначе одна заражённая версия, даже если её быстро находят и удаляют, успевает разойтись по тысячам проектов через незакреплённые зависимости.

Подробный разбор:
https://stepsecurity.io/blog/axios-compromised-on-npm-malicious-versions-drop-remote-access-trojan
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1