Python/ django
61.7K subscribers
2.37K photos
176 videos
48 files
3.12K links
по всем вопросам @haarrp

@itchannels_telegram - 🔥 все ит каналы

@ai_machinelearning_big_data -ML

@ArtificialIntelligencedl -AI

@datascienceiot - 📚

@pythonlbooks

РКН: clck.ru/3FmxmM
Download Telegram
🔧 Инструмент для тестирования безопасности

RaspyJack - это портативный инструмент для авторизованного тестирования безопасности с интерфейсом на LCD, веб-интерфейсом и интегрированной IDE для создания полезных нагрузок. Подходит для исследований и образовательных целей.

🚀 Основные моменты:
- LCD-интерфейс для управления
- Категории полезных нагрузок (разведка, перехват и др.)
- Веб-интерфейс для удаленного управления
- Интеграция инструментов DNS-спуфинга и WiFi-атак

📌 GitHub: https://github.com/7h30th3r0n3/Raspyjack

@pythonl
9🤩4👍3
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Языки программирования и их for-циклы

Ты когда-нибудь замечал, что почти все языки программирования выглядят по-разному, но внутри делают одно и то же?

Самый простой пример — обычный цикл. В Python он читается почти как английский. В C, Java и Go он выглядит как строгая формула. В Rust и Kotlin больше похож на математическую запись. А в Assembly это вообще набор инструкций для процессора.

Но смысл всегда один и тот же. Мы просто говорим компьютеру: повтори действие N раз.

🐍 Python - for i in range(n):
Java - for(int i=0;i<n;i++){}
C - for(int i=0;i<n;i++){}
🛠️ C++ - for(int i=0;i<n;i++){}
🌐 JavaScript - for(let i=0;i<n;i++){}
🛠️ C# - for(int i=0;i<n;i++){}
🐹 Go - for i:=0;i<n;i++{}
🦀 Rust - for i in 0..n {}
🐘 PHP - for($i=0;$i<$n;$i++){}
💎 Ruby - for i in 0...n do end
🐪 Kotlin - for(i in 0 until n){}
🍎 Swift - for i in 0..<n {}
🔷 TypeScript - for(let i=0;i<n;i++){}
🧮 R - for(i in 1:n){}
🐚 Bash - for ((i=0;i<n;i++)); do :; done
🧱 Dart - for(int i=0;i<n;i++){}
🎯 Scala - for(i <- 0 until n){}
🐼 Groovy - for(int i=0;i<n;i++){}
🧠 Julia - for i in 1:n end
🔧 Assembly (x86 Linux) - mov ecx,n ; loop: dec ecx ; jnz loop

Один цикл — десятки языков
🔥259👍3
Forwarded from Machinelearning
OpenAI объявила о начале развёртывания новых моделей GPT-5.4 Thinking и GPT-5.4 Pro в ChatGPT.

Также GPT-5.4 стала доступна разработчикам через API и в Codex. Новая версия объединяет несколько ключевых направлений развития моделей: улучшенное логическое рассуждение, более сильные возможности программирования и поддержку агентных сценариев работы.

Самое интересное:
• GPT-5.4 лидер в agentic tasks
• заметный скачок в математике
• очень сильный результат в научных задачах (GPQA)
• улучшена работа с веб-средой и инструментами

Фактически это модель, которую явно оптимизировали под агентов, инструменты и сложное reasoning, а не просто чат.

По словам компании, GPT-5.4 стала одной из самых точных и эффективных моделей. Она требует меньше токенов для выполнения задач и работает быстрее по сравнению с предыдущими версиями.

В версии ChatGPT модель GPT-5.4 Thinking получила улучшенный режим размышления: при более длительном анализе она лучше удерживает контекст и способна проводить более глубокие исследования в интернете.

Появилась и новая функция управления процессом ответа. Теперь пользователь может прервать генерацию в середине ответа и изменить направление работы модели, добавив новые инструкции.

Функция управления ответом уже начинает появляться в веб-версии ChatGPT и на Android. Поддержка iOS ожидается немного позже.

https://x.com/openai/status/2029620624923189283?s=46

@ai_machinelearning_big_data
👍93😁1🤩1
🔥 Вышла модель Qwen-Image-Layered-Control-V2

Новая версия инструмента для извлечения слоёв из изображений с управлением через кисть. Модель построена поверх оригинальной Qwen-Image-Layered-Control и позволяет точнее выделять элементы на иллюстрациях и постерах.

Теперь можно управлять слоями прямо на изображении:

Красная кисть показывает какой слой нужно извлечь.
Зелёная кисть отмечает что нужно удалить.
Если области пересекаются, они отображаются жёлтым.

Также продолжает работать текстовое управление:
prompt — описывает, что нужно извлечь.
negative_prompt — что нужно исключить.

Кисти и текст можно свободно комбинировать, что даёт больше контроля при работе со слоями.

Рекомендуемые настройки: около 10 шагов инференса.
Если используется управление кистью, можно поставить cfg_scale=1, чтобы значительно ускорить генерацию.

Лучше всего модель работает с постерами и иллюстрациями, где объекты изначально разделены на слои. Для фотографий с тенями и сложным освещением она не предназначена.

Модель обучена на датасете PrismLayersPro и распространяется как LoRA, которая загружается поверх базовой версии V1.

🟢Model: https://modelscope.ai/models/DiffSynth-Studio/Qwen-Image-Layered-Control-V2
🟢Dataset: https://modelscope.cn/datasets/artplus/PrismLayersPro
🟢GitHub: https://github.com/modelscope/DiffSynth-Studio

@pythonl
Please open Telegram to view this post
VIEW IN TELEGRAM
15🔥4👍1😁1
🎥 Helios: Модель генерации видео в реальном времени

Helios — это передовая модель генерации видео, способная создавать высококачественные видео длительностью в минуты с частотой 19.5 FPS на одном GPU H100. Она не использует традиционные методы борьбы с дрейфом и стандартные техники ускорения, что делает её уникальной в своем роде.

🚀Основные моменты:
- Генерация видео без анти-дрифтовых стратегий.
- Высокая скорость 19.5 FPS без стандартных ускоряющих техник.
- Оптимизация, уменьшающая потребление памяти и увеличивающая производительность.
- Поддержка нескольких моделей в рамках 80 ГБ видеопамяти.
- Официальная реализация с открытым исходным кодом.

📌 GitHub: https://github.com/PKU-YuanGroup/Helios

🐍 Python полезные ресурсы 🚀Max

@pythonl
8🔥3👍1
NiceGUI — это простой в использовании фреймворк на основе Python, который отображается в вашем веб-браузере.

Вы можете создавать кнопки, диалоговые окна, Markdown, 3D-сцены, графики и многое другое.

https://github.com/zauberzeug/nicegui

🐍 Python полезные ресурсы 🚀Max

@pythonl
👍17🔥62🤩1
Языки программирования и их инструкции импорта

🐍 Python - import module
Java - import package.Class;
C - #include <stdio.h>
🛠️ C++ - #include <iostream>
🌐 JavaScript - import module from "module"
🛠️ C# - using Namespace;
🐹 Go - import "package"
🦀 Rust - use crate::module;
🐘 PHP - require "file.php";
💎 Ruby - require "library"
🐪 Kotlin - import package.Class
🍎 Swift - import Module
🔷 TypeScript - import {x} from "module"
🧮 R - library(package)
🐚 Bash - source file.sh
🧱 Dart - import 'package:lib/lib.dart';
🎯 Scala - import package.Class
🐼 Groovy - import package.Class
🧠 Julia - using Module
🔧 Assembly (x86 Linux) - %include "file.inc"

🐍 Python полезные ресурсы 🚀Max

@pythonl
10👍5🔥3
🔥 Андрей Карпати выложил в open-source проект autoresearch.

Идея проста, но мощная: агент может запускать до 100 ML-экспериментов за ночь на одном GPU. Он сам пишет код, запускает обучение, анализирует результат, улучшает архитектуру и сохраняет только то, что работает.

Роль человека в этой системе минимальна.

Всё, что нужно поддерживать - один файл `program.md`, в котором описана стратегия исследования:
что исследовать, какие идеи приоритетнее, какие компромиссы важны.

Агент читает этот файл, рассуждает над ним и сам решает, какой эксперимент запускать следующим.

Как работает система:

- автономный git-цикл — агент коммитит каждое улучшение
- каждый эксперимент длится ровно 5 минут, чтобы сравнение было честным
- оптимизируются архитектура, гиперпараметры и оптимизатор
- человек редактирует стратегию
- агент редактирует код
- всё работает на одном GPU

Главная мысль проекта:

узкое место в AI-исследованиях - уже не вычисления, а идея эксперимента.

В autoresearch этим bottleneck становится всего один файл - program.md.

github.com/karpathy/autoresearch

🐍 Python полезные ресурсы 🚀Max

@pythonl
20👍4🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
🎙 TADA (Text Audio Dual Alignment) - речевая AI-система нового типа.

Она генерирует текст и аудио одновременно в одном синхронизированном потоке.
Это позволяет снизить галлюцинации на уровне токенов и значительно уменьшить задержку.

Что показали тесты:

0 галлюцинаций контента на 1000+ тестовых примеров
в 5 раз быстрее, чем похожие LLM-решения для TTS
намного длиннее аудио: 2048 токенов покрывают ~700 секунд речи (в обычных системах около 70 секунд)
транскрипт генерируется сразу вместе с аудио без дополнительной задержки

По сути, модель думает текстом и голосом одновременно, что делает генерацию речи быстрее и точнее.

https://huggingface.co/collections/HumeAI/tada

🐍 Python полезные ресурсы 🚀Max

@pythonl
10👍4🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Языки программирования и время, которое потребовалось для выпуска первой версии.

Многие думают, что язык программирования можно сделать быстро. Но на практике на это уходят годы. Rust разрабатывали девять лет, Kotlin и C++ около шести, Go и Java примерно пять. Даже Python готовили два года перед первым релизом.

Есть знаменитое исключение - JavaScript. Его написали всего за десять дней в 1995 году, и многие странности языка до сих пор связаны именно с такой скоростью разработки.

Это хороший пример того, что создание фундаментального инструмента требует времени и большого количества экспериментов.

🦀 Rust - 9 лет (2006 → 2015)
🤖 Kotlin - 6 лет (2010 → 2016)
⚙️ C++ - 6 лет (1979 → 1985)
Java - 5 лет (1991 → 1996)
🐹 Go - 5 лет (2007 → 2012)
🍎 Swift - 4 года (2010 → 2014)
🔧 C - 3 года (1969 → 1972)
🧬 Scala - 3 года (2001 → 2004)
📊 Julia - 3 года (2009 → 2012)
🐍 Python - 2 года (1989 → 1991)
🌐 JavaScript - 10 дней (1995)
💎 Ruby - 2 года (1993 → 1995)
🐘 PHP - 1 год (1994 → 1995)
🔷 C# - 2 года (1998 → 2000)
🎯 TypeScript - 2 года (2010 → 2012)
🎯 Dart - 2 года (2009 → 2011)
Elixir - 2 года (2011 → 2013)
🧠 Haskell - 3 года (1987 → 1990)
🧩 Objective-C - 1 год (1983 → 1984)

🐍 Python полезные ресурсы 🚀Max

@pythonl
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21👍63
😁384😢4👍1🔥1🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
🐍 Почему ошибки валидации в Python иногда так сложно найти

Чем глубже вложена структура данных, тем сложнее понять, где именно произошла ошибка.

Если использовать обычные dataclass, вы чаще всего увидите только значение, которое не прошло проверку — но не путь к полю, где возникла проблема.

В сложных вложенных структурах это превращает отладку в настоящую боль.

Pydantic решает эту проблему.

Он показывает полный путь до поля, которое вызвало ошибку — от корневой модели до конкретного атрибута.

В результате сразу понятно, где искать проблему.

Пример:


from pydantic import BaseModel, Field

class Address(BaseModel):
zip_code: str = Field(pattern=r"^\d{5}$")

class Customer(BaseModel):
name: str
address: Address

customer = Customer(
name="Alice",
address={"zip_code": "9ABC1"}
)


Ошибка будет выглядеть так:


ValidationError: address.zip_code
String should match pattern '^\d{5}$'


То есть Pydantic сразу показывает:

address.zip_code

А не просто сообщает, что «где-то внутри данных ошибка».

Для сложных JSON, API-ответов и вложенных моделей это сильно упрощает дебаг.

#Python #Pydantic #Backend #DataValidation

🐍 Python полезные ресурсы 🚀Max

@pythonl
12👍12🔥4
🖥 ByteDance только что выпустили в открытый доступ - OpenViking, и этот проект показывает, что именно не так с тем, как сегодня строят память для AI-агентов.

Вот где большинство агент-фреймворков ошибаются:

Память хранится в одном месте.
Ресурсы — в другом.
Навыки разбросаны по системе.

Когда агенту нужен контекст, обычно делают плоский векторный поиск и просто надеются на лучший результат.

Именно это и проблема. OpenViking решает её одной идеей:
рассматривать контекст агента как файловую систему.

Всё работает через единый протокол:

viking://

Память, ресурсы и навыки организованы как директории с уникальными URI.
Агент может ls, find и навигировать по контексту, как разработчик в терминале.

Главный прорыв — многоуровневая загрузка контекста:

- L0 — одно предложение для быстрого поиска
- L1 — обзор ~2000 токенов для принятия решений
- L2 — полные детали, загружаются только когда действительно нужны

Большинство агентов просто загружает всё в контекст и надеется на лучшее.

OpenViking загружает только нужные данные и только в нужный момент.

Результат:

- меньше расходов на токены
- выше точность
- быстрее работа агентов

Retrieval теперь тоже работает логичнее.

Вместо одного плоского семантического поиска:

1. сначала происходит позиционирование на уровне директорий
2. затем рекурсивный поиск внутри наиболее релевантных директорий

Можно буквально видеть траекторию поиска — это больше не чёрный ящик.

Есть и механизм самоэволюции агента.

В конце каждой сессии система автоматически:

- извлекает новые знания
- обновляет память агента
- обновляет память пользователя

То есть агент становится умнее с каждым использованием.

Проект уже имеет:

- 9K звёзд на GitHub
- 13 контрибьюторов

Разработан командой ByteDance Viking, которая строит инфраструктуру векторного поиска с 2019 года.

Проект полностью open-source под лицензией Apache 2.0.

https://github.com/volcengine/OpenViking

🐍 Python полезные ресурсы 🚀Max

@pythonl
Please open Telegram to view this post
VIEW IN TELEGRAM
17👍5🔥2
Нужны твои навыки в работе с ИИ на МТС True Tech Hack 2026!

Тебе сюда, если ты инженер данных, разработчик или системный аналитик. 1 500 000 рублей — общий призовой фонд ИТ-соревнования.

Формат: командное онлайн-соревнование с финалом в Москве. Если нет команды — поможем найти на платформе мероприятия.

Тебя ждут три задачи на выбор — каждая с уникальной технической фишкой.

Для всех финалистов — приглашение на закрытую вечеринку, а лучших участников позовут на стажировку.

Успей зарегистрироваться до 9 апреля
1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Python библиотеки для AI-агентов — что изучать

Если вы хотите разрабатывать AI-агентов на Python, важно понимать порядок изучения библиотек.

Начните с LangChain, CrewAI или SmolAgents — они позволяют быстро собрать простых агентов, подключить инструменты и протестировать идеи.

Следующий уровень — LangGraph, LlamaIndex и Semantic Kernel. Эти инструменты уже используются для production-систем: RAG, orchestration и сложные workflow.

Самый сложный уровень — AutoGen, DSPy и A2A. Они нужны для автономных мультиагентных систем и оптимизации LLM-пайплайнов.

LangChain — простые агенты, инструменты и память
github.com/langchain-ai/langchain

CrewAI — мультиагентные системы с ролями
github.com/joaomdmoura/crewAI

SmolAgents — лёгкие агенты для быстрых экспериментов
github.com/huggingface/smolagents

LangGraph — orchestration и stateful workflow
github.com/langchain-ai/langgraph

LlamaIndex — RAG и knowledge-агенты
github.com/run-llama/llama_index

Semantic Kernel — AI workflow и плагины
github.com/microsoft/semantic-kernel

AutoGen — автономные мультиагентные системы
github.com/microsoft/autogen

DSPy — оптимизация LLM-пайплайнов
github.com/stanfordnlp/dspy

A2A — протокол взаимодействия между агентами
github.com/a2aproject/A2A

🐍 Python полезные ресурсы 🚀Max

@pythonl
6👍4🔥2🎉1
ИТ-специалисты Москвы, хотите поделиться опытом?

Есть возможность рассказать студентам о том, что вы не услышали в свое время. Центральный университет как раз проводит интенсив для будущих преподавателей ИТ-специальностей — это возможность попробовать себя в роли наставника и понять, подходит вам эта деятельность или нет.

Там вы сможете:
— Связать преподавание с личными и карьерными целями.
— Отработать техники презентаций и вовлечения аудитории.
— Спроектировать и провести пару на площадке Центрального университета.
— Заручиться поддержкой экспертов с опытом в крупных ИТ-компаниях.
— Получить шанс попасть в команду преподавателей Центрального университета.

Интенсив пройдет с 22 марта по 5 апреля. Будут онлайн-встречи и очные занятия. Еще успеваете зарегистрироваться.
3👍3🔥3
Cua — это Docker для агентов, использующих компьютер — он позволяет агентам ИИ управлять полноценными операционными системами в виртуальных контейнерах и развертывать их локально или в облаке.

— Всего ~1,000 строк кода — легко читать, расширять и встраивать
— Поддержка OpenAI, Anthropic, Mistral и других LLM-провайдеров

https://github.com/trycua/cua

🐍 Python полезные ресурсы 🚀Max

@pythonl
7😁3🔥2🤩2
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Себастьян Рашка собрал в одном месте галерею архитектур современных языковых моделей.

Внутри - 40+ моделей (2024–2026):
от DeepSeek и Qwen до Nemotron и Grok.

Для каждой модели есть:

• наглядная схема архитектуры
• размер и число параметров
• тип декодера
• ссылки на технические отчёты и конфиги
• иногда даже реализации

По сути это единая карта современных LLM
, где можно быстро посмотреть, как устроены разные модели и как эволюционируют архитектуры.

https://sebastianraschka.com/llm-architecture-gallery/

🐍 Python полезные ресурсы 🚀Max

@pythonl
Please open Telegram to view this post
VIEW IN TELEGRAM
10👍3🔥3😁1
🤖 Chat an idea - get a full research paper.

Появился интересный open-source проект - AutoResearchClaw.

Это система автономного AI-ресёрча: вы просто пишете идею исследования, а агент запускает полный исследовательский цикл автоматически.

Что делает система:
• генерирует гипотезу и план исследования
• ищет и анализирует научные работы
• запускает эксперименты
• пишет код и анализирует результаты
• формирует графики и выводы
• собирает готовую научную статью

Фактически это AI-pipeline “от идеи до paper”.

Один запрос →
полный research workflow без участия человека.

Проект построен как мульти-агентная система, где разные агенты выполняют отдельные задачи: поиск литературы, эксперименты, анализ и написание текста.
Такие системы могут сильно ускорить:

• научные исследования
• ML-эксперименты
• генерацию идей и гипотез
• подготовку академических статей

https://github.com/aiming-lab/AutoResearchClaw

#AI #LLM #AIAgents #MachineLearning #Research

🐍 Python полезные ресурсы 🚀Max

@pythonl
6😁2👍1🔥1