Python вопросы с собеседований
25.3K subscribers
655 photos
80 videos
17 files
533 links
Вопросы с собеседований по Python

@workakkk - админ

@machinelearning_interview - вопросы с собесдований по Ml

@pro_python_code - Python

@data_analysis_ml - анализ данных на Python

@itchannels_telegram - 🔥 главное в ит

РКН: clck.ru/3FmrFd
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Как клонировать любой голос с Qwen3

Если нужен свой голос для бота, ассистента или озвучки — можно использовать Qwen3-TTS.
Модель генерирует речь и умеет подстраиваться под голос по короткому аудио-примеру.

Подходит для:
- voice-ботов
- персональных ассистентов
- озвучки видео
- генерации речи в одном стиле

Как использовать:
1. Подготовь чистый аудио-пример (5–15 секунд)
2. Передай его как reference
3. Генерируй речь из текста в нужном голосе


Установка
pip install transformers soundfile accelerate

Пример использования Qwen3-TTS CustomVoice
import torch
import soundfile as sf
from transformers import AutoProcessor, AutoModel

model_id = "Qwen/Qwen3-TTS-12Hz-1.7B-CustomVoice"

processor = AutoProcessor.from_pretrained(model_id)
model = AutoModel.from_pretrained(model_id, torch_dtype=torch.float16).cuda()

text = "Привет! Это тест кастомного голоса."
reference_audio = "voice_sample.wav" # 5–15 секунд вашего голоса

inputs = processor(
text=text,
reference_audio=reference_audio,
return_tensors="pt"
).to("cuda")

with torch.no_grad():
audio = model.generate(**inputs)

sf.write("output.wav", audio.cpu().numpy(), samplerate=24000)

print("Voice generated: output.wav")

Модель:
https://huggingface.co/Qwen/Qwen3-TTS-12Hz-1.7B-CustomVoice
7👍2👎2
🐍 Вышли новые security-релизы Python:

- Python 3.12.13
- Python 3.11.15
- Python 3.10.20

Это обновления безопасности для поддерживаемых веток Python.

Важно: эти версии уже находятся в стадии security-fix only, поэтому релизы выходят нерегулярно и содержат в основном исправления уязвимостей и критических багов.

Что исправили:

1. Усилена безопасность HTML-парсера

html.parser.HTMLParser стал устойчивее к вредоносной разметке и теперь корректно обрабатывает дополнительные RAWTEXT/PLAINTEXT элементы, включая:

- plaintext
- xmp
- iframe
- noembed
- noframes
- noscript (опционально)
2. Исправление проблемы памяти в SSL

Устранён use-after-free в модуле ssl, который мог возникать при ошибке SSL_new().
3. Исправления безопасности для списков

Закрыты несколько уязвимостей, включая:

- use-after-free при сравнении списков
- выход за границы памяти при slice-операциях в списках

Эти исправления особенно важны для систем, работающих с параллельными или специально сформированными входными данными.

Если вы используете Python 3.10 / 3.11 / 3.12, рекомендуется обновиться.

Подробнее:
https://blog.python.org/2026/03/python-31213-31115-31020/
6👍3🔥2
✔️ OpenAI хантит таланты через конкурс Parameter Golf.

Компания открыла публичное соревнование для исследователей с крайне жесткими техническими ограничениями. Участникам предстоит создать максимально эффективную языковую модель, при этом размер весов вместе с кодом для обучения не должен превышать 16 МБ. На сам процесс тренировки отводится строго до 10 минут на кластере из восьми видеокарт H100. Эффективность алгоритмов будет оцениваться на сете FineWeb.

Цель челленджа - поиск нестандартно мыслящих инженеров. Авторы лучших проектов получат приглашения на собеседование. Дополнительным стимулом станет призовой фонд в 1 млн. долларов, который распределят в виде грантов на аренду копьюта у провайдера Runpod.

На GitHub уже опубликованы базовые решения (https://github.com/openai/parameter-golf), проверочные скрипты и публичный лидерборд. Принять участие в конкурсе можно до 30 апреля.

https://openai.com/index/parameter-golf/

🐍 Python полезные ресурсы 🚀Max

#news #ai #ml #openai #chatgpt
9🔥5👍2😁1
А вы любите животных ?
😁6🍌3
🔥 Полезная подборка каналов только код, практика и самые передовые инструменты, которые используют разработчики прямо сейчас.👇

🖥 ИИ: t.me/ai_machinelearning_big_data

🖥 Python: t.me/pythonl

🖥 Linux: t.me/linuxacademiya

🖥 C++ t.me/cpluspluc

🖥 Docker: t.me/DevopsDocker

🖥 Хакинг: t.me/linuxkalii

🖥 Devops: t.me/DevOPSitsec

👣 Golang: t.me/Golang_google

🖥 Аналитика: t.me/data_analysis_ml

🖥 Javascript: t.me/javascriptv

🖥 C#: t.me/csharp_ci

🖥 Java: t.me/javatg

🖥 Базы данных: t.me/sqlhub

👣 Rust: t.me/rust_code

🤖 Технологии: t.me/vistehno

💰 Экономика и инвестиции в ИИ t.me/financeStable

💼 Актуальные вакансии: t.me/addlist/_zyy_jQ_QUsyM2Vi


🖥Подборка по Golang: https://xn--r1a.website/addlist/MUtJEeJSxeY2YTFi
⚡️ Лучшие ИИ ресурсы: https://xn--r1a.website/addlist/2Ls-snqEeytkMDgy

Max ИИ: https://max.ru/ai_machinelearning_big_data
Max Ml: https://max.ru/vistehno
Max python: https://max.ru/pythonl
Max Go: https://max.ru/Golang_google
Max Linux: https://max.ru/linuxkalii
Max Java: https://max.ru/javatg
Max Sql: https://max.ru/sqlhub
Max Devops: https://max.ru/DevOPSitsec
Анализ данных: https://max.ru/data_analysis_ml
C++ : https://max.ru/cpluspluc
C#: https://max.ru/csharp_ci

🖥 Chatgpt бот в тг: t.me/Chatgpturbobot
📚 Бесплатные ит-книги: https://xn--r1a.website/addlist/HwywK4fErd8wYzQy
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍2🔥2
🔍 Сканер навыков AI от Cisco

Skill Scanner -это инструмент для анализа безопасности навыков AI-агентов, который выявляет инъекции команд, утечку данных и вредоносные коды.

Он использует комбинированный подход с паттерн-детекцией, анализом данных и оценкой на основе LLM для надежного обнаружения угроз.

🚀 Основные моменты:
- Многоуровневая детекция: статический анализ, поведенческий анализ и LLM
- Фильтрация ложных срабатываний для повышения точности
- Поддержка CI/CD с выводом SARIF для GitHub
- Расширяемая архитектура для пользовательских анализаторов

📌 GitHub: https://github.com/cisco-ai-defense/skill-scanner

#python
👍3
🤖 nanobot: Легкий персональный AI-ассистент

nanobot — это ультра-легкий AI-ассистент с минимальным кодом (~4000 строк), который обеспечивает основные функции, вдохновленные Clawdbot. Он прост в использовании и идеально подходит для исследований благодаря чистому и понятному коду.

🚀Основные моменты:
- Ультра-легкий: всего ~4000 строк кода
- Быстрый старт и низкое потребление ресурсов
- Поддержка Telegram и WhatsApp для общения
- Легкость в модификации и расширении

📌 GitHub: https://github.com/HKUDS/nanobot

#python
👍2
🔥 TorchCode: Практика для собеседований по PyTorch

TorchCode предлагает структурированную среду для тренировки навыков программирования, необходимых для собеседований в области машинного обучения. Решайте задачи по реализации операторов и архитектур, получая мгновенную обратную связь и подсказки.

🚀Основные моменты:
- 40 задач, часто встречающихся на собеседованиях
- Автоматическая проверка корректности и производительности
- Мгновенная обратная связь по каждому тесту
- Подсказки и эталонные решения для изучения
- Возможность запуска в браузере без установки

📌 GitHub: https://github.com/duoan/TorchCode

#python
4
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Умные агенты с OpenSpace: эволюция и экономия 💰

OpenSpace — это движок, который позволяет AI-агентам учиться и развиваться, превращая каждую задачу в возможность для улучшения. Он объединяет навыки, которые автоматически адаптируются и улучшаются, обеспечивая совместное использование знаний между агентами.

🚀 Основные моменты:
- Саморазвивающиеся навыки, которые учатся на реальном опыте
- Совместный интеллект: улучшения одного агента доступны всем
- Снижение затрат на 46% благодаря более эффективному использованию токенов
- Легкость в обмене навыками между агентами
- Реальные результаты: агенты зарабатывают в 4.2 раза больше

📌 GitHub: https://github.com/HKUDS/OpenSpace

#python
👍2
🚀 Tencent выкатывает Covo-Audio (7B) - новый уровень голосовых AI.

Это уже не просто “распознал → ответил → озвучил”.

Модель умеет говорить и слушать одновременно.

Что внутри:

• Qwen2.5-7B + Whisper
• 8 млн часов аудио обучения
• full-duplex — диалог без пауз

Главное отличие:

Нет отдельных пайплайнов ASR и TTS.
→ всё работает как единая модель

Что это даёт:
• можно перебивать (barge-in)
• естественный разговор, как с человеком
• меньше задержек
• меньше костылей в архитектуре

Отдельно:

Разделение интеллекта и голоса
→ проще делать voice cloning
→ гибкость под разные сценарии

Тренд очевиден:

AI переходит от “голосовых интерфейсов”
→ к полноценному живому диалогу

Скоро кнопка “нажми и говори” исчезнет совсем.

Модель: https://huggingface.co/tencent/Covo-Audio-Chat
🔥21
🚀 Google DeepMind представила Gemma 4
Новое семейство открытых моделей, которые можно запускать на собственном железе.
Четыре размера:

31B Dense & 26B MoE - топовые результаты для сложных локальных задач: кастомные ассистенты, анализ научных данных
E4B & E2B (Edge) — для мобильных устройств, поддержка текста, зрения и аудио в реальном времени

Ключевые особенности:

Заточены под продвинутый reasoning и агентные задачи (автономные агенты, планирование, многошаговые workflows)
По Arena Elo Score: Gemma 4 31B (1452) и 26B (1441) обгоняют Qwen 3.5 (1450), Kimi k2.5 (1454) и DeepSeek v3.2 (1425)

Где попробовать: Google AI Studio, Hugging Face, Kaggle, Ollama
Почему это важно: Apache 2.0 + open weights = можно файн-тюнить и деплоить без ограничений и зависимости от API. Именно это отделяет настоящий open-source релиз от «контролируемого» research drop'а.

https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/

Лицензия Apache 2.0 - полностью коммерчески свободная.

#Gemma
7🔥2
Forwarded from Machinelearning
🔥 Собери свой OpenClaw за вечер

Репозиторий, в котором разобрано устройство OpenClaw по слоям.

Это формат, которого не хватает большинству гайдов, пошаговая сборка системы, где каждый этап добавляет новый уровень сложности

Сначала обычный чат. Потом подключаются инструменты. Затем навыки, работа с вебом, память, маршрутизация задач и мультиагентная логика. В какой-то момент начинаешь ловить себя на мысли, что уже думаешь как оркестратор, а не как пользователь модели

В гайде хорошо видно, где заканчивается модель и начинается обвязка. Как строится цикл принятия решений, как агент выбирает инструменты и как вообще появляется ощущение «интеллекта»

Дает неплохое понимание архитектуры клешни.

https://github.com/czl9707/build-your-own-openclaw

@ai_machinelearning_big_data

#opensource #openclaw
🔥42👍1
Liquid AI выкатили LFM2.5-VL-450M - vision-language модель, заточенную под работу на edge-устройствах в реальном времени.

Картинка 512×512 обрабатывается за ~240мс прямо на девайсе. Этого хватает, чтобы рассуждать над каждым кадром видеопотока в 4 FPS - причем с пониманием контекста, а не просто детекцией объектов.

Ключевая идея: один инференс-пасс заменяет классическую связку детектор → классификатор → эвристики. Те самые multi-stage пайплайны, которые в продакшене до сих пор ломаются, тормозят и больно поддерживаются.

Что нового в релизе: bounding box prediction (81.28 на RefCOCO-M), мультиязычное визуальное понимание на 8 языках (MMMB подняли с 54.29 до 68.09), поддержка function calling (BFCLv4).
Работает на Jetson Orin, Samsung S25 Ultra, AMD 395+ Max. Веса открыты, облако не нужно.
Веса на HuggingFace, блог и playground - в треде Liquid AI.

huggingface.co/spaces/LiquidAI/LFM2-VL-WebGPU
5👍1
Media is too big
VIEW IN TELEGRAM
🚨 Автоматическая фабрика рилзов в одну команду

Если видел эти бесконечные видео с озвученными тредами, теперь понятно, откуда они берутся.

RedditVideoMakerBot - скрипт, который полностью автоматизирует весь пайплайн.

Ты запускаешь один Python файл и получаешь готовое видео под TikTok, Shorts или Reels.

Под капотом происходит следующее.

• Скрипт сам тянет тред из выбранного сабреддита. • Делает скриншоты через Playwright.
• Прогоняет текст через TTS.
• Подкладывает фоновое видео и собирает всё в финальный ролик с таймингами.

Без монтажа. Без таймлайна. Без ручной сборки.

Фактически это конвейер контента. Один запуск равен одному видео.

Формат уже оптимизирован под алгоритмы. Тот самый визуал, который все видят в ленте. Minecraft фон, скриншоты Reddit, синтетическая озвучка.


Репозиторий уже набрал больше 10 тысяч звёзд. Полностью open source.

https://github.com/elebumm/RedditVideoMakerBot
3👍1🔥1