[PYTHON:TODAY]
64.1K subscribers
2.46K photos
1.12K videos
311 files
1.54K links
Python скрипты, нейросети, боты, автоматизация. Всё бесплатно!

Приват: https://boosty.to/pythontoday
YouTube: https://clck.ru/3LfJhM
Канал админа: @akagodlike
Чат: @python2day_chat

Сотрудничество: @web_runner

Канал в РКН: https://clck.ru/3GBFVm
Download Telegram
😰 Репозиторий из более чем 100+ готовых Python-скриптов, которые закрывают кучу задач — без изобретения велосипеда и ночных страданий.

💬 парсинг и поиск в интернете;
💬 работа с фото и видео;
💬 Кейлогер и менеджеры паролей;
💬 клонирование сайтов;
💬 автоматизация рутины;
💬 и ещё десятки полезных штук под реальные кейсы.

🔥 Готовая практика + код, подойдёт и для обучения, и для работы.

⬇️ Сохраняй, обязательно пригодится!

#python #soft #github
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4311🔥11
⚡️ Запускаем DeepSeek у себя на компе с помощью Python

Хочешь LLM у себя на компе: чтобы работала офлайн, не сливала данные и спокойно встраивалась в бота? Тогда берём DeepSeek Coder и запускаем!

⚙️ Установка зависимостей:
pip install -U transformers accelerate torch


▶️ Пример кода:
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

model_name = "deepseek-ai/deepseek-coder-6.7b-base"

tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(
model_name,
trust_remote_code=True,
torch_dtype=torch.float16, # если GPU поддерживает fp16
device_map="auto" # если есть GPU — будет использовать её
)
model.eval()

prompt = "Напиши telegram бота обратной связи на aiogram"

inputs = tokenizer(prompt, return_tensors="pt")
device = next(model.parameters()).device
inputs = {k: v.to(device) for k, v in inputs.items()}

with torch.inference_mode():
outputs = model.generate(
**inputs,
max_new_tokens=180,
do_sample=True, # ВАЖНО: иначе temperature не влияет
temperature=0.7,
top_p=0.9
)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))


Плюсы:
— работает локально (после скачивания весов);
— легко встраивается в Telegram/Discord/CLI;
— можно ускорить на GPU через device_map="auto".

Если памяти мало — есть квантованные версии (4bit/8bit) и GGUF.

👍 Сохраняем

#python #soft #code
Please open Telegram to view this post
VIEW IN TELEGRAM
👍111🔥2321🫡7