Левашов: human intelligence powered
995 subscribers
412 photos
25 videos
4 files
1.86K links
ИТ, облака, софт, Хабр, Ai и мемы. Контент-лид в VK Tech, отвечаю за VK Cloud, Tarantool и другой технохардкор. Редактирую ИТ-компании, консультирую, учу.

По всем вопросам писать — @levashove

CC BY-NC-SA 4.0
Download Telegram
Qwen Chat и параметр temperature. Как превратить бота в стендапера (или в философа)

Начинаю серию заметок про то, как эффективнее работать с нейросетками. Сегодня про такой параметр, как temperature на примере Qwen Chat. Параметры — это внутренние переменные модели, которые обновляются во время обучения. Когда вы настраиваете temperature в Qwen Chat, вы фактически управляете его «уровнем опьянения» или «уровнем уверенности»:

➡️ 0.0 = трезвый бот-бухгалтер. Ответы предсказуемы, как реакция на «привет» в 8 утра.
➡️ 1.0+ = бот в стиле «вечеринка в IT-департаменте». Шутки рискованные, сарказм зашкаливает, но иногда он начнёт цитировать Ницше вместо ответа на вопрос.

Если в ответе нейросетка начинает бредить, но не спешите ругать модель. Попробуйте настроить temperature.

Например, как это работает с юмором/сарказмом:

⬇️ Низкая температура (0.1–0.3):
Бот шутит как технический писатель из 90-х:
«Ваша ошибка 404? Возможно, вы просто не там искали. Или вселенная сломалась.»

⬆️ Высокая температура (0.7–1.0):
Бот переходит в режим мем-криэйтера:
«Обновление ПО? Это как попытка починить тостер молотком. Иногда работает. Чаще — нет.»


❗️❗️❗️ Важно:
Сарказм ≠ хаос. Даже при высокой температуре используйте жёсткие промпты:
Ты — циничный гений, но не переходи на личности. Если пользователь спрашивает про Kubernetes, сравни его с попыткой собрать IKEA без инструкции.


Примеры настроек:
➡️ Для поддержки: temperature 0.3 + промпт Ты — злой, но компетентный саппорт. Ругайся, но решай проблему.
➡️ Для мем-канала: temperature 0.8 + промпт Ты — тролль из комментов Хабра. Объясняй сложное через мат и аналогии с пельменями.

P.S.: 👍 — если такая тема интересна. У меня много таких заметок накопилось, но казалось, что все и так про эти моменты знают.

#QwenChat #нейросети
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🤔1🤬1
Qwen Chat и параметр repetition_penalty. Как сделать бота упрямым попугаем (или гением импровизации)

Не откладывая в долгий ящик, продолжаю разбор параметров нейросетей. Сегодня — repetition_penalty. Если temperature отвечает за «уверенность», то этот параметр контролирует «зацикленность» бота. Представьте:

➡️ repetition_penalty=0.0 → Бот как попугай, который заучил три фразы: «Ошибка 404? Возможно, вы не там искали. Возможно, вы не там искали. Возможно, вы не там искали» .
➡️ repetition_penalty=2.0+ → Бот как гиперактивный менеджер: «Ошибка 404? Давайте проверим URL. Или перезагрузим роутер. Или сожжём сервер. Или…»

Как это работает:

⬇️ Низкий repetition_penalty (0.1–0.5):
Бот цепляется за идеи как кот за лазерную точку:
«Kubernetes сложен? Да, это как LEGO для взрослых. LEGO для взрослых, которые не читали инструкцию. Инструкция, которую написали инопланетяне»

⬆️ Высокий repetition_penalty (1.5–2.0):
Бот избегает повторов как вампир — чеснока:
«Kubernetes сложен? Представьте: вы управляете оркестром, где музыканты — контейнеры, а дирижёр — YAML-файл. И все пьют кофе. Или нет»

❗️❗️❗️ Важно:
Повторы ≠ бесполезность. Даже при низком repetition_penalty ставьте рамки:
Ты — упрямый гуру. Повторяй мысли, но не превращай диалог в мантру. Если пользователь спрашивает про CI/CD, не пиши 'pipeline' больше трёх раз.  


Примеры настроек:
➡️ Для поддержки: repetition_penalty=1.2 + промпт Ты — терпеливый саппорт. Объясняй по-разному, но не повторяйся. Если пользователь кричит 'ничего не работает', не пиши 'перезагрузите ПК' 10 раз.
➡️ Для креатива: repetition_penalty=0.7 + промпт Ты — поэт-постмодернист. Повторяй метафоры, чтобы запутать. Если спрашивают про ИИ, сравни его с 'чёрной дырой в кроссовках' трижды за ответ.

#QwenChat #нейросети
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🔥1🤯1🤣1
Qwen Chat и параметры top_p и top_k: Как научить бота выбирать слова (не как кота с клавиатурой)

Продолжаем разбирать параметры нейросетей. Сегодня — top-p и top-k, которые отвечают за то, как бот подбирает слова.

Как это работает:


top_k — ограничивает выбор до k лучших вариантов на каждом шаге генерации:
➡️ top_k=1 → Бот как попугай: «Ошибка 404? Возможно, вы не там искали. Возможно, вы не там искали. Возможно…»
➡️ top_k=50 → Бот как гурман: «Ошибка 404? Может, сервер устал, URL сломался, или вы просто ненавидите документацию?»

top-p — определяет, какая доля самых вероятных слов учитывается:
➡️ top-p=0.1 → Бот экономит трафик: «Проблема с кодом? Сделайте так: перезагрузите, проверьте логи, и… всё.»
➡️ top-p=0.9 → Бот как философ: «Проблема с кодом? Это как путешествие: иногда нужен debug, иногда — медитация, а иногда — увольнение.»

❗️❗️❗️Важно:
Не переборщите с креативностью. Если top-p > 0.9, бот начнёт спорить о смысле жизни вместо ответа на «как настроить Nginx».
Комбо-удар: Используйте top-k=20 + top-p=0.7 для баланса между безумием и логикой.

Примеры настроек:
Для поддержки:
top-k=10, top-p=0.5  
Ты — саппорт-минималист. Отвечай чётко, без лишних деталей. Если пользователь спрашивает про Docker, не рассказывай про детство создателя.

Для мем-канала:
top-k=50, top-p=0.9  
Ты — тролль-провокатор. Шути, используй сленг, сравнивай всё с пельменями. Даже Kubernetes.


P.S.: Потерпите, про параметры осталось немного. Далее про промты буду задвигать.)

#QwenChat #нейросети
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥1🤔1
Qwen Chat и параметры presence_penalty и frequency_penalty: Как научить бота не повторяться (и не сходить с ума)

Продолжаем разбирать тонкости настройки нейросетей. Сегодня — два параметра, которые спасут вас от бота-попугая и бота-шизофреника: presence_penalty и frequency_penalty.

Как это работает:

presence_penalty — штрафует за упоминание новых тем (увеличивает разнообразие):
➡️ presence_penalty=0.0 → Бот зацикливается на одной теме:
«Kubernetes? Это круто. Kubernetes рулит. Kubernetes — будущее. Кстати, Kubernetes…»
➡️ presence_penalty=1.0+ → Бот перескакивает с темы на тему как гиперактивный подросток:
«Kubernetes? А вы слышали про космических крабов? Они тоже живут в облаках!»

frequency_penalty — штрафует за частое повторение слов
➡️ frequency_penalty=0.0 → Бот повторяет слова как заевшая пластинка:
«Ошибка 404? Возможно, вы не там искали. Возможно, не там. Возможно.»
➡️ frequency_penalty=1.0+ → Бот избегает повторов, как вампир — чеснока:
«Ошибка 404? Может, страница в параллельной вселенной. Или вы забыли Wi-Fi включить.»

Как это работает вместе:
Низкие значения (0.1–0.3): Бот — как дедушка с деменцией: «Я уже рассказывал про Docker? А, ну тогда ещё раз…»
Высокие значения (0.7–1.0): Бот — как ведущий квиза: «Docker? Отлично! Теперь давайте про космос. Или котиков. Но не Docker.»

❗️❗️❗️Важно:
Не переборщите с presence_penalty > 1.0 — бот начнёт спорить о космосе вместо ответа на вопрос про настройку Nginx.
frequency_penalty=1.0 — идеально для борьбы с мантрами вроде «перезагрузите роутер, перезагрузите роутер…» .

Примеры настроек:
Для техподдержки:
presence_penalty=0.5, frequency_penalty=0.8  
"Ты — терпеливый саппорт. Объясняй разными словами, но не повторяйся. Если пользователь кричит 'ничего не работает', не пиши 'перезагрузите ПК' 10 раз."

Для креатива:
presence_penalty=1.2, frequency_penalty=0.3  
"Ты — поэт-экспериментатор. Повторяй метафоры, но меняй темы. Если спрашивают про ИИ, сравни его с 'чёрной дырой в кроссовках' трижды за ответ."


#QwenChat #нейросети
Please open Telegram to view this post
VIEW IN TELEGRAM
👍31