Ну по под ночь сегодняшняя новость про деньги. Хотя это скорее про тренды.
Telegram
VK Tech
📣 Финансовые итоги VK Tech в 2024 году
2024 был годом роста и укрепления: мы усилили свои позиции за счет масштабирования клиентской базы и выхода на более высокую выручку. Делимся ключевыми финансовыми и операционными итогами в цифрах.
✅ Выручка выросла…
2024 был годом роста и укрепления: мы усилили свои позиции за счет масштабирования клиентской базы и выхода на более высокую выручку. Делимся ключевыми финансовыми и операционными итогами в цифрах.
✅ Выручка выросла…
🤬3👍2❤1
Forwarded from Вокруг Kubernetes в VK
Новая история VK Tech
В последние несколько лет VK Tech показывает мощный рост: мы вошли в число самых быстрорастущих ИТ-компаний России, 20+ продуктов входят в реестр отечественного ПО, а в команде уже 1400+ сотрудников.
Мы решили, что достигли той отметки, когда пора заводить собственный блог на Хабре, чтобы выпускать ещё больше контента про облака, железо, данные, K8s, LLM и делиться опытом разработки наших сервисов.
В первом материале рассказали, как проходил наш InnerSource-хакатон, сколько мы собрали идей, и какие проекты стали победителями.
➜ Подписывайтесь на блог VK Tech на Хабр
В последние несколько лет VK Tech показывает мощный рост: мы вошли в число самых быстрорастущих ИТ-компаний России, 20+ продуктов входят в реестр отечественного ПО, а в команде уже 1400+ сотрудников.
Мы решили, что достигли той отметки, когда пора заводить собственный блог на Хабре, чтобы выпускать ещё больше контента про облака, железо, данные, K8s, LLM и делиться опытом разработки наших сервисов.
В первом материале рассказали, как проходил наш InnerSource-хакатон, сколько мы собрали идей, и какие проекты стали победителями.
➜ Подписывайтесь на блог VK Tech на Хабр
👍2😁2❤1🔥1🤬1
Qwen Chat и параметр temperature. Как превратить бота в стендапера (или в философа)
Начинаю серию заметок про то, как эффективнее работать с нейросетками. Сегодня про такой параметр, как
➡️ 0.0 = трезвый бот-бухгалтер. Ответы предсказуемы, как реакция на «привет» в 8 утра.
➡️ 1.0+ = бот в стиле «вечеринка в IT-департаменте». Шутки рискованные, сарказм зашкаливает, но иногда он начнёт цитировать Ницше вместо ответа на вопрос.
Если в ответе нейросетка начинает бредить, но не спешите ругать модель. Попробуйте настроить
Например, как это работает с юмором/сарказмом:
⬇️ Низкая температура (0.1–0.3):
Бот шутит как технический писатель из 90-х:
«Ваша ошибка 404? Возможно, вы просто не там искали. Или вселенная сломалась.»
⬆️ Высокая температура (0.7–1.0):
Бот переходит в режим мем-криэйтера:
«Обновление ПО? Это как попытка починить тостер молотком. Иногда работает. Чаще — нет.»
❗️ ❗️ ❗️ Важно:
Сарказм ≠ хаос. Даже при высокой температуре используйте жёсткие промпты:
Примеры настроек:
➡️ Для поддержки:
➡️ Для мем-канала:
P.S.: 👍 — если такая тема интересна. У меня много таких заметок накопилось, но казалось, что все и так про эти моменты знают.
#QwenChat #нейросети
Начинаю серию заметок про то, как эффективнее работать с нейросетками. Сегодня про такой параметр, как
temperature
на примере Qwen Chat. Параметры — это внутренние переменные модели, которые обновляются во время обучения. Когда вы настраиваете temperature
в Qwen Chat, вы фактически управляете его «уровнем опьянения» или «уровнем уверенности»:Если в ответе нейросетка начинает бредить, но не спешите ругать модель. Попробуйте настроить
temperature
.Например, как это работает с юмором/сарказмом:
Бот шутит как технический писатель из 90-х:
«Ваша ошибка 404? Возможно, вы просто не там искали. Или вселенная сломалась.»
Бот переходит в режим мем-криэйтера:
«Обновление ПО? Это как попытка починить тостер молотком. Иногда работает. Чаще — нет.»
Сарказм ≠ хаос. Даже при высокой температуре используйте жёсткие промпты:
Ты — циничный гений, но не переходи на личности. Если пользователь спрашивает про Kubernetes, сравни его с попыткой собрать IKEA без инструкции.
Примеры настроек:
temperature 0.3
+ промпт Ты — злой, но компетентный саппорт. Ругайся, но решай проблему.
temperature 0.8
+ промпт Ты — тролль из комментов Хабра. Объясняй сложное через мат и аналогии с пельменями.
P.S.: 👍 — если такая тема интересна. У меня много таких заметок накопилось, но казалось, что все и так про эти моменты знают.
#QwenChat #нейросети
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🤔1🤬1
Qwen Chat и параметр repetition_penalty. Как сделать бота упрямым попугаем (или гением импровизации)
Не откладывая в долгий ящик, продолжаю разбор параметров нейросетей. Сегодня —
➡️
➡️
Как это работает:
⬇️ Низкий
Бот цепляется за идеи как кот за лазерную точку:
«Kubernetes сложен? Да, это как LEGO для взрослых. LEGO для взрослых, которые не читали инструкцию. Инструкция, которую написали инопланетяне»
⬆️ Высокий
Бот избегает повторов как вампир — чеснока:
«Kubernetes сложен? Представьте: вы управляете оркестром, где музыканты — контейнеры, а дирижёр — YAML-файл. И все пьют кофе. Или нет»
❗️ ❗️ ❗️ Важно:
Повторы ≠ бесполезность. Даже при низком
Примеры настроек:
➡️ Для поддержки:
➡️ Для креатива:
#QwenChat #нейросети
Не откладывая в долгий ящик, продолжаю разбор параметров нейросетей. Сегодня —
repetition_penalty
. Если temperature
отвечает за «уверенность», то этот параметр контролирует «зацикленность» бота. Представьте:repetition_penalty=0.0
→ Бот как попугай, который заучил три фразы: «Ошибка 404? Возможно, вы не там искали. Возможно, вы не там искали. Возможно, вы не там искали» .repetition_penalty=2.0+
→ Бот как гиперактивный менеджер: «Ошибка 404? Давайте проверим URL. Или перезагрузим роутер. Или сожжём сервер. Или…»Как это работает:
repetition_penalty
(0.1–0.5):Бот цепляется за идеи как кот за лазерную точку:
«Kubernetes сложен? Да, это как LEGO для взрослых. LEGO для взрослых, которые не читали инструкцию. Инструкция, которую написали инопланетяне»
repetition_penalty
(1.5–2.0):Бот избегает повторов как вампир — чеснока:
«Kubernetes сложен? Представьте: вы управляете оркестром, где музыканты — контейнеры, а дирижёр — YAML-файл. И все пьют кофе. Или нет»
Повторы ≠ бесполезность. Даже при низком
repetition_penalty
ставьте рамки:Ты — упрямый гуру. Повторяй мысли, но не превращай диалог в мантру. Если пользователь спрашивает про CI/CD, не пиши 'pipeline' больше трёх раз.
Примеры настроек:
repetition_penalty=1.2
+ промпт Ты — терпеливый саппорт. Объясняй по-разному, но не повторяйся. Если пользователь кричит 'ничего не работает', не пиши 'перезагрузите ПК' 10 раз
.repetition_penalty=0.7
+ промпт Ты — поэт-постмодернист. Повторяй метафоры, чтобы запутать. Если спрашивают про ИИ, сравни его с 'чёрной дырой в кроссовках' трижды за ответ
.#QwenChat #нейросети
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🔥1🤯1🤣1
Qwen Chat и параметры top_p и top_k: Как научить бота выбирать слова (не как кота с клавиатурой)
Продолжаем разбирать параметры нейросетей. Сегодня —
Как это работает:
➡️
➡️
➡️
➡️
❗️ ❗️ ❗️ Важно:
Не переборщите с креативностью. Если
Комбо-удар: Используйте
Примеры настроек:
Для поддержки:
Для мем-канала:
P.S.: Потерпите, про параметры осталось немного. Далее про промты буду задвигать.)
#QwenChat #нейросети
Продолжаем разбирать параметры нейросетей. Сегодня —
top-p
и top-k
, которые отвечают за то, как бот подбирает слова. Как это работает:
top_k
— ограничивает выбор до k лучших вариантов на каждом шаге генерации:top_k=1
→ Бот как попугай: «Ошибка 404? Возможно, вы не там искали. Возможно, вы не там искали. Возможно…»top_k=50
→ Бот как гурман: «Ошибка 404? Может, сервер устал, URL сломался, или вы просто ненавидите документацию?»top-p
— определяет, какая доля самых вероятных слов учитывается:top-p=0.1
→ Бот экономит трафик: «Проблема с кодом? Сделайте так: перезагрузите, проверьте логи, и… всё.»top-p=0.9
→ Бот как философ: «Проблема с кодом? Это как путешествие: иногда нужен debug, иногда — медитация, а иногда — увольнение.»Не переборщите с креативностью. Если
top-p
> 0.9, бот начнёт спорить о смысле жизни вместо ответа на «как настроить Nginx».Комбо-удар: Используйте
top-k=20
+ top-p=0.7
для баланса между безумием и логикой.Примеры настроек:
Для поддержки:
top-k=10, top-p=0.5
Ты — саппорт-минималист. Отвечай чётко, без лишних деталей. Если пользователь спрашивает про Docker, не рассказывай про детство создателя.
Для мем-канала:
top-k=50, top-p=0.9
Ты — тролль-провокатор. Шути, используй сленг, сравнивай всё с пельменями. Даже Kubernetes.
P.S.: Потерпите, про параметры осталось немного. Далее про промты буду задвигать.)
#QwenChat #нейросети
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥1🤔1
Как избежать разработки разных версий одного и того же продукта? Как удовлетворить всех клиентов из разных бизнес-сегментов? Ответ — кросс-бизнес-разработка.
Поделились на Хабре нашей экспертизой по этому направлению. Прочитайте, если интересно, к каким проблемам приходит бигтех и как их решает.
#vktech
Поделились на Хабре нашей экспертизой по этому направлению. Прочитайте, если интересно, к каким проблемам приходит бигтех и как их решает.
#vktech
👍2🔥1🤬1
Qwen Chat и параметры presence_penalty и frequency_penalty: Как научить бота не повторяться (и не сходить с ума)
Продолжаем разбирать тонкости настройки нейросетей. Сегодня — два параметра, которые спасут вас от бота-попугая и бота-шизофреника:
Как это работает:
➡️
«Kubernetes? Это круто. Kubernetes рулит. Kubernetes — будущее. Кстати, Kubernetes…»
➡️
«Kubernetes? А вы слышали про космических крабов? Они тоже живут в облаках!»
➡️
«Ошибка 404? Возможно, вы не там искали. Возможно, не там. Возможно.»
➡️
«Ошибка 404? Может, страница в параллельной вселенной. Или вы забыли Wi-Fi включить.»
Как это работает вместе:
Низкие значения (0.1–0.3): Бот — как дедушка с деменцией: «Я уже рассказывал про Docker? А, ну тогда ещё раз…»
Высокие значения (0.7–1.0): Бот — как ведущий квиза: «Docker? Отлично! Теперь давайте про космос. Или котиков. Но не Docker.»
❗️ ❗️ ❗️ Важно:
Не переборщите с presence_penalty > 1.0 — бот начнёт спорить о космосе вместо ответа на вопрос про настройку Nginx.
frequency_penalty=1.0 — идеально для борьбы с мантрами вроде «перезагрузите роутер, перезагрузите роутер…» .
Примеры настроек:
Для техподдержки:
Для креатива:
#QwenChat #нейросети
Продолжаем разбирать тонкости настройки нейросетей. Сегодня — два параметра, которые спасут вас от бота-попугая и бота-шизофреника:
presence_penalty
и frequency_penalty
.Как это работает:
presence_penalty
— штрафует за упоминание новых тем (увеличивает разнообразие):presence_penalty=0.0
→ Бот зацикливается на одной теме:«Kubernetes? Это круто. Kubernetes рулит. Kubernetes — будущее. Кстати, Kubernetes…»
presence_penalty=1.0+
→ Бот перескакивает с темы на тему как гиперактивный подросток:«Kubernetes? А вы слышали про космических крабов? Они тоже живут в облаках!»
frequency_penalty
— штрафует за частое повторение словfrequency_penalty=0.0
→ Бот повторяет слова как заевшая пластинка:«Ошибка 404? Возможно, вы не там искали. Возможно, не там. Возможно.»
frequency_penalty=1.0+
→ Бот избегает повторов, как вампир — чеснока:«Ошибка 404? Может, страница в параллельной вселенной. Или вы забыли Wi-Fi включить.»
Как это работает вместе:
Низкие значения (0.1–0.3): Бот — как дедушка с деменцией: «Я уже рассказывал про Docker? А, ну тогда ещё раз…»
Высокие значения (0.7–1.0): Бот — как ведущий квиза: «Docker? Отлично! Теперь давайте про космос. Или котиков. Но не Docker.»
Не переборщите с presence_penalty > 1.0 — бот начнёт спорить о космосе вместо ответа на вопрос про настройку Nginx.
frequency_penalty=1.0 — идеально для борьбы с мантрами вроде «перезагрузите роутер, перезагрузите роутер…» .
Примеры настроек:
Для техподдержки:
presence_penalty=0.5, frequency_penalty=0.8
"Ты — терпеливый саппорт. Объясняй разными словами, но не повторяйся. Если пользователь кричит 'ничего не работает', не пиши 'перезагрузите ПК' 10 раз."
Для креатива:
presence_penalty=1.2, frequency_penalty=0.3
"Ты — поэт-экспериментатор. Повторяй метафоры, но меняй темы. Если спрашивают про ИИ, сравни его с 'чёрной дырой в кроссовках' трижды за ответ."
#QwenChat #нейросети
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1
Две китайские нейросетки, с которыми можно поэкспериментировать:
➡️ MiniMax-01 — языковая модель MiniMax-Text-01 принимает и выдаёт до 4 млн токенов. Для сравнения: GPT-4o обрабатывает 128 тысяч токенов. Также есть модель для анализа фотографий MiniMax-VL-0. Чат-бот понимает русскоязычные запросы, изображения с текстом на русском языке и длинные PDF-файлы.
➡️ Kimi AI 1.5 — модель способна обрабатывать до 200 тысяч символов в одном запросе. Это особенно полезно для анализа больших документов или сложных наборов данных, содержащих несколько типов файлов. В тестах по математике и программированию Kimi 1.5 обошла GPT-4 и Claude 3.5 Sonnet.
#нейросети
#нейросети
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
Великолепное про «офис против удалёнки».
😁5🔥1🤬1
This media is not supported in your browser
VIEW IN TELEGRAM
Ещё совсем недавно вот это было «зачем в телефоне камера, он же звонить».
А вы нейросетями пользоваться не хотите.
А вы нейросетями пользоваться не хотите.
😁4
Forwarded from TechnoME: AI-powered
Ок. Вот: китайская ByteDance выпустила DreamActor-M1
Этот ИИ превращает любое изображение человека в реалистичное анимированное видео.
Здравствуйте, дорогие улучшенные дипфейки! Кстати эти дипфейки играют реалистичнее, чем новая Белоснежка (извините)
Этот ИИ превращает любое изображение человека в реалистичное анимированное видео.
Здравствуйте, дорогие улучшенные дипфейки! Кстати эти дипфейки играют реалистичнее, чем новая Белоснежка (извините)
❤4😱3🤬1