Forwarded from Техножрица 👩💻👩🏫👩🔧
Коллеги из команды выпустили технический отчет по обученной ими небольшой LLM под названием Гамаюн (рис.1) с 1.5B параметров и тренировкой с нуля на всего лишь 2.5T токенах: https://arxiv.org/abs/2512.21580 . Модель мультилингвальна и имеет фокус на русском языке. На ряде бенчмарков она превосходит Qwen2.5-1.5B и сравнима с Qwen3-1.7B, несмотря на то, что последние обучены на корпусах намного большего размера (18T - 36T). Модель также является SoTA на MERA (русскоязычный бенч) среди LLM размера 1-2B параметров.
К сожалению, веса в открытый доступ пока что выложить не разрешили, но должны разрешить выложить их для новой версии модели, которая ожидается через несколько месяцев. В утешение можно почитать технический отчет и узнать, как натренировать LLM с нуля с небольшим компьютом на небольшом количестве токенов! А еще можно почитать скрины диалогов с разными ранними версиями модели, полученных до полного завершения тренировки (рис. 2-10).😼 Даже жалко, что итоговая версия стала более нормисной и теперь выдает подобные приколы намного реже... 😒
#объяснения_статей
К сожалению, веса в открытый доступ пока что выложить не разрешили, но должны разрешить выложить их для новой версии модели, которая ожидается через несколько месяцев. В утешение можно почитать технический отчет и узнать, как натренировать LLM с нуля с небольшим компьютом на небольшом количестве токенов! А еще можно почитать скрины диалогов с разными ранними версиями модели, полученных до полного завершения тренировки (рис. 2-10).
#объяснения_статей
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🥴73😁17👍14💩8🔥4💊3🎉2
Я наблюдал несколько часов подряд как человек не может с Клод кодом обучить классификатор потому что решил что надо учить классификатор с помощью self play rl.
Я пожалуй останусь на своём:
"Если вы знаете что делаете то ассистенты дают х10, если вы ничерта не понимаете - вероятно у вас ничего не будет работать и будут галюцинации"
Я пожалуй останусь на своём:
"Если вы знаете что делаете то ассистенты дают х10, если вы ничерта не понимаете - вероятно у вас ничего не будет работать и будут галюцинации"
😁116💯42🤔3🔥1🌚1🙉1
Love. Death. Transformers.
Я наблюдал несколько часов подряд как человек не может с Клод кодом обучить классификатор потому что решил что надо учить классификатор с помощью self play rl. Я пожалуй останусь на своём: "Если вы знаете что делаете то ассистенты дают х10, если вы ничерта…
🤪77😁39 7🤷♂6🔥4💊3
Media is too big
VIEW IN TELEGRAM
ИИ ОТНИМАЕТ У НАС САМОЕ ДОРОГОЕ
Майнкрафт на новогодних. Чел подключил Майнкрафт к opencode и теперь ллм играет в Майнкрафт.
Github
Майнкрафт на новогодних. Чел подключил Майнкрафт к opencode и теперь ллм играет в Майнкрафт.
Github
😭60👍10🔥5🤔4🌭4💋1🗿1
Forwarded from underground (Konstantin Korolev)
X (formerly Twitter)
Konstantin (@advpropx) on X
nvfp4 moe on b200: the 142 tflops gap
benchmarked gpt-oss-20b (64e, topk=4) nvfp4 kernels.
sglang hits 1168 tflops peak.
vllm tops out at 1026 tflops.
same hardware. same model. different kernels.
dive in⬇️
benchmarked gpt-oss-20b (64e, topk=4) nvfp4 kernels.
sglang hits 1168 tflops peak.
vllm tops out at 1026 tflops.
same hardware. same model. different kernels.
dive in⬇️
🔥4
Костя написал оч технический блог про особенности инференса ллм и sglang vs vllm
https://open.substack.com/pub/advprop/p/the-142-tflops-gap-why-fp4-moe-kernel
https://open.substack.com/pub/advprop/p/the-142-tflops-gap-why-fp4-moe-kernel
Substack
The 142 TFLOPS Gap: Why FP4 MoE Kernel Engineering Matters on Blackwell
How to achieve 1.84x speedup over vLLM on small-batch inference through kernel fusion, Blackwell optimization, and expert-aware computation
🔥40💩5👍3😁2😐2
Love. Death. Transformers.
Костя написал оч технический блог про особенности инференса ллм и sglang vs vllm https://open.substack.com/pub/advprop/p/the-142-tflops-gap-why-fp4-moe-kernel
А теперь ещё и на hf самое подробное сравнение особенностей инференса Moe в vllm и sglang
https://huggingface.co/blog/apsys/blackwell-nvfp4-comparison
https://huggingface.co/blog/apsys/blackwell-nvfp4-comparison
huggingface.co
TFLOPS Gap: Why FP4 MoE Kernel Engineering Matters on Blackwell
A Blog post by Konstantin on Hugging Face
🔥29👾4💩1
Судя по stack overflow через лет эдак 50 когда зумеры начнут активно умирать мы будем жить в чем то среднем между пелевиным и wh40k, с одной стороны есть возможность крутить ultra advanced технологии умнее людей, с другой стороны они не то чтобы дают бонусы для простого обывателя (скорее наоборот)
🤔96🔥13💯9🫡5🥴4 3
Если сранивать онлифанщиц и ML/AI phd, то с одной стороны у нас хуесосы, с другой стороны люди которые реально приносят деньги
https://archive.ph/Lsk2Z
https://archive.ph/Lsk2Z
😁204 36👍12🫡2
70% задач в некоторых vlm бенчах решаются через common sense (знания текстовой тушки) и без использования картинок.
Paper
Paper
О, ты пишешь CUDA-ядра? Все уже давно на Triton. Шучу, мы все на Mojo. Мы используем cuTile. Мы используем ROCm. У нас внутренний DSL-компилятор, для NVGPU MLIR dialect, но, только что вышел Tile IR, так что теперь мы будем
использовать его. Наш PM сидит на TileLang. Тимлид была на CuTe, но теперь она снова пишет PTX вручную. Наш интерн строит на TT-Metalium для наших Wormhole’ов. Наш CFO одобрил заказ на здоровенные wafer-scale чипы, так что теперь мы портируем наши ядра на CSL. Наш CTO работает над kernel-less graph compiler’ом, так что скоро нам вообще не нужно будет писать ядра. Наш CEO думает, что мы говорим про ядро Linux. Кстати мы делаем Cursor для собак.
использовать его. Наш PM сидит на TileLang. Тимлид была на CuTe, но теперь она снова пишет PTX вручную. Наш интерн строит на TT-Metalium для наших Wormhole’ов. Наш CFO одобрил заказ на здоровенные wafer-scale чипы, так что теперь мы портируем наши ядра на CSL. Наш CTO работает над kernel-less graph compiler’ом, так что скоро нам вообще не нужно будет писать ядра. Наш CEO думает, что мы говорим про ядро Linux. Кстати мы делаем Cursor для собак.
1😁211✍18 14 11💊6💋5🤪5
Очень красивая (глаза болят потом) штука про архитектуру железок от Modal(это такой провайдер карт)
blog
blog