Pavel Zloi
1.85K subscribers
561 photos
47 videos
2 files
801 links
Нейросети доступны каждому.

20 лет в IT
∈ 10 лет в разработке
∈ 3 года в ML/AI

Основатель:
https://rpa.icu

Связь:
@eprogrammist

Донат:
https://pay.cloudtips.ru/p/937f48ac

Ссылки:
https://github.com/EvilFreelancer
https://dzen.ru/a/ZGI0ytgNQUkpkIME
Download Telegram
Приехали запчасти для моего GPU-сервера, буду вечером пробовать произвести монтаж, а потом уже можно будет в полную силу на нем начать нейросеточки гонять.

#server
5🔥20
Pavel Zloi
Приехали запчасти для моего GPU-сервера, буду вечером пробовать произвести монтаж, а потом уже можно будет в полную силу на нем начать нейросеточки гонять. #server
This media is not supported in your browser
VIEW IN TELEGRAM
Подключил радиаторы, пересадил видеокарту на укороченный райзер, теперь эта странная конструкция похожа на сервер. Далее надо попробовать все это добро включить и сделать замеры температуры.

PS. Самое сложное было с металлическими прищепками по краям платформы куда крепится радиатор, все пальцы ободрал пока подключил :)

PPS. Комплект куллер+радиатор называется Снеговик M-T4, примечателен он тем, что там есть платформочка под Narrow ILM крепёж для сокета 2011.

PPPS. Первая версия сборки тут (несколько фотографий).

#server
3🔥11👍31
Приехала моя Intel Arc A770, мне эту карту очень рекомендовали, да и как можно отказаться от этой крохи, которая пусть и не самая шустрая, но занимает всего два слота и имеет на борту аж целых 16Гб VRAM.

#server #intel
🔥25👍4
Всем привет! Набросал тут лонгрид, но решил побить его на части, чтобы проще было читать, ну так вот.

Пару дней возился с моей новёхонькой видеокартой Intel Arc A770 (16Гб), многое читал и потому многое узнал об инфраструктуре Intel и про то, что нужны свежие ядра Linux (от 6.12 включительно и выше) чтобы свежие драйверы работали корректно, и про то что есть разные бренчи (Client, Data Center и FPGA) и вариации (LTS и Rolling) у этих драйверов, а ещё что драйверы под Ubuntu Devel прекрасно работают на Debian Trixie, и про Intel oneAPI подсистему.

Благо в Intel похоже работают скучные и педантичные инженеры типа меня, которые не чураются написанием документации посему разобраться с большинством проблем не составляет особого труда, всё уже разжевано и разложено по полочкам до нас, даже в некотором смысле скучно.

Но без сложности конечно же не обошлось, всё началось когда я наконец подготовил операционную систему и пошёл по тропинке машинного лёрнингизма, собственно и эту карточку для только для ML и брал, а если точнее то для Whisper.

#server #intel
🔥8👍31
Pavel Zloi
Всем привет! Набросал тут лонгрид, но решил побить его на части, чтобы проще было читать, ну так вот. Пару дней возился с моей новёхонькой видеокартой Intel Arc A770 (16Гб), многое читал и потому многое узнал об инфраструктуре Intel и про то, что нужны свежие…
Чтобы запустить в Docker-контейнере на этой видеокарте проект whisper.cpp пришлось реально попотеть, изначально пробовал сделать шептуна используя от эту инструкцию, но ничего не получалось, да и неактуальна она в отдельных местах, пошёл гуглить и нашёл пример Dockerfile, который сам по себе хоть и мало мне помог, но показал что есть официальные FROM образы от Intel на Docker Hub.

Пошёл смотреть и в этот момент предо мной разверзлись океанические бездны, оказалось у Intel есть неймспейс intel с целой россыпью разных платформ для решения ML задач в Docker, а для тех кому сложно/скучно разбираться с базовыми контейнерами есть неймспейс intelanalytics с интеграциями различных популярных проектов (к сожалению многие контейнеры тут весят от 6 до 8Гб, так что для прода такое себе).

Отдельно отмечу контейнер intel/oneapi-basekit (весит почти 4Гб) который оказался самым полезный под мои задачи, он содержит в себе всё необходимое для компиляции приложений использующих видеокарты от Intel, его ближайший аналог это контейнер nvidia/cuda с тегом devel, собственно в бейскит я и решил реализовать сборку контейнера whisper.cpp.

#server #intel
👍7🔥41
Pavel Zloi
Чтобы запустить в Docker-контейнере на этой видеокарте проект whisper.cpp пришлось реально попотеть, изначально пробовал сделать шептуна используя от эту инструкцию, но ничего не получалось, да и неактуальна она в отдельных местах, пошёл гуглить и нашёл пример…
И вот когда мне наконец удалось скомпилировать whisper-server из исходников (тег v1.7.4) испытание запуском показало краш, начал перебирать модели, оказалось, что без проблем запускаются только модели Whisper до base включительно (в смысле tiny, small и base)

Нюанс в том, что всё что выше запускаться отказывалось, бинарник крашился со странной ошибкой Bus error (core dumped) гуглёж которой ничего толкового не показал, благо в чате мне подсказали почитать док EnvironmentVariables, а в частности про:
SYCL_PI_LEVEL_ZERO_USE_IMMEDIATE_COMMANDLISTS

Оказалось, что если у этой переменной положение не 0 (а оно как-раз 1 по умолчанию на Linux) то загрузка весов модели происходит батчами, что и приводит к ошибке.

Финальный вариант Dockerfile.intel можно найти в моём репозитории docker-whisper-server, а вот для сравнения версия Dockerfile под CUDA, как видно отличия минимальны, а пример docker-compose.yml я добавил в README проекта.

UPD. Далее буду пробовать всякие разные сравнительные тесты железки супротив RTX 3050, которая находится на том же сервере, результатами тестов поделюсь отдельно.

#server #intel
5🔥161
Сегодня ко мне приехала вторая Intel Arc A770 на 16Гб, так что я скоро смогу попробовать запустить распределенное обучение через impruver.

Планирую поставить её в сервер gpu01, на нем сейчас Nvidia 3050 и Intel A770, думаю снять 3050 и поставить в gpu02 к 4090 помощницей, а на gpu01 будет две A770.

В общем вечером будет чем заняться.

#server #intel
🔥25❤‍🔥3👍1
Решил на днях увеличить количество доступной постоянной памяти для локальных моделей на gpu01.

У меня как-раз был незадействованный nvme на 512гб, только вот без адаптера в сервер его не поставить, так что пару дней сидел выбирал адаптер, и тут вспомнил, что у меня уже есть такой на антресолях.

Полез, достал, собрал, пойду поставлю.

#server
1🔥17🆒3
Поставил плашку с NVME в материнку (зеленая лампочка справа снизу) и между делом докинул пару вентиляторов корпусных на 120мм, через реобас подтюнил скорость вращения чтобы не шумело и теперь полезу ставить эту коробку на антресоль.

А на следующей неделе запущу на нем один публичный проект, о чем отдельно сообщу.

#server
2🔥26🍾2
После нескольких дней размышлений о компактности и эффективности охлаждения, принял решение заменить кулеры Снеговик M-T4 на систему жидкостного охлаждения ExeGate BlackWater-120. Причина? Высота радиаторов из комплекта Снеговика, несмотря на их достойные характеристики, они стали проблемой для установки дополнительных видеокарт в сервер gpu01.

Выбор пал на односекционную СЖО BlackWater-120, которая, по заявлениям производителя, способна справляться с процессорами до 150 ватт TDP, чего для моих трудяг, паре Intel Xeon E5-2690 v2 с TDP в 130 ватт - как-раз должно быть впору.

Ну и как не сложно догадаться, освободившееся пространство позволит поселить в сервер новых видеожильцов, но об этом в другой раз расскажу, а пока что полез на антресоль, снимать сервер чтобы поставить новый охлад, фоточки пришлю позже.

#server
6👍4🔥3
Пошкрёб по сусекам и нашкрёб ещё один сервер, назвал его lb01, его задача хостить балансировщик, проксировать запросы и держать мелочевку всякую, характеристики у него следующие:

CPU: Intel Xeon E31245 на 8х ядер
MB: ASUS P8B WS
RAM: 16Гб
GPU: 2x AMD RX570

Просто мне нужно что-то, что будет доступно независимо от того работают ли gpu машинки или нет, плюс где-то надо мониторинг настроить.

UPD. Ради забавы поставил в него пару RX570, они почти как брелок, так как не поддерживаются уже несколько лет, но мало ли, может через вулкан получится их заюзать.

UPD2. Немного истории про эту машинку тут.

#server
🔥10😁4
Решился собрать себе новый GPU сервер, вчера заказал все комплектующие, так что большая часть сервера ещё едет. На данный момент ко мне приехал только корпус ExeGate Pro 13-430 потому как он был на складе.

В видеоролике мои первые впечатления от этого корпуса.

#server
🔥107
Пришла материнская плата HUANANZHI H12D-8D, в комплекте с ней шел процессор AMD Epyc 7K62 на 48 ядер и 128 гб оперативной памяти.

Процессор выглядит прям солидно, вайб как от первых процессоров от амд на сокете ам1.

Теперь осталось докупить систему охлаждения на сокет SP3 и можно приступать к сборке, так как все остальное у меня уже есть.

#server
🔥24👍3😍2🗿2
Сегодня утром ходил покупать систему жидкостного охлаждения для процессора на сокете SP3, приобрел DEEPCOOL LT520 под сокет TR4, внимательный читатель скажет что это не одно и тоже, и будет прав, сокеты действительно отличаются, а вот крепежи для радиатора у них идентичные.

Просто я пару дней смотрел какие есть решения под SP3 и было в массе своей оверпрауснутое недоразумение, но батя - калач тертый, я помню как в нулевые мы с пацанами колхоозили крепежи из подручных средств, вот и подумал, а что если отверстия SP3 совместимы с аналогиями под тредрипер TR4 и sTRX4, пошел смотреть спеки и был приятно удивлен.

Короче выбрал самый недорогой и по TDP подходящий (с небольшим запасом) водянистый охладитель.

#server
🔥15😁21👍1🤔1🙏1
Собрал сервер на стенде, в процессе запуска оказалось что он не включается, отпубил всю переферию, не включается, поменял диэлектрик не включается, ослабил контакт радиатора с процессором, нет эффекта.

Решил размышлять логически, чем отличалась минимальная сборка прошлого сервера от текущего, пришел к выводу что разница была в питании процессора, взял другой провод из резерва, включаю, работает.

Дальше накинул видеокарты (арки 770е), запустил установку дебиан и в целом все ок было, пока не запустил ollama…

#server
😁5🎉2
Pavel Zloi
Собрал сервер на стенде, в процессе запуска оказалось что он не включается, отпубил всю переферию, не включается, поменял диэлектрик не включается, ослабил контакт радиатора с процессором, нет эффекта. Решил размышлять логически, чем отличалась минимальная…
Само собой перед запуском ollama поставил все драйверы по инструкции, установил docker и запустил контейнер, вроде всё ок, но ollama крашилась в момент запуска любой модели с ошибкой:

terminate called after throwing an instance of 'sycl::_V1::exception'
what(): No device of requested type available. Please check https://software.intel.com/content/www/us/en/develop/articles/intel-oneapi-dpcpp-system-requirements.html
Aborted (core dumped)


Пошёл в логи dmesg читать, вижу там моего старого знакомого:
[    5.927329] i915 0000:c6:00.0: [drm] Failed to resize BAR2 to 16384M (-ENOSPC)


Это, как вы возможно уже догадались, наш любимый и родной Resizable BAR который с какого-то фигу всегда и везде отключен и без которого видеокарты intel и некоторые древние nvidia не работают нормально.

Пошёл гуглить биос для матери, нашёл 1.8 на сайте, сравнил с моим, у меня был зашит 1.3, а в нём в настройках чипсета опции включения rebar не оказалось, дальше дело техники, скачал rufus, прожег uefi-ntfs флешку, закинул файлы биоса, прошил, ребутаюсь и вуаля, могу включить rebar, что я и сделал.

После рестарта ollama отработала qwen3 на моём арке, так что на этой истории наконец таки можно поставить точку.

PS. Отдельно хочу отметить IPMI идущий в комплекте с матерью, он позволяет через сеть прокидывать ISO образы, имеет нормальный KVM, поддерживает авторизацию, имеет сенсоры и много чего ещё, короче на голов превосходит ту тормозную гадость времён раннего палеолита которую обычно ставят на Supermicro и прочие серверы.

#server
🔥92
Пока народ хайпует на тему релиза очередной модельки, я заказал себе стеллаж, собрал его и перенес на него серверы.

Наконец вся эта история начала выглядеть прилично.

#server
🔥224🥰4👍3🤯2
Прикупил себе новых видеокарт, на этот раз взял парочку RTX 5060 ti по 16гб каждая.

#server
🔥22👍5
Pavel Zloi
Прикупил себе новых видеокарт, на этот раз взял парочку RTX 5060 ti по 16гб каждая. #server
Media is too big
VIEW IN TELEGRAM
Занятный факт, 5060 ti почти на треть меньше a770 и имеет всего один порт подключения питания.

#server
🔥3
На двух картах qwen3:32b-q4_k_m запущенная через ollama 0.11.6 даёт плюс-минус 20 токенов в секунду.

Инференс происходит одновременно на обеих карточках. При этом в память модель загружена вся целиком, на каждой видяшке лежит по 10гб слоёв модели.

Удивительно, но похоже видяшки недозагруженны, вероятно это связано с тем что я запускаю их через PCIe 3.0 x8 (на 4.0 какие-то ошибки, ещё не разобрался), а ещё видно что они в момент инференса кушают примерно 100 ватт.

В простое потребляет 18-20 ватт.

#server