Pavel Zloi
1.85K subscribers
561 photos
47 videos
2 files
800 links
Нейросети доступны каждому.

20 лет в IT
∈ 10 лет в разработке
∈ 3 года в ML/AI

Основатель:
https://rpa.icu

Связь:
@eprogrammist

Донат:
https://pay.cloudtips.ru/p/937f48ac

Ссылки:
https://github.com/EvilFreelancer
https://dzen.ru/a/ZGI0ytgNQUkpkIME
Download Telegram
Поздравляю всех с 9м мая! Держите фотографии вечерней столицы за пару дней до праздника.
1🔥238👍3🎉2🤮1
Пошкрёб по сусекам и нашкрёб ещё один сервер, назвал его lb01, его задача хостить балансировщик, проксировать запросы и держать мелочевку всякую, характеристики у него следующие:

CPU: Intel Xeon E31245 на 8х ядер
MB: ASUS P8B WS
RAM: 16Гб
GPU: 2x AMD RX570

Просто мне нужно что-то, что будет доступно независимо от того работают ли gpu машинки или нет, плюс где-то надо мониторинг настроить.

UPD. Ради забавы поставил в него пару RX570, они почти как брелок, так как не поддерживаются уже несколько лет, но мало ли, может через вулкан получится их заюзать.

UPD2. Немного истории про эту машинку тут.

#server
🔥10😁4
Forwarded from Daniilak — Канал
DeepWiki — нейросетевой инструмент, который генерирует подробную документацию на основе GitHub-репозиториев. Для доступа достаточно заменить github.com в адресной строке на deepwiki.com

#сервисы@daniilak
5
Вчера погрузился с головой в документацию по спецификациям MCP, попробовал написать свою версию сервера, но там настолько всё криво задизайнено, что оказалось проще взять готовый фреймворк fastmcp и реализовать базовую логику на нём.

Но самое сложное было не в этом, а в попытке интегрировать получившийся сервер с Coursor, раза с десятого увидел зелёный статус и свой тестовый тул.

Пока разбирался поизучал исходники и доку по fastmcp, там помимо тулов есть ещё немало любопытных фичей навроде промтов и ресурсов, в общем как появляться свободное время сделаю простенький MCP со всеми моими NLP-тулами что я делал ранее.
5👍23🔥62🤡1
Forwarded from Complete AI
Стал доступен первый российский AI-сервис для создания 3D-моделей — Kandinsky 3D 🚀

За считанные минуты сервис генерирует детализированные 3D-объекты по текстовым описаниям или входным изображениям. На выбор несколько поддерживаемых форматов: STL, OBJ, FBX, GLB и USDZ.

Kandinsky 3D также поможет оптимизировать процессы генеративного проектирования и промышленного дизайна. Нейросеть создаёт полигональные модели, совместимые с профессиональными системами автоматизированного проектирования (САПР).

Протестировать модель можно здесь, подключить API здесь.

👉Habr
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15🤔2
Скоро опубликую кое-что интересное.
510🔥176👍3😁1
🇷🇺 FRIDA теперь в GGUF и Ollama

Модель FRIDA от SberDevices - это мощный эмбеддер на базе T5, обученный для универсального представления текста в задачах вроде парафразирования, классификации и поиска.

Однако, из-за того что её токенизатор - Roberta, а веса - T5Encoder её было затруднительно конвертировать в GGUF, но мне таки удалось это сделать.

Поэтому теперь FRIDA доступна:
- на Hugging Face в формате GGUF
- в Ollama для локального инференса

Подробнее о самой модели можно почитать в публикации "Знакомьтесь, FRIDA. Открытая эмбеддинг-модель для русского языка" на Хабр и в посте на Телеграм-канале Александра Абрамова (@dealerAI).

Качаем так:
ollama pull evilfreelancer/FRIDA


Пример запроса к Ollama:
curl http://localhost:11434/api/embed -d '{
"model": "evilfreelancer/FRIDA",
"input": "search_query: Где находится НИИ ЧАВО?"
}'


Обратите внимание: на данный момент в Ollama (v0.7.0) возможны баги при обработке некоторых строк (например, длинные русские тексты с query/document), но с llama-embedding модель работает стабильно.

PS. Подробную инструкцию о том как выполнять конвертацию выложу отдельно.
471👍257🔥5🤗4🙏3🤮1🥱1🦄1
Pavel Zloi pinned «🇷🇺 FRIDA теперь в GGUF и Ollama Модель FRIDA от SberDevices - это мощный эмбеддер на базе T5, обученный для универсального представления текста в задачах вроде парафразирования, классификации и поиска. Однако, из-за того что её токенизатор - Roberta, а веса…»
Коллектив Just AI запустили полезную волну про мифы вокруг ML, принял эстафету от Валерия Ковальского.

Поскольку занимаюсь разработкой и популяризацией нейросетевых решений, в том числе на стыке ML и реальных бизнес-задач, решил выбрать тему, которую периодически слышу от коллег из смежных направлений, мол "вкатываться в нейросети уже поздно".

Лично я так не считаю: работы ещё очень много, и её точно хватит всем. Об этом на слайдах выше.

Передаю эстафету Александру Абрамову.

UPD. К сожалению у Александра не получается принять участие, поэтому передаю эстафету Miteigi Memoto, автору канала DigitalFortress & GPU Lab.
👍198🤝6
Исследование Status Page проектов

Давно хотел создать себе страницу со статусом доступности моих публичных ИИ проектов, хотелось сделать простую мониторилку сервисов, как у больших компаний, например у DeepSeek или Mistral, или OpenAI.

Можно было бы взять облачный сервис, но я хотел чтобы это было что-то маленькое и чтобы можно было это всё локально запустить, поэтому пошёл шерстить GitHub.

Пересмотрел где-то с десяток решений и больше всего мне приглянулся проект aPulse, в нём было всё необходимое и ничего лишнего: простая страница отображения статуса, отдельный скрипт, который этот самый статус проверял, простая конфигурация в виде config.js и, самое для меня главное, он умеет отправлять уведомления в телеграм, если какой-то сервис перестал быть доступен.

Однако, в данном проекте не обошлось без "фатальных недостатков": например, он не заточен под Docker и нельзя было отключить ссылки на проверяемые эндпоинты. Всё это я добавил в своём форке и отправил PR в оригинальный репозиторий.

Вот страничка, на которой отображаются статусы моих сервисов: https://status.rpa.icu/

P.S. Кстати, есть репозиторий awesome-status-pages с подборкой таких проектов.
266🤔6👍4😁1
Пару дней гонял тесты FRIDA GGUF через бенчмарк encodechka, поскольку там нет реализации под llama.cpp пришлось изобрести свою реализацию юпитер-блокнота с тестами.

По итогу получилось, что конвертированные в GGUF модели показывают в среднем результаты хуже чем оригинальная модель.

Занятно, что особой разницы между версиями f32 и q8_0 почти нет, ну кроме того что q8_0 работает в 2 раза быстрее f32.

Далее, оказалось, что llama.cpp не может запускать без ошибок t5 модели на CUDA, поэтому тестирование проводилось исключительно на процессоре.

UPD. Кстати, в llama.cpp в режиме llama-server нельзя вернуть пачку эмбеддингов под каждый запрос чтобы потом выполнить пулинг, поэтому возможно цифры хуже из-за того что я запускал два инстанса llama-server с активным пулингом на стороне сервера, первый с cls второй с mean.
15👍1
Классификация изображений.

По одному проекту понадобился простенький классификатор одежды, поискав некоторое время набрёл на небольшой проект под названием bentoml/CLIP-API-service, однако, у данного проекта оказался один фатальный недостаток, в поставке не было Dockerfile.

Поэтому пришлось собрать его самостоятельно, по итогу у меня получился EvilFreelancer/docker-clip-api - небольшой и универсальный API сервер для запуска любых моделей семейства CLIP в формате Docker-контейнера.
115👍12❤‍🔥3🔥2👏21🥰1