Поздравляю всех с 9м мая! Держите фотографии вечерней столицы за пару дней до праздника.
1🔥23❤8👍3🎉2🤮1
Пошкрёб по сусекам и нашкрёб ещё один сервер, назвал его lb01, его задача хостить балансировщик, проксировать запросы и держать мелочевку всякую, характеристики у него следующие:
CPU: Intel Xeon E31245 на 8х ядер
MB: ASUS P8B WS
RAM: 16Гб
GPU: 2x AMD RX570
Просто мне нужно что-то, что будет доступно независимо от того работают ли gpu машинки или нет, плюс где-то надо мониторинг настроить.
UPD. Ради забавы поставил в него пару RX570, они почти как брелок, так как не поддерживаются уже несколько лет, но мало ли, может через вулкан получится их заюзать.
UPD2. Немного истории про эту машинку тут.
#server
CPU: Intel Xeon E31245 на 8х ядер
MB: ASUS P8B WS
RAM: 16Гб
GPU: 2x AMD RX570
Просто мне нужно что-то, что будет доступно независимо от того работают ли gpu машинки или нет, плюс где-то надо мониторинг настроить.
UPD. Ради забавы поставил в него пару RX570, они почти как брелок, так как не поддерживаются уже несколько лет, но мало ли, может через вулкан получится их заюзать.
UPD2. Немного истории про эту машинку тут.
#server
🔥10😁4
Forwarded from Daniilak — Канал
DeepWiki — нейросетевой инструмент, который генерирует подробную документацию на основе GitHub-репозиториев. Для доступа достаточно заменить
#сервисы@daniilak
github.com
в адресной строке на deepwiki.com
#сервисы@daniilak
❤5
А вот документация к проекту impruver для обучения нейрсетей: https://deepwiki.com/EvilFreelancer/impruver
DeepWiki
EvilFreelancer/impruver | DeepWiki
Impruver is a comprehensive framework for training Large Language Models (LLMs). It provides a complete ecosystem of tools, configurations, and utilities designed to streamline the process of dataset
🔥6
Вчера погрузился с головой в документацию по спецификациям MCP, попробовал написать свою версию сервера, но там настолько всё криво задизайнено, что оказалось проще взять готовый фреймворк fastmcp и реализовать базовую логику на нём.
Но самое сложное было не в этом, а в попытке интегрировать получившийся сервер с Coursor, раза с десятого увидел зелёный статус и свой тестовый тул.
Пока разбирался поизучал исходники и доку по fastmcp, там помимо тулов есть ещё немало любопытных фичей навроде промтов и ресурсов, в общем как появляться свободное время сделаю простенький MCP со всеми моими NLP-тулами что я делал ранее.
Но самое сложное было не в этом, а в попытке интегрировать получившийся сервер с Coursor, раза с десятого увидел зелёный статус и свой тестовый тул.
Пока разбирался поизучал исходники и доку по fastmcp, там помимо тулов есть ещё немало любопытных фичей навроде промтов и ресурсов, в общем как появляться свободное время сделаю простенький MCP со всеми моими NLP-тулами что я делал ранее.
5👍23🔥6❤2🤡1
Forwarded from Complete AI
Стал доступен первый российский AI-сервис для создания 3D-моделей — Kandinsky 3D 🚀
За считанные минуты сервис генерирует детализированные 3D-объекты по текстовым описаниям или входным изображениям. На выбор несколько поддерживаемых форматов: STL, OBJ, FBX, GLB и USDZ.
Kandinsky 3D также поможет оптимизировать процессы генеративного проектирования и промышленного дизайна. Нейросеть создаёт полигональные модели, совместимые с профессиональными системами автоматизированного проектирования (САПР).
Протестировать модель можно здесь, подключить API здесь.
👉Habr
За считанные минуты сервис генерирует детализированные 3D-объекты по текстовым описаниям или входным изображениям. На выбор несколько поддерживаемых форматов: STL, OBJ, FBX, GLB и USDZ.
Kandinsky 3D также поможет оптимизировать процессы генеративного проектирования и промышленного дизайна. Нейросеть создаёт полигональные модели, совместимые с профессиональными системами автоматизированного проектирования (САПР).
Протестировать модель можно здесь, подключить API здесь.
👉Habr
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15🤔2
🇷🇺 FRIDA теперь в GGUF и Ollama
Модель FRIDA от SberDevices - это мощный эмбеддер на базе T5, обученный для универсального представления текста в задачах вроде парафразирования, классификации и поиска.
Однако, из-за того что её токенизатор - Roberta, а веса - T5Encoder её было затруднительно конвертировать в GGUF, но мне таки удалось это сделать.
Поэтому теперь FRIDA доступна:
- на Hugging Face в формате GGUF
- в Ollama для локального инференса
Подробнее о самой модели можно почитать в публикации "Знакомьтесь, FRIDA. Открытая эмбеддинг-модель для русского языка" на Хабр и в посте на Телеграм-канале Александра Абрамова (@dealerAI).
Качаем так:
Пример запроса к Ollama:
Обратите внимание: на данный момент в Ollama (v0.7.0) возможны баги при обработке некоторых строк (например, длинные русские тексты с query/document), но с
PS. Подробную инструкцию о том как выполнять конвертацию выложу отдельно.
Модель FRIDA от SberDevices - это мощный эмбеддер на базе T5, обученный для универсального представления текста в задачах вроде парафразирования, классификации и поиска.
Однако, из-за того что её токенизатор - Roberta, а веса - T5Encoder её было затруднительно конвертировать в GGUF, но мне таки удалось это сделать.
Поэтому теперь FRIDA доступна:
- на Hugging Face в формате GGUF
- в Ollama для локального инференса
Подробнее о самой модели можно почитать в публикации "Знакомьтесь, FRIDA. Открытая эмбеддинг-модель для русского языка" на Хабр и в посте на Телеграм-канале Александра Абрамова (@dealerAI).
Качаем так:
ollama pull evilfreelancer/FRIDA
Пример запроса к Ollama:
curl http://localhost:11434/api/embed -d '{
"model": "evilfreelancer/FRIDA",
"input": "search_query: Где находится НИИ ЧАВО?"
}'
Обратите внимание: на данный момент в Ollama (v0.7.0) возможны баги при обработке некоторых строк (например, длинные русские тексты с query/document), но с
llama-embedding
модель работает стабильно.PS. Подробную инструкцию о том как выполнять конвертацию выложу отдельно.
huggingface.co
evilfreelancer/FRIDA-GGUF · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
471👍25❤7🔥5🤗4🙏3🤮1🥱1🦄1
Pavel Zloi pinned «🇷🇺 FRIDA теперь в GGUF и Ollama Модель FRIDA от SberDevices - это мощный эмбеддер на базе T5, обученный для универсального представления текста в задачах вроде парафразирования, классификации и поиска. Однако, из-за того что её токенизатор - Roberta, а веса…»
Коллектив Just AI запустили полезную волну про мифы вокруг ML, принял эстафету от Валерия Ковальского.
Поскольку занимаюсь разработкой и популяризацией нейросетевых решений, в том числе на стыке ML и реальных бизнес-задач, решил выбрать тему, которую периодически слышу от коллег из смежных направлений, мол "вкатываться в нейросети уже поздно".
Лично я так не считаю: работы ещё очень много, и её точно хватит всем. Об этом на слайдах выше.
Передаю эстафету Александру Абрамову.
UPD. К сожалению у Александра не получается принять участие, поэтому передаю эстафету Miteigi Memoto, автору канала DigitalFortress & GPU Lab.
Поскольку занимаюсь разработкой и популяризацией нейросетевых решений, в том числе на стыке ML и реальных бизнес-задач, решил выбрать тему, которую периодически слышу от коллег из смежных направлений, мол "вкатываться в нейросети уже поздно".
Лично я так не считаю: работы ещё очень много, и её точно хватит всем. Об этом на слайдах выше.
Передаю эстафету Александру Абрамову.
UPD. К сожалению у Александра не получается принять участие, поэтому передаю эстафету Miteigi Memoto, автору канала DigitalFortress & GPU Lab.
👍19❤8🤝6
Исследование Status Page проектов
Давно хотел создать себе страницу со статусом доступности моих публичных ИИ проектов, хотелось сделать простую мониторилку сервисов, как у больших компаний, например у DeepSeek или Mistral, или OpenAI.
Можно было бы взять облачный сервис, но я хотел чтобы это было что-то маленькое и чтобы можно было это всё локально запустить, поэтому пошёл шерстить GitHub.
Пересмотрел где-то с десяток решений и больше всего мне приглянулся проект aPulse, в нём было всё необходимое и ничего лишнего: простая страница отображения статуса, отдельный скрипт, который этот самый статус проверял, простая конфигурация в виде config.js и, самое для меня главное, он умеет отправлять уведомления в телеграм, если какой-то сервис перестал быть доступен.
Однако, в данном проекте не обошлось без "фатальных недостатков": например, он не заточен под Docker и нельзя было отключить ссылки на проверяемые эндпоинты. Всё это я добавил в своём форке и отправил PR в оригинальный репозиторий.
Вот страничка, на которой отображаются статусы моих сервисов: https://status.rpa.icu/
P.S. Кстати, есть репозиторий awesome-status-pages с подборкой таких проектов.
Давно хотел создать себе страницу со статусом доступности моих публичных ИИ проектов, хотелось сделать простую мониторилку сервисов, как у больших компаний, например у DeepSeek или Mistral, или OpenAI.
Можно было бы взять облачный сервис, но я хотел чтобы это было что-то маленькое и чтобы можно было это всё локально запустить, поэтому пошёл шерстить GitHub.
Пересмотрел где-то с десяток решений и больше всего мне приглянулся проект aPulse, в нём было всё необходимое и ничего лишнего: простая страница отображения статуса, отдельный скрипт, который этот самый статус проверял, простая конфигурация в виде config.js и, самое для меня главное, он умеет отправлять уведомления в телеграм, если какой-то сервис перестал быть доступен.
Однако, в данном проекте не обошлось без "фатальных недостатков": например, он не заточен под Docker и нельзя было отключить ссылки на проверяемые эндпоинты. Всё это я добавил в своём форке и отправил PR в оригинальный репозиторий.
Вот страничка, на которой отображаются статусы моих сервисов: https://status.rpa.icu/
P.S. Кстати, есть репозиторий awesome-status-pages с подборкой таких проектов.
26❤6🤔6👍4😁1
Пару дней гонял тесты FRIDA GGUF через бенчмарк encodechka, поскольку там нет реализации под llama.cpp пришлось изобрести свою реализацию юпитер-блокнота с тестами.
По итогу получилось, что конвертированные в GGUF модели показывают в среднем результаты хуже чем оригинальная модель.
Занятно, что особой разницы между версиями f32 и q8_0 почти нет, ну кроме того что q8_0 работает в 2 раза быстрее f32.
Далее, оказалось, что llama.cpp не может запускать без ошибок t5 модели на CUDA, поэтому тестирование проводилось исключительно на процессоре.
UPD. Кстати, в llama.cpp в режиме llama-server нельзя вернуть пачку эмбеддингов под каждый запрос чтобы потом выполнить пулинг, поэтому возможно цифры хуже из-за того что я запускал два инстанса llama-server с активным пулингом на стороне сервера, первый с cls второй с mean.
По итогу получилось, что конвертированные в GGUF модели показывают в среднем результаты хуже чем оригинальная модель.
Занятно, что особой разницы между версиями f32 и q8_0 почти нет, ну кроме того что q8_0 работает в 2 раза быстрее f32.
Далее, оказалось, что llama.cpp не может запускать без ошибок t5 модели на CUDA, поэтому тестирование проводилось исключительно на процессоре.
UPD. Кстати, в llama.cpp в режиме llama-server нельзя вернуть пачку эмбеддингов под каждый запрос чтобы потом выполнить пулинг, поэтому возможно цифры хуже из-за того что я запускал два инстанса llama-server с активным пулингом на стороне сервера, первый с cls второй с mean.
1❤5👍1
GitHub
GitHub - EvilFreelancer/docker-clip-api: Dockerized CLIP API service
Dockerized CLIP API service. Contribute to EvilFreelancer/docker-clip-api development by creating an account on GitHub.
Классификация изображений.
По одному проекту понадобился простенький классификатор одежды, поискав некоторое время набрёл на небольшой проект под названием bentoml/CLIP-API-service, однако, у данного проекта оказался один фатальный недостаток, в поставке не было Dockerfile.
Поэтому пришлось собрать его самостоятельно, по итогу у меня получился EvilFreelancer/docker-clip-api - небольшой и универсальный API сервер для запуска любых моделей семейства CLIP в формате Docker-контейнера.
По одному проекту понадобился простенький классификатор одежды, поискав некоторое время набрёл на небольшой проект под названием bentoml/CLIP-API-service, однако, у данного проекта оказался один фатальный недостаток, в поставке не было Dockerfile.
Поэтому пришлось собрать его самостоятельно, по итогу у меня получился EvilFreelancer/docker-clip-api - небольшой и универсальный API сервер для запуска любых моделей семейства CLIP в формате Docker-контейнера.
115👍12❤🔥3🔥2👏2❤1🥰1