Поздравляю всех с 9м мая! Держите фотографии вечерней столицы за пару дней до праздника.
1🔥23❤8👍3🎉2🤮1
Пошкрёб по сусекам и нашкрёб ещё один сервер, назвал его lb01, его задача хостить балансировщик, проксировать запросы и держать мелочевку всякую, характеристики у него следующие:
CPU: Intel Xeon E31245 на 8х ядер
MB: ASUS P8B WS
RAM: 16Гб
GPU: 2x AMD RX570
Просто мне нужно что-то, что будет доступно независимо от того работают ли gpu машинки или нет, плюс где-то надо мониторинг настроить.
UPD. Ради забавы поставил в него пару RX570, они почти как брелок, так как не поддерживаются уже несколько лет, но мало ли, может через вулкан получится их заюзать.
UPD2. Немного истории про эту машинку тут.
#server
CPU: Intel Xeon E31245 на 8х ядер
MB: ASUS P8B WS
RAM: 16Гб
GPU: 2x AMD RX570
Просто мне нужно что-то, что будет доступно независимо от того работают ли gpu машинки или нет, плюс где-то надо мониторинг настроить.
UPD. Ради забавы поставил в него пару RX570, они почти как брелок, так как не поддерживаются уже несколько лет, но мало ли, может через вулкан получится их заюзать.
UPD2. Немного истории про эту машинку тут.
#server
🔥10😁4
Forwarded from Daniilak — Канал
DeepWiki — нейросетевой инструмент, который генерирует подробную документацию на основе GitHub-репозиториев. Для доступа достаточно заменить
#сервисы@daniilak
github.com
в адресной строке на deepwiki.com
#сервисы@daniilak
❤5
А вот документация к проекту impruver для обучения нейрсетей: https://deepwiki.com/EvilFreelancer/impruver
DeepWiki
EvilFreelancer/impruver | DeepWiki
Impruver is a comprehensive framework for training Large Language Models (LLMs). It provides a complete ecosystem of tools, configurations, and utilities designed to streamline the process of dataset
🔥6
Вчера погрузился с головой в документацию по спецификациям MCP, попробовал написать свою версию сервера, но там настолько всё криво задизайнено, что оказалось проще взять готовый фреймворк fastmcp и реализовать базовую логику на нём.
Но самое сложное было не в этом, а в попытке интегрировать получившийся сервер с Coursor, раза с десятого увидел зелёный статус и свой тестовый тул.
Пока разбирался поизучал исходники и доку по fastmcp, там помимо тулов есть ещё немало любопытных фичей навроде промтов и ресурсов, в общем как появляться свободное время сделаю простенький MCP со всеми моими NLP-тулами что я делал ранее.
Но самое сложное было не в этом, а в попытке интегрировать получившийся сервер с Coursor, раза с десятого увидел зелёный статус и свой тестовый тул.
Пока разбирался поизучал исходники и доку по fastmcp, там помимо тулов есть ещё немало любопытных фичей навроде промтов и ресурсов, в общем как появляться свободное время сделаю простенький MCP со всеми моими NLP-тулами что я делал ранее.
5👍23🔥6❤2🤡1
Forwarded from Complete AI
Стал доступен первый российский AI-сервис для создания 3D-моделей — Kandinsky 3D 🚀
За считанные минуты сервис генерирует детализированные 3D-объекты по текстовым описаниям или входным изображениям. На выбор несколько поддерживаемых форматов: STL, OBJ, FBX, GLB и USDZ.
Kandinsky 3D также поможет оптимизировать процессы генеративного проектирования и промышленного дизайна. Нейросеть создаёт полигональные модели, совместимые с профессиональными системами автоматизированного проектирования (САПР).
Протестировать модель можно здесь, подключить API здесь.
👉Habr
За считанные минуты сервис генерирует детализированные 3D-объекты по текстовым описаниям или входным изображениям. На выбор несколько поддерживаемых форматов: STL, OBJ, FBX, GLB и USDZ.
Kandinsky 3D также поможет оптимизировать процессы генеративного проектирования и промышленного дизайна. Нейросеть создаёт полигональные модели, совместимые с профессиональными системами автоматизированного проектирования (САПР).
Протестировать модель можно здесь, подключить API здесь.
👉Habr
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15🤔2
🇷🇺 FRIDA теперь в GGUF и Ollama
Модель FRIDA от SberDevices - это мощный эмбеддер на базе T5, обученный для универсального представления текста в задачах вроде парафразирования, классификации и поиска.
Однако, из-за того что её токенизатор - Roberta, а веса - T5Encoder её было затруднительно конвертировать в GGUF, но мне таки удалось это сделать.
Поэтому теперь FRIDA доступна:
- на Hugging Face в формате GGUF
- в Ollama для локального инференса
Подробнее о самой модели можно почитать в публикации "Знакомьтесь, FRIDA. Открытая эмбеддинг-модель для русского языка" на Хабр и в посте на Телеграм-канале Александра Абрамова (@dealerAI).
Качаем так:
Пример запроса к Ollama:
Обратите внимание: на данный момент в Ollama (v0.7.0) возможны баги при обработке некоторых строк (например, длинные русские тексты с query/document), но с
PS. Подробную инструкцию о том как выполнять конвертацию выложу отдельно.
Модель FRIDA от SberDevices - это мощный эмбеддер на базе T5, обученный для универсального представления текста в задачах вроде парафразирования, классификации и поиска.
Однако, из-за того что её токенизатор - Roberta, а веса - T5Encoder её было затруднительно конвертировать в GGUF, но мне таки удалось это сделать.
Поэтому теперь FRIDA доступна:
- на Hugging Face в формате GGUF
- в Ollama для локального инференса
Подробнее о самой модели можно почитать в публикации "Знакомьтесь, FRIDA. Открытая эмбеддинг-модель для русского языка" на Хабр и в посте на Телеграм-канале Александра Абрамова (@dealerAI).
Качаем так:
ollama pull evilfreelancer/FRIDA
Пример запроса к Ollama:
curl http://localhost:11434/api/embed -d '{
"model": "evilfreelancer/FRIDA",
"input": "search_query: Где находится НИИ ЧАВО?"
}'
Обратите внимание: на данный момент в Ollama (v0.7.0) возможны баги при обработке некоторых строк (например, длинные русские тексты с query/document), но с
llama-embedding
модель работает стабильно.PS. Подробную инструкцию о том как выполнять конвертацию выложу отдельно.
huggingface.co
evilfreelancer/FRIDA-GGUF · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
471👍25❤7🔥5🤗4🙏3🤮1🥱1🦄1
Pavel Zloi pinned «🇷🇺 FRIDA теперь в GGUF и Ollama Модель FRIDA от SberDevices - это мощный эмбеддер на базе T5, обученный для универсального представления текста в задачах вроде парафразирования, классификации и поиска. Однако, из-за того что её токенизатор - Roberta, а веса…»
Коллектив Just AI запустили полезную волну про мифы вокруг ML, принял эстафету от Валерия Ковальского.
Поскольку занимаюсь разработкой и популяризацией нейросетевых решений, в том числе на стыке ML и реальных бизнес-задач, решил выбрать тему, которую периодически слышу от коллег из смежных направлений, мол "вкатываться в нейросети уже поздно".
Лично я так не считаю: работы ещё очень много, и её точно хватит всем. Об этом на слайдах выше.
Передаю эстафету Александру Абрамову.
UPD. К сожалению у Александра не получается принять участие, поэтому передаю эстафету Miteigi Memoto, автору канала DigitalFortress & GPU Lab.
Поскольку занимаюсь разработкой и популяризацией нейросетевых решений, в том числе на стыке ML и реальных бизнес-задач, решил выбрать тему, которую периодически слышу от коллег из смежных направлений, мол "вкатываться в нейросети уже поздно".
Лично я так не считаю: работы ещё очень много, и её точно хватит всем. Об этом на слайдах выше.
Передаю эстафету Александру Абрамову.
UPD. К сожалению у Александра не получается принять участие, поэтому передаю эстафету Miteigi Memoto, автору канала DigitalFortress & GPU Lab.
👍19❤8🤝6
Исследование Status Page проектов
Давно хотел создать себе страницу со статусом доступности моих публичных ИИ проектов, хотелось сделать простую мониторилку сервисов, как у больших компаний, например у DeepSeek или Mistral, или OpenAI.
Можно было бы взять облачный сервис, но я хотел чтобы это было что-то маленькое и чтобы можно было это всё локально запустить, поэтому пошёл шерстить GitHub.
Пересмотрел где-то с десяток решений и больше всего мне приглянулся проект aPulse, в нём было всё необходимое и ничего лишнего: простая страница отображения статуса, отдельный скрипт, который этот самый статус проверял, простая конфигурация в виде config.js и, самое для меня главное, он умеет отправлять уведомления в телеграм, если какой-то сервис перестал быть доступен.
Однако, в данном проекте не обошлось без "фатальных недостатков": например, он не заточен под Docker и нельзя было отключить ссылки на проверяемые эндпоинты. Всё это я добавил в своём форке и отправил PR в оригинальный репозиторий.
Вот страничка, на которой отображаются статусы моих сервисов: https://status.rpa.icu/
P.S. Кстати, есть репозиторий awesome-status-pages с подборкой таких проектов.
Давно хотел создать себе страницу со статусом доступности моих публичных ИИ проектов, хотелось сделать простую мониторилку сервисов, как у больших компаний, например у DeepSeek или Mistral, или OpenAI.
Можно было бы взять облачный сервис, но я хотел чтобы это было что-то маленькое и чтобы можно было это всё локально запустить, поэтому пошёл шерстить GitHub.
Пересмотрел где-то с десяток решений и больше всего мне приглянулся проект aPulse, в нём было всё необходимое и ничего лишнего: простая страница отображения статуса, отдельный скрипт, который этот самый статус проверял, простая конфигурация в виде config.js и, самое для меня главное, он умеет отправлять уведомления в телеграм, если какой-то сервис перестал быть доступен.
Однако, в данном проекте не обошлось без "фатальных недостатков": например, он не заточен под Docker и нельзя было отключить ссылки на проверяемые эндпоинты. Всё это я добавил в своём форке и отправил PR в оригинальный репозиторий.
Вот страничка, на которой отображаются статусы моих сервисов: https://status.rpa.icu/
P.S. Кстати, есть репозиторий awesome-status-pages с подборкой таких проектов.
26❤6🤔6👍4😁1
Пару дней гонял тесты FRIDA GGUF через бенчмарк encodechka, поскольку там нет реализации под llama.cpp пришлось изобрести свою реализацию юпитер-блокнота с тестами.
По итогу получилось, что конвертированные в GGUF модели показывают в среднем результаты хуже чем оригинальная модель.
Занятно, что особой разницы между версиями f32 и q8_0 почти нет, ну кроме того что q8_0 работает в 2 раза быстрее f32.
Далее, оказалось, что llama.cpp не может запускать без ошибок t5 модели на CUDA, поэтому тестирование проводилось исключительно на процессоре.
UPD. Кстати, в llama.cpp в режиме llama-server нельзя вернуть пачку эмбеддингов под каждый запрос чтобы потом выполнить пулинг, поэтому возможно цифры хуже из-за того что я запускал два инстанса llama-server с активным пулингом на стороне сервера, первый с cls второй с mean.
По итогу получилось, что конвертированные в GGUF модели показывают в среднем результаты хуже чем оригинальная модель.
Занятно, что особой разницы между версиями f32 и q8_0 почти нет, ну кроме того что q8_0 работает в 2 раза быстрее f32.
Далее, оказалось, что llama.cpp не может запускать без ошибок t5 модели на CUDA, поэтому тестирование проводилось исключительно на процессоре.
UPD. Кстати, в llama.cpp в режиме llama-server нельзя вернуть пачку эмбеддингов под каждый запрос чтобы потом выполнить пулинг, поэтому возможно цифры хуже из-за того что я запускал два инстанса llama-server с активным пулингом на стороне сервера, первый с cls второй с mean.
1❤5👍1
GitHub
GitHub - EvilFreelancer/docker-clip-api: Dockerized CLIP API service
Dockerized CLIP API service. Contribute to EvilFreelancer/docker-clip-api development by creating an account on GitHub.
Классификация изображений.
По одному проекту понадобился простенький классификатор одежды, поискав некоторое время набрёл на небольшой проект под названием bentoml/CLIP-API-service, однако, у данного проекта оказался один фатальный недостаток, в поставке не было Dockerfile.
Поэтому пришлось собрать его самостоятельно, по итогу у меня получился EvilFreelancer/docker-clip-api - небольшой и универсальный API сервер для запуска любых моделей семейства CLIP в формате Docker-контейнера.
По одному проекту понадобился простенький классификатор одежды, поискав некоторое время набрёл на небольшой проект под названием bentoml/CLIP-API-service, однако, у данного проекта оказался один фатальный недостаток, в поставке не было Dockerfile.
Поэтому пришлось собрать его самостоятельно, по итогу у меня получился EvilFreelancer/docker-clip-api - небольшой и универсальный API сервер для запуска любых моделей семейства CLIP в формате Docker-контейнера.
115👍12❤🔥3🔥2👏2❤1🥰1
Увидел в Твиттере занятный пост, автор пишет "macOS 26 is getting native support for Linux containers!", полез смотреть какой костыль высокотехнологичный продукт инженеры из Apple в очередной раз придумали, им оказался проект apple/container.
Читаю описание, на первой строке фраза "create and run Linux containers as lightweight virtual machines on your Mac", так что похоже до "native" ещё далеко, но круто что в этом направлении идёт работа.
Далеко потому что для начала MacOS нужно пересадить на ядро Linux, а Apple на это вряд ли когда-нибудь пойдут.
PS. Был приятно удивлён тем, что у Apple есть аж цельный GitHub аккаунт.
Читаю описание, на первой строке фраза "create and run Linux containers as lightweight virtual machines on your Mac", так что похоже до "native" ещё далеко, но круто что в этом направлении идёт работа.
Далеко потому что для начала MacOS нужно пересадить на ядро Linux, а Apple на это вряд ли когда-нибудь пойдут.
PS. Был приятно удивлён тем, что у Apple есть аж цельный GitHub аккаунт.
👍3🤔2