This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Timescale выпустил pg-aiguide: практический гайд по ИИ в PostgreSQL
Timescale опубликовал открытый репозиторий pg-aiguide - это собрание лучших практик, примеров и шаблонов по работе с ИИ поверх PostgreSQL (в том числе TimescaleDB).
Что внутри:
- примеры интеграции LLM и AI-функций с БД
- готовые SQL-рецепты и расширения
- семантический поиск и анализ данных
- шаблоны, которые можно сразу использовать в проде
Это не теория, а набор готовых подходов для реальных проектов.
👉 https://github.com/timescale/pg-aiguide
@sqlhub
Timescale опубликовал открытый репозиторий pg-aiguide - это собрание лучших практик, примеров и шаблонов по работе с ИИ поверх PostgreSQL (в том числе TimescaleDB).
Что внутри:
- примеры интеграции LLM и AI-функций с БД
- готовые SQL-рецепты и расширения
- семантический поиск и анализ данных
- шаблоны, которые можно сразу использовать в проде
Это не теория, а набор готовых подходов для реальных проектов.
👉 https://github.com/timescale/pg-aiguide
@sqlhub
❤3🔥2👍1
🛠️ Локальная панель для Cloudflare Workers
Localflare — это инструмент для разработки, который упрощает взаимодействие с вашими ресурсами Cloudflare, такими как D1 базы данных, KV пространства и R2 бакеты. Он предлагает интуитивно понятный интерфейс для визуализации и управления данными в процессе разработки.
🚀 Основные моменты:
- Полнофункциональный SQL-редактор для D1 баз данных
- Удобный браузер для работы с KV парами
- Менеджер файлов для R2 бакетов
- Инспектор очередей для тестирования сообщений
- Работает с любыми фреймворками без настройки
📌 GitHub: https://github.com/rohanprasadofficial/localflare
Localflare — это инструмент для разработки, который упрощает взаимодействие с вашими ресурсами Cloudflare, такими как D1 базы данных, KV пространства и R2 бакеты. Он предлагает интуитивно понятный интерфейс для визуализации и управления данными в процессе разработки.
🚀 Основные моменты:
- Полнофункциональный SQL-редактор для D1 баз данных
- Удобный браузер для работы с KV парами
- Менеджер файлов для R2 бакетов
- Инспектор очередей для тестирования сообщений
- Работает с любыми фреймворками без настройки
📌 GitHub: https://github.com/rohanprasadofficial/localflare
❤3👍1🔥1
🚀 Супербыстрая JSON-библиотека Tachyon v6.0
Tachyon — это высокопроизводительная библиотека JSON на C++20, обеспечивающая скорость парсинга до 4500 MB/s благодаря оптимизациям AVX2 и уникальной архитектуре "Dual-Engine". Она значительно превосходит аналогичные библиотеки, такие как simdjson и nlohmann::json.
🚀 Основные моменты:
- Высокая скорость парсинга до 4500 MB/s
- Поддержка JSON и JSONC с комментариями
- Современный API C++20 с нулевым накладным расходом
- Ленивая индексация и нулевое копирование данных
- Строгая типизация и совместимость с STL
📌 GitHub: https://github.com/wilkolbrzym-coder/Tachyon.JSON
Tachyon — это высокопроизводительная библиотека JSON на C++20, обеспечивающая скорость парсинга до 4500 MB/s благодаря оптимизациям AVX2 и уникальной архитектуре "Dual-Engine". Она значительно превосходит аналогичные библиотеки, такие как simdjson и nlohmann::json.
🚀 Основные моменты:
- Высокая скорость парсинга до 4500 MB/s
- Поддержка JSON и JSONC с комментариями
- Современный API C++20 с нулевым накладным расходом
- Ленивая индексация и нулевое копирование данных
- Строгая типизация и совместимость с STL
📌 GitHub: https://github.com/wilkolbrzym-coder/Tachyon.JSON
🔥5❤2👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Отменяем все мемы про дроп базы
😁23👍2🥰2❤1
This media is not supported in your browser
VIEW IN TELEGRAM
✅ ШПАРГАЛКА: Как правильно поднимать БД перед проектом
Главная ошибка новичков - “у всех база разная”.
В итоге миграции ломаются, схема плывёт, на CI одно, у тебя другое, в проде третье.
Правильный старт всегда одинаковый:
1) Поднимай БД через Docker - чтобы у всей команды окружение было идентичным
2) Все параметры (пароль, порт, имя БД) храни в .env
3) Схему меняй ТОЛЬКО через миграции (Flyway/Liquibase/EF/Alembic)
4) Добавь healthcheck - сервис не должен стартовать раньше БД
5) Сделай команды backup/restore - пригодится в любой момент
Так ты гарантируешь:
- у всех одна и та же база
- быстрый старт проекта за 3 минуты
- деплой без сюрпризов
Главная ошибка новичков - “у всех база разная”.
В итоге миграции ломаются, схема плывёт, на CI одно, у тебя другое, в проде третье.
Правильный старт всегда одинаковый:
1) Поднимай БД через Docker - чтобы у всей команды окружение было идентичным
2) Все параметры (пароль, порт, имя БД) храни в .env
3) Схему меняй ТОЛЬКО через миграции (Flyway/Liquibase/EF/Alembic)
4) Добавь healthcheck - сервис не должен стартовать раньше БД
5) Сделай команды backup/restore - пригодится в любой момент
Так ты гарантируешь:
- у всех одна и та же база
- быстрый старт проекта за 3 минуты
- деплой без сюрпризов
1) Создай .env
cat > .env << 'EOF'
POSTGRES_DB=app
POSTGRES_USER=app
POSTGRES_PASSWORD=app123
POSTGRES_PORT=5432
EOF
2) docker-compose.yml для Postgres + healthcheck
cat > docker-compose.yml << 'EOF'
services:
postgres:
image: postgres:16
container_name: app-postgres
restart: unless-stopped
environment:
POSTGRES_DB: ${POSTGRES_DB}
POSTGRES_USER: ${POSTGRES_USER}
POSTGRES_PASSWORD: ${POSTGRES_PASSWORD}
ports:
- "${POSTGRES_PORT}:5432"
volumes:
- pgdata:/var/lib/postgresql/data
healthcheck:
test: ["CMD-SHELL", "pg_isready -U ${POSTGRES_USER} -d ${POSTGRES_DB}"]
interval: 5s
timeout: 3s
retries: 20
volumes:
pgdata:
EOF
3) Запуск
docker compose up -d
4) Проверка
docker compose ps
5) Backup
docker exec -t app-postgres pg_dump -U app app > backup.sql
6) Restore
cat backup.sql | docker exec -i app-postgres psql -U app -d app
👍16❤5👎4🔥1😁1
Горизонтальное масштабирование PostgreSQL — проблема, которая неизбежно возникает при работе с большими данными и высокими нагрузками. Когда количество транзакций растёт до миллионов, стандартных возможностей PostgreSQL уже недостаточно: сопровождение усложняется, риски увеличиваются, а вывод новых продуктов замедляется.
Yandex B2B Tech представили Managed SPQR — управляемый сервис горизонтального масштабирования PostgreSQL на платформе Yandex Cloud. Решение позволяет распределять данные между шардами, автоматически балансировать нагрузку и снимать с команд значительную часть операционных задач.
Managed SPQR помогает:
🔴 ускорить разработку и запуск продуктов в 3–4 раза;
🔴 снизить операционные риски и нагрузку на инфраструктуру;
🔴 сэкономить до 15 млн рублей при запуске высоконагруженных сервисов.
Технология уже используется в проектах Яндекса и у внешних компаний, включая финтех и e-commerce.
📅 5 февраля в 12:00 команда Yandex B2B Tech проведёт вебинар, посвящённый запуску public preview сервиса. Участникам расскажут об архитектуре Managed SPQR, автоматической перебалансировке данных, мониторинге и реальных кейсах, а также разберут выбор ключа шардирования.
🔗 Регистрация и подробности — по ссылке.
Yandex B2B Tech представили Managed SPQR — управляемый сервис горизонтального масштабирования PostgreSQL на платформе Yandex Cloud. Решение позволяет распределять данные между шардами, автоматически балансировать нагрузку и снимать с команд значительную часть операционных задач.
Managed SPQR помогает:
Технология уже используется в проектах Яндекса и у внешних компаний, включая финтех и e-commerce.
🔗 Регистрация и подробности — по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
🐘 Появился MCP-сервер и плагин для Claude, который буквально «ставит на место» ИИ-ассистентов при работе с PostgreSQL.
Главная боль с нейросетями в SQL - они любят:
писать устаревшие конструкции, игнорировать индексы, путаться в версиях PostgreSQL и галлюцинировать оптимизации, которых не существует.
Этот инструмент решает проблему радикально:
ассистент больше не фантазирует — он опирается на официальные знания и готовые практики.
Что он даёт агентам (Claude Code, Cursor и др.):
— Поиск ответов прямо в официальной документации PostgreSQL с учетом версии (12, 14, 16+). Не абстрактный «SQL из интернета», а то, что реально работает в твоей версии.
— База знаний по экосистеме. Уже встроена документация по TimescaleDB, дальше — другие расширения.
— Готовые проверенные паттерны: проектирование схем, выбор типов данных, ограничения, индексы, перформанс. Агент использует шаблоны лучших практик вместо галлюцинаций.
— Работает как публичный MCP-сервер для разных инструментов или как нативный плагин для Claude Code.
По сути, это слой «инженерного здравого смысла» между моделью и базой данных.
ИИ остаётся умным, но перестаёт быть опасным для продакшена.
Вот это и есть настоящее «прокачивание ассистентов».
https://github.com/timescale/pg-aiguide
@sqlhub
Главная боль с нейросетями в SQL - они любят:
писать устаревшие конструкции, игнорировать индексы, путаться в версиях PostgreSQL и галлюцинировать оптимизации, которых не существует.
Этот инструмент решает проблему радикально:
ассистент больше не фантазирует — он опирается на официальные знания и готовые практики.
Что он даёт агентам (Claude Code, Cursor и др.):
— Поиск ответов прямо в официальной документации PostgreSQL с учетом версии (12, 14, 16+). Не абстрактный «SQL из интернета», а то, что реально работает в твоей версии.
— База знаний по экосистеме. Уже встроена документация по TimescaleDB, дальше — другие расширения.
— Готовые проверенные паттерны: проектирование схем, выбор типов данных, ограничения, индексы, перформанс. Агент использует шаблоны лучших практик вместо галлюцинаций.
— Работает как публичный MCP-сервер для разных инструментов или как нативный плагин для Claude Code.
По сути, это слой «инженерного здравого смысла» между моделью и базой данных.
ИИ остаётся умным, но перестаёт быть опасным для продакшена.
Вот это и есть настоящее «прокачивание ассистентов».
https://github.com/timescale/pg-aiguide
@sqlhub
❤6👍5🔥2
🧠 Вы когда-нибудь рисовал схему БД в тертрадке, а потом часами переносил всё в SQL?
Есть способ быстрее - из диаграммы сразу в продакшен-код.
DrawDB превращает твою ER-диаграмму в SQL:
просто перетаскиваешь таблицы на канвас, связываешь их визуально - и экспортируешь готовый SQL под нужную СУБД.
Что умеет:
- Рисуешь таблицы и связи на визуальном холсте
- Экспортируешь production-ready SQL для:
MySQL, PostgreSQL, SQLite, MariaDB, MSSQL, Oracle
- Без аккаунта и подписок
- Можно мгновенно шарить диаграммы команде
И да - 100% бесплатно и open-source 🔥
📦 Репозиторий: https://github.com/drawdb-io/drawdb
Есть способ быстрее - из диаграммы сразу в продакшен-код.
DrawDB превращает твою ER-диаграмму в SQL:
просто перетаскиваешь таблицы на канвас, связываешь их визуально - и экспортируешь готовый SQL под нужную СУБД.
Что умеет:
- Рисуешь таблицы и связи на визуальном холсте
- Экспортируешь production-ready SQL для:
MySQL, PostgreSQL, SQLite, MariaDB, MSSQL, Oracle
- Без аккаунта и подписок
- Можно мгновенно шарить диаграммы команде
И да - 100% бесплатно и open-source 🔥
📦 Репозиторий: https://github.com/drawdb-io/drawdb
👍15❤8🔥8
Не двигайтесь: вы в ИИ-кадре
Этот бот создает фото для соцсетей в футуристичном стиле. Его можно поставить на аватарку, особенно если идете на t-sync conf. Конференция от Группы «Т-Технологии» для опытных инженеров впервые пройдет в Москве 7 февраля.
Попробовать бота можно здесь. А узнать больше о t-sync conf и зарегистрироваться — здесь
Этот бот создает фото для соцсетей в футуристичном стиле. Его можно поставить на аватарку, особенно если идете на t-sync conf. Конференция от Группы «Т-Технологии» для опытных инженеров впервые пройдет в Москве 7 февраля.
Попробовать бота можно здесь. А узнать больше о t-sync conf и зарегистрироваться — здесь
👎5😁4👍2🔥1
Автор работал над системой, которая выросла с нуля до более чем миллиона пользователей. Без сложных модных архитектур на старте и без преждевременного оверинжиниринга. Только последовательная эволюция под реальные нагрузки.
В начале всё было максимально просто:
Одно приложение - одна база данных.
И этого было достаточно.
Проблемы появились не в коде. Узким местом стала база данных. Архитектура развивалась шаг за шагом, решая конкретные проблемы по мере их появления.
1️⃣ Старт - один основной инстанс
Использовался один primary-инстанс PostgreSQL. Минимум инфраструктуры, низкие расходы и полный фокус на продукте.
Главная мысль этого этапа - не строить "архитектуру уровня Netflix" для проекта с десятками пользователей.
2️⃣ Разделение чтений - Read Replicas
Когда резко вырос read-трафик:
- Primary обрабатывал только записи
- Реплики обрабатывали SELECT-запросы
- Балансировщик распределял чтения
Кодовая база почти не менялась - менялась маршрутизация трафика.
Результат - база перестала быть узким местом из-за чтений.
3️⃣ Проблема соединений - добавление pgBouncer
При росте числа пользователей упёрлись не в CPU, а в количество соединений.
Каждое соединение к базе - это память и ресурсы. Тысячи коннектов начали "душить" систему.
Решение - connection pooling через pgBouncer:
- Меньше реальных соединений к БД
- Выше пропускная способность
- Меньше сбоев под нагрузкой
4️⃣ Масштабирование через кэш
Чтобы выдержать 1M+ пользователей, стало критично не обращаться к базе за каждым запросом.
Добавили Redis как слой кэширования:
- Часто используемые данные отдавались из кэша
- База перестала быть единственной точкой нагрузки
- Задержки заметно снизились
Именно на этом этапе начинается настоящее масштабирование.
Главный урок
На каждом этапе решалась текущая проблема, а не гипотетическая задача будущего.
| Проблема | Решение |
|---------|---------|
| Много чтений | Read Replicas |
| Слишком много соединений | Пул соединений |
| База перегружена запросами | Кэш |
| Сложная инфраструктура | Не добавлялась без реальной необходимости |Приложение существует, чтобы поддерживать бизнес.
Если бизнес-модель не работает, никакое масштабирование не спасёт.
Масштабирование - это не про технологии ради технологий.
Это про внедрение решений в тот момент, когда они действительно нужны.
milanjovanovic.tech/blog/scaling-monoliths-a-practical-guide-for-growing-systems
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤3🔥3
🍰 Polars v1.37.0: min/max строки по другой колонке - в одну строку
Раньше, чтобы найти строку с минимальным/максимальным значением по другой колонке, приходилось:
- сортировать
- группировать
- писать сложные фильтры
Теперь в Polars v1.37.0 всё проще.
Добавили методы выражений:
✅ min_by
✅ max_by
Они позволяют находить min/max значения по любой колонке одной понятной строкой кода - без лишней магии и многошаговых костылей.
Пример логики:
"дай продукт с максимальными продажами внутри каждой категории" - теперь делается красиво и читаемо.
Обновление:
Раньше, чтобы найти строку с минимальным/максимальным значением по другой колонке, приходилось:
- сортировать
- группировать
- писать сложные фильтры
Теперь в Polars v1.37.0 всё проще.
Добавили методы выражений:
✅ min_by
✅ max_by
Они позволяют находить min/max значения по любой колонке одной понятной строкой кода - без лишней магии и многошаговых костылей.
Пример логики:
"дай продукт с максимальными продажами внутри каждой категории" - теперь делается красиво и читаемо.
Обновление:
pip install -U polars👍7❤5🔥3
Ты научишься делать те, которые живут в проде.
Это не про BeautifulSoup ради галочки.
Это про системы сбора данных, которые:
• не падают от мелких правок на сайте
• собирают данные в разы быстрее
• обновляют всё сами по расписанию
• обходят ограничения и баны
• выглядят как сервис, а не хаос из файлов
Ты начнёшь видеть сайты не как страницы, а как источники данных, к которым можно подключиться.
В итоге ты сможешь:
• забирать данные для своих проектов
• автоматизировать чужую рутину
• делать инструменты для аналитики
• брать коммерческие заказы на сбор данных
Это навык, который напрямую превращается в деньги.
Не “знаю Python”, а умею добывать данные из интернета профессионально.
🎁 48 часов скидка 50% на Stepik: https://stepik.org/a/269942/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Закрой базу от интернета - БД не должна слушать 0.0.0.0 без нужды. Открывай доступ только из подсети приложения (VPC, private network).
Используй принцип наименьших прав - отдельный пользователь на каждое приложение, только нужные SELECT/INSERT/UPDATE, без SUPER/OWNER.
Пароли и секреты - длинные, уникальные, храни в Secret Manager/.env вне репозитория, регулярно ротируй.
Шифрование - включи TLS для соединений, шифруй бэкапы и диски (at-rest).
Обновления - патчи БД и ОС ставь регулярно, отключай лишние расширения и фичи.
Защита от SQL-инъекций - только параметризованные запросы, никакой конкатенации строк в SQL.
Логи и аудит - включи логирование входов, ошибок, подозрительных запросов, алерты на “подбор паролей”.
Бэкапы + проверка восстановления - делай бэкапы и обязательно тестируй restore, иначе это не бэкап.
Ограничь опасные команды - запрети DROP/ALTER в проде для app-юзеров, разнеси миграции и рантайм доступ.
Rate limiting и защита периметра - firewall/SG, fail2ban/pgbouncer limits, VPN/bastion для админки.
Postgres hardening (quick example)
ufw allow from 10.0.0.0/8 to any port 5432
psql -c "CREATE ROLE app LOGIN PASSWORD 'STRONG';"
psql -c "REVOKE ALL ON DATABASE prod FROM PUBLIC;"
psql -c "GRANT CONNECT ON DATABASE prod TO app;"
psql -c "ALTER SYSTEM SET ssl=on;"
psql -c "ALTER SYSTEM SET log_connections=on;"
psql -c "ALTER SYSTEM SET password_encryption='scram-sha-256';"
systemctl reload postgresql
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤4🔥4
Как PostgreSQL обрабатывает конфликт при одновременном обновлении одной строки в разных транзакциях с уровнем изоляции READ COMMITTED?
Anonymous Quiz
10%
A) Обе транзакции выполняются без конфликтов
60%
B) Вторая транзакция блокируется до завершения первой
11%
C) Вторая транзакция получает ошибку serialization_failure
18%
D) Последняя транзакция перезаписывает данные без ошибок
🔥10❤4👍4
🚀 MongoDB Memory Leak Exploit (CVE-2025-14847)
Прототип эксплойта для уязвимости в MongoDB, позволяющий неаутентифицированным злоумышленникам утекать конфиденциальную память сервера. Уязвимость связана с некорректной обработкой длины данных при декомпрессии, что приводит к утечке неинициализированной памяти.
🚀 Основные моменты:
- Позволяет утекать данные из памяти MongoDB.
- Использует уязвимость zlib для создания поддельных BSON документов.
- Может раскрывать внутренние логи и конфигурацию MongoDB.
- Включает Docker Compose для тестирования уязвимости.
📌 GitHub: https://github.com/joe-desimone/mongobleed
Прототип эксплойта для уязвимости в MongoDB, позволяющий неаутентифицированным злоумышленникам утекать конфиденциальную память сервера. Уязвимость связана с некорректной обработкой длины данных при декомпрессии, что приводит к утечке неинициализированной памяти.
🚀 Основные моменты:
- Позволяет утекать данные из памяти MongoDB.
- Использует уязвимость zlib для создания поддельных BSON документов.
- Может раскрывать внутренние логи и конфигурацию MongoDB.
- Включает Docker Compose для тестирования уязвимости.
📌 GitHub: https://github.com/joe-desimone/mongobleed
👍5❤3🔥2
Здесь на пальцах объясняют не только как писать SQL-запросы, а строить настоящие backend-сервисы с базой данных как у профи.
В этом курсе ты шаг за шагом создашь REST API на FastAPI + PostgreSQL:
от установки среды и первых таблиц - до масштабируемого приложения с безопасностью и CRUD-операциями.
🔹 На практике разберете:
• SQL-запросы, фильтры, агрегаты и подзапросы
• Связи между таблицами и нормализацию БД
• Взаимодействие Python и PostgreSQL
• Реализацию REST API и подключение базы
• Оптимизацию и разбор реальных задач с собеседований
⚡ После курса у вас будет свой работающий API-проект и реальные навыки работы с PostgreSQL в продакшене.
🎁 Торопись пока действует скидка в честь нвого года!
🚀 Прокачаю свои знания: https://stepik.org/course/255542/
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👍3🥰1
Это полноценный учебник + практика в одном месте.
Что внутри:
- База без воды
SELECT, WHERE, ORDER BY, LIMIT, условия и логика запросов
- Продвинутые темы
агрегатные функции, GROUP BY, HAVING, подзапросы, JOIN’ы
- Много практики
упражнения и задачи, чтобы довести работу с БД до автоматизма
- Подробные объяснения
материал подойдёт даже тем, кто никогда не работал с базами данных
Почему это полезно:
SQL — один из самых универсальных навыков в IT.
Он нужен разработчикам, аналитикам, data-инженерам и всем, кто работает с данными.
Этот репозиторий даёт именно то, что нужно для реальной работы:
- понимание, как устроены запросы
- уверенную работу с данными
- базу для перехода к аналитике или backend-разработке
GitHub: https://github.com/dwyl/learn-postgresql
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤4👎3🥰1
Мошенники использовали данные ФССП для незаконного взыскания долга: разбор схемы🧐
Специалисты вскрыли изощренную схему, где преступники, используя технологии социальной инженерии, представились судебными приставами.
Цель — запугать жертву и вынудить к «срочному» платежу.
В ходе расследования был детально разобран случай, когда сотрудник компании-клиента получил SMS от «пристава» с угрозой немедленного ареста имущества за долг родственницы.
Злоумышленники, владея информацией о реальных сотрудниках ФССП и процедурах, создали психологическое давление. Жертве передавалась ссылка на оплату, ведущая на поддомен сайта МФО.
Эксперты Securizor провели цифровую верификацию, оперативно выявили предлог совместно с настоящими приставами и установили связь мошенников с коллекторами.
Данный кейс — не просто история о мошенничестве. Он демонстрирует важность социальной инженерии как инструмента кибератаки и необходимость проактивного аудита информационной безопасности для сотрудников.
❗️Читайте полный разбор расследования по ссылке
Реклама. ООО "Секьюризор", ОРГН 1247700543694
Erid: 2W5zFFzBkTs
Специалисты вскрыли изощренную схему, где преступники, используя технологии социальной инженерии, представились судебными приставами.
Цель — запугать жертву и вынудить к «срочному» платежу.
В ходе расследования был детально разобран случай, когда сотрудник компании-клиента получил SMS от «пристава» с угрозой немедленного ареста имущества за долг родственницы.
Злоумышленники, владея информацией о реальных сотрудниках ФССП и процедурах, создали психологическое давление. Жертве передавалась ссылка на оплату, ведущая на поддомен сайта МФО.
Эксперты Securizor провели цифровую верификацию, оперативно выявили предлог совместно с настоящими приставами и установили связь мошенников с коллекторами.
Данный кейс — не просто история о мошенничестве. Он демонстрирует важность социальной инженерии как инструмента кибератаки и необходимость проактивного аудита информационной безопасности для сотрудников.
❗️Читайте полный разбор расследования по ссылке
Реклама. ООО "Секьюризор", ОРГН 1247700543694
Erid: 2W5zFFzBkTs
👎3❤1😁1
Postgres: best practices для AI-агентов (и почему это важно)
Supabase выпустили Postgres Best Practices - набор правил/“скиллов” для AI coding agents (Claude Code, Cursor, Copilot и т.д.), чтобы они писали не просто рабочий SQL, а нормальный продовый Postgres.
Потому что классическая проблема такая:
агент сгенерит “правильный” запрос, тесты пройдут,
а через 2 недели это превратится в:
- медленные JOIN’ы
- seq scan на миллионы строк
- взрыв коннектов
- блокировки
- RLS, которая внезапно тормозит всё
Что внутри “Postgres Best Practices”
Это структурированный набор правил по 8 темам (от самых критичных к менее критичным):
- Query Performance (Critical) - как писать запросы, чтобы не убивать базу
- Connection Management (Critical) - пулы, лимиты, правильная работа с коннектами
- Schema Design (High) - индексы, типы, ключи, нормальные схемы
- Concurrency & Locking (Medium-High) - как не словить дедлоки и долгие locks
- Security & RLS (Medium-High) - RLS без боли и сюрпризов
- Data Access Patterns (Medium) - как правильно читать/писать данные в приложении
- Monitoring & Diagnostics (Low-Medium) - что мониторить и как дебажить
- Advanced Features (Low) - продвинутые приёмы
Самое полезное:
это не “статья”, а готовый набор инструкций, который агент может автоматически применять, когда он:
- пишет SQL
- проектирует схему
- предлагает индексы
- оптимизирует запросы
- настраивает RLS / connection pooling
То есть агент начинает думать ближе к DBA, а не как генератор SQL.
https://supabase.com/blog/postgres-best-practices-for-ai-agents
Supabase выпустили Postgres Best Practices - набор правил/“скиллов” для AI coding agents (Claude Code, Cursor, Copilot и т.д.), чтобы они писали не просто рабочий SQL, а нормальный продовый Postgres.
Потому что классическая проблема такая:
агент сгенерит “правильный” запрос, тесты пройдут,
а через 2 недели это превратится в:
- медленные JOIN’ы
- seq scan на миллионы строк
- взрыв коннектов
- блокировки
- RLS, которая внезапно тормозит всё
Что внутри “Postgres Best Practices”
Это структурированный набор правил по 8 темам (от самых критичных к менее критичным):
- Query Performance (Critical) - как писать запросы, чтобы не убивать базу
- Connection Management (Critical) - пулы, лимиты, правильная работа с коннектами
- Schema Design (High) - индексы, типы, ключи, нормальные схемы
- Concurrency & Locking (Medium-High) - как не словить дедлоки и долгие locks
- Security & RLS (Medium-High) - RLS без боли и сюрпризов
- Data Access Patterns (Medium) - как правильно читать/писать данные в приложении
- Monitoring & Diagnostics (Low-Medium) - что мониторить и как дебажить
- Advanced Features (Low) - продвинутые приёмы
Самое полезное:
это не “статья”, а готовый набор инструкций, который агент может автоматически применять, когда он:
- пишет SQL
- проектирует схему
- предлагает индексы
- оптимизирует запросы
- настраивает RLS / connection pooling
То есть агент начинает думать ближе к DBA, а не как генератор SQL.
https://supabase.com/blog/postgres-best-practices-for-ai-agents
🔥5❤3🥰1