К заметкам про Restic уже не раз упоминали веб панель к нему Backrest. У меня были большие надежды на эту панель, но они не оправдались. Я почему-то думал, что это будет панель для управления множеством распределённых по хостам экземплярам Restic. Он работает по модели push, то есть сам отправляет данные в репозиторий и поэтому должен быть установлен локально.
С такой архитектурой затруднено централизованное управление. Это должна быть какая-то сторонняя система для установки самого restic, раскатки конфигураций на него и отслеживания выполнений заданий бэкапа. Для этого, к примеру, подойдёт Ansible Semaphore.
Я рассчитывал увидеть подобную панель, но с акцентом именно на возможности restic. Но увы. Backrest не про это. С её помощью можно настраивать только локальный бэкап на конкретном одиночном хосте. Для меня вообще неактуальна подобная функциональность, потому что я предпочитаю такие вещи настраивать в консоли на скриптах.
Тем не менее, я развернул Backrest и попробовал. Она вполне удобна для тех, кому нужен веб интерфейс для настройки. Одним из явных удобств этой панели будет возможность просматривать и скачивать файлы из снепшотов в репозиотрии. Да и просто просмотр выполненных заданий и содержимое репозитория в браузере выглядит наглядно и удобно.
Запустить Backrest можно как локально, установив вручную из бинарника и создав службу, так и автоматически в Doсker Compose. Я выбрал второе. Немного доработал пример из репозитория. Получилось вот так:
Обращаю внимание на подключаемую директорию
◽️id_ed25519 - приватный ключ для доступа к серверу, делаем так:
id_ed25519.pub добавляем на удалённом сервере в
◽️known_hosts - файл с открытым ключом удалённого сервера. Подключитесь к нему с какого-нибудь сервера, а потом скопируйте сохранённую строку из
После запуска контейнера можно идти на порт 9898 и настраивать бэкап через браузер. Первым делом надо добавить Repo. Для SFTP строка Repository URI будет примерно такая:
После этого можно создавать задание для бэкапа. Я в своём примере бэкаплю директорию
Примеры настроек Repo и задания для бэкапа показал внизу на картинках.
Теперь можно либо вручную сделать бэкап здесь же, либо дождаться планировщика. Перейдя в репозиторий, можно посмотреть Snapshots уже сделанных бэкапов, увидеть список файлов в них и по желанию что-то восстановить. Для восстановления удобно использовать директорию tmp, которую добавили в compose.
В целом нормальная, удобная панель, если для вас актуальна такая функциональность. Будет хорошим решением локальных бэкапов для тех, у кого рабочая машина на Linux. Для бэкапа и восстановления файлов с серверов, я думаю, можно обойтись и без веб интерфейса.
⇨ 🌐 Сайт / Исходники
#backup #restic
С такой архитектурой затруднено централизованное управление. Это должна быть какая-то сторонняя система для установки самого restic, раскатки конфигураций на него и отслеживания выполнений заданий бэкапа. Для этого, к примеру, подойдёт Ansible Semaphore.
Я рассчитывал увидеть подобную панель, но с акцентом именно на возможности restic. Но увы. Backrest не про это. С её помощью можно настраивать только локальный бэкап на конкретном одиночном хосте. Для меня вообще неактуальна подобная функциональность, потому что я предпочитаю такие вещи настраивать в консоли на скриптах.
Тем не менее, я развернул Backrest и попробовал. Она вполне удобна для тех, кому нужен веб интерфейс для настройки. Одним из явных удобств этой панели будет возможность просматривать и скачивать файлы из снепшотов в репозиотрии. Да и просто просмотр выполненных заданий и содержимое репозитория в браузере выглядит наглядно и удобно.
Запустить Backrest можно как локально, установив вручную из бинарника и создав службу, так и автоматически в Doсker Compose. Я выбрал второе. Немного доработал пример из репозитория. Получилось вот так:
services:
backrest:
image: garethgeorge/backrest:latest
container_name: backrest
hostname: backrest
volumes:
- ./backrest/data:/data
- ./backrest/config:/config
- ./backrest/cache:/cache
- ./backrest/tmp:/tmp # для восстановления бэкапов
- ./.ssh:/root/.ssh # для доступа к repo по sftp
- /path/to/local/repos:/userdata # локальная директория, которая бэкапится
- /path/to/local/repos:/repos # для использования в качестве local repo
environment:
- BACKREST_DATA=/data
- BACKREST_CONFIG=/config/config.json
- XDG_CACHE_HOME=/cache
- TMPDIR=/tmp
- TZ=Europe/Moscow
ports:
- "9898:9898"
restart: unless-stopped
Обращаю внимание на подключаемую директорию
.ssh. Она нужна для подключения репозитория по SFTP. По мне, так это самый простой и удобный способ подключиться к удалённому хосту для хранения бэкапов на нём. В этой директории должны быть 2 файла: ◽️id_ed25519 - приватный ключ для доступа к серверу, делаем так:
# ssh-keygen -t ed25519 -f ~/.ssh/id_ed25519 -C "$(whoami)@$(hostname)_$(date -I)"id_ed25519.pub добавляем на удалённом сервере в
authorized_keys.◽️known_hosts - файл с открытым ключом удалённого сервера. Подключитесь к нему с какого-нибудь сервера, а потом скопируйте сохранённую строку из
known_hosts в этот файл. После запуска контейнера можно идти на порт 9898 и настраивать бэкап через браузер. Первым делом надо добавить Repo. Для SFTP строка Repository URI будет примерно такая:
sftp:user@10.20.1.24:/mnt/backup. Остальные параметры указывайте по потребностям.После этого можно создавать задание для бэкапа. Я в своём примере бэкаплю директорию
/var/log, которую примапил в композ файле к /userdata.Примеры настроек Repo и задания для бэкапа показал внизу на картинках.
Теперь можно либо вручную сделать бэкап здесь же, либо дождаться планировщика. Перейдя в репозиторий, можно посмотреть Snapshots уже сделанных бэкапов, увидеть список файлов в них и по желанию что-то восстановить. Для восстановления удобно использовать директорию tmp, которую добавили в compose.
В целом нормальная, удобная панель, если для вас актуальна такая функциональность. Будет хорошим решением локальных бэкапов для тех, у кого рабочая машина на Linux. Для бэкапа и восстановления файлов с серверов, я думаю, можно обойтись и без веб интерфейса.
⇨ 🌐 Сайт / Исходники
#backup #restic
👍50👎5
В недавнем опросе про консольные редакторы было много упоминаний редактора micro. Никогда не пробовал и не работал в нём. Решил исправить. И вы знаете, он меня реально впечатлил. В нём удобно работать. Удобнее, чем во всех других, с которыми приходилось сталкиваться. Расскажу про основные моменты, на которые обратил внимание.
1️⃣ Установка. Тут всё просто. Micro есть в базовых репозиториях дистрибутивов, так что можно сделать так:
Я хотел получить самую свежую версию, поэтому сделал вот так:
По сути это просто одиночный бинарник на Go. Можно скачать из репозитория.
2️⃣ Делаем micro редактором по умолчанию:
Для того, чтобы в Midnight Commander (mc) он тоже выступал в качестве редактора, надо добавить в
И перечитать файл:
В MC нажимаем F9 ⇨ Options ⇨ Configuration ⇨ [ ] Use internal editor. Убираем галочку с внутреннего редактора. Теперь вместо
📌Теперь что больше всего понравилось:
🔹В micro можно передать текст через pipe:
И весь вывод откроется в редакторе, где с ним можно работать. Не знаю, как вам, но я в других редакторах этого не видел и не использовал. Мне показался очень удобным этот момент. За одно это захотелось использовать micro.
🔹В micro работает копирование/вставка так же, как в гуишных редакторах. Не нужны какие-то особенные выделения через Shift, как это сделано в mcedit или через какие-то другие горячие клавиши.
В micro просто выделяете мышкой текст, копируете по Ctrl+c, выбираете мышкой место, куда будете вставлять и вставляете по Ctrl+v. Как в любом редакторе. Плюс, работает Ctrl+a для выделения всего текста.
Но тут же заметил и минус. Если в mcedit ты выделил текст через Shift, он копируется в буфер внешней системы, через которую ты подключился. Можно вставить текст куда-то во вне терминала. Если копируешь текст в micro, он остаётся в буфере на сервере, и вне терминала его не скопировать. Я не понял, как выйти из этой ситуации и скопировать текст из редактора куда-то во вне. Думаю, этот момент зависит от настроек и возможностей SSH клиента.
🔹В micro полная поддержка мышки. Помимо копирования, вставки, можно двойным кликом выделить слово, тройным всю строку, чтобы, к примеру, её скопировать или удалить.
Выписал для себя горячие клавиши, которыми буду пользоваться:
▪️Ctrl-q, F10 выход
▪️Ctrl-s, F2 сохранение
▪️Ctrl-f, F7 поиск
▪️Ctrl-o открыть файл
▪️Ctrl-z откатить изменения
▪️Ctrl-с копировать
▪️Ctrl-v вставить
▪️Ctrl-k вырезать строку
▪️Ctrl-e открыть командную строку для внутренних команд
Как видно, некоторые клавиши пересекаются с
Я акцентировал внимание только на нескольких моментах, которые понравились больше всего. У Micro много других возможностей, про которые я не упомянул:
- Можно переназначать горячие клавиши
- У него различные темы и подсветки синтаксиса
- Есть плагины
- Можно открыть терминал в нижней строке редактора
- Можно делить экран на несколько рабочих областей
Лично мне micro понравился. Он объединил в себе набор полезной функциональности, простоту и удобство других редакторов. Много умеет, легко осваивается, можно усложнить плагинами, если захочется.
Если ещё не прикипели к какому-то редактору, то смело используйте micro. Я себе поставил его по умолчанию в WSL. Буду пользоваться. Если понравится и привыкну, то начну ставить его везде. Он по всем параметрам лучше и удобнее
⇨ 🌐 Сайт / Исходники
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#linux #terminal
# apt install microЯ хотел получить самую свежую версию, поэтому сделал вот так:
# curl https://getmic.ro | bash# mv micro /usr/bin/microПо сути это просто одиночный бинарник на Go. Можно скачать из репозитория.
# update-alternatives --install /usr/bin/editor editor /usr/bin/micro 50# update-alternatives --set editor /usr/bin/microДля того, чтобы в Midnight Commander (mc) он тоже выступал в качестве редактора, надо добавить в
~/.bashrc пару переменных:export EDITOR=microexport VISUAL=microИ перечитать файл:
# source ~/.bashrcВ MC нажимаем F9 ⇨ Options ⇨ Configuration ⇨ [ ] Use internal editor. Убираем галочку с внутреннего редактора. Теперь вместо
mcedit будет использоваться micro.📌Теперь что больше всего понравилось:
🔹В micro можно передать текст через pipe:
# docker inspect aa3a452f7320 | microИ весь вывод откроется в редакторе, где с ним можно работать. Не знаю, как вам, но я в других редакторах этого не видел и не использовал. Мне показался очень удобным этот момент. За одно это захотелось использовать micro.
🔹В micro работает копирование/вставка так же, как в гуишных редакторах. Не нужны какие-то особенные выделения через Shift, как это сделано в mcedit или через какие-то другие горячие клавиши.
В micro просто выделяете мышкой текст, копируете по Ctrl+c, выбираете мышкой место, куда будете вставлять и вставляете по Ctrl+v. Как в любом редакторе. Плюс, работает Ctrl+a для выделения всего текста.
Но тут же заметил и минус. Если в mcedit ты выделил текст через Shift, он копируется в буфер внешней системы, через которую ты подключился. Можно вставить текст куда-то во вне терминала. Если копируешь текст в micro, он остаётся в буфере на сервере, и вне терминала его не скопировать. Я не понял, как выйти из этой ситуации и скопировать текст из редактора куда-то во вне. Думаю, этот момент зависит от настроек и возможностей SSH клиента.
🔹В micro полная поддержка мышки. Помимо копирования, вставки, можно двойным кликом выделить слово, тройным всю строку, чтобы, к примеру, её скопировать или удалить.
Выписал для себя горячие клавиши, которыми буду пользоваться:
▪️Ctrl-q, F10 выход
▪️Ctrl-s, F2 сохранение
▪️Ctrl-f, F7 поиск
▪️Ctrl-o открыть файл
▪️Ctrl-z откатить изменения
▪️Ctrl-с копировать
▪️Ctrl-v вставить
▪️Ctrl-k вырезать строку
▪️Ctrl-e открыть командную строку для внутренних команд
Как видно, некоторые клавиши пересекаются с
mcedit. Ну а в целом набор горячих клавиш типовой, хоть и непривычный для меня в консольном редакторе.Я акцентировал внимание только на нескольких моментах, которые понравились больше всего. У Micro много других возможностей, про которые я не упомянул:
- Можно переназначать горячие клавиши
- У него различные темы и подсветки синтаксиса
- Есть плагины
- Можно открыть терминал в нижней строке редактора
- Можно делить экран на несколько рабочих областей
Лично мне micro понравился. Он объединил в себе набор полезной функциональности, простоту и удобство других редакторов. Много умеет, легко осваивается, можно усложнить плагинами, если захочется.
Если ещё не прикипели к какому-то редактору, то смело используйте micro. Я себе поставил его по умолчанию в WSL. Буду пользоваться. Если понравится и привыкну, то начну ставить его везде. Он по всем параметрам лучше и удобнее
mcedit, которым я пользуюсь просто из-за привычки.⇨ 🌐 Сайт / Исходники
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#linux #terminal
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍168👎4
Я написал подробный обзор на новую необычную систему INFRAX. Даже не знаю, как её коротко охарактеризовать или с чем-то сравнить. На ум не приходят аналоги. INFRAX объединяет в себе систему мониторинга, удалённого подключения к серверам и техподдержку с тикетами. Это если коротко.
Бегло посмотрел описание и возможности, и решил сразу её внедрить в небольшую реальную инфраструктуру. Примерно 2 недели попользовался, всё изучил и написал статью.
☝️Сразу обращаю внимание, что на текущий момент у системы очень лояльные ограничения бесплатной версии: 100 объектов мониторинга и 100 пользователей. Это закрывает потребности не только малого, но и некоторого среднего бизнеса, особенно если ставить только на сервера.
Для того, чтобы попробовать, не надо нигде регистрироваться, оставлять телефон, ждать, когда тебе ответят или что-то пришлют. Просто качайте и устанавливайте. По умолчанию будет активирована версия Community Edition. Нетипичный подход для разработки софта в РФ. Причём это именно своя разработка с нуля, без заимствования из других продуктов. Это видно и по внешнему виду, и по функциональности. INFRAX ни на кого не похож.
Расскажу коротко, как это работает.
1️⃣ Устанавливаете систему. Она упакована в Docker контейнеры. Установка автоматическая через консольное меню, как и дальнейшее управление. То есть сам Докер знать не обязательно. Всё интуитивно и просто.
2️⃣ INFRAX сканирует сеть, находит узлы, добавляет в систему. Вы потом можете сами настроить структуру и распределить узлы по папкам.
3️⃣ Для сбора базовых метрик нужно установить агенты мониторинга. Поддерживаются системы Linux и Windows. Установка автоматическая через панель управления. Достаточно указать учётные данные с правами на установку. Базовые метрики, графики и триггеры преднастроены. Дополнительно ничего делать не обязательно, если нет нужды в тонкой настройке.
4️⃣ Для каждого узла можно указать протокол подключения для управления (SSH, RDP, VNC, HTTP или Winbox) и настроить учётные данные для подключения. Подключаться к серверу можно будет через веб интерфейс или отдельное приложение. Все сессии через веб интерфейс автоматически записываются.
5️⃣ Если срабатывает какой-то триггер, автоматически создаётся тикет, приходит уведомление. В тикете можно посмотреть первичную аналитику по узлу, назначить ответственного, посмотреть метрики хоста, прошлые инциденты, или тут же подключиться к нему и решить проблему.
Здесь же в тикете можно пообщаться с ИИ-агентом. Он умеет смотреть метрики, логи и выполнять какие-то действия на сервере, предварительно получив согласие на это. В статье есть пример, как это выглядит. ИИ оплачивается отдельно, если захочется попробовать. В бесплатной версии он отключен.
Очень кратко описал основную функциональность. В системе много дополнительных возможностей:
- полный аудит всего и вся
- планировщик заданий
- планировщик тикетов
- база скриптов для запуска на узлах
- база знаний
- отчёты и аналитика
- интеграция с LDAP, AD, OAuth
- 2FA с помощью TOTP или Email
- полноценный RBAC
- объединение узлов в бизнес-сервисы
Система для технической поддержки и обслуживания выглядит очень привлекательно. Вся функциональность относительно простая, но за счёт того, что собрана в одном месте, пользоваться удобно. Создал пользователя сотруднику, назначил права, он получил доступ к каким-то хостам через веб интерфейс. Если надо, то в одно действие в режиме реального времени доступ закрывается.
Рекомендую посмотреть и попробовать:
⇨ INFRAX – управление, поддержка (HelpDesk), мониторинг, удаленный доступ и автоматизация ИТ-инфраструктуры
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#мониторинг #remote #infrax #отечественное
Бегло посмотрел описание и возможности, и решил сразу её внедрить в небольшую реальную инфраструктуру. Примерно 2 недели попользовался, всё изучил и написал статью.
☝️Сразу обращаю внимание, что на текущий момент у системы очень лояльные ограничения бесплатной версии: 100 объектов мониторинга и 100 пользователей. Это закрывает потребности не только малого, но и некоторого среднего бизнеса, особенно если ставить только на сервера.
Для того, чтобы попробовать, не надо нигде регистрироваться, оставлять телефон, ждать, когда тебе ответят или что-то пришлют. Просто качайте и устанавливайте. По умолчанию будет активирована версия Community Edition. Нетипичный подход для разработки софта в РФ. Причём это именно своя разработка с нуля, без заимствования из других продуктов. Это видно и по внешнему виду, и по функциональности. INFRAX ни на кого не похож.
Расскажу коротко, как это работает.
Здесь же в тикете можно пообщаться с ИИ-агентом. Он умеет смотреть метрики, логи и выполнять какие-то действия на сервере, предварительно получив согласие на это. В статье есть пример, как это выглядит. ИИ оплачивается отдельно, если захочется попробовать. В бесплатной версии он отключен.
Очень кратко описал основную функциональность. В системе много дополнительных возможностей:
- полный аудит всего и вся
- планировщик заданий
- планировщик тикетов
- база скриптов для запуска на узлах
- база знаний
- отчёты и аналитика
- интеграция с LDAP, AD, OAuth
- 2FA с помощью TOTP или Email
- полноценный RBAC
- объединение узлов в бизнес-сервисы
Система для технической поддержки и обслуживания выглядит очень привлекательно. Вся функциональность относительно простая, но за счёт того, что собрана в одном месте, пользоваться удобно. Создал пользователя сотруднику, назначил права, он получил доступ к каким-то хостам через веб интерфейс. Если надо, то в одно действие в режиме реального времени доступ закрывается.
Рекомендую посмотреть и попробовать:
⇨ INFRAX – управление, поддержка (HelpDesk), мониторинг, удаленный доступ и автоматизация ИТ-инфраструктуры
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#мониторинг #remote #infrax #отечественное
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍216👎4
Заметил в 7-й версии RouterOS на Микротике в настройках DHCP сервера новую кнопку Send Reconfigure. Она находится в списке выданных аренд (Leases). Специально заглянул в старое устройство. Её там не было. Стало интересно, что это такое.
Как оказалось, DHCP сервер может инициировать обновление сетевых настроек. Для этого есть специальное DHCP-сообщение типа FORCERENEW. Вообще не знал и никогда не слышал, что это возможно. И не видел, чтобы кто-то так делал. Я всегда обновлял настройки со стороны клиента. Думал, только он может решать, когда ему это делать. Соответственно, если ты поменял настройки на сервере, то либо ждешь, когда закончится аренда, либо клиентом инициируешь обновление.
На эту тему есть RFC 3203 (DHCP reconfigure extension) аж от 2001 года. То есть это не что-то новое и уникальное. Просто в RouterOS добавили поддержку этой функциональности. Дай, думаю, попробую, как это работает. Выглядит удобно. Поменял IP адрес в аренде и отправил команду на обновление настроек. Но ничего не вышло.
Тут не всё так просто. Для того, чтобы кто попало не рассылал по сети сообщения на обновление настроек, в этот механизм добавлена защита, описанная в RFC 6704 (Forcerenew Nonce Authentication). При получении аренды от сервера, клиент сообщает, что он поддерживает механизм аутентификации. В ответ сервер отправляет ему ключ аутентификации.
В Mikrotik этот ключ можно посмотреть в статусе аренды, на вкладке Active, в поле Reconfigure Key. Если ключа там нет, значит обмена ключами не было, клиент не примет запрос FORCERENEW на смену настроек. Сервер, соответственно, когда отправляет запрос, в заголовок добавляет ключ для аутентификации.
Будет или нет работать команда FORCERENEW зависит опять от клиента. В клиенте того же Mikrotik сделали удобно. Там просто добавили опцию в свойства клиента - Allow Reconfigure Messages. Ставишь галочку и клиент обменивается с сервером ключами.
С другими клиентами сложнее. Стандартный
Стандартный DHCP клиент в Windows тоже не имеет такой поддержки.
В итоге фичу в RouterOS завезли, причём весьма удобную, а на практике применить её негде. Только если в качестве DHCP клиентов у вас выступают те же устройства RouterOS. На практике это не особо и нужно, хотя и может где-то пригодиться.
Вы вообще знали о такой возможности? Не понимаю, почему её не реализовали в популярных клиентах. Удобно же.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#mikrotik #network #dhcp
Как оказалось, DHCP сервер может инициировать обновление сетевых настроек. Для этого есть специальное DHCP-сообщение типа FORCERENEW. Вообще не знал и никогда не слышал, что это возможно. И не видел, чтобы кто-то так делал. Я всегда обновлял настройки со стороны клиента. Думал, только он может решать, когда ему это делать. Соответственно, если ты поменял настройки на сервере, то либо ждешь, когда закончится аренда, либо клиентом инициируешь обновление.
На эту тему есть RFC 3203 (DHCP reconfigure extension) аж от 2001 года. То есть это не что-то новое и уникальное. Просто в RouterOS добавили поддержку этой функциональности. Дай, думаю, попробую, как это работает. Выглядит удобно. Поменял IP адрес в аренде и отправил команду на обновление настроек. Но ничего не вышло.
Тут не всё так просто. Для того, чтобы кто попало не рассылал по сети сообщения на обновление настроек, в этот механизм добавлена защита, описанная в RFC 6704 (Forcerenew Nonce Authentication). При получении аренды от сервера, клиент сообщает, что он поддерживает механизм аутентификации. В ответ сервер отправляет ему ключ аутентификации.
В Mikrotik этот ключ можно посмотреть в статусе аренды, на вкладке Active, в поле Reconfigure Key. Если ключа там нет, значит обмена ключами не было, клиент не примет запрос FORCERENEW на смену настроек. Сервер, соответственно, когда отправляет запрос, в заголовок добавляет ключ для аутентификации.
Будет или нет работать команда FORCERENEW зависит опять от клиента. В клиенте того же Mikrotik сделали удобно. Там просто добавили опцию в свойства клиента - Allow Reconfigure Messages. Ставишь галочку и клиент обменивается с сервером ключами.
С другими клиентами сложнее. Стандартный
dhclient в Linux по умолчанию не поддерживает реализацию RFC 3203 и RFC 6704. Нужно брать какой-то другой. Например, цисковский поддерживает, но я не знаю, можно ли его запустить в Linux. Не изучал этот вопрос.Стандартный DHCP клиент в Windows тоже не имеет такой поддержки.
В итоге фичу в RouterOS завезли, причём весьма удобную, а на практике применить её негде. Только если в качестве DHCP клиентов у вас выступают те же устройства RouterOS. На практике это не особо и нужно, хотя и может где-то пригодиться.
Вы вообще знали о такой возможности? Не понимаю, почему её не реализовали в популярных клиентах. Удобно же.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#mikrotik #network #dhcp
👍156👎3
Когда надо узнать скорость сетевого интерфейса в Linux, первое, что приходит на ум - ethtool. Это самая популярная утилита для просмотра и управления настройками сетевых адаптеров. С ней только одна проблема - в базовом наборе системных утилит её обычно нет. Надо ставить отдельно:
Для разовых задач особого смысла в этом нет, потому что все подобные утилиты берут информацию у ядра. Нет никаких проблем самим её посмотреть. Проверяем имена своих сетевых интерфейсов:
И смотрим скорость:
В данном случае это скорость 1000Mb/s или 1Gb/s. Если у вас виртуальная машина, то в зависимости от типа эмуляции, вы можете получить неожиданные значения:
В данном случае
Это скорость сетевой карты, которая в бридже с виртуальным коммутатором для виртуальных машин.
☝️Кстати, если хотите быстро узнать, в виртуалке вы или на железе, запустите:
Я всегда использую эту команду для таких задач.
Помимо скорости интерфейса, ядро может передать всю остальную информацию. Например, наличие линка, параметры дуплекса, mtu или mac адрес:
Можете зайти в директорию
Таким образом можно посмотреть всё, что угодно из того, что показывают системные утилиты. Просто некоторые значения нужно преобразовывать. Например, открытые TCP порты:
Номера портов будут в шестнадцатеричном формате. Подобным образом у ядра можно выведать массу информации. Примерно этим и занимаются многочисленные клоны *top-ов и им подобных утилит. Вы и сами что-то подобное можете написать под свои задачи относительно просто, особенно с помощью ИИ.
#linux #terminal
# apt install ethtoolДля разовых задач особого смысла в этом нет, потому что все подобные утилиты берут информацию у ядра. Нет никаких проблем самим её посмотреть. Проверяем имена своих сетевых интерфейсов:
# ip a И смотрим скорость:
# cat /sys/class/net/enp4s0/speed1000В данном случае это скорость 1000Mb/s или 1Gb/s. Если у вас виртуальная машина, то в зависимости от типа эмуляции, вы можете получить неожиданные значения:
# cat /sys/class/net/ens18/speed-1В данном случае
-1 - это отсутствие какого-либо значения, нет данных. Это характерно для виртуальных машин в KVM. Virtio-драйвер не сообщает реальную физическую скорость (у него её просто нет) даже если он в бридже с реальной сетевой картой. А вот драйвер в Hyper-V сообщает:# cat /sys/class/net/eth0/speed1000Это скорость сетевой карты, которая в бридже с виртуальным коммутатором для виртуальных машин.
☝️Кстати, если хотите быстро узнать, в виртуалке вы или на железе, запустите:
# hostnamectlЯ всегда использую эту команду для таких задач.
Помимо скорости интерфейса, ядро может передать всю остальную информацию. Например, наличие линка, параметры дуплекса, mtu или mac адрес:
# cat /sys/class/net/enp4s0/carrier1# cat /sys/class/net/enp4s0/duplexfull# cat /sys/class/net/enp4s0/mtu1500# cat /sys/class/net/enp4s0/address00:25:22:dc:39:42Можете зайти в директорию
/sys/class/net/enp4s0/ и посмотреть всё, что там есть.Таким образом можно посмотреть всё, что угодно из того, что показывают системные утилиты. Просто некоторые значения нужно преобразовывать. Например, открытые TCP порты:
# cat /proc/net/tcpНомера портов будут в шестнадцатеричном формате. Подобным образом у ядра можно выведать массу информации. Примерно этим и занимаются многочисленные клоны *top-ов и им подобных утилит. Вы и сами что-то подобное можете написать под свои задачи относительно просто, особенно с помощью ИИ.
#linux #terminal
👍102👎2
Я давно и активно использую виртуальные машины с Linux в подсистеме WSL в Windows. Точнее одну конкретную виртуальную машину с Ubuntu. Она у меня давно установлена ещё версии 22.04. В системе она так и отображается - Ubuntu-22.04.
Внутри она давно обновилась до Ubuntu 24.04 LTS и мне не нравится, что теперь версия в названии не соответствует действительности. Всё руки не доходили исправить это. А тут подвернулся случай, потому что решил поставить ещё одну систему с Debian и заодно навести в целом порядок с WSL.
Я решил, во-первых, переименовать Ubuntu. А во-вторых, перенести все WSL системы для удобства в одну директорию. По умолчанию Убунта живёт вот тут:
Задумал перенести её и остальные виртуалки в
Смотрим список систем в терминале PowerShell:
У меня она пока одна. Останавливаем:
Делаем экспорт и потом сразу импорт:
Назвал систему просто Ubuntu, чтобы не менять постоянно версии. Она у меня только одна будет. Смотрю список систем:
Делаю новую системой по умолчанию:
После этого зашёл в настройки стандартного Терминала Windows, убедился, что появился профиль для Ubuntu. На всякий случай проверил настройки, чтобы они совпадали с прошлым профилем. Я особо стандартный не менял, на вид там всё так же.
После этого зашёл в новый профиль и, соответственно, в перенесённую систему. Убедился, что с ней всё в порядке. Там единственный момент возник, что система почему-то сразу под пользователем root стартует, хотя в исходную я заходил всегда под обычным пользователем. Исправил это так. Создал файл
После этого новый профиль открывался под моим пользователем. Убедившись, что импортированная система нормально работает, старую удалил:
Образ старого диска автоматически удалился, а новый остался в
Теперь пришло время поставить ещё одну систему. Смотрю список доступных из магазина:
Вижу образ с Debian. Его и буду ставить. К сожалению, я не понял, как мне сразу указать директорию, куда я буду его устанавливать. Поэтому сначала просто установил:
А потом так же через экспорт/импрот перенёс в нужную директорию.
Для удобства я назначаю системе в WSL и основному хосту дополнительные статические IP адреса на виртуальном коммутаторе. Подробно об этом рассказывал отдельно. Задачу я решил костылём, а если хотите красиво и удобно, то лучше сделать вот так. Но лично мне такой режим не очень нравится. Мне больше подходит изолированная сеть у Linux, чтобы она не пересекалась с основной системой.
Ещё материалы по теме:
▪️Запуск графических приложений Linux в основной системе
▪️SSH туннели через WSL
▪️Проброс портов в WSL
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#windows #wsl
Внутри она давно обновилась до Ubuntu 24.04 LTS и мне не нравится, что теперь версия в названии не соответствует действительности. Всё руки не доходили исправить это. А тут подвернулся случай, потому что решил поставить ещё одну систему с Debian и заодно навести в целом порядок с WSL.
Я решил, во-первых, переименовать Ubuntu. А во-вторых, перенести все WSL системы для удобства в одну директорию. По умолчанию Убунта живёт вот тут:
C:\Users\User\AppData\Local\Packages\CanonicalGroupLimited.Ubuntu22.04LTS_79rhkp1fndgsc\LocalState\ext4.vhdxЗадумал перенести её и остальные виртуалки в
C:\Users\User\Documents\WSL. Для переименования и одновременного переноса проще всего воспользоваться процедурой экспорт/импорт. Смотрим список систем в терминале PowerShell:
> wsl -l -v NAME STATE VERSION* Ubuntu-22.04 Running 2У меня она пока одна. Останавливаем:
> wsl --shutdownДелаем экспорт и потом сразу импорт:
> wsl --export Ubuntu-22.04 C:\Users\User\Documents\WSL\ubuntu24.tar> wsl --import Ubuntu C:\Users\User\Documents\WSL\Ubuntu C:\Users\Zerox\Documents\WSL\ubuntu24.tar --version 2Назвал систему просто Ubuntu, чтобы не менять постоянно версии. Она у меня только одна будет. Смотрю список систем:
> wsl -l -v NAME STATE VERSIONUbuntu Stopped 2* Ubuntu-22.04 Stopped 2Делаю новую системой по умолчанию:
> wsl --set-default UbuntuПосле этого зашёл в настройки стандартного Терминала Windows, убедился, что появился профиль для Ubuntu. На всякий случай проверил настройки, чтобы они совпадали с прошлым профилем. Я особо стандартный не менял, на вид там всё так же.
После этого зашёл в новый профиль и, соответственно, в перенесённую систему. Убедился, что с ней всё в порядке. Там единственный момент возник, что система почему-то сразу под пользователем root стартует, хотя в исходную я заходил всегда под обычным пользователем. Исправил это так. Создал файл
/etc/wsl.conf и добавил туда:[user]default=zeroxПосле этого новый профиль открывался под моим пользователем. Убедившись, что импортированная система нормально работает, старую удалил:
> wsl --unregister Ubuntu-22.04Образ старого диска автоматически удалился, а новый остался в
C:\Users\Zerox\Documents\WSL\Ubuntu, куда я его импортировал.Теперь пришло время поставить ещё одну систему. Смотрю список доступных из магазина:
> wsl -l -oВижу образ с Debian. Его и буду ставить. К сожалению, я не понял, как мне сразу указать директорию, куда я буду его устанавливать. Поэтому сначала просто установил:
> wsl --install -d DebianА потом так же через экспорт/импрот перенёс в нужную директорию.
Для удобства я назначаю системе в WSL и основному хосту дополнительные статические IP адреса на виртуальном коммутаторе. Подробно об этом рассказывал отдельно. Задачу я решил костылём, а если хотите красиво и удобно, то лучше сделать вот так. Но лично мне такой режим не очень нравится. Мне больше подходит изолированная сеть у Linux, чтобы она не пересекалась с основной системой.
Ещё материалы по теме:
▪️Запуск графических приложений Linux в основной системе
▪️SSH туннели через WSL
▪️Проброс портов в WSL
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#windows #wsl
👍150👎3
Проработал вчера вопрос обновления Debian 12 до свежего релиза 13 Trixie. Предстоит много раз проделать эту процедуру, поэтому решил сам внимательно прочитать документацию к новому релизу и вручную выполнить обновление.
⇨ Как обновить Debian 12 до Debian 13 Trixie
Из особенностей отмечу следующее:
🔹У меня возникли проблемы совместимости с некоторыми пакетами Docker, так что рекомендую всё, что установлено не из стандартных репозиториев удалить, а после обновления вернуть, иначе в процессе могут возникнуть ошибки совместимости и зависимости пакетов.
🔹Очень сильно изменилась конфигурация imap сервера Dovecot в той версии, что приедет с новым релизом. Внимательно проверьте новую конфигурацию сервиса перед обновлением и отладьте. Иначе может случиться сюрприз. Я уже видел отзывы на эту тему.
🔹Наконец-то обновился менеджер пакетов
🔹В Debian 13 убраны утилиты
🔹Раздел
🔹Немного поменялся установщик. Я лично посмотрел на его. По описанию показалось, что он сильно поменялся. На деле не увидел изменений. Основные изменения под капотом. Внешний вид точно такой же остался. Упоминалось, что изменился алгоритм автоматической настройки разделов и точек монтирования. Заметил только, что размер раздела под swap немного по-другому выбирается. Больше никакой разницы не увидел со старым установщиков, который я знаю ещё со времён 6-й версии.
🔹Если у вас на сервере установлена MariaDB, имейте ввиду, что режим recovery запустится только с теми же бинарниками, с которыми база упала. То есть если аварийно завершите работу СУБД версии 10.11 и обновитесь до 11.8, восстановление не сработает. Поэтому перед обновлением корректно завершите работу СУБД, чтобы она остановилась без каких-либо ошибок.
🔹Если в системе используется служба systemd-sysctl, то файл /etc/sysctl.conf больше ею не поддерживается. Вместо него используется /usr/lib/sysctl.d/50-default.conf. Важное изменение. Имейте ввиду. Настройки лучше хранить в /etc/sysctl.d/*.conf.
Всё это вычитал по официальным ссылкам:
◽️What’s new in Debian 13
◽️Upgrades from Debian 12 (bookworm)
#linux #debian
⇨ Как обновить Debian 12 до Debian 13 Trixie
Из особенностей отмечу следующее:
🔹У меня возникли проблемы совместимости с некоторыми пакетами Docker, так что рекомендую всё, что установлено не из стандартных репозиториев удалить, а после обновления вернуть, иначе в процессе могут возникнуть ошибки совместимости и зависимости пакетов.
🔹Очень сильно изменилась конфигурация imap сервера Dovecot в той версии, что приедет с новым релизом. Внимательно проверьте новую конфигурацию сервиса перед обновлением и отладьте. Иначе может случиться сюрприз. Я уже видел отзывы на эту тему.
🔹Наконец-то обновился менеджер пакетов
apt и стал хоть немного, но удобнее за счёт форматирования списка пакетов и подсветки. Не понимаю, почему так долго не могли это сделать. Но даже в таком виде он выглядит хуже, чем yum или dnf даже 15 лет назад. У apt появился новый формат конфигурации. Я использовал уже его.🔹В Debian 13 убраны утилиты
last, lastb и lastlog. Вместо них можно использовать wtmpdb (пакет libpam-wtmpdb), lastlog2 (пакет libpam-lastlog2) и команду lslogins --failed.🔹Раздел
/tmp переехал в оперативную память tmpfs. Может занимать до 50% свободной памяти. Настроить поведение можно в systemd в отдельном конфигурационном файле для этого tmp.mount.🔹Немного поменялся установщик. Я лично посмотрел на его. По описанию показалось, что он сильно поменялся. На деле не увидел изменений. Основные изменения под капотом. Внешний вид точно такой же остался. Упоминалось, что изменился алгоритм автоматической настройки разделов и точек монтирования. Заметил только, что размер раздела под swap немного по-другому выбирается. Больше никакой разницы не увидел со старым установщиков, который я знаю ещё со времён 6-й версии.
🔹Если у вас на сервере установлена MariaDB, имейте ввиду, что режим recovery запустится только с теми же бинарниками, с которыми база упала. То есть если аварийно завершите работу СУБД версии 10.11 и обновитесь до 11.8, восстановление не сработает. Поэтому перед обновлением корректно завершите работу СУБД, чтобы она остановилась без каких-либо ошибок.
🔹Если в системе используется служба systemd-sysctl, то файл /etc/sysctl.conf больше ею не поддерживается. Вместо него используется /usr/lib/sysctl.d/50-default.conf. Важное изменение. Имейте ввиду. Настройки лучше хранить в /etc/sysctl.d/*.conf.
Всё это вычитал по официальным ссылкам:
◽️What’s new in Debian 13
◽️Upgrades from Debian 12 (bookworm)
#linux #debian
Server Admin
Обновление Debian 12 до 13 Trixie | serveradmin.ru
Пошаговая инструкция с разбором нюансов обновления и возможных ошибок при обновлении Debian 12 до 13-й версии.
1👍162👎2
⇨ Пульс вашего сервера. Мониторинг Proxmox - Pulse
Первый раз услышал про этот мониторинг для Proxmox VE. Раньше и не видел, и не слышал. На вид понравилось. Думаю, что сам попробую и напишу заметку.
⇨ Kernel TLS в Angie: ускорение или деградация?
Полезный обзор технологии Kernel TLS, которая реализует шифрование трафика сразу в ядре. В общем случае это обеспечивает прирост в обработке шифрованного трафика. Но как это обычно бывает, везде есть нюансы. Есть такие конфигурации, когда производительность катастрофически падает. Связано это с тем, что иногда трафик может ходить из ядра в user space и обратно. В видео приведён такой пример.
⇨ Сделал тихий серверный шкаф. Можно ли ставить энтерпрайз сервер в квартире? Строю HOMELAB 2
Интересно было посмотреть, как автор покупал, собирал и обесшумливал серверный шкаф, который поставил рядом со своим рабочим место. Мне тоже такой нужно, уже даже подбирал себе на Авито, но так ничего не выбрал. Хорошие шкафы новые дорого стоят, а б.у. покупать не очень удобно, особенно после того, как я уехал из Москвы. Если кто-то продаёт или знает, где купить хорошие шкафы, поделитесь информацией.
⇨ Paperless AI - управление документами с помощью AI (LLM). Paperless NGX + AI + Ollama
Практический пример по объединению системы для хранения документов Paperless NGX в связке с ИИ. Вся связка работает в режиме self-hosted на своём железе. На видео пошаговая инструкция по настройке всех компонентов. В конце есть пример с демонстрацией работы.
⇨ Установка и настройка ZITADEL | Полный гайд по self-hosted IAM
Обзор одной из платформ для аутентификации и управления доступом Zitadel, аналог Authentik, Keycloak и т.д.
⇨ Self-hosted automation for EVERYTHING! // n8n Tutorial
Очередной разбор автоматизации с помощью платформы n8n. В данном видео в основном обзор продукта: установка, основные возможности, из чего состоит и как пользоваться. В конце автор привёл пример публикации заметки из Notion в социальные сети.
⇨ Практика по сокетам | Компьютерные сети 2025 - 37
⇨ Протоколы, интерфейсы и сервисы | Компьютерные сети 2025 - 38
⇨ Защищенные сетевые протоколы | Компьютерные сети 2025 - 39
Очередные уроки хорошего бесплатного курса по компьютерным сетям. Все предыдущие уроки текущего курса обновились в 2025 году.
⇨ Proxmox 9 + Terraform — Автоматическая Установка Виртуальных Машин | Полный Гайд
Практический пример работы с Terraform в Proxmox для создания VM.
⇨ Proxmox Backup Server: A Game Changer for HomeLabs!
Обзор PBS. Будет интересно только тем, кто не знаком с этим продуктом. Автор предлагает его устанавливать в LXC контейнер, что для меня было непривычно. Я его ставлю прямо на хост с VE. Минусов не увидел, а пользоваться удобно, так как можно тут же развернуть и проверить бэкапы.
⇨ DKT83 - DevOps Mock Interview #4 (Junior/Middle DevOps Engineer)
Интересное интервью бывшего разработчика, который решил стать DevOps. Там всю базу обсудили этой профессии. Можно послушать где-то на прогулке или в машине. Смотреть не обязательно.
#видео
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
ПУЛЬС ВАШЕГО СЕРВЕРА. МОНИТОРИНГ PROXMOX - PULSE
💳 Поддержи проект:
✔️ Boosty → https://boosty.to/liagen/donate
✔️ T-BANK card 💳 → 5536 9139 8127 7276
🧑💻 ссылки на все ресурсы:
✔️ Сайт 🌐 → https://www.samohosting.ru/
✔️ Форум 🗨️ → https://forum.samohosting.ru/
✔️ Телеграм 📰 → https://xn--r1a.website/samohosting…
✔️ Boosty → https://boosty.to/liagen/donate
✔️ T-BANK card 💳 → 5536 9139 8127 7276
🧑💻 ссылки на все ресурсы:
✔️ Сайт 🌐 → https://www.samohosting.ru/
✔️ Форум 🗨️ → https://forum.samohosting.ru/
✔️ Телеграм 📰 → https://xn--r1a.website/samohosting…
👍58👎1
Решил выделить в отдельную публикацию свежий цикл из трёх видео про настройку виртуализации на базе Proxmox для малого и среднего бизнеса. Автор построит IT инфраструктуру с нуля на голом железе. Всё это будет сделано на базе реальных примеров с настройкой сети, VPN, файрвола, удалённого доступа в инфраструктуру и т.д.
Получился хороший, информативный цикл (ещё не закончен), который будет интересен в основном новичкам, потому что даётся база. Из интересного, автор рассматривает разные способы организации доступа в интернет для виртуальных машин.
1. Каждая виртуалка имеет свой внешний IP.
2. В качестве шлюза выступает сам гипервизор.
3. В качестве шлюза использует Mikrotik CHR в отдельной виртуальной машине.
Я тоже в разных ситуациях могу использовать один из этих способов. Это в 3-м видео разбирается. Причём с практическим примером от Hetzner, но похожая схема бывает и у других провайдеров.
▶️ Обзор построения IT-инфраструктуры на базе Proxmox (Debian, Mikrotik CHR, VPN, VM, AD, RDP) [Видео0]
▶️ Установка Proxmox на Hetzner + базовая защита (Debian 12, SSH, Fail2Ban, Firewall, Nmap) [Видео1]
▶️ Организация интернета для ВМ в Proxmox (PROXMOX, Bridge, NAT, MikroTik CHR, vmbr0/vmbr1) [Видео2]
В целом ничего особенного лично для меня, но мне импонирует такой формат, когда показывают на примере реального хостинга, а не искусственной лабы.
Очень хочется написать такой же цикл в тексте на примере реального хостера, например, Selectel. У меня там куча бонусных средств для этого есть. Не хватает только одного - времени. Такие статьи писать очень времязатратно. Но, думаю, получится рано или поздно.
У меня есть большая статья про настройку Proxmox, но она устарела. Хотя принципиально ничего не поменялось, но всё равно надо освежить. Я там в том числе рассказываю про реальный пример настройки доступа в интернет виртуальных машин с использованием шлюза на одной из них с пробросом в него внешнего IP. Прям с одного из рабочих серверов взял пример и описал.
#обучение #proxmox
Получился хороший, информативный цикл (ещё не закончен), который будет интересен в основном новичкам, потому что даётся база. Из интересного, автор рассматривает разные способы организации доступа в интернет для виртуальных машин.
1. Каждая виртуалка имеет свой внешний IP.
2. В качестве шлюза выступает сам гипервизор.
3. В качестве шлюза использует Mikrotik CHR в отдельной виртуальной машине.
Я тоже в разных ситуациях могу использовать один из этих способов. Это в 3-м видео разбирается. Причём с практическим примером от Hetzner, но похожая схема бывает и у других провайдеров.
В целом ничего особенного лично для меня, но мне импонирует такой формат, когда показывают на примере реального хостинга, а не искусственной лабы.
Очень хочется написать такой же цикл в тексте на примере реального хостера, например, Selectel. У меня там куча бонусных средств для этого есть. Не хватает только одного - времени. Такие статьи писать очень времязатратно. Но, думаю, получится рано или поздно.
У меня есть большая статья про настройку Proxmox, но она устарела. Хотя принципиально ничего не поменялось, но всё равно надо освежить. Я там в том числе рассказываю про реальный пример настройки доступа в интернет виртуальных машин с использованием шлюза на одной из них с пробросом в него внешнего IP. Прям с одного из рабочих серверов взял пример и описал.
#обучение #proxmox
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Обзор построения IT-инфраструктуры на базе Proxmox (Debian, Mikrotik CHR, VPN, VM, AD, RDP) [Видео0]
0:00 Приветствие
0:42 Proxmox Server
0:58 Интернет для виртуалок
2:42 Mikrotik CHR
3:56 Установка виртуалок
4:38 Mikrotik VPN
5:41 Microsoft AD
7:51 Итог
Хочешь обсудить тему или задать вопрос лично?
Залетай в чат :
https://xn--r1a.website/sudo_hub
Это вводное видео…
0:42 Proxmox Server
0:58 Интернет для виртуалок
2:42 Mikrotik CHR
3:56 Установка виртуалок
4:38 Mikrotik VPN
5:41 Microsoft AD
7:51 Итог
Хочешь обсудить тему или задать вопрос лично?
Залетай в чат :
https://xn--r1a.website/sudo_hub
Это вводное видео…
6👍156👎2
Дорогие читатели, отличных вам выходных. С радостью (НЕТ) хочу сообщить, что я открыл свой канал в MAX.
Думаю, не надо объяснять, что вести ещё одну соц. сеть мне не очень хочется, при том, что текущая полностью устраивает, но обстоятельства вынуждают. Так что кому удобно читать меня там, могут это делать уже сейчас. Там будут копии публикаций отсюда.
⇨ https://max.ru/srv_admin
Думаю, не надо объяснять, что вести ещё одну соц. сеть мне не очень хочется, при том, что текущая полностью устраивает, но обстоятельства вынуждают. Так что кому удобно читать меня там, могут это делать уже сейчас. Там будут копии публикаций отсюда.
⇨ https://max.ru/srv_admin
6👎270👍97
В новом релизе Debian 13 обновился пакетный менеджер apt до версии 3.0, которая вышла в апреле 2025 года. В прошлом релизе apt был версии 2.6. От пакетного менеджера нужно обычно немного - установить пакет и зависимости. Основное, на что обращаешь внимание - интерфейс. И вот тут у apt всегда было всё как-то не очень.
Это не очень и попытались исправить. Стало лучше, но всё равно не так информативно, как в том же
Ну да ладно, что есть то есть. Посмотрел повнимательнее на новый apt, так как теперь постоянно с ним работать придётся. Вот основные изменения по сравнению с прошлой версией.
1️⃣ Как я уже сказал - внешний вид. Более наглядно выделены пакеты и зависимости. Плюс, по умолчанию появилась подсветка. Ею, если что, можно управлять через параметры. Не знаю, кому это может понадобиться. Я точно заниматься подобной настройкой не буду.
2️⃣ Теперь вывод apt, который не умещается в один экран терминала, например, при
Для ручного просмотра это удобно, но теперь не понятно, как грепать вывод. Надо отключать новый pager. Но не хочется лезть в настройки для этого. Можно сделать так:
Такой формат трудно запомнить. Нужно будет постоянно в шпаргалку лазить, что неудобно. В общем, нововведение так себе.
3️⃣ Появилась поддержка формата DEB822 для описания репозиториев. Вместо файла
Эта команда забэкапит файл
Мне новый формат понравился больше. Лучше воспринимается на глаз за счёт того, что запись репозитория разбита на строки с заголовками. Плюс, через
4️⃣ Появился новый движок поиска зависимостей. Не знаю, для чего он был сделан и какие проблемы решил. Я не сталкивался с какими-то проблемами в зависимостях из-за apt.
Ещё ряд не таких заметных в эксплуатации изменений:
- появились несжатые индексы, традиционно их сжимают gzip или xz, теперь будут и несжатые
- переработали механизм autoremove, но я не увидел сам и не нашёл нигде примеров, что конкретно изменилось
- прекращено использование утилиты apt-key и общего хранилища ключей, но это не сказать, что что-то новое, от неё уже давно отказываются в пользу отдельного ключа для каждого репозитория
- вместо gnutls и gcrypt для шифрования теперь используется openssl
В завершении несколько полезных ключей для apt.
Посмотреть версии устанавливаемых пакетов:
Пакеты, установленные не из системных репозиториев:
Список установленных пакетов с версиями и репозиториями, откуда они были установлены:
То же самое, только чтобы можно было грепнуть неродные репы:
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#linux #debian
Это не очень и попытались исправить. Стало лучше, но всё равно не так информативно, как в том же
dnf. Сравнение можно посмотреть на картинке внизу. Не знаю, в чём сложность повторить примерно так же. У dnf и репозиторий сразу видно, и версию пакета, и отформатировано аккуратнее. У apt стало лучше, чем было, когда все пакеты простынёй вываливали. Частично это можно было исправить дополнительными ключами, но всё равно не так наглядно было, как у dnf. Ну да ладно, что есть то есть. Посмотрел повнимательнее на новый apt, так как теперь постоянно с ним работать придётся. Вот основные изменения по сравнению с прошлой версией.
apt search, не вываливается весь в него, а выводится построчно, как при использовании less. Соответственно, работают все горячие клавиши от less. Я чаще всего использую Shif-g - переместиться в конец списка, / - включить поиск. Подробнее про less писал отдельно.Для ручного просмотра это удобно, но теперь не понятно, как грепать вывод. Надо отключать новый pager. Но не хочется лезть в настройки для этого. Можно сделать так:
# apt -o APT::Pager= list | grep zabbixТакой формат трудно запомнить. Нужно будет постоянно в шпаргалку лазить, что неудобно. В общем, нововведение так себе.
sources.list можно описывать репозитории в sources.list.d/*.sources. Текущий sources.list преобразовать в новый формат можно так:# apt modernize-sourcesЭта команда забэкапит файл
sources.list и создаст вместо него sources.list.d/debian.sources. Так же новый apt поддерживает использование Debian APT CDN. Можно указать в качестве источника пакетов deb.debian.org, а реальный сервер для загрузки будет выбран автоматически на основании не знаю чего. Не нашёл информации на этот счёт.Мне новый формат понравился больше. Лучше воспринимается на глаз за счёт того, что запись репозитория разбита на строки с заголовками. Плюс, через
Enabled: no можно отключать репозиторий. Это более аккуратно выглядит, чем комментирование строк с репозиториями.Ещё ряд не таких заметных в эксплуатации изменений:
- появились несжатые индексы, традиционно их сжимают gzip или xz, теперь будут и несжатые
- переработали механизм autoremove, но я не увидел сам и не нашёл нигде примеров, что конкретно изменилось
- прекращено использование утилиты apt-key и общего хранилища ключей, но это не сказать, что что-то новое, от неё уже давно отказываются в пользу отдельного ключа для каждого репозитория
- вместо gnutls и gcrypt для шифрования теперь используется openssl
В завершении несколько полезных ключей для apt.
Посмотреть версии устанавливаемых пакетов:
# apt -V install mcПакеты, установленные не из системных репозиториев:
# apt list '?narrow(?installed, ?not(?origin(Debian)))'Список установленных пакетов с версиями и репозиториями, откуда они были установлены:
# apt -o APT::Pager= list --installed -a | grep -v stableТо же самое, только чтобы можно было грепнуть неродные репы:
# apt -o APT::Pager= list -a --installed | grep -v stable | grep -v '^$'———
ServerAdmin:
#linux #debian
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍106👎2
На днях зашёл в свежеустановленную из шаблона систему Rocky Linux 9 и с удивлением увидел неработающую. команду:
Первый раз с таким столкнулся. Почему-то был уверен, что это либо системная утилита, либо часть оболочки bash. Не припоминаю, чтобы я отдельно её ставил.
Эта команда полностью очищает терминал и возвращает курсор на самую первую строку. Я постоянно её использую в процессе работы в консоли. Регулярно по привычке набираю её в терминале Windows и расстраиваюсь, что она не работает. Начинаю вспоминать, как она выглядит в винде. Даю подсказку -
Оказывается, эта утилита живёт в пакете ncurses. В Debian и Ubuntu никогда этот пакет не ставил. Утилита clear там была во всех редакциях и шаблонах, с которыми мне приходилось работать. А вот в Rocky пришлось поставить:
Так что если не знали, про clear, то рекомендую посмотреть и пользоваться. Удобная утилита. Ну а если потеряли, то знайте, что живёт она в отдельном пакете.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#linux #terminal
# clear-bash: clear: command not foundПервый раз с таким столкнулся. Почему-то был уверен, что это либо системная утилита, либо часть оболочки bash. Не припоминаю, чтобы я отдельно её ставил.
Эта команда полностью очищает терминал и возвращает курсор на самую первую строку. Я постоянно её использую в процессе работы в консоли. Регулярно по привычке набираю её в терминале Windows и расстраиваюсь, что она не работает. Начинаю вспоминать, как она выглядит в винде. Даю подсказку -
cls. Оказывается, эта утилита живёт в пакете ncurses. В Debian и Ubuntu никогда этот пакет не ставил. Утилита clear там была во всех редакциях и шаблонах, с которыми мне приходилось работать. А вот в Rocky пришлось поставить:
# dnf install ncursesТак что если не знали, про clear, то рекомендую посмотреть и пользоваться. Удобная утилита. Ну а если потеряли, то знайте, что живёт она в отдельном пакете.
———
ServerAdmin:
#linux #terminal
Please open Telegram to view this post
VIEW IN TELEGRAM
👍101👎3
В пятницу в подборке видео с ютуба был ролик с системой мониторинга для Proxmox VE и BS под названием Pulse. По внешнему виду продукт сразу заинтересовал, поэтому решил попробовать. Забегая вперёд скажу, что очень понравилась эта веб панель с мониторингом. Расскажу обо всём по порядку.
📌 Особенности Pulse:
◽️Эта программа только под продукты PVE и PBS
◽️Ничего сама на хостах не делает, только берёт информацию
◽️Максимально простая в настройке, достаточно дать доступ к гипервизору или хранилищу бэкапов в режиме чтения
◽️Приятный и удобный веб интерфейс
◽️Встроенная аутентификация самой панели
◽️Просмотр данных в режиме реального времени
◽️Отправляет уведомления на основании данных о базовых метриках доступных ресурсов
◽️Поддерживает email и механизм вебхуков для отправки уведомлений. Для популярных сервисов типа Telegram для вебхуков есть преднастройки.
◽️Удобный просмотр бэкапов виртуальных машин
◽️Простая установка в одно действие
Развернул я Pulse на своём тестовом гипервизоре и сервере с бэкапами. Панель очень понравилась своим внешним видом и набором визуализаций. Особенно удобно смотреть информацию по бэкапам и снэпшотам. Последние подсвечиваются отдельным цветом, так что не пропустишь. Иногда оставленные по ошибке снепшоты могут принести очень много проблем. Я лично с ними сталкивался, делал заметки на эту тему.
Сразу могу сказать, что Pulse не заменяет систему мониторинга. Не тестировал тут уведомления, так как в любом случае всегда настраиваю Zabbix для задач мониторинга.
Изначально держал в голове, что Pulse - чисто для любителей и домашних лабораторий. Но когда немного посмотрел на него, захотелось и на рабочие сервера поставить, потому что удобно. Да и проблем нет с настройкой. Можно выделить микро виртуалку под это дело. Сделать токены на чтение и запустить. Мешать эта панель не будет. Не понадобится, просто выключаешь её и всё.
Для установки есть несколько способов:
1️⃣ Готовый скрипт для запуска на гипервизоре. Скрипт автоматом всё запускает в небольшом LXC контейнере.
2️⃣ Запуск через Docker.
3️⃣ Ручная установка бинарника с конфигурацией и запуск через systemd.
Я устанавливал через Docker. Мне показалось это максимально простым и безопасным способом. Взял отдельную виртуалку и запустил:
Настраивать ничего не надо. Все данные помещаются в отдельный volume. Дальше можно идти на порт сервера 7655, создавать учётку админа и настраивать.
В одну веб панель можно собрать все свои гипервизоры и бэкап серверы. В веб интерфейсе работают группировки, сортировки, фильтры и т.д. Удобно настроить подходящий список.
Обзор панели, как и описание, увидел на ресурсах Самохостинга.
Заметил, что у проекта мало звёзд на github. Мне кажется, он заслуживает большего. Накидайте, если не трудно. Это вдохновит автора.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#proxmox #мониторинг
📌 Особенности Pulse:
◽️Эта программа только под продукты PVE и PBS
◽️Ничего сама на хостах не делает, только берёт информацию
◽️Максимально простая в настройке, достаточно дать доступ к гипервизору или хранилищу бэкапов в режиме чтения
◽️Приятный и удобный веб интерфейс
◽️Встроенная аутентификация самой панели
◽️Просмотр данных в режиме реального времени
◽️Отправляет уведомления на основании данных о базовых метриках доступных ресурсов
◽️Поддерживает email и механизм вебхуков для отправки уведомлений. Для популярных сервисов типа Telegram для вебхуков есть преднастройки.
◽️Удобный просмотр бэкапов виртуальных машин
◽️Простая установка в одно действие
Развернул я Pulse на своём тестовом гипервизоре и сервере с бэкапами. Панель очень понравилась своим внешним видом и набором визуализаций. Особенно удобно смотреть информацию по бэкапам и снэпшотам. Последние подсвечиваются отдельным цветом, так что не пропустишь. Иногда оставленные по ошибке снепшоты могут принести очень много проблем. Я лично с ними сталкивался, делал заметки на эту тему.
Сразу могу сказать, что Pulse не заменяет систему мониторинга. Не тестировал тут уведомления, так как в любом случае всегда настраиваю Zabbix для задач мониторинга.
Изначально держал в голове, что Pulse - чисто для любителей и домашних лабораторий. Но когда немного посмотрел на него, захотелось и на рабочие сервера поставить, потому что удобно. Да и проблем нет с настройкой. Можно выделить микро виртуалку под это дело. Сделать токены на чтение и запустить. Мешать эта панель не будет. Не понадобится, просто выключаешь её и всё.
Для установки есть несколько способов:
Я устанавливал через Docker. Мне показалось это максимально простым и безопасным способом. Взял отдельную виртуалку и запустил:
# docker run -d -p 7655:7655 -v pulse_data:/data rcourtman/pulse:latestНастраивать ничего не надо. Все данные помещаются в отдельный volume. Дальше можно идти на порт сервера 7655, создавать учётку админа и настраивать.
В одну веб панель можно собрать все свои гипервизоры и бэкап серверы. В веб интерфейсе работают группировки, сортировки, фильтры и т.д. Удобно настроить подходящий список.
Обзор панели, как и описание, увидел на ресурсах Самохостинга.
Заметил, что у проекта мало звёзд на github. Мне кажется, он заслуживает большего. Накидайте, если не трудно. Это вдохновит автора.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#proxmox #мониторинг
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍133👎3
🔝 ТОП постов за прошедший месяц. Все самые популярные публикации по месяцам можно почитать со соответствующему хэштэгу #топ. Отдельно можно посмотреть ТОП за прошлые года: 2023 и 2024.
Пользуясь случаем, хочу попросить проголосовать за мой канал, так как это открывает некоторые дополнительные возможности по настройке: https://xn--r1a.website/boost/srv_admin.
📌 Больше всего пересылок:
◽️Подборка обучающих курсов 2 (790)
◽️Подборка обучающих курсов 1 (717)
◽️Подборка по решению типовых проблем с производительностью в Linux (554)
◽️Видеоцикл по настройке Proxmox (530)
◽️Обзор бесплатной Clear NDR - анализатор трафика на предмет вторжений (522)
📌 Больше всего комментариев:
◽️Про Mikrotik дома (210)
◽️Libki - контроль за временем использования компьютера (134)
◽️Мой канал в MAX (134)
📌 Больше всего реакций:
◽️Про то, как я всё успеваю (351)
◽️Мой канал в MAX (326)
◽️Про Mikrotik дома (239)
📌 Больше всего просмотров:
◽️Детский контроль в Mikrotik (10079)
◽️Подборка обучающих курсов 2 (10012)
◽️Сервис с бесплатным Wordpress (9639)
#топ
Пользуясь случаем, хочу попросить проголосовать за мой канал, так как это открывает некоторые дополнительные возможности по настройке: https://xn--r1a.website/boost/srv_admin.
📌 Больше всего пересылок:
◽️Подборка обучающих курсов 2 (790)
◽️Подборка обучающих курсов 1 (717)
◽️Подборка по решению типовых проблем с производительностью в Linux (554)
◽️Видеоцикл по настройке Proxmox (530)
◽️Обзор бесплатной Clear NDR - анализатор трафика на предмет вторжений (522)
📌 Больше всего комментариев:
◽️Про Mikrotik дома (210)
◽️Libki - контроль за временем использования компьютера (134)
◽️Мой канал в MAX (134)
📌 Больше всего реакций:
◽️Про то, как я всё успеваю (351)
◽️Мой канал в MAX (326)
◽️Про Mikrotik дома (239)
📌 Больше всего просмотров:
◽️Детский контроль в Mikrotik (10079)
◽️Подборка обучающих курсов 2 (10012)
◽️Сервис с бесплатным Wordpress (9639)
#топ
Telegram
ServerAdmin.ru
🎄🔝 Под конец года имеет смысл подвести некоторые итоги. В повседневной жизни я не привык это делать. Обычно только доходы/расходы анализирую. А вот в разрезе канала было интересно посмотреть итоги.
Я подготовил ТОП публикаций за прошедший год. Это было…
Я подготовил ТОП публикаций за прошедший год. Это было…
👍34👎3
Недавно запускал в работу новый арендованный сервер с гипервизором Proxmox под типовую нагрузку от Битрикса. Выполнил набор стандартных для себя действий. Там нет чего-то принципиально нового, о чём бы ещё не писал, но для удобства решил оформить отдельной публикацией со списком.
1️⃣ Систему поставил на софтовый RAID1 на базе Mdadm из двух nvme дисков. Сразу предвещая вопросы, почему не ZFS, отвечу, что конкретно здесь основные возможности ZFS не нужны, ни снимки, ни контроль целостности.
Настроил отправку системной почты через Яндекс. Писал об этом ранее. Заметка полностью актуальна, сделал по ней.
2️⃣ Гипервизор сразу поставил на мониторинг Zabbix. Для мониторинга Mdadm взял готовый шаблон. Подобных шаблонов много, а для мониторинга надо на самом деле мало. Простор этот шаблон ставил ранее, он нормально работает. А так я долгое время использовал свой велосипед для этого. Для отслеживания состояния массива этого достаточно.
Также добавил мониторинг SMART с помощью встроенного шаблона и плагина в Zabbix Agent 2. Очень удобно, что не надо ничего самому колхозить. Раньше приходилось использовать сторонние шаблоны. Тоже писал об этом. Сейчас эта статья неактуальна. Я везде ставлю 2-ю версию агента.
3️⃣ Настроил бэкап виртуальных машин в PBS. Включил оповещения об удачных бэкапах. На PBS настроил копирование бэкапов на ещё один сторонний PBS. Обо всём сделал уведомления, проверил, что работают.
4️⃣ Настроил создание дампов баз MySQL, их локальную проверку на целостное состояние, отправку этой информации в Zabbix. Сделал примерно как описано в статье и в заметке. Для PostgreSQL проверка дампов делается точно так же 1 в 1.
5️⃣ Бэкапы сырых файлов и дампов настроил с помощью rsync примерно по той же схеме, что описана в статье. Мониторинг актуальности бэкапов настроил по той же схеме, что описана в другой статье: в директории кладу файлы с меткой времени создания, файлы смотрю по дате создания. Для директорий и дампов также мониторю их размеры штатными ключами Zabbix vfs.dir.size и vfs.file.size.
В итоге имею и бэкап виртуальных машин, и сырых данных. И хранится это всё на разных серверах. Почти всегда так делаю. Не доверяю бэкапам только виртуалок, хотя конечно, с ними проще. Никаких скриптов, колхоза и т.д. Всё делается на базе готового продукта. Мониторинг, оповещения, проверка целостности из коробки.
Только вот при восстановлении могут возникать нюансы. Например, бэкап виртуалки долго копируется или бьётся по дороге, особенно, если передаёшь через интернет поверх VPN. Лично с этим сталкивался и не раз. Поэтому всегда отдельно делаю бэкап сырых данных, чтобы всегда иметь их под рукой. Их и проверять проще, и частично восстанавливать можно. Бывает и просто покопаться надо в копии файлов.
Для сырых данных использую Rsync. Restic хорош, но он добавляет свой слой в виде дедупликации, снепшотов, сжатия. Тут тоже что-то может пойти не так. Это не файлы в чистом виде. Сервер с Rsync сам ходит на целевые сервера и собирает данные. В обратную сторону с серверов к нему доступа нет.
Под конец не удержался и настроил таки Pulse. Мне понравилась эта панелька. Собрал туда все сервера с этого проекта.
Если у кого-то есть вопросы по указанным темам и настройкам, задавайте. По возможности отвечу и раскрою тему.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#подборка
Настроил отправку системной почты через Яндекс. Писал об этом ранее. Заметка полностью актуальна, сделал по ней.
Также добавил мониторинг SMART с помощью встроенного шаблона и плагина в Zabbix Agent 2. Очень удобно, что не надо ничего самому колхозить. Раньше приходилось использовать сторонние шаблоны. Тоже писал об этом. Сейчас эта статья неактуальна. Я везде ставлю 2-ю версию агента.
В итоге имею и бэкап виртуальных машин, и сырых данных. И хранится это всё на разных серверах. Почти всегда так делаю. Не доверяю бэкапам только виртуалок, хотя конечно, с ними проще. Никаких скриптов, колхоза и т.д. Всё делается на базе готового продукта. Мониторинг, оповещения, проверка целостности из коробки.
Только вот при восстановлении могут возникать нюансы. Например, бэкап виртуалки долго копируется или бьётся по дороге, особенно, если передаёшь через интернет поверх VPN. Лично с этим сталкивался и не раз. Поэтому всегда отдельно делаю бэкап сырых данных, чтобы всегда иметь их под рукой. Их и проверять проще, и частично восстанавливать можно. Бывает и просто покопаться надо в копии файлов.
Для сырых данных использую Rsync. Restic хорош, но он добавляет свой слой в виде дедупликации, снепшотов, сжатия. Тут тоже что-то может пойти не так. Это не файлы в чистом виде. Сервер с Rsync сам ходит на целевые сервера и собирает данные. В обратную сторону с серверов к нему доступа нет.
Под конец не удержался и настроил таки Pulse. Мне понравилась эта панелька. Собрал туда все сервера с этого проекта.
Если у кого-то есть вопросы по указанным темам и настройкам, задавайте. По возможности отвечу и раскрою тему.
———
ServerAdmin:
#подборка
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
ServerAdmin.ru
В продуктах Proxmox не так давно появилась возможность использовать сторонние SMTP сервера для отправки уведомлений. Точнее, стало возможно через веб интерфейс настроить аутентификацию на внешнем сервере. В PVE вроде бы с 8-го релиза появилась эта настройка…
2👍138👎2
Столкнулся на днях с ошибкой, которую уже давно не видел. Минут 10 потратил, пока не понял, в чём проблема. Давно работает один LXC контейнер с Debian внутри. У меня давняя привычка везде и всюду использовать названия только на английском языке и никогда не ставить пробелы, заменяя их тире или подчёркиванием. И вам того же советую во избежание траты времени на поиск внезапных ошибок или проблем с отладкой.
Закинул туда скрипт с комментариями на русском языке, которые иногда оставляю в начале. Вместо русских букв местами получил крякозябры. Первое, на что посмотрел - кодировка исходного текста. На всякий случай сохранил его в VSCode, убедился, что там UTF-8 и скопировал ещё раз. Не помогло.
Подумал, может это в mcedit проблема. Открыл скрипт в nano - там то же самое. На всякий случай скопировал по scp этот же скрипт, чтобы исключить проблемы, связанные с буфером обмена. То же самое. Копирую на другой сервер, там всё нормально.
Дальше понял, что надо локали в терминале смотреть:
Если честно, даже не знаю, что это за локаль
Меняю локаль на английскую:
Теперь надо перезагрузиться, чтобы настройки применились. Перезахода в систему будет недостаточно. Или можно вручную выбрать из списка:
Чтобы новая локально заработала, нужно перезайти пользователем в терминал. Перезагружаться не обязательно.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#linux #terminal
Закинул туда скрипт с комментариями на русском языке, которые иногда оставляю в начале. Вместо русских букв местами получил крякозябры. Первое, на что посмотрел - кодировка исходного текста. На всякий случай сохранил его в VSCode, убедился, что там UTF-8 и скопировал ещё раз. Не помогло.
Подумал, может это в mcedit проблема. Открыл скрипт в nano - там то же самое. На всякий случай скопировал по scp этот же скрипт, чтобы исключить проблемы, связанные с буфером обмена. То же самое. Копирую на другой сервер, там всё нормально.
Дальше понял, что надо локали в терминале смотреть:
# localeLANG=C........Если честно, даже не знаю, что это за локаль
C. Пока нигде не было русского языка, проблем не замечал. Обычно тут по умолчанию стоит en_US.UTF-8. Если и надо поменять локаль, то на ru_RU.UTF-8, чтобы нормально 1С сервер работал. Больше не знаю ситуаций, где бы стоило менять её с английской.Меняю локаль на английскую:
# locale-gen en_US.UTF-8# update-locale en_US.UTF-8Теперь надо перезагрузиться, чтобы настройки применились. Перезахода в систему будет недостаточно. Или можно вручную выбрать из списка:
# dpkg-reconfigure localesЧтобы новая локально заработала, нужно перезайти пользователем в терминал. Перезагружаться не обязательно.
———
ServerAdmin:
#linux #terminal
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍101👎5
Решил сегодня вместо пятничного юмора страшилку разместить. Выше страшный сон поддержки - система Sentry, которая в последней версии после установки с настройками по умолчанию запускает ~75 контейнеров 😱.
Раньше тоже было много, штук 20-30. Разработчики, судя по всему, решили, что в их проекте не место монолитам и распилили приложение ещё сильнее. Представляете, всё это чинить, если что-то сломается?
Захотелось открыть новую рубрику, но пока не знаю, получится ли её регулярно чем-то наполнять. Что для одного ужас, для другого - норма жизни. Если у вас есть примеры ужасов, накидайте, пожалуйста, в комментарии.
#ужасы_ит
Раньше тоже было много, штук 20-30. Разработчики, судя по всему, решили, что в их проекте не место монолитам и распилили приложение ещё сильнее. Представляете, всё это чинить, если что-то сломается?
Захотелось открыть новую рубрику, но пока не знаю, получится ли её регулярно чем-то наполнять. Что для одного ужас, для другого - норма жизни. Если у вас есть примеры ужасов, накидайте, пожалуйста, в комментарии.
#ужасы_ит
👍126👎2
Я не так давно делал подборку инструментов для учёта трафика в сети. Сейчас наиболее функциональное и бесплатное решение - Akvorado. У него одна существенная особенность. Он на базе Elasticsearch и очень прожорлив до ресурсов.
Сразу скажу, для чего подобные продукты могут быть полезны, даже если у вас очень простая инфраструктура. Банально, хочется понимать, что вообще происходит в сети и желательно хотя бы с небольшой ретроспективой. Когда всё нормально работает, вроде как и не нужна никакая статистика. А если что-то идёт не так и где-то тормозит? А у вас нет ничего, что анализировало бы трафик. Надо идти на шлюз, что-то там запускать, смотреть в консоли кто куда ходит и из-за чего всё тормозит. Может и не из-за сети.
Упомянутой в начале подборке очень не хватает в составе Xenoeye. Это полностью бесплатный Netflow/IPFIX/sFlow коллектор и анализатор от российских разработчиков. Я его запустил у себя и попробовал. Очень классное решение, особенно для небольших инфраструктур. Расскажу обо всё по порядку.
Сразу перечислю основные особенности Xenoeye:
▪️Полностью бесплатное решение.
▪️Есть готовый LXC контейнер и шаблон на его базе для Proxmox, ничего вручную устанавливать не надо.
▪️Для базовой функциональности достаточно просто запустить контейнер и смотреть графики в Grafana.
▪️Простые и гибкие настройки для детализации по объектам и событиям.
▪️Относительно небольшое для такого рода продуктов потребление ресурсов.
По Xenoeye особо нет инструкций или подробного описания, кроме статьи на хабре от разработчика. Я сначала бегло посмотрел репозиторий и немного приуныл, так как показалось, что надо долго и муторно разбираться с системой. Потом заметил шаблон для Proxmox и решил развернуть систему из него.
Вот прямая ссылка на шаблон. Скачал в Proxmox и развернул в привилегированном контейнере. Установил туда openssh-server, чтобы можно было подключиться по SSH.
Зашёл в систему, открыл документацию и не очень понял, что надо сделать, чтобы начать собирать трафик. Открыл конфигурацию, посмотрел её, закрыл. Посмотрел список открытых портов, которые слушает приложение. Увидел там открытый порт UDP 2056. Сходил на свой Mikrotik, в раздел IP ⇨ Traffic Flow ⇨ Targets и добавил IP адрес LXC контейнера Xenoeye и порт 2056.
Оказалось, этого достаточно. То есть после запуска контейнера система полностью готова к приему Netflow потока. Все базовые настройки там уже сделаны, службы запущены.
Далее пошёл на 3000-й порт контейнера. Там уже запущена Grafana с несколькими обзорными дашбордами, которых для общего представления о том, что происходит, достаточно.
Более детальную статистику с выделением нужных вам подсетей, хостов или направлений можно сделать самостоятельно. В репозитории есть документация на русском языке с примерами. Настраивается всё довольно просто.
Данные хранятся в PostgreSQL, а дашборды в Grafana рисуются запросами напрямую в базу. Соответственно, вывести себе на дашборд вы можете всё, что угодно, предварительно создав нужные вам сущности в конфигурации. Покажу пример из документации.
Допустим, вам надо отследить тех, кто из вашей сети ходит на внешние SSH сервера. Описываете такие хосты в отдельном файле конфигурации
После этого отсортированный список IP адресов можно получить одним SQL запросом:
То же самое можно сделать для исходящих SMTP запросов не с ваших почтовых серверов и т.д.
Я для своей небольшой тестовой сети из нескольких хостов запустил контейнер с 2 CPU и 4 Gb RAM. Нагрузки почти никакой не было. Можно было и в 2 раза меньше ресурсов выделить.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки, а разработчикам⭐️ в 4️⃣
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#netflow #gateway
Сразу скажу, для чего подобные продукты могут быть полезны, даже если у вас очень простая инфраструктура. Банально, хочется понимать, что вообще происходит в сети и желательно хотя бы с небольшой ретроспективой. Когда всё нормально работает, вроде как и не нужна никакая статистика. А если что-то идёт не так и где-то тормозит? А у вас нет ничего, что анализировало бы трафик. Надо идти на шлюз, что-то там запускать, смотреть в консоли кто куда ходит и из-за чего всё тормозит. Может и не из-за сети.
Упомянутой в начале подборке очень не хватает в составе Xenoeye. Это полностью бесплатный Netflow/IPFIX/sFlow коллектор и анализатор от российских разработчиков. Я его запустил у себя и попробовал. Очень классное решение, особенно для небольших инфраструктур. Расскажу обо всё по порядку.
Сразу перечислю основные особенности Xenoeye:
▪️Полностью бесплатное решение.
▪️Есть готовый LXC контейнер и шаблон на его базе для Proxmox, ничего вручную устанавливать не надо.
▪️Для базовой функциональности достаточно просто запустить контейнер и смотреть графики в Grafana.
▪️Простые и гибкие настройки для детализации по объектам и событиям.
▪️Относительно небольшое для такого рода продуктов потребление ресурсов.
По Xenoeye особо нет инструкций или подробного описания, кроме статьи на хабре от разработчика. Я сначала бегло посмотрел репозиторий и немного приуныл, так как показалось, что надо долго и муторно разбираться с системой. Потом заметил шаблон для Proxmox и решил развернуть систему из него.
Вот прямая ссылка на шаблон. Скачал в Proxmox и развернул в привилегированном контейнере. Установил туда openssh-server, чтобы можно было подключиться по SSH.
Зашёл в систему, открыл документацию и не очень понял, что надо сделать, чтобы начать собирать трафик. Открыл конфигурацию, посмотрел её, закрыл. Посмотрел список открытых портов, которые слушает приложение. Увидел там открытый порт UDP 2056. Сходил на свой Mikrotik, в раздел IP ⇨ Traffic Flow ⇨ Targets и добавил IP адрес LXC контейнера Xenoeye и порт 2056.
Оказалось, этого достаточно. То есть после запуска контейнера система полностью готова к приему Netflow потока. Все базовые настройки там уже сделаны, службы запущены.
Далее пошёл на 3000-й порт контейнера. Там уже запущена Grafana с несколькими обзорными дашбордами, которых для общего представления о том, что происходит, достаточно.
Более детальную статистику с выделением нужных вам подсетей, хостов или направлений можно сделать самостоятельно. В репозитории есть документация на русском языке с примерами. Настраивается всё довольно просто.
Данные хранятся в PostgreSQL, а дашборды в Grafana рисуются запросами напрямую в базу. Соответственно, вывести себе на дашборд вы можете всё, что угодно, предварительно создав нужные вам сущности в конфигурации. Покажу пример из документации.
Допустим, вам надо отследить тех, кто из вашей сети ходит на внешние SSH сервера. Описываете такие хосты в отдельном файле конфигурации
/var/lib/xenoeye/mo/ssh_scanners/mo.conf:{ "filter": "src net my-nets and dst port 22", "fwm": [ { "name": "hosts", "fields": ["packets", "src host", "dst host", "proto"] } ]}После этого отсортированный список IP адресов можно получить одним SQL запросом:
$ select src_host, count(src_host) from (select distinct src_host, dst_host from ssh_scanners where time >= now() - interval '1 day' order by src_host desc) as x group by src_host order by count desc;То же самое можно сделать для исходящих SMTP запросов не с ваших почтовых серверов и т.д.
Я для своей небольшой тестовой сети из нескольких хостов запустил контейнер с 2 CPU и 4 Gb RAM. Нагрузки почти никакой не было. Можно было и в 2 раза меньше ресурсов выделить.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки, а разработчикам
———
ServerAdmin:
#netflow #gateway
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍122👎3