Вчера в статье про обновление Debian 12 до Debian 13 Trixie появился полезный комментарий. Автор указал, что в результате обновления удаляется файл
В Debian 13 вообще по умолчанию убрали
Существует устоявшаяся практика по изменению стандартных конфигурационных файлов. Обычно для внесения своих правок используется специальная директория с названием сервиса и
Если вы хотите внести изменения в sysctl, то просто добавьте отдельный файл в
Например, если хотите добавить форвард пакетов между сетевыми интерфейсами, создайте отдельный файл
После этого примените настройку:
Я всё это, конечно же, знаю, но иногда сознательно так не делаю для своего удобства. Мне нравится, когда вся конфигурация в одном файле. Кому-то это кажется наоборот неудобным. Это моё личное предпочтение, за которое я часто получал критику, если делал все изменения в стандартном конфигурационном файле.
Например, я предпочитаю, когда конфигурация Postfix или Dovecot в одном общем файле, а не раскиданная по нескольким. А в Nginx или Logstash по разным. Там есть логическое разделение по смыслам. В случае Nginx всё очевидно - разные виртуальны хосты, разные файлы конфигураций. В Logstash тоже разные процедуры с данными в разных файлах.
В общем случае вносить изменения стоит в корректирующие файлы конфигурации, а не основные. А как вам удобнее, решайте сами. Просто знайте, что иногда ваш файл может быть перезаписан. Изменения обычно не теряются, так как старый файл сохраняется рядом с другим расширением. Ещё популярные примеры из этой области:
◽️
◽️
◽️
◽️
◽️
◽️
Ну и так далее. Это типичная картина для файлов конфигураций служб в Linux. Скорее будет исключение, если служба будет использовать другой подход к организации конфигурационных файлов.
А вы как предпочитаете хранить конфигурации? Как правильно или как удобно?
#linux
/etc/sysctl.conf, а старый переименовывается на /etc/sysctl.conf.dpkg-bak. Соответственно, все внесённые настройки не применяются. Этого стоит ожидать и понимать, что такое может произойти, хотя на моей памяти ни разу такого не видел с sysctl.conf, потому что я обычно вношу изменения именно в него. В Debian 13 вообще по умолчанию убрали
/etc/sysctl.conf, так как за эти настройки отвечает служба systemd-sysctl, которая хранит свои настройки в /usr/lib/sysctl.d/.Существует устоявшаяся практика по изменению стандартных конфигурационных файлов. Обычно для внесения своих правок используется специальная директория с названием сервиса и
.d на конце. Для примера с sysctl это всегда была директория /etc/sysctl.d, а сейчас /usr/lib/sysctl.d/. Хотя старая вроде бы тоже подгружается в момент загрузки системы.Если вы хотите внести изменения в sysctl, то просто добавьте отдельный файл в
/etc/sysctl.d и внесите свои правки туда. Имя файла при этом чаще всего может быть любым, главное следить за расширением .conf. Обычно на это проверка стоит и к основной конфигурации подключаются только файлы определённого расширения.Например, если хотите добавить форвард пакетов между сетевыми интерфейсами, создайте отдельный файл
/etc/sysctl.d/forward.conf и добавьте туда:net.ipv4.ip_forward = 1После этого примените настройку:
# sysctl -p /etc/sysctl.d/forward.confnet.ipv4.ip_forward = 1Я всё это, конечно же, знаю, но иногда сознательно так не делаю для своего удобства. Мне нравится, когда вся конфигурация в одном файле. Кому-то это кажется наоборот неудобным. Это моё личное предпочтение, за которое я часто получал критику, если делал все изменения в стандартном конфигурационном файле.
Например, я предпочитаю, когда конфигурация Postfix или Dovecot в одном общем файле, а не раскиданная по нескольким. А в Nginx или Logstash по разным. Там есть логическое разделение по смыслам. В случае Nginx всё очевидно - разные виртуальны хосты, разные файлы конфигураций. В Logstash тоже разные процедуры с данными в разных файлах.
В общем случае вносить изменения стоит в корректирующие файлы конфигурации, а не основные. А как вам удобнее, решайте сами. Просто знайте, что иногда ваш файл может быть перезаписан. Изменения обычно не теряются, так как старый файл сохраняется рядом с другим расширением. Ещё популярные примеры из этой области:
◽️
/etc/zabbix/zabbix_agentd.d◽️
/etc/fail2ban/fail2ban.d◽️
/etc/dovecot/conf.d◽️
/etc/sudoers.d◽️
/etc/mysql/mariadb.conf.d◽️
/etc/logstash/conf.dНу и так далее. Это типичная картина для файлов конфигураций служб в Linux. Скорее будет исключение, если служба будет использовать другой подход к организации конфигурационных файлов.
А вы как предпочитаете хранить конфигурации? Как правильно или как удобно?
#linux
👍109👎2
⇨ Динамические группы проксируемых серверов в Angie
Примеры динамической балансировки нагрузки на бэкенды с помощью Angie. Используется метод c помощью DNS записей типа SRV и меток Docker контейнеров, как в Traefik.
⇨ Клиентское кэширование в Angie
Практический пример настройки кэша статических элементов сайта с помощью настройки соответствующих заголовков.
⇨ Terraform - EPHEMERAL - ОЧЕНЬ НУЖНАЯ ВЕЩЬ!
Обзор одной из возможностей современного Terraform, с помощью которой можно управлять чувствительными данными, например, созданными паролями, исключая их сохранение в файле состояния .tfstate.
⇨ Шифрование в протоколе TLS | Компьютерные сети 2025 - 40
Очередной урок обновлённого популярного курса по сетям. Если кто ещё не знаком с ним и интересуется темой, рекомендую. Хорошее качество материала, подача.
⇨ Zabbix 8.0: Новая глава в мониторинге. Автор: Алексей Владышев / Zabbix Summit 2025
Выступление основателя Zabbix на тему нововведений 8-й версии. Ближе к релизу я более детально всё это изучу и напишу, а пока это для тех, кому любопытна данная тема. Самое интересное - анонсировано мобильное приложение 🔥.
⇨ Traefik в Proxmox LXC | Reverse Proxy + Автоматический SSL (Let's Encrypt) Part 1 и Part 2
Подборные ролики на тему настройки обратного прокси на базе Traefik. Настройка включает в себя приобретение доменного имени и далее настройка Traefik, статическая, динамическая, TLS и всякие нюансы, подробно и наглядно.
⇨ 7 действительно полезных вещей для дома на 3D-принтере
Ролик из другой тематики, которой я интересуюсь - стройка. Но тут тема немного пересекается с IT, так как 3D принтеры пока удел отдельных любителей, чаще всего связанных с IT. Хоть ролик и рекламный, но не вижу ничего зазорного в нём, так как подробно всё рассказано и показано. Я у этого автора увидел Ergostol и купил себе аж три разной ширины от 2 до 2,2 м. Очень удобные столы, рекомендую.
⇨ Лучшие самостоятельные инструменты искусственного интеллекта, которые вы можете запустить у себя
Обзор бесплатных программ, связанных с ИИ. Какие-то я уже знал (Ollama, OpenWebUi, n8n), а про некоторые услышал впервые.
⇨ Block stupid Ads and manage DNS // Pi-hole Tutorial
Подробный обзор бесплатного инструмента для блокировки рекламы и трекеров с помощью блокировки соответствующих DNS запросов. Я сам не раз разворачивал Pi-Hole и каждый раз отказывался от него. Мне не нравится подход блокировки DNS, потому что он негибкий. Предпочитаю управлять этим через расширения в браузерах.
⇨ Бесплатная панель мониторинга Proxmox, которую вы ждали
Очередной обзор неплохой бесплатной панели для мониторинга и управления Proxmox VE - Pulse. Я писал про неё и использую у себя.
#видео
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Динамические группы проксируемых серверов в Angie
При работе с балансировкой нагрузки изменение состава серверов можно выполнять через редактирование конфига. Но в Angie есть и более гибкие варианты, которые используют DNS или даже метки docker для управления апстримами.
Этот канал посвящён теме поддержки…
Этот канал посвящён теме поддержки…
1👍56👎2
Недавно вышло очередное обновление INFRAX. Я ранее писал про неё заметку и делал статью на сайте. Это система управления ИТ-инфраструктурой, которая объединяет в себе систему мониторинга, удалённого подключения к серверам и техподдержку с тикетами.
В новом обновлении появилась возможность управлять системами виртуализации Hyper‑V, Proxmox VE, VMware vSphere и контейнерами Docker. Причём сделано всё максимально удобно и унифицированно в рамках единой системы с её правами доступа, логированием действий, записью сессий.
Если ранее уже настраивали доступ к серверам и устанавливали агенты мониторинга, то настраивать отдельно ничего не нужно. Агент сам найдёт гипервизоры и отобразит их в панели управления. Вы сможете управлять виртуальными машинами, изменять их параметры, подключаться к консоли, делать снепшоты и выполнять некоторые другие действия.
Всё подробно, в картинках описал в статье на сайте:
⇨ Управление виртуализацией Hyper‑V, Proxmox VE, VMware vSphere и Docker в INFRAX
Отдельно отмечу, что цикл статей про INFRAX у меня заказан разработчиками. Скорее всего будут материалы по другим возможностям. Все статьи пишу сам, у меня их никто не редактирует. Систему я внедрил на одном небольшом филиале, где она успешно трудится, обновляется, я пробую все нововведения.
Из последних обновлений, помимо добавления виртуализации, появились некоторые полезные исправления и дополнения:
▪️Появилась возможность приобрести бессрочную лицензию на заданное количество хостов, без необходимости её каким-то образом регулярно продлевать и обновлять. Напомню, что бесплатная лицензия community версии на 100 хостов и пользователей тоже бессрочная и вечная. Продлевать её не нужно.
▪️Подключение к узлам через браузер по RDP стало чётко позиционировать мышь. Раньше иногда она немного мимо кликала. Был рассинхрон между локальной и удалённой мышкой. Плюс автомасштабирование экрана плохо работало при изменении размера окна браузера. Тоже починили.
▪️Можно менять стандартный порт службы для удалённых подключений. До этого были жёстко прибиты порты 3389 или 22. Теперь можно настраивать и добавлять несколько разных типов подключения. Например, для Proxmox это будет и SSH и HTTP. Раньше можно было настроить что-то одно.
Было ещё много мелких исправлений ошибок и недоработок. Думаю те, кто ставили после первой моей статьи, заметили это. Продукт активно развивается, дорабатываются, ошибки исправляются. Есть ещё, которые лично я наблюдаю. Например, в Топ-10 по IOPS диска вижу разделы
Система в целом приятная и простая в настройке. Управление виртуализацией расширило её возможности. Если рассматривать функциональность отдельных инструментов для управления, типа родного интерфейса Proxmox или оснастки Hyper-V, или Portainer для Docker, то конечно в них работать удобнее.
На другой чаше весов единая система, объединяющая в себе разнородные сервисы и функциональность с общим контролем доступа и логированием, записью всех действий. Мне кажется, это однозначное и решающее преимущество, которое позволяет построить целостную систему управления с разграничением доступа. Особенно это актуально для услуг аутсорсинга. INFRAX тут способен закрыть очень широкий пласт задач.
Например, вы можете прописать регламент обновления какой-то системы с обязательным созданием снепшота виртуальной машины перед обновлением и удалением после. С помощью INFRAX вы можете как проследить за созданием и удалением снепшота, так и посмотреть действия специалиста в консоли. Что он там непосредственно делал, сколько времени у него это заняло.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#мониторинг #remote #infrax #отечественное
В новом обновлении появилась возможность управлять системами виртуализации Hyper‑V, Proxmox VE, VMware vSphere и контейнерами Docker. Причём сделано всё максимально удобно и унифицированно в рамках единой системы с её правами доступа, логированием действий, записью сессий.
Если ранее уже настраивали доступ к серверам и устанавливали агенты мониторинга, то настраивать отдельно ничего не нужно. Агент сам найдёт гипервизоры и отобразит их в панели управления. Вы сможете управлять виртуальными машинами, изменять их параметры, подключаться к консоли, делать снепшоты и выполнять некоторые другие действия.
Всё подробно, в картинках описал в статье на сайте:
⇨ Управление виртуализацией Hyper‑V, Proxmox VE, VMware vSphere и Docker в INFRAX
Отдельно отмечу, что цикл статей про INFRAX у меня заказан разработчиками. Скорее всего будут материалы по другим возможностям. Все статьи пишу сам, у меня их никто не редактирует. Систему я внедрил на одном небольшом филиале, где она успешно трудится, обновляется, я пробую все нововведения.
Из последних обновлений, помимо добавления виртуализации, появились некоторые полезные исправления и дополнения:
▪️Появилась возможность приобрести бессрочную лицензию на заданное количество хостов, без необходимости её каким-то образом регулярно продлевать и обновлять. Напомню, что бесплатная лицензия community версии на 100 хостов и пользователей тоже бессрочная и вечная. Продлевать её не нужно.
▪️Подключение к узлам через браузер по RDP стало чётко позиционировать мышь. Раньше иногда она немного мимо кликала. Был рассинхрон между локальной и удалённой мышкой. Плюс автомасштабирование экрана плохо работало при изменении размера окна браузера. Тоже починили.
▪️Можно менять стандартный порт службы для удалённых подключений. До этого были жёстко прибиты порты 3389 или 22. Теперь можно настраивать и добавлять несколько разных типов подключения. Например, для Proxmox это будет и SSH и HTTP. Раньше можно было настроить что-то одно.
Было ещё много мелких исправлений ошибок и недоработок. Думаю те, кто ставили после первой моей статьи, заметили это. Продукт активно развивается, дорабатываются, ошибки исправляются. Есть ещё, которые лично я наблюдаю. Например, в Топ-10 по IOPS диска вижу разделы
/boot. Явно проблема с идентификацией и очерёдностью дисков. Реально нагружены другие разделы.Система в целом приятная и простая в настройке. Управление виртуализацией расширило её возможности. Если рассматривать функциональность отдельных инструментов для управления, типа родного интерфейса Proxmox или оснастки Hyper-V, или Portainer для Docker, то конечно в них работать удобнее.
На другой чаше весов единая система, объединяющая в себе разнородные сервисы и функциональность с общим контролем доступа и логированием, записью всех действий. Мне кажется, это однозначное и решающее преимущество, которое позволяет построить целостную систему управления с разграничением доступа. Особенно это актуально для услуг аутсорсинга. INFRAX тут способен закрыть очень широкий пласт задач.
Например, вы можете прописать регламент обновления какой-то системы с обязательным созданием снепшота виртуальной машины перед обновлением и удалением после. С помощью INFRAX вы можете как проследить за созданием и удалением снепшота, так и посмотреть действия специалиста в консоли. Что он там непосредственно делал, сколько времени у него это заняло.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#мониторинг #remote #infrax #отечественное
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍118👎3
Заметил, как на одном небольшом веб сервере постоянно занят весь swap, хотя использование оперативной памяти там сбалансировано и явного недостатка не возникает. Решил повнимательнее посмотреть, что там происходит и почему складывается такая ситуация. Интуитивно кажется, что swap не должен использоваться, тем более на весь объём, если оперативной памяти достаточно, но это не совсем так.
В данном случае речь пойдёт про типовой веб сервер всё в одном: MariaDB + Angie + PHP-fpm и некоторые сопутствующие сервисы для обеспечения безопасности, мониторинга и сбора логов.
Первым делом смотрю, кто занимает swap. В заметке по ссылке всё описано, не буду подробно останавливаться на этом. Кратко можно посмотреть прямо в консоли:
Первая строка - главный потребитель swap. В моём случае процесс mariadbd. Смотрим состояние памяти:
В системе 4GB оперативной памяти и 1GB swap. При этом доступно более 1GB оперативной памяти. По логике хотя бы её часть ещё могла бы использоваться вместо свопа.
За то, как активно система использует swap, отвечает параметр ядра vm.swappiness. Смотрим текущее значение:
По умолчанию разработчики Linux его ставят в значении 60. Оно обеспечивает баланс между swap и page cache. Напомню, для тех, кто не знает или забыл, что свободная оперативная память в Linux не простаивает, а используется под статический кэш, называемый page cache. Туда попадают данные, к которым чаще всего обращаются процессы, запущенные в системе. Таким образом снижается нагрузка на диски и уменьшается время доступа к этим данным.
Самой частой и очевидной рекомендацией по снижению использования свопа является уменьшение параметра vm.swappiness, например, до 10-ти. В этом случае данные в swap будут уходить только при очень серьёзном дефиците доступной оперативной памяти.
Казалось бы, уменьшай vm.swappiness, что тут думать. Но не всё так просто. Уменьшение использования swap уменьшит и размер доступной памяти под page cache. А в случае смешанной нагрузки на сервер, особенно со статикой от сайтов, не факт, что так будет лучше. Итоговая производительность всех сервисов может наоборот снизиться. Измерить результат в конкретных метриках очень сложно.
При таких вводных становится понятно, что если есть возможность и целесообразность, то разнородные сервисы лучше разделять по разным виртуалкам. Если у вас на сервере только СУБД и памяти хватает, то можно особо не заморачиваться и реально ставить vm.swappiness = 10. По моим представлениям это практически всегда пойдёт только в плюс производительности. Если СУБД чётко настроить под конкретные параметры виртуальной машины, она не будет выходить за свои лимиты настроенных ресурсов.
А вот если у вас разнородные сервисы, нагрузка смешанная, много чтений мелких файлов с диска, есть всплески нагрузки, то уже однозначно не ответить, как лучше поступить. Я лично не стал трогать vm.swappiness, оставил значение по умолчанию в 60. Не знаю точно, что СУБД сгружает в swap. По логике это должно быть что-то не очень важное и требовательное, раз СУБД решила не забирать память под кэши, а сгрузила их в swap. Ну и плюс, проходить внезапные пики потребления памяти будет проще, когда есть запас.
Если тоже задавались этим вопросом, то что в итоге для себя решили с использованием swap?
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#perfomance #webserver
В данном случае речь пойдёт про типовой веб сервер всё в одном: MariaDB + Angie + PHP-fpm и некоторые сопутствующие сервисы для обеспечения безопасности, мониторинга и сбора логов.
Первым делом смотрю, кто занимает swap. В заметке по ссылке всё описано, не буду подробно останавливаться на этом. Кратко можно посмотреть прямо в консоли:
# for file in /proc/*/status ; do awk '/VmSwap|Name/{printf $2 " " $3} END { print ""}' $file; done | sort -k 2 -n -r | lessПервая строка - главный потребитель swap. В моём случае процесс mariadbd. Смотрим состояние памяти:
# free -m
total used free shared buff/cache available
Mem: 3915 2731 185 89 1373 1183
Swap: 976 906 69В системе 4GB оперативной памяти и 1GB swap. При этом доступно более 1GB оперативной памяти. По логике хотя бы её часть ещё могла бы использоваться вместо свопа.
За то, как активно система использует swap, отвечает параметр ядра vm.swappiness. Смотрим текущее значение:
# sysctl vm.swappinessvm.swappiness = 60По умолчанию разработчики Linux его ставят в значении 60. Оно обеспечивает баланс между swap и page cache. Напомню, для тех, кто не знает или забыл, что свободная оперативная память в Linux не простаивает, а используется под статический кэш, называемый page cache. Туда попадают данные, к которым чаще всего обращаются процессы, запущенные в системе. Таким образом снижается нагрузка на диски и уменьшается время доступа к этим данным.
Самой частой и очевидной рекомендацией по снижению использования свопа является уменьшение параметра vm.swappiness, например, до 10-ти. В этом случае данные в swap будут уходить только при очень серьёзном дефиците доступной оперативной памяти.
Казалось бы, уменьшай vm.swappiness, что тут думать. Но не всё так просто. Уменьшение использования swap уменьшит и размер доступной памяти под page cache. А в случае смешанной нагрузки на сервер, особенно со статикой от сайтов, не факт, что так будет лучше. Итоговая производительность всех сервисов может наоборот снизиться. Измерить результат в конкретных метриках очень сложно.
При таких вводных становится понятно, что если есть возможность и целесообразность, то разнородные сервисы лучше разделять по разным виртуалкам. Если у вас на сервере только СУБД и памяти хватает, то можно особо не заморачиваться и реально ставить vm.swappiness = 10. По моим представлениям это практически всегда пойдёт только в плюс производительности. Если СУБД чётко настроить под конкретные параметры виртуальной машины, она не будет выходить за свои лимиты настроенных ресурсов.
А вот если у вас разнородные сервисы, нагрузка смешанная, много чтений мелких файлов с диска, есть всплески нагрузки, то уже однозначно не ответить, как лучше поступить. Я лично не стал трогать vm.swappiness, оставил значение по умолчанию в 60. Не знаю точно, что СУБД сгружает в swap. По логике это должно быть что-то не очень важное и требовательное, раз СУБД решила не забирать память под кэши, а сгрузила их в swap. Ну и плюс, проходить внезапные пики потребления памяти будет проще, когда есть запас.
Если тоже задавались этим вопросом, то что в итоге для себя решили с использованием swap?
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#perfomance #webserver
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍133👎4
Я очень давно знаю Zabbix. Впервые увидел его версию 1.8. Сам изучал, настраивал и внедрял версию 2.0. С тех пор я его активно использую уже более 13-ти лет. Для меня это образец качественного и продуманного программного обеспечения, которое на протяжении более 20-ти лет стабильно становится всё лучше и лучше. Несмотря на свой почтенный возраст, активно развивается, следует современным тенденциям и технологиям. Вот уже и облачный сервис появился. Представляю, сколько труда было потрачено, чтобы перенести в SaaS монолит с такой историей разработки.
Всё это заслуга и труд его создателя-основателя, а потом и руководителя Алексея Владышева, который в 1998 самостоятельно начал разработку, будучи кем-то вроде сисадмина или сотрудника техподдержки в банке. Он рискнул и начал развивать продукт полностью в открытом формате open source. Это сейчас уже привычная модель развития, а в то время ещё не было успешных примеров такой модели, кроме разве что RedHat. И с той поры ничего принципиально не поменялось. Zabbix по-прежнему полностью открыт и бесплатен, нет деления на версию community с ограниченными возможностями и платной с полными, как это чаще всего бывает. Вы можете взять полнофункциональный код продукта и использовать у себя. Считаю это огромным управленческим достижением Алексея, как руководителя и разработчика.
Всегда с интересом смотрю все его выступления. Он бывал на конференциях в Москве. К сожалению, последнее время на русском языке их не встречал, хотя в целом Zabbix от него не отказался. Периодически проводятся вебинары, а в августе был онлайн митап на русском языке. С Алексеем когда-то давно был интересный подкаст, который я с удовольствием слушал. Чего-то более нового мне не попадалось. Послушайте, если вам интересна история Zabbix и его основателя.
Сейчас анонсирован новый онлайн митап совместно с компанией Gals Software, рекламу курсов которой по Zabbix вы периодически видите на моём канале. Увидел новость у них на канале. Эту публикацию у меня никто не заказывал, пишу от себя. На этом митапе выступит Алексей Владышев на русском языке и расскажет о нововведениях 8-й версии. Я записался и обязательно послушаю.
Пишу эту заметку в том числе, чтобы выразить своё уважение и признательность разработчикам Zabbix за отличный продукт, которым я совершенно бесплатно много лет пользуюсь. Знаю, что мой сайт в те времена, когда я активно писал заметки про Zabbix читали, делали обратные ссылки на мои материалы на официальном сайте, реализовывали какие-то костыли, собранные в том числе с подобных сайтов энтузиастов, в основные шаблоны. Может быть и это сообщение дойдёт до адресатов.
🗓 Онлайн встреча будет 3 декабря, в часовом поясе Алматы GMT+5. После регистрации я получил уведомление, что по Москве это будет 02:00 PM. Я тут боюсь ошибиться, так как уже не раз пропускал разные мероприятия из-за того, что путал часовые пояса и приходил не в то время. Получается, что это будет 04:00 PM (16:00) по часовому поясу Алматы или в 14:00 по Москве.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#zabbix
Всё это заслуга и труд его создателя-основателя, а потом и руководителя Алексея Владышева, который в 1998 самостоятельно начал разработку, будучи кем-то вроде сисадмина или сотрудника техподдержки в банке. Он рискнул и начал развивать продукт полностью в открытом формате open source. Это сейчас уже привычная модель развития, а в то время ещё не было успешных примеров такой модели, кроме разве что RedHat. И с той поры ничего принципиально не поменялось. Zabbix по-прежнему полностью открыт и бесплатен, нет деления на версию community с ограниченными возможностями и платной с полными, как это чаще всего бывает. Вы можете взять полнофункциональный код продукта и использовать у себя. Считаю это огромным управленческим достижением Алексея, как руководителя и разработчика.
Всегда с интересом смотрю все его выступления. Он бывал на конференциях в Москве. К сожалению, последнее время на русском языке их не встречал, хотя в целом Zabbix от него не отказался. Периодически проводятся вебинары, а в августе был онлайн митап на русском языке. С Алексеем когда-то давно был интересный подкаст, который я с удовольствием слушал. Чего-то более нового мне не попадалось. Послушайте, если вам интересна история Zabbix и его основателя.
Сейчас анонсирован новый онлайн митап совместно с компанией Gals Software, рекламу курсов которой по Zabbix вы периодически видите на моём канале. Увидел новость у них на канале. Эту публикацию у меня никто не заказывал, пишу от себя. На этом митапе выступит Алексей Владышев на русском языке и расскажет о нововведениях 8-й версии. Я записался и обязательно послушаю.
Пишу эту заметку в том числе, чтобы выразить своё уважение и признательность разработчикам Zabbix за отличный продукт, которым я совершенно бесплатно много лет пользуюсь. Знаю, что мой сайт в те времена, когда я активно писал заметки про Zabbix читали, делали обратные ссылки на мои материалы на официальном сайте, реализовывали какие-то костыли, собранные в том числе с подобных сайтов энтузиастов, в основные шаблоны. Может быть и это сообщение дойдёт до адресатов.
———
ServerAdmin:
#zabbix
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍165👎8
Рег.облако возвращает 100% за Kubernetes
Подключайте кластеры K8s от Рег.Облака до 30 декабря и получите обратно 100% потраченных средств за первый месяц. Полученные бонусы можно тратить на любые другие облачные услуги.
Подробности — вот здесь.
Подключайте кластеры K8s от Рег.Облака до 30 декабря и получите обратно 100% потраченных средств за первый месяц. Полученные бонусы можно тратить на любые другие облачные услуги.
Подробности — вот здесь.
👎17👍5
Перебирал старые скриншоты под новую тематику и нашёл несколько подходящих. Это один из них.
Казалось бы избитая тема. Ну кто догадается класть бэкапы на тот же сервер? Для кого-то это может показаться удивительным, но не для меня.
Из-за публичности мне регулярно пишут разные люди о своих проблемах. Например, открыл возможность писать сообщения напрямую через функциональность этого канала и туда в основном пишут люди о своих проблемах. Если ответ или подсказку сразу не знаю, то обычно не отвечаю, так как нет времени вникать и разбираться в чужой проблеме.
На картинке реальный диалог, который у меня состоялся несколько лет назад. Наверняка и сейчас найдутся люди, которые считают raid1 или снэпшот сравнимым по надёжности с бэкапом или те, кто хранят их локально. Кто-то может даже наберётся смелости и напишет об этом в комментариях😁 а потом исправит эту ошибку.
#ужасы_ит
Казалось бы избитая тема. Ну кто догадается класть бэкапы на тот же сервер? Для кого-то это может показаться удивительным, но не для меня.
Из-за публичности мне регулярно пишут разные люди о своих проблемах. Например, открыл возможность писать сообщения напрямую через функциональность этого канала и туда в основном пишут люди о своих проблемах. Если ответ или подсказку сразу не знаю, то обычно не отвечаю, так как нет времени вникать и разбираться в чужой проблеме.
На картинке реальный диалог, который у меня состоялся несколько лет назад. Наверняка и сейчас найдутся люди, которые считают raid1 или снэпшот сравнимым по надёжности с бэкапом или те, кто хранят их локально. Кто-то может даже наберётся смелости и напишет об этом в комментариях
#ужасы_ит
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍57👎2
Хочу отдельно привлечь ваше внимание к циклу видео с youtube канала RealManual, которые там недавно появились. Не стал их добавлять в общую подборку, потому что их там много и все я не смотрел. Видео этого автора часто бывают у меня на канале, как и он сам иногда появляется в комментариях.
Василий выложил серию роликов про Proxmox из своего платного курса. Там не только непосредственно гипервизор, но и обвязка вокруг него: PBS, NFS и Ceph для хранилищ, Linstore, Terraform и т.д. Качество материала на хорошем уровне: наглядно, простыми словами, всегда с примерами. Всё делается на наших глазах. Несмотря на то, что всё снималось в разное время и уже с устаревшими версиями, вся база не изменилась. Появились какие-то новые возможности, типа SDN, но все старые материалы остались актуальны. Например, я проксомовский SDN не использую.
Отдельно отмечу одно видео под названием Proxmox VE: храним и бекапим - Бонусы: Бекапы (факапы) и ресторы. Я его посмотрел и увидел новую для себя информацию. В Proxmox есть один важный нюанс с бэкапом и восстановлением LXC контейнера, который может привести к безвозвратной потери данных.
Если вы исключили из бэкапов какой-то подключенный к контейнеру диск, забэкапили контейнер, а потом восстановили из бэкапа, этот исключённый диск будет автоматически удалён без каких-либо вопросов. Просто вжик и ничего нет. Поведение неочевидно и пока не столкнёшься, вряд ли будете ожидать такого. Причём я часто так делаю с виртуалками. Создаю быстрые бэкапы только с системным диском, чтобы можно было оперативно откатить только систему, а не терабайты подключенных к ней данных.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#видео #обучение #proxmox
Василий выложил серию роликов про Proxmox из своего платного курса. Там не только непосредственно гипервизор, но и обвязка вокруг него: PBS, NFS и Ceph для хранилищ, Linstore, Terraform и т.д. Качество материала на хорошем уровне: наглядно, простыми словами, всегда с примерами. Всё делается на наших глазах. Несмотря на то, что всё снималось в разное время и уже с устаревшими версиями, вся база не изменилась. Появились какие-то новые возможности, типа SDN, но все старые материалы остались актуальны. Например, я проксомовский SDN не использую.
Отдельно отмечу одно видео под названием Proxmox VE: храним и бекапим - Бонусы: Бекапы (факапы) и ресторы. Я его посмотрел и увидел новую для себя информацию. В Proxmox есть один важный нюанс с бэкапом и восстановлением LXC контейнера, который может привести к безвозвратной потери данных.
Если вы исключили из бэкапов какой-то подключенный к контейнеру диск, забэкапили контейнер, а потом восстановили из бэкапа, этот исключённый диск будет автоматически удалён без каких-либо вопросов. Просто вжик и ничего нет. Поведение неочевидно и пока не столкнёшься, вряд ли будете ожидать такого. Причём я часто так делаю с виртуалками. Создаю быстрые бэкапы только с системным диском, чтобы можно было оперативно откатить только систему, а не терабайты подключенных к ней данных.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#видео #обучение #proxmox
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍129👎6
🎥 Вебинар по Linux: Настройка Nginx/Angie для высоких нагрузок и защиты от DoS-атак
👉 На вебинаре вы узнаете:
-Как оптимизировать конфигурацию Nginx/Angie под высоконагруженные проекты.
-Какие модули и параметры отвечают за производительность и отказоустойчивость.
-Как реализовать базовую защиту от DoS-атак средствами веб-сервера.
-Как мониторить и анализировать поведение сервера под нагрузкой.
💪 В результате вебинара вы:
- Научитесь настраивать Nginx/Angie для стабильной работы под высокой нагрузкой.
- Сможете применять встроенные механизмы ограничения запросов и защиты от DoS.
- Освоите подходы к балансировке и кешированию трафика.
- Получите практические рекомендации по тестированию производительности и мониторингу.
🎁 Все участники вебинара получат специальные условия на полное обучение курса "Инфраструктура высоконагруженных систем"
👉 Для участия зарегистрируйтесь: https://clck.ru/3QKTU9
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
👉 На вебинаре вы узнаете:
-Как оптимизировать конфигурацию Nginx/Angie под высоконагруженные проекты.
-Какие модули и параметры отвечают за производительность и отказоустойчивость.
-Как реализовать базовую защиту от DoS-атак средствами веб-сервера.
-Как мониторить и анализировать поведение сервера под нагрузкой.
💪 В результате вебинара вы:
- Научитесь настраивать Nginx/Angie для стабильной работы под высокой нагрузкой.
- Сможете применять встроенные механизмы ограничения запросов и защиты от DoS.
- Освоите подходы к балансировке и кешированию трафика.
- Получите практические рекомендации по тестированию производительности и мониторингу.
🎁 Все участники вебинара получат специальные условия на полное обучение курса "Инфраструктура высоконагруженных систем"
👉 Для участия зарегистрируйтесь: https://clck.ru/3QKTU9
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
👎11👍8
С начала ковидных времён резко возрос интерес к программам для удалённого подключения к компьютерам, типа TeamViewer, AnyDesk и т.д. Они тогда и ограничения бесплатных версий усилили, и цены поменяли. Тогда все начали искать аналоги и желательно бесплатные.
Интерес этот в России усилился с началом СВО, когда использовать иностранные сервисы стало проблематично и опасно. Я за время ведения канала обозревал практически все более-менее известные программы для удалённого доступа, как полностью открытые и бесплатные, так и частично бесплатные с ограничениями. Собрал все свои обзоры в статью-подборку:
⇨ Топ 10 бесплатных программ для удалённого доступа
Обзоры каких-то программ сильно устарели, но как готовый список и варианты для сравнения использовать можно. Я регулярно обновляю подборку по мере появления новых продуктов.
В этом списке есть и Aspia. В момент, когда я её разворачивал и тестировал, был переходный период с одной версии на другую и многое было непонятно. Я решил ещё раз на неё посмотреть. Выбрал именно Aspia, потому что по моим наблюдениям и отзывам других людей это наиболее функциональный и полностью бесплатный продукт, максимально похожий по модели использования на известные продукты с доступом по ID, типа TeamViewer и AnyDesk.
Aspia - многокомпонентный продукт, состоящий из следующих программ:
◽️Router - ядро системы, на котором регистрируются хосты и клиенты. Он выдаёт ID номера хостам и связывает с ними клиентов.
◽️Relay - ретранслятор, которых может быть много, сервер выбирает среди ретрансляторов, какой будет использоваться для связи хоста и клиента. Ретрансляторы позволяют создавать большие распределённые сети хостов с управлением через единый Router.
◽️Host - устанавливается на клиентских ПК, к которым нужно подключаться. Поддерживает только Windows 😢, в отличие от остальных компонентов.
◽️Console - выполняет роль клиента для подключений к ПК и к Router для управления, поддерживает функциональность адресных книг.
◽️Client - лёгкая версия клиента, поддерживающая только подключения к ПК, то есть это упрощённая версия Console, актуальна для клиентов, которым нужны только простые подключения к одиночным ПК с одноразовыми паролями.
Возможны несколько сценариев использования Aspia:
1️⃣ В локальной сети можно установить на управляемые компьютеры Host, а на компьютеры операторов Client или Console и подключаться по IP к хостам. Для этого нужна сетевая связность между хостами и клиентами. Этого можно достичь как непосредственно в локальной сети, так и сети, объединённой через VPN.
На хостах можно вручную добавить одного или несколько пользователей, которым можно постоянно подключаться к компьютеру. Есть вариант постоянно изменяемых автоматически паролей, которые пользователь может каждый раз передавать тому, кто будет подключаться. Настройки хоста можно защитить паролем, поменять входящий порт для подключений, использовать свой сервер обновлений для хостов.
То есть даже в таком варианте Aspia предоставляет широкие возможности по настройке и управлению, которые значительно удобнее того же VNC.
2️⃣ Установить Router и один Relay на выделенный сервер с внешним IP, на управляемые компьютеры Host, а операторам Console или Client. Хосты с помощью Router будут получать уникальные ID, по которым клиенты могут подключаться к ним.
3️⃣ Установить Router и набор Relay для распределения нагрузки. Трафик между хостами и клиентами будет идти через ретрансляторы, не нагружая сам Router, чтобы он мог обсуживать как можно больше хостов и клиентов. Актуально для больших сетей, где будет много трафика между узлами.
На роутере настраиваются пользователи, которые имеют доступ к адресной книге и спискам хостов. Конфигурацию хостов можно подготовить заранее и использовать при установке.
Aspia - функциональная и простая в настройке система, хоть и выглядит немного громоздкой из-за большого количества компонентов. Но настраивается всё это просто. В следующей заметке покажу, как это сделать.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#aspia #remote
Интерес этот в России усилился с началом СВО, когда использовать иностранные сервисы стало проблематично и опасно. Я за время ведения канала обозревал практически все более-менее известные программы для удалённого доступа, как полностью открытые и бесплатные, так и частично бесплатные с ограничениями. Собрал все свои обзоры в статью-подборку:
⇨ Топ 10 бесплатных программ для удалённого доступа
Обзоры каких-то программ сильно устарели, но как готовый список и варианты для сравнения использовать можно. Я регулярно обновляю подборку по мере появления новых продуктов.
В этом списке есть и Aspia. В момент, когда я её разворачивал и тестировал, был переходный период с одной версии на другую и многое было непонятно. Я решил ещё раз на неё посмотреть. Выбрал именно Aspia, потому что по моим наблюдениям и отзывам других людей это наиболее функциональный и полностью бесплатный продукт, максимально похожий по модели использования на известные продукты с доступом по ID, типа TeamViewer и AnyDesk.
Aspia - многокомпонентный продукт, состоящий из следующих программ:
◽️Router - ядро системы, на котором регистрируются хосты и клиенты. Он выдаёт ID номера хостам и связывает с ними клиентов.
◽️Relay - ретранслятор, которых может быть много, сервер выбирает среди ретрансляторов, какой будет использоваться для связи хоста и клиента. Ретрансляторы позволяют создавать большие распределённые сети хостов с управлением через единый Router.
◽️Host - устанавливается на клиентских ПК, к которым нужно подключаться. Поддерживает только Windows 😢, в отличие от остальных компонентов.
◽️Console - выполняет роль клиента для подключений к ПК и к Router для управления, поддерживает функциональность адресных книг.
◽️Client - лёгкая версия клиента, поддерживающая только подключения к ПК, то есть это упрощённая версия Console, актуальна для клиентов, которым нужны только простые подключения к одиночным ПК с одноразовыми паролями.
Возможны несколько сценариев использования Aspia:
На хостах можно вручную добавить одного или несколько пользователей, которым можно постоянно подключаться к компьютеру. Есть вариант постоянно изменяемых автоматически паролей, которые пользователь может каждый раз передавать тому, кто будет подключаться. Настройки хоста можно защитить паролем, поменять входящий порт для подключений, использовать свой сервер обновлений для хостов.
То есть даже в таком варианте Aspia предоставляет широкие возможности по настройке и управлению, которые значительно удобнее того же VNC.
На роутере настраиваются пользователи, которые имеют доступ к адресной книге и спискам хостов. Конфигурацию хостов можно подготовить заранее и использовать при установке.
Aspia - функциональная и простая в настройке система, хоть и выглядит немного громоздкой из-за большого количества компонентов. Но настраивается всё это просто. В следующей заметке покажу, как это сделать.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#aspia #remote
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍150👎10
Больше, чем просто VPS 👍
В ИХЦ — всё, что нужно для стабильной и быстрой работы сайтов, проектов и сервисов. От виртуального хостинга с установкой CMS в пару кликов — до VPS и выделенных серверов, которые можно адаптировать под любые задачи.
⚙️ Мы предлагаем:
— VPS в России и в Европе.
— Облачные решения для 1С.
— Хостинг с поддержкой популярных CMS (WordPress, Joomla, Bitrix);.
— DDoS-защиту без доплат.
— Техподдержку 24/7.
— Акции, скидки, выгодную партнерскую программу.
Скоро запустим и GPU-серверы, чтобы вы могли больше.
Запускайтесь на наших серверах уже сегодня — и убедитесь, что надёжный хостинг может быть доступным🙏
👉 Перейти на ihc.ru
В ИХЦ — всё, что нужно для стабильной и быстрой работы сайтов, проектов и сервисов. От виртуального хостинга с установкой CMS в пару кликов — до VPS и выделенных серверов, которые можно адаптировать под любые задачи.
— VPS в России и в Европе.
— Облачные решения для 1С.
— Хостинг с поддержкой популярных CMS (WordPress, Joomla, Bitrix);.
— DDoS-защиту без доплат.
— Техподдержку 24/7.
— Акции, скидки, выгодную партнерскую программу.
Скоро запустим и GPU-серверы, чтобы вы могли больше.
Запускайтесь на наших серверах уже сегодня — и убедитесь, что надёжный хостинг может быть доступным
Реклама, ООО «Интернет-Хостинг», ИНН 7701838266, erid: 2SDnjf2RmQKPlease open Telegram to view this post
VIEW IN TELEGRAM
2👍194👎12
Установка и настройка Aspia
Серверные компоненты системы router и relay доступны для установки под Windows и Linux. Под Linux они поставляются в виде собранных deb пакетов, поэтому мне видится самым простым и логичными вариантом установки - из пакетов.
Есть собранные Docker контейнеры от сторонних пользователей, но в данном случае я не вижу в них смысла, потому что по сути это одиночные исполняемые файлы, написанные на C++, конфигурационные файлы к бинарникам и systemd службы. Всё это есть в пакете.
Ставить будем на арендованную VPS с настроенным доменным именем и внешним IP. На сервер будут установлены обе службы: router и releay.
📌 Установка Aspia Router:
Генерируем конфиг:
Правим конфигурацию
Остальное можно не трогать. Запускаем службу:
Логи смотрим тут:
📌 Установка Aspia relay:
Генерируем конфиг:
Смотрим публичный ключ роутера:
Правим конфигурацию
Запускаем службу:
Логи смотрим тут:
Логи служб можно сделать подробнее и перенести в файлы. Описано в документации.
📌 Aspia Console поддерживает установку на Windows, Linux, macOS. Выбирайте, что вам удобнее. Я ставил на Windows и Ubuntu. Загружаете дистрибутив из репозитория и устанавливаете.
После первого запуска вам предложат создать новую адресную книгу. Сразу после создания, переходите в раздел Инструменты ⇨ Управление маршрутизатором и добавляйте подключение к роутеру. Указывайте IP адрес или доменное имя и стандартную учётку admin / admin. После подключения сразу добавьте новую учётную запись администратора, а стандартную отключите.
Адресная книга хранится локально, заполняется вручную. Это существенный минус приложения, так как если компьютеров много, то заполнить книгу первый раз вручную будет хлопотно. Потом её можно будет выгрузить или разместить на сетевом диске с общим доступом. Адресную книгу стоит сразу закрепить, чтобы она открывалась автоматически при запуске. И рекомендую сразу зашифровать её в свойствах.
📌 Aspia Host может быть установлен только на системы под управлением Windows. Это существенное ограничение Aspia, так как, конечно, хотелось бы видеть здесь ещё как минимум Linux, но что есть то есть.
Загружаем установщик в виде msi пакета, запускаем. Заходим в Параметры ⇨ Маршрутизатор, вводим адрес сервера с router и ключ из файла
После настройки хоста можно выгрузить его параметры в файл
На этом базовая настройка окончена, можно пользоваться сервисом. Всё довольно просто и понятно. Я без проблем и каких-то трудностей всё настроил сходу. Для переноса сервера или релея достаточно перенести файл с конфигурацией router.json, router.pub и базу /var/lib/aspia/router.db3.
Программа написана на C++ и потребляет очень мало ресурсов. Можно запустить на минимальной VPS.
Полезные ссылки:
- Сайт программы / Исходники
- Обзор основных возможностей
- Установка и настройка
- Часто задаваемые вопросы (FAQ)
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#aspia #remote
Серверные компоненты системы router и relay доступны для установки под Windows и Linux. Под Linux они поставляются в виде собранных deb пакетов, поэтому мне видится самым простым и логичными вариантом установки - из пакетов.
Есть собранные Docker контейнеры от сторонних пользователей, но в данном случае я не вижу в них смысла, потому что по сути это одиночные исполняемые файлы, написанные на C++, конфигурационные файлы к бинарникам и systemd службы. Всё это есть в пакете.
Ставить будем на арендованную VPS с настроенным доменным именем и внешним IP. На сервер будут установлены обе службы: router и releay.
📌 Установка Aspia Router:
# wget https://github.com/dchapyshev/aspia/releases/download/v2.7.0/aspia-router-2.7.0-x86_64.deb# apt install ./aspia-router-2.7.0-x86_64.debГенерируем конфиг:
# aspia_router --create-configПравим конфигурацию
/etc/aspia/router.json, добавляя туда: "RelayWhiteList": "127.0.0.1",Остальное можно не трогать. Запускаем службу:
# systemctl enable --now aspia-routerЛоги смотрим тут:
# journalctl -u aspia-router📌 Установка Aspia relay:
# wget https://github.com/dchapyshev/aspia/releases/download/v2.7.0/aspia-relay-2.7.0-x86_64.deb# apt install ./aspia-relay-2.7.0-x86_64.debГенерируем конфиг:
# aspia_relay --create-configСмотрим публичный ключ роутера:
# cat /etc/aspia/router.pubПравим конфигурацию
/etc/aspia/relay.json, добавляя туда: "PeerAddress": "341485.simplecloud.ru", "RouterAddress": "127.0.0.1", "RouterPublicKey": "A3F9B2D33F27F6809E0178EFC64786C", "StatisticsEnabled": "false", Запускаем службу:
# systemctl enable --now aspia-relayЛоги смотрим тут:
# journalctl -u aspia-relayЛоги служб можно сделать подробнее и перенести в файлы. Описано в документации.
📌 Aspia Console поддерживает установку на Windows, Linux, macOS. Выбирайте, что вам удобнее. Я ставил на Windows и Ubuntu. Загружаете дистрибутив из репозитория и устанавливаете.
После первого запуска вам предложат создать новую адресную книгу. Сразу после создания, переходите в раздел Инструменты ⇨ Управление маршрутизатором и добавляйте подключение к роутеру. Указывайте IP адрес или доменное имя и стандартную учётку admin / admin. После подключения сразу добавьте новую учётную запись администратора, а стандартную отключите.
Адресная книга хранится локально, заполняется вручную. Это существенный минус приложения, так как если компьютеров много, то заполнить книгу первый раз вручную будет хлопотно. Потом её можно будет выгрузить или разместить на сетевом диске с общим доступом. Адресную книгу стоит сразу закрепить, чтобы она открывалась автоматически при запуске. И рекомендую сразу зашифровать её в свойствах.
📌 Aspia Host может быть установлен только на системы под управлением Windows. Это существенное ограничение Aspia, так как, конечно, хотелось бы видеть здесь ещё как минимум Linux, но что есть то есть.
Загружаем установщик в виде msi пакета, запускаем. Заходим в Параметры ⇨ Маршрутизатор, вводим адрес сервера с router и ключ из файла
/etc/aspia/router.pub. Тут же в разделе Пользователи можно добавить пользователей, которые будут иметь доступ к этому компьютеру, а на вкладке Безопасность некоторые другие параметры, в том числе одноразовые пароли.После настройки хоста можно выгрузить его параметры в файл
aspia-host-config.json. Если положить этот файл вместе с .msi установщиком, он автоматом подхватит настройки при установке.На этом базовая настройка окончена, можно пользоваться сервисом. Всё довольно просто и понятно. Я без проблем и каких-то трудностей всё настроил сходу. Для переноса сервера или релея достаточно перенести файл с конфигурацией router.json, router.pub и базу /var/lib/aspia/router.db3.
Программа написана на C++ и потребляет очень мало ресурсов. Можно запустить на минимальной VPS.
Полезные ссылки:
- Сайт программы / Исходники
- Обзор основных возможностей
- Установка и настройка
- Часто задаваемые вопросы (FAQ)
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#aspia #remote
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍98👎2