Сейчас появилось очень много программ для построения mesh-сетей. Это локальные сети поверх других сетей, где хосты могут соединяться друг с другом напрямую, если есть возможность. А каждый из членов сети может выступать маршрутизатором для доступа к другим ресурсами.
Известными представителями подобных продуктов являются Nebula, Tailscale, Netmaker, Netbird и ZeroTier. На последнем я бы хотел остановиться поподробнее. Он выделяется из этого списка своим протоколом передачи данных, в то время как остальные в основном используют WireGuard. Плюс, Mikrotik в RouterOS7 имеет реализацию, как клиента, так и своего контроллера на базе ZeroTier.
Я раньше только слышал про него, сам не пробовал. Решил исправить это, развернул и протестировал. Сразу скажу, что это не инструмент для обхода блокировок. Он не для этого придуман и в данной роли работает плохо. Не стоит эту тему развивать.
ZeroTier - платный SaaS сервис. Регистрируетесь, платите деньги и получаете личный кабинет для управления всеми своими сетями. Но при этом серверная часть выложена в open source. Каждый может развернуть свой локальный сервер и управлять им через CLI. Я немного изучил команды, там на самом деле всё относительно просто.
В связи с этим появилось очень много реализаций бесплатного веб интерфейса для управления сервером. Я недавно читал статью про настройку Self-Hosted ZeroTier с помощью интерфейса ZTNET, поэтому не стал смотреть другие интерфейсы, а их много, взял сразу этот. В целом, там всё необходимое для управления есть.
Запускаем так:
Можно и вручную всё это сделать. В репозитории есть описание. Теперь можно идти на 3000 порт сервера и регистрировать учётку админа.
Принцип объединения устройств в единую сеть следующий:
1️⃣ Скачиваете клиента под свою систему (есть под все, в том числе мобильные)
2️⃣ В клиенте указываете Network ID или сканируете QR код, который видно в веб интерфейсе. В этом ID, как я понял, закодирован IP контроллера.
3️⃣ Клиент подключается к серверу, на сервере вы подтверждаете его подключение.
4️⃣ Клиент получает IP адрес внутренней сети.
Я объединил Windows, Linux и Mikrotik. Получилось всё без проблем. Узлы сети сразу же напрямую увидели себя по внутренним адресам сети ZeroTier. Заработали RDP, SSH, Winbox.
Вы можете назначить Mikrotik шлюзом для какой-то подсети, которая находится за ним. Клиенты, которые подключатся к общей mesh-сети, могут ходить в ту сеть через него. А какой-нибудь Linux сервер назначить шлюзом для доступа в другую инфраструктуру. То есть каждый узел может выступать в роли и клиента, и шлюза для других. Настраивается это очень просто, буквально в несколько кликов в веб интерфейсе.
Если клиенты не видят друг друга напрямую, то общаются через контроллер. По умолчанию локальный ZeroTier подключается к набору публичных серверов для связи клиентов, которые не могут через ваш сервер увидеть друг-друга. Например, если сервер не в публичном доступе для всех.
В ZTNET это отключается в разделе настроек ZT Controller, где вы можете создать так называемый Custom Planet, который будет работать только локально и никуда подключаться не будет. Вам нужно будет обеспечить к нему прямой доступ всех клиентов, либо опубликовав контроллер напрямую в интернете, либо пробросив к нему порт 9993/udp.
Я всё это настроил. Разобрался со всем за пару-тройку часов. Не могу подробно расписать установку клиентов и команды, потому что лимит на длину заметки. В сети всё это есть, там ничего сложного.
Продукт простой, функциональный, бесплатный и известный. Много кем поддерживается. Так что если нужно что-то подобное, то можете смело использовать. Единственное, я бы поискал какой-то другой GUI. Этот показался немного кривоват, хотя вся необходимая функциональность присутствует.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#vpn #network
Известными представителями подобных продуктов являются Nebula, Tailscale, Netmaker, Netbird и ZeroTier. На последнем я бы хотел остановиться поподробнее. Он выделяется из этого списка своим протоколом передачи данных, в то время как остальные в основном используют WireGuard. Плюс, Mikrotik в RouterOS7 имеет реализацию, как клиента, так и своего контроллера на базе ZeroTier.
Я раньше только слышал про него, сам не пробовал. Решил исправить это, развернул и протестировал. Сразу скажу, что это не инструмент для обхода блокировок. Он не для этого придуман и в данной роли работает плохо. Не стоит эту тему развивать.
ZeroTier - платный SaaS сервис. Регистрируетесь, платите деньги и получаете личный кабинет для управления всеми своими сетями. Но при этом серверная часть выложена в open source. Каждый может развернуть свой локальный сервер и управлять им через CLI. Я немного изучил команды, там на самом деле всё относительно просто.
В связи с этим появилось очень много реализаций бесплатного веб интерфейса для управления сервером. Я недавно читал статью про настройку Self-Hosted ZeroTier с помощью интерфейса ZTNET, поэтому не стал смотреть другие интерфейсы, а их много, взял сразу этот. В целом, там всё необходимое для управления есть.
Запускаем так:
# wget -O docker-compose.yml https://raw.githubusercontent.com/sinamics/ztnet/main/docker-compose.yml
# sed -i "s|http://localhost:3000|http://$(hostname -I | cut -d' ' -f1):3000|" docker-compose.yml
# docker compose up -d
Можно и вручную всё это сделать. В репозитории есть описание. Теперь можно идти на 3000 порт сервера и регистрировать учётку админа.
Принцип объединения устройств в единую сеть следующий:
Я объединил Windows, Linux и Mikrotik. Получилось всё без проблем. Узлы сети сразу же напрямую увидели себя по внутренним адресам сети ZeroTier. Заработали RDP, SSH, Winbox.
Вы можете назначить Mikrotik шлюзом для какой-то подсети, которая находится за ним. Клиенты, которые подключатся к общей mesh-сети, могут ходить в ту сеть через него. А какой-нибудь Linux сервер назначить шлюзом для доступа в другую инфраструктуру. То есть каждый узел может выступать в роли и клиента, и шлюза для других. Настраивается это очень просто, буквально в несколько кликов в веб интерфейсе.
Если клиенты не видят друг друга напрямую, то общаются через контроллер. По умолчанию локальный ZeroTier подключается к набору публичных серверов для связи клиентов, которые не могут через ваш сервер увидеть друг-друга. Например, если сервер не в публичном доступе для всех.
В ZTNET это отключается в разделе настроек ZT Controller, где вы можете создать так называемый Custom Planet, который будет работать только локально и никуда подключаться не будет. Вам нужно будет обеспечить к нему прямой доступ всех клиентов, либо опубликовав контроллер напрямую в интернете, либо пробросив к нему порт 9993/udp.
Я всё это настроил. Разобрался со всем за пару-тройку часов. Не могу подробно расписать установку клиентов и команды, потому что лимит на длину заметки. В сети всё это есть, там ничего сложного.
Продукт простой, функциональный, бесплатный и известный. Много кем поддерживается. Так что если нужно что-то подобное, то можете смело использовать. Единственное, я бы поискал какой-то другой GUI. Этот показался немного кривоват, хотя вся необходимая функциональность присутствует.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#vpn #network
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍129👎3
🔥RAID не спасет твои данные! Проверил на реальном сервере. RAID 0, RAID 1, RAID 5, RAID 6, RAID 10
Автор на горячую вытаскивает диски из RAID10 и показывает, к чему это приводит. Мотайте сразу на середину, когда диски начнут вынимать. Как и ожидалось, ничего особенного не произошло. Получился наглядный пример, чем удобны железные рейды. Их удобно эксплуатировать и обслуживать.
⇨ Mail Archiver - архив всех Mail аккаунтов на одном центральном сервере.
Свежий софт на тему бэкапа почтовых ящиков. Увидел её упоминание в нескольких источников. Выглядит удобный и полезным инструментом. Надо будет тоже попробовать.
⇨ Как установить и настроить Authelia в Docker с Traefik — Полный гайд
Подробная инструкция по настройке Authelia в связке с Traefik. Authelia считается наиболее простой бесплатной платформой для для аутентификации и авторизации. Её часто используют для личных нужд.
⇨ Оптимизация метрики LCP (WebVitals) за счет приоритизации картинок
Практический пример того, как ускорить загрузку и визуализацию загружаемой страницы. Актуально для тех, кто обслуживает сайты. Я одно время занимался подобными оптимизациями и неплохо их знаю.
🔥Балансировка и проксирование L4-трафика (TCP/UDP) в Angie
Описание с примерами потокового модуля stream, который позволяет проксировать не только HTTP трафик. Например, подключения к СУБД, к DNS, к почте, или, к примеру, к VPN серверам. Можно ограничивать соединения, балансировать нагрузку и многое другое. Очень удобно, особенно если подобную функциональность не поддерживает сам сервис, на который мы отправляем подключения.
⇨ Мониторинг Angie с помощью Console Light и API
Разбор встроенных возможностей Angie для мониторинга веб сервера.
⇨ Запускайте модели ИИ с помощью Docker — без настройки, без головной боли
Описание встроенной функциональности докера по запуску ИИ моделей - Docker Model Runner. Нововведение не так давно зарелизили. Я и не слышал о нём. Это аналог ollama. Для разового запуска особого удобства нет, но основной смысл - держать всё приложение вместе с моделью в одной конфигурации Docker.
⇨ Self-hosting GitLab: A complete HomeLab deployment
Описание и примеры использования GitLab. Актуально будет тем, кто не знаком с этим продуктом. Автор на своих примерах показал, как он использует GitLab. Он там в том числе рассмотрел вопрос, как снизить потребление ресурсов. Я об этом тоже писал. Кому интересно - смотрите параметры в заметке.
⇨ Прекратите неправильную установку Docker на Proxmox (вот правильный способ)
Автор рассмотрел, как надо и как не надо запускать Docker в Proxmox. Ожидаемо, удобнее всего запускать Docker в LXC контейнере. Это не добавляет лишнюю вложенность и перерасход ресурсов, так как обе эти технологии используют cgroups2 и работают в её контексте.
#видео
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
RAID не спасет твои данные! Проверил на реальном сервере. RAID 0, RAID 1, RAID 5, RAID 6, RAID 10
Мою модель сервера можно найти на ""Сервер Центр":
https://clck.ru/3NyVEp
Телеграм канал "Сервер Центр":
https://xn--r1a.website/+dHEa4G5fRD80NmUy
Реклама: ООО "Сервер центр"
erid: 2Vtzqwu3KTU
RAID не спасёт твои данные! В этом выпуске я проверяю, что произойдёт…
https://clck.ru/3NyVEp
Телеграм канал "Сервер Центр":
https://xn--r1a.website/+dHEa4G5fRD80NmUy
Реклама: ООО "Сервер центр"
erid: 2Vtzqwu3KTU
RAID не спасёт твои данные! В этом выпуске я проверяю, что произойдёт…
👍65👎4
Я всегда без исключения в Linux использую swap в виде отдельного файла, а не раздела. Причина очень простая - это намного удобнее. Из глубины веков тянется шлейф убеждений, что отдельный раздел работает быстрее, чем файл. Теоретически - да, практически не понятно.
Во-первых, swap в принципе редко используется интенсивно. Во-вторых, как замерить скорость его работы на реальной нагрузке? В-третьих, разница если и будет, то незначительная. Swap в виде файла позволяет на лету менять свой размер или вовсе его отключать, если экстренно понадобится доступное место. Это весомое преимущество, которое стоит использовать.
Swap в 1 ГБ добавляю так:
Если всё ок, то добавляю в
Отдельно отмечу, что не рекомендуется создавать пустой файл с помощью truncate или fallocate:
Он создастся мгновенно, в отличие от
Если swap уже настроен в виде раздела, то трогать уже не буду, если только это не пустая виртуалка. Иногда попадаются виртуалки с lvm, где swap в виде отдельного lv раздела. Это стандартная схема установки в Debian. В этом случае его можно удалить, объединить с основным, а swap сделать в виде файла.
Все эти операции безопасны и могут быть выполнены без перезагрузки. Но как я уже сказал, на работающих серверах не рекомендую это делать, так как потом корневой раздел надо будет увеличивать. Это потенциально небезопасная операция. Но если сильно прижмёт, то сделать можно. Я так делал и не раз.
Последовательность действий тут такая. Смотрим список разделов:
Небольшая виртуалка с диском на 30 ГБ, где 1,5 отдано под swap. Уберём этот раздел и объединим с основным. Отключаем этот swap:
И сразу же проверьте файл /etc/fstab. Там нужно удалить строку с подключением этого раздела. Выглядит примерно так:
Закомментируйте её. Удаляем раздел со свапом:
Расширяем корневой раздел:
И растягиваем файловую систему на весь раздел, так как увеличение раздела не подразумевает её автоматическое увеличение. Она ничего не знает об увеличенном разделе, если ей об этом не сказать.
Проверяем, что получилось:
Раздел стал 29G против предыдущих 27.5G. Дальше можно добавлять swap в виде файла, как я показал в начале. И обязательно, когда всё закончите, перезагрузите виртуалку и убедитесь, что всё в порядке. Все эти операции не требуют перезагрузки, но если где-то ошиблись, особенно в fstab, можете получить проблемы во время загрузки. По горячим следам это легко исправить, а если reboot случится через полгода и система не загрузится, можно сразу не сообразить, из-за чего это.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#linux #terminal #совет
Во-первых, swap в принципе редко используется интенсивно. Во-вторых, как замерить скорость его работы на реальной нагрузке? В-третьих, разница если и будет, то незначительная. Swap в виде файла позволяет на лету менять свой размер или вовсе его отключать, если экстренно понадобится доступное место. Это весомое преимущество, которое стоит использовать.
Swap в 1 ГБ добавляю так:
# dd if=/dev/zero of=/swap bs=1024 count=1000000# mkswap /swap# chmod 0600 /swap# swapon /swapЕсли всё ок, то добавляю в
/etc/fstab:/swap swap swap defaults 0 0Отдельно отмечу, что не рекомендуется создавать пустой файл с помощью truncate или fallocate:
# truncate -s 1G /swap# fallocate -l 1G /swapОн создастся мгновенно, в отличие от
dd, которая явно пишет туда нули. Не помню, в какой документации читал, но запомнил, что swap лучше нулями сразу записать, а не создавать пустым.Если swap уже настроен в виде раздела, то трогать уже не буду, если только это не пустая виртуалка. Иногда попадаются виртуалки с lvm, где swap в виде отдельного lv раздела. Это стандартная схема установки в Debian. В этом случае его можно удалить, объединить с основным, а swap сделать в виде файла.
Все эти операции безопасны и могут быть выполнены без перезагрузки. Но как я уже сказал, на работающих серверах не рекомендую это делать, так как потом корневой раздел надо будет увеличивать. Это потенциально небезопасная операция. Но если сильно прижмёт, то сделать можно. Я так делал и не раз.
Последовательность действий тут такая. Смотрим список разделов:
# lvsroot web-01-vg -wi-ao---- <27.51g
swap_1 web-01-vg -wi-ao---- <1.54gНебольшая виртуалка с диском на 30 ГБ, где 1,5 отдано под swap. Уберём этот раздел и объединим с основным. Отключаем этот swap:
# swapoff -aИ сразу же проверьте файл /etc/fstab. Там нужно удалить строку с подключением этого раздела. Выглядит примерно так:
/dev/mapper/web--01--vg-swap_1 none swap sw 0 0Закомментируйте её. Удаляем раздел со свапом:
# lvremove /dev/web-01-vg/swap_1Do you really want to remove active logical volume web-01-vg/swap_1? [y/n]: y Logical volume "swap_1" successfully removed.Расширяем корневой раздел:
# lvextend -l +100%FREE /dev/web-01-vg/root Size of logical volume web-01-vg/root changed from <27.51 GiB (7042 extents) to 29.04 GiB (7435 extents). Logical volume web-01-vg/root successfully resized.И растягиваем файловую систему на весь раздел, так как увеличение раздела не подразумевает её автоматическое увеличение. Она ничего не знает об увеличенном разделе, если ей об этом не сказать.
# resize2fs /dev/web-01-vg/rootresize2fs 1.47.2 (1-Jan-2025)Filesystem at /dev/web-01-vg/root is mounted on /; on-line resizing requiredold_desc_blocks = 4, new_desc_blocks = 4The filesystem on /dev/web-01-vg/root is now 7613440 (4k) blocks long.Проверяем, что получилось:
# df -h | grep root/dev/mapper/web--01--vg-root 29G 4.7G 23G 18% /Раздел стал 29G против предыдущих 27.5G. Дальше можно добавлять swap в виде файла, как я показал в начале. И обязательно, когда всё закончите, перезагрузите виртуалку и убедитесь, что всё в порядке. Все эти операции не требуют перезагрузки, но если где-то ошиблись, особенно в fstab, можете получить проблемы во время загрузки. По горячим следам это легко исправить, а если reboot случится через полгода и система не загрузится, можно сразу не сообразить, из-за чего это.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#linux #terminal #совет
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍200👎4
Недавно регистратор reg ru сделал рассылку, в которой проинформировал о том, что у него меняется тарифная сетка для партнёрских договоров. У меня был такой, и за домены я много лет платил по 220 р. Халява кончилась и по новому тарифу я должен был платить за продление 950 р.
Подозреваю, что на таких партнёрских тарифах сидит множество хостеров и других посредников, которые продают регистрацию через reg ru, имея похожий тариф с очень низкой стоимостью продления.
У меня в управлении с десяток доменов в reg ru, какие-то используются, какие-то нет, но жалко бросить, домены знакомых, благотворительных организаций и т.д. Решил куда-то переехать, где подешевле.
Последние года взаимодействовал только с тремя регистраторами: Reg ru, Nic ru и Mastername. Причём в Reg и Mastername целенаправленно стянул все свои домены и домены заказчиков. У Mastername сейчас тариф на продление - 550 р, что в целом приемлемо. Он не задирает цены, потихоньку индексирует вслед за инфляцией. Про Nic вообще ничего хорошего не скажу. Сервис не нравится, цены тоже. Никому не советую.
Я недавно был на конференции Selectel. Там анонсировали новую услугу - регистрацию доменов. Со слов выступающего - это непрофильное направление, заниматься им не особо хотелось, но для удобства заказчиков решили сделать своего регистратора и продавать услугу по себестоимости. Сейчас цена у них - 450 р. за зону ru.
Решил перенести все свои домены в Selectel. Один технический уже перенёс, но с ним случился большой фейл по моему недосмотру. Поэтому и решил написать об этом, чтобы предостеречь. Домены не так часто приходится переносить. Обычно меняется делегирование на те или иные NS сервера, а сам домен живёт у регистратора.
Заказал я перенос в Reg ru. Попросили скан паспорта для подтверждения операции. Предоставил. Выдали AuthInfo-код для переноса. Заказал перенос в админке Selectel с использованием кода. Процесс пошёл и длился 6 суток. Через 6 суток получил разделегированный домен без DNS записей 😱. Как это обычно бывает по закону подлости, случилось это ночью в выходной день 😩.
А теперь рассказываю, как это выглядело технически. Изначально домен был в Reg и там же использовался DNS хостинг. NS записи были настроены на DNS сервера Reg ru. В Selectel я не создал зону и не скопировал туда эти записи. Просто не подумал об этом.
В момент непосредственно переноса домен в Reg удаляется из админки вместе с DNS записями. Ну и всё 🤷♂️. На выходе получаю перенос разделегированного домена. К нему не привязана ни одна DNS запись, так как на указанных NS серверах нет моего домена. Как увидел, сразу создал в Selectel DNS зону, прописал его NS сервера и стал восстанавливать записи. С этим пришлось повозиться, так как записей было много разных типов, в том числе TXT. Заранее я их не сохранил.
В итоге всё восстановил, домен нормально заработал. Так что в целом переезд успешный. Для беспроблемного переноса между любыми регистраторами действовать нужно следующим образом:
1️⃣ Создаём DNS записи на любом DNS хостинге. Не обязательно у регистратора, но, конечно, удобнее у него, чтобы всё было в одном месте. У Selectel хостинг DNS бесплатный, поэтому я давно его использую.
2️⃣ Для домена, который переносим, прописываем NS сервера нового хостинга, ждём обновления, убеждаемся, что всё работает.
3️⃣ Заказываем перенос. Он может длиться 5-7 дней, это нормально.
4️⃣ После переноса проверяем, что к новому регистратору он приехал с NS серверами DNS хостинга, где настроены ваши DNS записи.
Если будете переезжать в Selectel, воспользуйтесь моей рефкой: https://selectel.ru/?ref_code=6a11d800c4 Вам всё равно, а мне немного средств придёт на оплату инфры. Для новых акков расходы на перенос и новые домены возвращаются в виде бонусов. То есть по сути бесплатно будет.
Заметку писал не для рефки. Если кто-то знает регистраторов с низкими тарифами, поделитесь в комментариях. Только проверьте актуальный тариф. Подозреваю, что он может измениться в ближайшее время.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#домены
Подозреваю, что на таких партнёрских тарифах сидит множество хостеров и других посредников, которые продают регистрацию через reg ru, имея похожий тариф с очень низкой стоимостью продления.
У меня в управлении с десяток доменов в reg ru, какие-то используются, какие-то нет, но жалко бросить, домены знакомых, благотворительных организаций и т.д. Решил куда-то переехать, где подешевле.
Последние года взаимодействовал только с тремя регистраторами: Reg ru, Nic ru и Mastername. Причём в Reg и Mastername целенаправленно стянул все свои домены и домены заказчиков. У Mastername сейчас тариф на продление - 550 р, что в целом приемлемо. Он не задирает цены, потихоньку индексирует вслед за инфляцией. Про Nic вообще ничего хорошего не скажу. Сервис не нравится, цены тоже. Никому не советую.
Я недавно был на конференции Selectel. Там анонсировали новую услугу - регистрацию доменов. Со слов выступающего - это непрофильное направление, заниматься им не особо хотелось, но для удобства заказчиков решили сделать своего регистратора и продавать услугу по себестоимости. Сейчас цена у них - 450 р. за зону ru.
Решил перенести все свои домены в Selectel. Один технический уже перенёс, но с ним случился большой фейл по моему недосмотру. Поэтому и решил написать об этом, чтобы предостеречь. Домены не так часто приходится переносить. Обычно меняется делегирование на те или иные NS сервера, а сам домен живёт у регистратора.
Заказал я перенос в Reg ru. Попросили скан паспорта для подтверждения операции. Предоставил. Выдали AuthInfo-код для переноса. Заказал перенос в админке Selectel с использованием кода. Процесс пошёл и длился 6 суток. Через 6 суток получил разделегированный домен без DNS записей 😱. Как это обычно бывает по закону подлости, случилось это ночью в выходной день 😩.
А теперь рассказываю, как это выглядело технически. Изначально домен был в Reg и там же использовался DNS хостинг. NS записи были настроены на DNS сервера Reg ru. В Selectel я не создал зону и не скопировал туда эти записи. Просто не подумал об этом.
В момент непосредственно переноса домен в Reg удаляется из админки вместе с DNS записями. Ну и всё 🤷♂️. На выходе получаю перенос разделегированного домена. К нему не привязана ни одна DNS запись, так как на указанных NS серверах нет моего домена. Как увидел, сразу создал в Selectel DNS зону, прописал его NS сервера и стал восстанавливать записи. С этим пришлось повозиться, так как записей было много разных типов, в том числе TXT. Заранее я их не сохранил.
В итоге всё восстановил, домен нормально заработал. Так что в целом переезд успешный. Для беспроблемного переноса между любыми регистраторами действовать нужно следующим образом:
Если будете переезжать в Selectel, воспользуйтесь моей рефкой: https://selectel.ru/?ref_code=6a11d800c4 Вам всё равно, а мне немного средств придёт на оплату инфры. Для новых акков расходы на перенос и новые домены возвращаются в виде бонусов. То есть по сути бесплатно будет.
Заметку писал не для рефки. Если кто-то знает регистраторов с низкими тарифами, поделитесь в комментариях. Только проверьте актуальный тариф. Подозреваю, что он может измениться в ближайшее время.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#домены
Please open Telegram to view this post
VIEW IN TELEGRAM
👍175👎7
По горячим следам хочу сделать дополнение к заметке про регистраторов доменов. Я думаю, многие начнут переносы, так как повышение цен от Reg затронуло значительное количество пользователей. Они вроде бы лидеры по числу обслуживаемых доменов.
При выборе регистратора стоит отталкиваться не только от цены, если вы переживаете за стабильную работу. Расскажу историю, с которой столкнулся лично. В какой-то момент у хостера Masterhost и его регистратора Mastername возникли проблемы. Не буду фокусироваться на том, какие именно. История была известная. Я тут писал о ней в своё время.
Так вот, упал хостинг и панель управления DNS и доменами. Та, где вы NS сервера прописываете. И получилась тупиковая ситуация. Лежит хостер, причём очень долго, проблемы были несколько дней. Вы переезжаете к другому, но не можете изменить DNS записи и становитесь заложниками ситуации и ничего не можете сделать, только ждать.
Регистратор и его панель управления - важная инфраструктура, плюс круглосуточная поддержка. Я лично не уверен, что те, кто продают и продлевают домены за самую низкую стоимость, смогут обеспечить надёжную и стабильную работу. А домен - это очень важная сущность. Проблемы с делегированием и DNS записями могут положить на лопатки весь бизнес или отдельный проект.
Безопаснее всего хранить домены у одного надёжного регистратора, а хостить сервисы у другого надёжного хостера. Класть все яйца в одну корзину удобно, но небезопасно ☝️. С мастерхостом я разок поплатился за это. Так что подходите аккуратно и вдумчиво к этому вопросу.
Моя предыдущая рекомендация Selectel - пример по моему мнению на текущий момент надёжного регистратора со средней ценой за продление. Конкретно мне удобно у него хранить домены, поэтому я туда и переехал. Мне они там фактически бесплатно будут продлеваться за счёт реферальных баллов, которые накопил за много лет пользования услугами. А вы решайте по месту, куда вам надёжнее переехать. Но по низу рынка я бы не советовал использовать регистраторов для каких-то серьёзных доменов.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#домены
При выборе регистратора стоит отталкиваться не только от цены, если вы переживаете за стабильную работу. Расскажу историю, с которой столкнулся лично. В какой-то момент у хостера Masterhost и его регистратора Mastername возникли проблемы. Не буду фокусироваться на том, какие именно. История была известная. Я тут писал о ней в своё время.
Так вот, упал хостинг и панель управления DNS и доменами. Та, где вы NS сервера прописываете. И получилась тупиковая ситуация. Лежит хостер, причём очень долго, проблемы были несколько дней. Вы переезжаете к другому, но не можете изменить DNS записи и становитесь заложниками ситуации и ничего не можете сделать, только ждать.
Регистратор и его панель управления - важная инфраструктура, плюс круглосуточная поддержка. Я лично не уверен, что те, кто продают и продлевают домены за самую низкую стоимость, смогут обеспечить надёжную и стабильную работу. А домен - это очень важная сущность. Проблемы с делегированием и DNS записями могут положить на лопатки весь бизнес или отдельный проект.
Безопаснее всего хранить домены у одного надёжного регистратора, а хостить сервисы у другого надёжного хостера. Класть все яйца в одну корзину удобно, но небезопасно ☝️. С мастерхостом я разок поплатился за это. Так что подходите аккуратно и вдумчиво к этому вопросу.
Моя предыдущая рекомендация Selectel - пример по моему мнению на текущий момент надёжного регистратора со средней ценой за продление. Конкретно мне удобно у него хранить домены, поэтому я туда и переехал. Мне они там фактически бесплатно будут продлеваться за счёт реферальных баллов, которые накопил за много лет пользования услугами. А вы решайте по месту, куда вам надёжнее переехать. Но по низу рынка я бы не советовал использовать регистраторов для каких-то серьёзных доменов.
———
ServerAdmin:
#домены
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
ServerAdmin.ru
Недавно регистратор reg ru сделал рассылку, в которой проинформировал о том, что у него меняется тарифная сетка для партнёрских договоров. У меня был такой, и за домены я много лет платил по 220 р. Халява кончилась и по новому тарифу я должен был платить…
👍64👎10
Сегодня у нас неправильная пятница, а у меня неправильная неделя. Сбил все свои графики публикаций, правда по уважительной причине. Занимался личными и семейными делами. Я очень люблю структуру и систему во всём. Считаю, что даже если нет какого-то особенного таланта, способностей и удачи, но есть упорство в каком-то деле, то будет хороший результат.
Сегодня сделаю очередную подборку статей IT авторов. Попутно хочу у вас спросить, интересен ли вам такой формат и стоит ли мне его дальше вести? Почти у всех авторов есть как сайты, так и свои каналы, куда вы можете подписаться и читать по желанию их материалы. Я уже не уверен, что мне стоит это продолжать в рамках своего канала. Проголосуйте 👍 или 👎за эту публикацию или оставьте комментарий. Я знаю, что большинство поддерживает почти всё, что я пишу, пальцем вверх. Это тот случай, когда мне нужна не поддержка, а ваше мнение. Поэтому проголосуйте.
Для авторов IT сайтов и каналов отдельно отмечу, что у нас есть небольшой чат, где мы иногда обсуждаем всякие свои авторские дела. Если вы тоже автор, который сам пишет статьи и заметки, и хотите присоединиться, то напишите мне сообщение в личку со ссылками на свои ресурсы. Я вас добавлю. Это ни к чему не обязывает.
Ниже список сайтов, которые участвуют в подборке:
▪️https://r4ven.me
▪️https://wiki-it.ru
▪️https://www.gurin.ru
▪️https://sysadminhub.ru
▪️https://devopslife.ru
▪️https://bite-byte.ru
▪️https://sysadminium.ru/
▪️https://desoft.ru
▪️https://www.pc360.ru
▪️https://bafista.ru
▪️https://it-experience.ru
▪️https://blogadminday.ru
▪️https://marukhin.ru
▪️https://blog.mons.ws
▪️https://lytkins.ru
▪️https://sysops.host
▪️https://prohomelab.com
А пока очередная подборка будет в сообщении ниже, так как в одну публикацию всё не влезает.
⬇️⬇️⬇️⬇️⬇️⬇️
#статьи
Сегодня сделаю очередную подборку статей IT авторов. Попутно хочу у вас спросить, интересен ли вам такой формат и стоит ли мне его дальше вести? Почти у всех авторов есть как сайты, так и свои каналы, куда вы можете подписаться и читать по желанию их материалы. Я уже не уверен, что мне стоит это продолжать в рамках своего канала. Проголосуйте 👍 или 👎за эту публикацию или оставьте комментарий. Я знаю, что большинство поддерживает почти всё, что я пишу, пальцем вверх. Это тот случай, когда мне нужна не поддержка, а ваше мнение. Поэтому проголосуйте.
Для авторов IT сайтов и каналов отдельно отмечу, что у нас есть небольшой чат, где мы иногда обсуждаем всякие свои авторские дела. Если вы тоже автор, который сам пишет статьи и заметки, и хотите присоединиться, то напишите мне сообщение в личку со ссылками на свои ресурсы. Я вас добавлю. Это ни к чему не обязывает.
Ниже список сайтов, которые участвуют в подборке:
▪️https://r4ven.me
▪️https://wiki-it.ru
▪️https://www.gurin.ru
▪️https://sysadminhub.ru
▪️https://devopslife.ru
▪️https://bite-byte.ru
▪️https://sysadminium.ru/
▪️https://desoft.ru
▪️https://www.pc360.ru
▪️https://bafista.ru
▪️https://it-experience.ru
▪️https://blogadminday.ru
▪️https://marukhin.ru
▪️https://blog.mons.ws
▪️https://lytkins.ru
▪️https://sysops.host
▪️https://prohomelab.com
А пока очередная подборка будет в сообщении ниже, так как в одну публикацию всё не влезает.
⬇️⬇️⬇️⬇️⬇️⬇️
#статьи
4👍244👎3
⇨ Proxmox VE — создание VM для Windows 11
База по установке винды на PVE: EFI Disk, Virtio ISO с подгрузкой драйверов и т.д. У меня была похожая статья на эту тему. С тех пор ничего особо не поменялось.
⇨ Первый шаг в работе с AWS Web Services. Создание VPC с помощью Terraform
⇨ Создание подсетей в AWS VPC с помощью Terraform
Примеры работы с Terraform в AWS.
⇨ Почему мне не нужен Ceph storage в Proxmox для домашнего сервера
Рассуждения автора на тему, почему вам не нужен Ceph для личных нужд, даже если вы фанат домашних лабораторий.
⇨ Microsoft Windows Server 2025: обзор новых возможностей и улучшений
Краткий список нововведений: SMB over QUIC, Winget, LAPS, обновление ReFS, совместное использование GPU в Hyper-V и др..
⇨ Установка обратного прокси Traefik в LXC-контейнер как systemd unit ч.1 и ч. 2
Необычный практический пример по запуску Traefik с динамической конфигурацией в виде systemd юнита в LXC контейнере PVE.
⇨ How to configure a High-performance backend server for Nextcloud Talk on Ubuntu 22.04
Статья на английском языке по настройке Nextcloud Talk. К сожалению, там только команды и конфиги, без пояснений. Я не понял, почему это именно High-performance backend server.
⇨ Безопасный DNS: настройка DNS over TLS в OPNsense с помощью Unbound DNS
Шифрование DNS запросов на примере настройки в софтовом шлюзе OPNsense.
⇨ Организация защищенных виртуальных сетей с помощью OpenZiti. Часть 1
Обзор системы для организации распределённых сетей, аналог ZeroTier, Nebula, Tailscale, Netmaker, Netbird (🔥). Впервые слышу о ней. Выглядит интересно.
⇨ Как объединить local-lvm и local в единое хранилище в Proxmox
Практический пример, как объединить два хранилища в одно после стандартной установки, которая не даёт возможности этим управлять.
⇨ Linux. Утилиты. Нестандартные. fzf
Обзор небольшой утилиты для нечёткого поиска с примером. Это когда искомые символы могут располагаться не только строго один за другим, но и в любом месте в заданном интервале.
⇨ Бесплатный ИИ-ассистент для разработки на базе Qwen Coder и Kilo Code
Установка и запуск Qwen Coder с подключением его в Visual Studio Code на базе бесплатного тарифа в qwen.ai.
⇨ Authentik — зачем нужен IAM / IdP в homelab и production
Краткий обзор Authentik и пример запуска на своём сервере.
⇨ Mealie — self-hosted приложение для рецептов, планирования питания и списка покупок
Обзор и запуск веб-приложения для управления рецептами, планирования питания и составления списка покупок.
⇨ Nextcloud в Proxmox: Полная установка в LXC без Docker
⇨ Установка Nextcloud AIO — простое и мощное облако в Docker
Ручная установка Nextcloud по старинке из компонентов в чистую систему на базе LXC и то же самое, только в виде Docker контейнера, где ничего руками устанавливать не надо.
⇨ Первое знакомство с Docker — установка и базовые понятия
База по работе с докером для тех, кто с ним вообще не знаком.
⇨ Установка Vaultwarden — простая альтернатива Bitwarden на своем сервере
Настройка self-hosted сервера для известного менеджера паролей.
⇨ Bash: Пишем скрипт для симуляции работы мыши
Создание фонового процесса, который раз в 5 сек. двигает мышь. Актуально для удалёнщиков, кто куда-то подключается, где блокируют рабочий стол при неактивности.
⇨ Почему процесс VM всё ещё ломается?
Теория по процессу управления уязвимостями (Vulnerability Management, VM) от практикующего специалиста.
⇨ Zabbix 6: зачем компании платят сотни тысяч за то, что можно мониторить бесплатно
Почему за Zabbix приходится прилично платить, если сам он бесплатный? Понятно, почему. Потому что надо купить курсы по его изучению 😀 или нанять кого-то, кто его уже изучил.
⇨ Zabbix 6 vs Zabbix 7: стоит ли переходить и зачем учить «шестёрку» сегодня
Сравнение 6 и 7 версии.
⇨ TriliumNext — мощная система личных знаний под вашим контролем. Установка и особенности приложения
Обзор TriliumNext для ведения личных заметок.
⇨ Obsidian vs TriliumNext — сравнение систем управления знаниями
Сравнение Obsidian и TriliumNext.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#статьи
База по установке винды на PVE: EFI Disk, Virtio ISO с подгрузкой драйверов и т.д. У меня была похожая статья на эту тему. С тех пор ничего особо не поменялось.
⇨ Первый шаг в работе с AWS Web Services. Создание VPC с помощью Terraform
⇨ Создание подсетей в AWS VPC с помощью Terraform
Примеры работы с Terraform в AWS.
⇨ Почему мне не нужен Ceph storage в Proxmox для домашнего сервера
Рассуждения автора на тему, почему вам не нужен Ceph для личных нужд, даже если вы фанат домашних лабораторий.
⇨ Microsoft Windows Server 2025: обзор новых возможностей и улучшений
Краткий список нововведений: SMB over QUIC, Winget, LAPS, обновление ReFS, совместное использование GPU в Hyper-V и др..
⇨ Установка обратного прокси Traefik в LXC-контейнер как systemd unit ч.1 и ч. 2
Необычный практический пример по запуску Traefik с динамической конфигурацией в виде systemd юнита в LXC контейнере PVE.
⇨ How to configure a High-performance backend server for Nextcloud Talk on Ubuntu 22.04
Статья на английском языке по настройке Nextcloud Talk. К сожалению, там только команды и конфиги, без пояснений. Я не понял, почему это именно High-performance backend server.
⇨ Безопасный DNS: настройка DNS over TLS в OPNsense с помощью Unbound DNS
Шифрование DNS запросов на примере настройки в софтовом шлюзе OPNsense.
⇨ Организация защищенных виртуальных сетей с помощью OpenZiti. Часть 1
Обзор системы для организации распределённых сетей, аналог ZeroTier, Nebula, Tailscale, Netmaker, Netbird (🔥). Впервые слышу о ней. Выглядит интересно.
⇨ Как объединить local-lvm и local в единое хранилище в Proxmox
Практический пример, как объединить два хранилища в одно после стандартной установки, которая не даёт возможности этим управлять.
⇨ Linux. Утилиты. Нестандартные. fzf
Обзор небольшой утилиты для нечёткого поиска с примером. Это когда искомые символы могут располагаться не только строго один за другим, но и в любом месте в заданном интервале.
⇨ Бесплатный ИИ-ассистент для разработки на базе Qwen Coder и Kilo Code
Установка и запуск Qwen Coder с подключением его в Visual Studio Code на базе бесплатного тарифа в qwen.ai.
⇨ Authentik — зачем нужен IAM / IdP в homelab и production
Краткий обзор Authentik и пример запуска на своём сервере.
⇨ Mealie — self-hosted приложение для рецептов, планирования питания и списка покупок
Обзор и запуск веб-приложения для управления рецептами, планирования питания и составления списка покупок.
⇨ Nextcloud в Proxmox: Полная установка в LXC без Docker
⇨ Установка Nextcloud AIO — простое и мощное облако в Docker
Ручная установка Nextcloud по старинке из компонентов в чистую систему на базе LXC и то же самое, только в виде Docker контейнера, где ничего руками устанавливать не надо.
⇨ Первое знакомство с Docker — установка и базовые понятия
База по работе с докером для тех, кто с ним вообще не знаком.
⇨ Установка Vaultwarden — простая альтернатива Bitwarden на своем сервере
Настройка self-hosted сервера для известного менеджера паролей.
⇨ Bash: Пишем скрипт для симуляции работы мыши
Создание фонового процесса, который раз в 5 сек. двигает мышь. Актуально для удалёнщиков, кто куда-то подключается, где блокируют рабочий стол при неактивности.
⇨ Почему процесс VM всё ещё ломается?
Теория по процессу управления уязвимостями (Vulnerability Management, VM) от практикующего специалиста.
⇨ Zabbix 6: зачем компании платят сотни тысяч за то, что можно мониторить бесплатно
Почему за Zabbix приходится прилично платить, если сам он бесплатный? Понятно, почему. Потому что надо купить курсы по его изучению 😀 или нанять кого-то, кто его уже изучил.
⇨ Zabbix 6 vs Zabbix 7: стоит ли переходить и зачем учить «шестёрку» сегодня
Сравнение 6 и 7 версии.
⇨ TriliumNext — мощная система личных знаний под вашим контролем. Установка и особенности приложения
Обзор TriliumNext для ведения личных заметок.
⇨ Obsidian vs TriliumNext — сравнение систем управления знаниями
Сравнение Obsidian и TriliumNext.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#статьи
DeSoft.ru
Бесплатный ИИ-ассистент для разработки на базе Qwen Coder и Kilo Code
Qwen Coder от Alibaba показал себя довольно добротным ассистентом по качеству написания кода по сравнению с конкурентами (сравнительные тесты постоянно появляются в сети), а лояльный бесплатный тариф и вовсе делает его одним из лучших предложений среди кодовых…
3👍171👎2
📊 Давно собирался очередной опрос сделать. Сейчас самое время для него, пока выходные. Надеюсь, вам хорошо отдыхается без дежурств и уведомлений от мониторинга. Мои уведомления всегда со мной уже 10+ лет. Мне наверное какую-то реабилитация надо проходить для избавления зависимости от почты. Каждый день её проверяю. У меня все уведомления там, в мессенджеры только самое-самое критичное. Даже если весь день за компьютер не сажусь, вечером всё равно почту проверю.
В тему подводочка получилась, потому что опрос хочу провести на тему систем мониторинга. Очевидно, что лидерами тут будут без вариантов Zabbix и Prometheus. Интересно посмотреть между ними распределение и узнать, есть ли какая-то статистически значимая доля у всех остальных. Я даже наверняка не знаю, какие ещё системы туда добавлять, так как их много и все они не очень популярны по сравнению с лидерами.
Попробуем. Составил список, как смог, из всех доступных для добавления в опрос вариантов (максимум 12 вариантов). Если у вас что-то другое, то напишите название в комментариях к опросу. Оставил возможность выбрать несколько вариантов. Думаю, тут это оправданно, так как систем мониторинга бывает несколько и зачастую они равноценны.
📊Напомню, что ранее прошли опросы:
◽️ОС на рабочем компьютере и серверах
◽️Системы виртуализации
◽️Консольный текстовый редактор в Linux
Сам опрос ⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️
#опрос
В тему подводочка получилась, потому что опрос хочу провести на тему систем мониторинга. Очевидно, что лидерами тут будут без вариантов Zabbix и Prometheus. Интересно посмотреть между ними распределение и узнать, есть ли какая-то статистически значимая доля у всех остальных. Я даже наверняка не знаю, какие ещё системы туда добавлять, так как их много и все они не очень популярны по сравнению с лидерами.
Попробуем. Составил список, как смог, из всех доступных для добавления в опрос вариантов (максимум 12 вариантов). Если у вас что-то другое, то напишите название в комментариях к опросу. Оставил возможность выбрать несколько вариантов. Думаю, тут это оправданно, так как систем мониторинга бывает несколько и зачастую они равноценны.
📊Напомню, что ранее прошли опросы:
◽️ОС на рабочем компьютере и серверах
◽️Системы виртуализации
◽️Консольный текстовый редактор в Linux
Сам опрос ⬆️⬆️⬆️⬆️⬆️⬆️⬆️⬆️
#опрос
👍40👎2
Недавно поднимал тему переезда домена от одного регистратора к другому. Косвенно захватил тему переноса DNS записей. У меня уже ранее была один раз ситуация, когда я по какой-то причине потерял DNS записи, которые пришлось восстанавливать. Уже не помню подробностей истории. Ещё тогда я подумал, что неплохо бы было их забэкапить в любом виде, просто чтобы было.
В то время вопрос не проработал и ничего не сделал. Это не такая уж критическая информация, если у вас не десятки поддоменов и каких-то специфических сервисов со своими TXT записями. Можно всё восстановить вручную, но придётся вспоминать и открывать разные источники. На это уйдёт время. Проще будет, если хоть в каком-то виде вся эта информация будет храниться с обновлением хотя бы раз в месяц.
Решил посмотреть, есть ли какие готовые решения на этот счёт. Вот что нашёл.
◽️octoDNS - утилита, которая хранит настройки DNS записей в формате yaml и имеет интеграцию с публичными провайдерами или локальными DNS серверами. Поддерживает многих популярных западный провайдеров, типа Amazon Route 53, Azure DNS, Cloudflare DNS и т.д. и ни одного российского. По факту это не только бэкап конфигурации, но и управление. То есть типичный подход инфраструктуры как код с хранением DNS зон в GIT. С помощью octoDNS записи можно переносить от одного провайдера к другому.
◽️DNSControl - примерно то же самое, что и octoDNS, но зоны хранятся в формате языка программирования JavaScript. Не кажется это удобным. Не знаю, почему так сделано. По возможностям и интеграциям не увидел принципиальной разницы с octoDNS.
Для российских хостеров эти утилиты не подходят. Надо либо модуль интеграции самим писать, либо использовать что-то другое. Можно пойти более простым путём.
◽️Бэкап записей через API. Почти у всех крупных провайдеров есть API для управления зонами. ИИ без проблем напишет интеграцию. Достаточно скормить ему документацию и сказать, что тебе нужно. Я проверил на примере Selectel.
Но тут возникает другой вопрос. Для доступа к зонам нужен токен. Если зоны на разных учётках или у разных хостеров, то муторно настраивать везде доступы. Если задача не добавлять или менять записи, а только смотреть, доступ через API не особо нужен. Это публичные данные, которые можно прочитать напрямую.
◽️Бэкап записей через dig. Можно взять любую утилиту для просмотра DNS записей и сохранить её вывод. В Linux для этого обычно используют dig. Смотреть можно так:
Достаточно сохранить вывод для всех зон, вот тебе и бэкап. По типам записей и доменам можно пройтись в цикле:
Получается аккуратный список DNS записей доменов. У этого способа есть один существенный минус - все поддомены надо добавлять вручную. Нет возможности получить точный публичный список поддоменов. Его придётся вести вручную. Напрямую все поддомены забрать можно только у DNS хостера через его API. Так что выбирайте сами, какой способ вам больше подойдёт.
Я остановился на подобном скрипте. Мне его хватает. Буду запускать раз в неделю на бэкап сервере с консолью Linux.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#dns #backup
В то время вопрос не проработал и ничего не сделал. Это не такая уж критическая информация, если у вас не десятки поддоменов и каких-то специфических сервисов со своими TXT записями. Можно всё восстановить вручную, но придётся вспоминать и открывать разные источники. На это уйдёт время. Проще будет, если хоть в каком-то виде вся эта информация будет храниться с обновлением хотя бы раз в месяц.
Решил посмотреть, есть ли какие готовые решения на этот счёт. Вот что нашёл.
◽️octoDNS - утилита, которая хранит настройки DNS записей в формате yaml и имеет интеграцию с публичными провайдерами или локальными DNS серверами. Поддерживает многих популярных западный провайдеров, типа Amazon Route 53, Azure DNS, Cloudflare DNS и т.д. и ни одного российского. По факту это не только бэкап конфигурации, но и управление. То есть типичный подход инфраструктуры как код с хранением DNS зон в GIT. С помощью octoDNS записи можно переносить от одного провайдера к другому.
◽️DNSControl - примерно то же самое, что и octoDNS, но зоны хранятся в формате языка программирования JavaScript. Не кажется это удобным. Не знаю, почему так сделано. По возможностям и интеграциям не увидел принципиальной разницы с octoDNS.
Для российских хостеров эти утилиты не подходят. Надо либо модуль интеграции самим писать, либо использовать что-то другое. Можно пойти более простым путём.
◽️Бэкап записей через API. Почти у всех крупных провайдеров есть API для управления зонами. ИИ без проблем напишет интеграцию. Достаточно скормить ему документацию и сказать, что тебе нужно. Я проверил на примере Selectel.
Но тут возникает другой вопрос. Для доступа к зонам нужен токен. Если зоны на разных учётках или у разных хостеров, то муторно настраивать везде доступы. Если задача не добавлять или менять записи, а только смотреть, доступ через API не особо нужен. Это публичные данные, которые можно прочитать напрямую.
◽️Бэкап записей через dig. Можно взять любую утилиту для просмотра DNS записей и сохранить её вывод. В Linux для этого обычно используют dig. Смотреть можно так:
# dig ya.ru A +noall +answer# dig ya.ru MX +noall +answer# dig ya.ru TXT +noall +answerДостаточно сохранить вывод для всех зон, вот тебе и бэкап. По типам записей и доменам можно пройтись в цикле:
#!/usr/bin/env bash
DOMAINS_LIST="domains.txt"
BACKUP_DIR="./dns_backups"
mkdir -p "$BACKUP_DIR"
DATE=$(date +%F_%H%M%S)
for DOMAIN in $(cat "$DOMAINS_LIST"); do
OUTFILE="${BACKUP_DIR}/${DOMAIN}_${DATE}.zone"
echo "### $DOMAIN ###" > "$OUTFILE"
for TYPE in NS A AAAA CNAME MX TXT SRV; do
echo "" >> "$OUTFILE"
echo "### $TYPE ###" >> "$OUTFILE"
dig "$DOMAIN" "$TYPE" +noall +answer >> "$OUTFILE"
done
echo "saved: $OUTFILE"
done
Получается аккуратный список DNS записей доменов. У этого способа есть один существенный минус - все поддомены надо добавлять вручную. Нет возможности получить точный публичный список поддоменов. Его придётся вести вручную. Напрямую все поддомены забрать можно только у DNS хостера через его API. Так что выбирайте сами, какой способ вам больше подойдёт.
Я остановился на подобном скрипте. Мне его хватает. Буду запускать раз в неделю на бэкап сервере с консолью Linux.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#dns #backup
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍92👎4
Недавно по лентам каналов проскочил анонс бесплатной программы для бэкапа и переноса почты из почтовых ящиков - Mail-Archiver. Тема интересная и актуальная, потому что такого рода программ практически нет. Я обычно новый софт смотрю, прикидываю, будет ли он мне полезен и откладываю на полгода-год, чтобы настоялся. Если получает развитие, то пробую, если разработка не продолжается, то забываю.
Про Mail-Archiver впервые услышал в видеообзоре, который был в недавней подборке. Когда мне нужно забэкапить или перенести почтовый ящик с почтового сервера, который я не обслуживаю, и, соответственно, не имею напрямую доступ к исходникам писем, то беру imapsync. Это простой и надёжный инструмент, который позволяет по imap забирать почту с одного почтового сервера и складывать на другой. Для бэкапа достаточно поднять свой вспомогательный imap сервер, который примет почту. В своё время делал большие миграции с бесплатной почты для домена от Яндекс на другие сервера, когда первый убрал бесплатные тарифы.
Возвращаюсь к Mail-Archiver. Это веб интерфейс к сборщику почты из ящиков по протоколу imap. Я его попробовал. Поставить очень просто. В репозитории есть готовый
Внешне веб интерфейс собран на базе какого-то типового фреймворка для админок. Выглядит для своих задач нормально. Настойка максимально простая:
1️⃣ Добавляете новый почтовый ящик, указав имя сервера, логин, пароль, imap порт.
2️⃣ Запускаете вручную синхронизацию.
3️⃣ Смотрите почту через веб интерфейс панели. Можете сразу по всем добавленным ящикам в едином списке. В некоторых случаях это может оказаться полезным. Либо же выбираете отдельно ящики или конкретные папки в них.
4️⃣ При желании архив можно выгрузить в формате EML или MBox, предварительно сжав в ZIP. С большими ящиками скорее всего будут проблемы.
5️⃣ Все письма из одного ящика можно скопировать в другой. В том числе в отдельную папку. То есть можно на каком-то почтовом сервере для бэкапов сделать общий ящик и складывать туда в каждую папку письма какого-то отдельного ящика.
В целом панелька удобная. Я без проблем всё настроил. Но есть несколько важных нюансов:
1️⃣ Синхронизация писем идёт медленно. В среднем из ящика забирает 1-2 письма в секунду. Большие ящики будут очень долго синхронизироваться.
2️⃣ Вся почта хранится в SQL базе, конкретно в PostgreSQL. В целом это неплохо с точки зрения быстрого поиска по большому архиву. Но накладывает соответствующие требования к процессору и дискам, чтобы переваривать большие объёмы почты. Вообще не понятно, как эта панель будет работать, если туда загрузить несколько ящиков гигабайт по 50. У меня, к примеру, в обслуживании, таких полно.
3️⃣ Нет настраиваемых задач для регулярного бэкапа. Он запускается только вручную или по какому-то своему расписанию раз в 15 минут. Я вроде всё проверил, и панель, и документацию. Не нашёл, как этим управлять. Странно, что не сделали настраиваемый планировщик. Он тут напрашивается.
Mail-Archiver неплохо решает заданную задачу. Для личного использования или набора ящиков небольших объёмов будет удобен. Для больших почтовых ящиков и серверов, скорее всего не подойдёт. Но там странно было бы надеяться на бэкап через imap. Большие ящики надо бэкапить с уровня хранилища почты.
Отдельно отмечу возможность создавать учётные записи пользователей самой панели, к которым можно добавлять разные почтовые ящики с общим поиском по ним. Для каких-то задач это может быть простым и удобным решением.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#mailserver #backup
Про Mail-Archiver впервые услышал в видеообзоре, который был в недавней подборке. Когда мне нужно забэкапить или перенести почтовый ящик с почтового сервера, который я не обслуживаю, и, соответственно, не имею напрямую доступ к исходникам писем, то беру imapsync. Это простой и надёжный инструмент, который позволяет по imap забирать почту с одного почтового сервера и складывать на другой. Для бэкапа достаточно поднять свой вспомогательный imap сервер, который примет почту. В своё время делал большие миграции с бесплатной почты для домена от Яндекс на другие сервера, когда первый убрал бесплатные тарифы.
Возвращаюсь к Mail-Archiver. Это веб интерфейс к сборщику почты из ящиков по протоколу imap. Я его попробовал. Поставить очень просто. В репозитории есть готовый
docker-compose.yml. Если не хотите менять стандартные учётки, то можно вообще ничего не менять в файле. Я только свой часовой пояс указал.Внешне веб интерфейс собран на базе какого-то типового фреймворка для админок. Выглядит для своих задач нормально. Настойка максимально простая:
В целом панелька удобная. Я без проблем всё настроил. Но есть несколько важных нюансов:
Mail-Archiver неплохо решает заданную задачу. Для личного использования или набора ящиков небольших объёмов будет удобен. Для больших почтовых ящиков и серверов, скорее всего не подойдёт. Но там странно было бы надеяться на бэкап через imap. Большие ящики надо бэкапить с уровня хранилища почты.
Отдельно отмечу возможность создавать учётные записи пользователей самой панели, к которым можно добавлять разные почтовые ящики с общим поиском по ним. Для каких-то задач это может быть простым и удобным решением.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#mailserver #backup
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍95👎2
Расскажу про одну интересную утилиту, которая поможет в строительстве своих велосипедов и костылей как на одиночных серверах, так и в пайплайнах. Речь пойдёт про сервер для вебхуков, который так и называется - webhook. С его помощью можно инициировать запуск локальных команд или скриптов через HTTP запросы.
Рассказываю, как это работает. Пишите какой-нибудь скрипт. Запускаете вебхук сервер, который слушает определённый TCP порт на сервере. При обращении к настроенному урлу на этом веб сервере, выполняется заданный скрипт. Покажу сразу на конкретном примере, чтобы было понятно.
Сервер живёт в базовом репозитории, поэтому просто ставим:
Пишем простенький скрипт
Пишем конфиг в формате yaml для webhook в файл
Запускаем сервер с этим вебхуком:
По умолчанию сервер запускается на порту 9000. Его можно переопределить в конфигурации. Теперь при переходе на урл http://192.168.137.42:9000/hooks/proclog-webhook будет выполняться с крипт
Подобный вебхук можно использовать в какой-то системе мониторинга на триггер по нагрузке на CPU. Это максимально простой способ получить аналитику по процессам, которые выполнялись в момент срабатывания триггеров. Я нечто подобное реализовывал полностью в Zabbix. Для него такие костыли не нужны, потому что у него есть свой агент для выполнения скриптов на хосте. Но с webhook настройка намного проще.
На базе этого сервера удобно настроить выполнение каких-то команд после коммита в репозитории или сообщений в мессенджерах. Можно исходники обновлять и контейнеры перезапускать. У автора есть примеры настроек для популярных сервисов.
У хуков есть множество настроек и ограничивающих правил. Например, можно разрешить только один тип запросов - GET или POST. Можно настроить возвращаемый ответ, добавить в него заголовки, ограничить список запросов только с конкретных IP. Всё это описано отдельным списком. Отдельно есть список правил, с помощью которых можно ограничить доступ к хукам. Как я уже сказал, это можно сделать с помощью списков IP или секретов в заголовках.
Подобного рода программ существует немало. Из тех, что обозревал я это:
▪️Updater
▪️Labean
Последний изначально был придуман, чтобы добавлять разрешающие правила на файрволе при посещении определённых урлов. Но в целом принцип работы тот же. Можно выполнять любые хуки по такому же принципу.
Из всех подобных программ webhook наиболее целостная и функциональная. Много настроек, возможностей, готовых примеров. В репозитории в самом конце есть список статей от пользователей, которые использовали этот сервер. Я свой тестовый хук настроил буквально за 15 минут. Всё очень просто и интуитивно понятно.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#cicd #devops
Рассказываю, как это работает. Пишите какой-нибудь скрипт. Запускаете вебхук сервер, который слушает определённый TCP порт на сервере. При обращении к настроенному урлу на этом веб сервере, выполняется заданный скрипт. Покажу сразу на конкретном примере, чтобы было понятно.
Сервер живёт в базовом репозитории, поэтому просто ставим:
# apt install webhookПишем простенький скрипт
top-proc.sh, который будет записывать в текстовый файл отсортированный по нагрузке список процессов в системе:#!/usr/bin/env bash/usr/bin/mkdir -p /var/log/proclog/usr/bin/ps aux --sort=-pcpu,+pmem > /var/log/proclog/ps-$(date +%F_%H%M%S)Пишем конфиг в формате yaml для webhook в файл
hooks.json:- id: proclog-webhook execute-command: "/var/webhooks/top-proc.sh" command-working-directory: "/var/webhooks/"Запускаем сервер с этим вебхуком:
# /usr/bin/webhook -hooks /var/webhooks/hooks.json -verboseПо умолчанию сервер запускается на порту 9000. Его можно переопределить в конфигурации. Теперь при переходе на урл http://192.168.137.42:9000/hooks/proclog-webhook будет выполняться с крипт
/var/webhooks/top-proc.sh, который создаёт логи в директории /var/log/proclog. Подобный вебхук можно использовать в какой-то системе мониторинга на триггер по нагрузке на CPU. Это максимально простой способ получить аналитику по процессам, которые выполнялись в момент срабатывания триггеров. Я нечто подобное реализовывал полностью в Zabbix. Для него такие костыли не нужны, потому что у него есть свой агент для выполнения скриптов на хосте. Но с webhook настройка намного проще.
На базе этого сервера удобно настроить выполнение каких-то команд после коммита в репозитории или сообщений в мессенджерах. Можно исходники обновлять и контейнеры перезапускать. У автора есть примеры настроек для популярных сервисов.
У хуков есть множество настроек и ограничивающих правил. Например, можно разрешить только один тип запросов - GET или POST. Можно настроить возвращаемый ответ, добавить в него заголовки, ограничить список запросов только с конкретных IP. Всё это описано отдельным списком. Отдельно есть список правил, с помощью которых можно ограничить доступ к хукам. Как я уже сказал, это можно сделать с помощью списков IP или секретов в заголовках.
Подобного рода программ существует немало. Из тех, что обозревал я это:
▪️Updater
▪️Labean
Последний изначально был придуман, чтобы добавлять разрешающие правила на файрволе при посещении определённых урлов. Но в целом принцип работы тот же. Можно выполнять любые хуки по такому же принципу.
Из всех подобных программ webhook наиболее целостная и функциональная. Много настроек, возможностей, готовых примеров. В репозитории в самом конце есть список статей от пользователей, которые использовали этот сервер. Я свой тестовый хук настроил буквально за 15 минут. Всё очень просто и интуитивно понятно.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#cicd #devops
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍120👎3
🔝С праздниками закрутился и упустил, что октябрь кончился, а я забыл собрать популярные публикации прошедшего месяца. Хоть и с опозданием, но исправляю. Это хоть и не очень популярный формат, но я веду его для каталогизации и структурирования информации, чтобы новым читателям было проще посмотреть, что интересного тут было ранее. С этим в Telegram туго. Мне потом по этим отчётам годовую статистику проще формировать.
Все самые популярные публикации по месяцам можно почитать по соответствующему хэштэгу #топ. Отдельно можно посмотреть ТОП за прошлые года: 2023 и 2024.
Пользуясь случаем, хочу попросить проголосовать за мой канал, так как это открывает некоторые дополнительные возможности по настройке: https://xn--r1a.website/boost/srv_admin.
📌 Больше всего пересылок:
◽️Настройка basic_auth с исключениями в Nginx/Angie (466)
◽️Платформы для построения тестовых инфраструктур (404)
◽️Xenoeye для анализа сетевой активности (402)
◽️Сервисы для централизованного сбора логов (366)
📌 Больше всего комментариев:
◽️Обзор клиентов для удалённых подключений (234)
◽️Глюки RouterOS 7 в Mikrotik (232)
◽️Настройка basic_auth с исключениями в Nginx/Angie (200)
📌 Больше всего реакций:
◽️Подборка авторских сайтов IT тематики (233)
◽️Настройка basic_auth с исключениями в Nginx/Angie (228)
◽️Обучающий канал Alek OS (204)
◽️Swap в виде файла (198)
📌 Больше всего просмотров:
◽️Система Sentry - ужас для поддержки (11000)
◽️Пасхалка с коровой в apt-get (10400)
◽️Платформы для построения тестовых инфраструктур (10200)
◽️Сервис для проверки репутации IP (10000)
#топ
Все самые популярные публикации по месяцам можно почитать по соответствующему хэштэгу #топ. Отдельно можно посмотреть ТОП за прошлые года: 2023 и 2024.
Пользуясь случаем, хочу попросить проголосовать за мой канал, так как это открывает некоторые дополнительные возможности по настройке: https://xn--r1a.website/boost/srv_admin.
📌 Больше всего пересылок:
◽️Настройка basic_auth с исключениями в Nginx/Angie (466)
◽️Платформы для построения тестовых инфраструктур (404)
◽️Xenoeye для анализа сетевой активности (402)
◽️Сервисы для централизованного сбора логов (366)
📌 Больше всего комментариев:
◽️Обзор клиентов для удалённых подключений (234)
◽️Глюки RouterOS 7 в Mikrotik (232)
◽️Настройка basic_auth с исключениями в Nginx/Angie (200)
📌 Больше всего реакций:
◽️Подборка авторских сайтов IT тематики (233)
◽️Настройка basic_auth с исключениями в Nginx/Angie (228)
◽️Обучающий канал Alek OS (204)
◽️Swap в виде файла (198)
📌 Больше всего просмотров:
◽️Система Sentry - ужас для поддержки (11000)
◽️Пасхалка с коровой в apt-get (10400)
◽️Платформы для построения тестовых инфраструктур (10200)
◽️Сервис для проверки репутации IP (10000)
#топ
Telegram
ServerAdmin.ru
🎄🔝 Под конец года имеет смысл подвести некоторые итоги. В повседневной жизни я не привык это делать. Обычно только доходы/расходы анализирую. А вот в разрезе канала было интересно посмотреть итоги.
Я подготовил ТОП публикаций за прошедший год. Это было…
Я подготовил ТОП публикаций за прошедший год. Это было…
👍52👎3
Вчера в статье про обновление Debian 12 до Debian 13 Trixie появился полезный комментарий. Автор указал, что в результате обновления удаляется файл
В Debian 13 вообще по умолчанию убрали
Существует устоявшаяся практика по изменению стандартных конфигурационных файлов. Обычно для внесения своих правок используется специальная директория с названием сервиса и
Если вы хотите внести изменения в sysctl, то просто добавьте отдельный файл в
Например, если хотите добавить форвард пакетов между сетевыми интерфейсами, создайте отдельный файл
После этого примените настройку:
Я всё это, конечно же, знаю, но иногда сознательно так не делаю для своего удобства. Мне нравится, когда вся конфигурация в одном файле. Кому-то это кажется наоборот неудобным. Это моё личное предпочтение, за которое я часто получал критику, если делал все изменения в стандартном конфигурационном файле.
Например, я предпочитаю, когда конфигурация Postfix или Dovecot в одном общем файле, а не раскиданная по нескольким. А в Nginx или Logstash по разным. Там есть логическое разделение по смыслам. В случае Nginx всё очевидно - разные виртуальны хосты, разные файлы конфигураций. В Logstash тоже разные процедуры с данными в разных файлах.
В общем случае вносить изменения стоит в корректирующие файлы конфигурации, а не основные. А как вам удобнее, решайте сами. Просто знайте, что иногда ваш файл может быть перезаписан. Изменения обычно не теряются, так как старый файл сохраняется рядом с другим расширением. Ещё популярные примеры из этой области:
◽️
◽️
◽️
◽️
◽️
◽️
Ну и так далее. Это типичная картина для файлов конфигураций служб в Linux. Скорее будет исключение, если служба будет использовать другой подход к организации конфигурационных файлов.
А вы как предпочитаете хранить конфигурации? Как правильно или как удобно?
#linux
/etc/sysctl.conf, а старый переименовывается на /etc/sysctl.conf.dpkg-bak. Соответственно, все внесённые настройки не применяются. Этого стоит ожидать и понимать, что такое может произойти, хотя на моей памяти ни разу такого не видел с sysctl.conf, потому что я обычно вношу изменения именно в него. В Debian 13 вообще по умолчанию убрали
/etc/sysctl.conf, так как за эти настройки отвечает служба systemd-sysctl, которая хранит свои настройки в /usr/lib/sysctl.d/.Существует устоявшаяся практика по изменению стандартных конфигурационных файлов. Обычно для внесения своих правок используется специальная директория с названием сервиса и
.d на конце. Для примера с sysctl это всегда была директория /etc/sysctl.d, а сейчас /usr/lib/sysctl.d/. Хотя старая вроде бы тоже подгружается в момент загрузки системы.Если вы хотите внести изменения в sysctl, то просто добавьте отдельный файл в
/etc/sysctl.d и внесите свои правки туда. Имя файла при этом чаще всего может быть любым, главное следить за расширением .conf. Обычно на это проверка стоит и к основной конфигурации подключаются только файлы определённого расширения.Например, если хотите добавить форвард пакетов между сетевыми интерфейсами, создайте отдельный файл
/etc/sysctl.d/forward.conf и добавьте туда:net.ipv4.ip_forward = 1После этого примените настройку:
# sysctl -p /etc/sysctl.d/forward.confnet.ipv4.ip_forward = 1Я всё это, конечно же, знаю, но иногда сознательно так не делаю для своего удобства. Мне нравится, когда вся конфигурация в одном файле. Кому-то это кажется наоборот неудобным. Это моё личное предпочтение, за которое я часто получал критику, если делал все изменения в стандартном конфигурационном файле.
Например, я предпочитаю, когда конфигурация Postfix или Dovecot в одном общем файле, а не раскиданная по нескольким. А в Nginx или Logstash по разным. Там есть логическое разделение по смыслам. В случае Nginx всё очевидно - разные виртуальны хосты, разные файлы конфигураций. В Logstash тоже разные процедуры с данными в разных файлах.
В общем случае вносить изменения стоит в корректирующие файлы конфигурации, а не основные. А как вам удобнее, решайте сами. Просто знайте, что иногда ваш файл может быть перезаписан. Изменения обычно не теряются, так как старый файл сохраняется рядом с другим расширением. Ещё популярные примеры из этой области:
◽️
/etc/zabbix/zabbix_agentd.d◽️
/etc/fail2ban/fail2ban.d◽️
/etc/dovecot/conf.d◽️
/etc/sudoers.d◽️
/etc/mysql/mariadb.conf.d◽️
/etc/logstash/conf.dНу и так далее. Это типичная картина для файлов конфигураций служб в Linux. Скорее будет исключение, если служба будет использовать другой подход к организации конфигурационных файлов.
А вы как предпочитаете хранить конфигурации? Как правильно или как удобно?
#linux
👍109👎2
⇨ Динамические группы проксируемых серверов в Angie
Примеры динамической балансировки нагрузки на бэкенды с помощью Angie. Используется метод c помощью DNS записей типа SRV и меток Docker контейнеров, как в Traefik.
⇨ Клиентское кэширование в Angie
Практический пример настройки кэша статических элементов сайта с помощью настройки соответствующих заголовков.
⇨ Terraform - EPHEMERAL - ОЧЕНЬ НУЖНАЯ ВЕЩЬ!
Обзор одной из возможностей современного Terraform, с помощью которой можно управлять чувствительными данными, например, созданными паролями, исключая их сохранение в файле состояния .tfstate.
⇨ Шифрование в протоколе TLS | Компьютерные сети 2025 - 40
Очередной урок обновлённого популярного курса по сетям. Если кто ещё не знаком с ним и интересуется темой, рекомендую. Хорошее качество материала, подача.
⇨ Zabbix 8.0: Новая глава в мониторинге. Автор: Алексей Владышев / Zabbix Summit 2025
Выступление основателя Zabbix на тему нововведений 8-й версии. Ближе к релизу я более детально всё это изучу и напишу, а пока это для тех, кому любопытна данная тема. Самое интересное - анонсировано мобильное приложение 🔥.
⇨ Traefik в Proxmox LXC | Reverse Proxy + Автоматический SSL (Let's Encrypt) Part 1 и Part 2
Подборные ролики на тему настройки обратного прокси на базе Traefik. Настройка включает в себя приобретение доменного имени и далее настройка Traefik, статическая, динамическая, TLS и всякие нюансы, подробно и наглядно.
⇨ 7 действительно полезных вещей для дома на 3D-принтере
Ролик из другой тематики, которой я интересуюсь - стройка. Но тут тема немного пересекается с IT, так как 3D принтеры пока удел отдельных любителей, чаще всего связанных с IT. Хоть ролик и рекламный, но не вижу ничего зазорного в нём, так как подробно всё рассказано и показано. Я у этого автора увидел Ergostol и купил себе аж три разной ширины от 2 до 2,2 м. Очень удобные столы, рекомендую.
⇨ Лучшие самостоятельные инструменты искусственного интеллекта, которые вы можете запустить у себя
Обзор бесплатных программ, связанных с ИИ. Какие-то я уже знал (Ollama, OpenWebUi, n8n), а про некоторые услышал впервые.
⇨ Block stupid Ads and manage DNS // Pi-hole Tutorial
Подробный обзор бесплатного инструмента для блокировки рекламы и трекеров с помощью блокировки соответствующих DNS запросов. Я сам не раз разворачивал Pi-Hole и каждый раз отказывался от него. Мне не нравится подход блокировки DNS, потому что он негибкий. Предпочитаю управлять этим через расширения в браузерах.
⇨ Бесплатная панель мониторинга Proxmox, которую вы ждали
Очередной обзор неплохой бесплатной панели для мониторинга и управления Proxmox VE - Pulse. Я писал про неё и использую у себя.
#видео
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Динамические группы проксируемых серверов в Angie
При работе с балансировкой нагрузки изменение состава серверов можно выполнять через редактирование конфига. Но в Angie есть и более гибкие варианты, которые используют DNS или даже метки docker для управления апстримами.
Этот канал посвящён теме поддержки…
Этот канал посвящён теме поддержки…
1👍55👎2