Недавно запускал в работу новый арендованный сервер с гипервизором Proxmox под типовую нагрузку от Битрикса. Выполнил набор стандартных для себя действий. Там нет чего-то принципиально нового, о чём бы ещё не писал, но для удобства решил оформить отдельной публикацией со списком.
1️⃣ Систему поставил на софтовый RAID1 на базе Mdadm из двух nvme дисков. Сразу предвещая вопросы, почему не ZFS, отвечу, что конкретно здесь основные возможности ZFS не нужны, ни снимки, ни контроль целостности.
Настроил отправку системной почты через Яндекс. Писал об этом ранее. Заметка полностью актуальна, сделал по ней.
2️⃣ Гипервизор сразу поставил на мониторинг Zabbix. Для мониторинга Mdadm взял готовый шаблон. Подобных шаблонов много, а для мониторинга надо на самом деле мало. Простор этот шаблон ставил ранее, он нормально работает. А так я долгое время использовал свой велосипед для этого. Для отслеживания состояния массива этого достаточно.
Также добавил мониторинг SMART с помощью встроенного шаблона и плагина в Zabbix Agent 2. Очень удобно, что не надо ничего самому колхозить. Раньше приходилось использовать сторонние шаблоны. Тоже писал об этом. Сейчас эта статья неактуальна. Я везде ставлю 2-ю версию агента.
3️⃣ Настроил бэкап виртуальных машин в PBS. Включил оповещения об удачных бэкапах. На PBS настроил копирование бэкапов на ещё один сторонний PBS. Обо всём сделал уведомления, проверил, что работают.
4️⃣ Настроил создание дампов баз MySQL, их локальную проверку на целостное состояние, отправку этой информации в Zabbix. Сделал примерно как описано в статье и в заметке. Для PostgreSQL проверка дампов делается точно так же 1 в 1.
5️⃣ Бэкапы сырых файлов и дампов настроил с помощью rsync примерно по той же схеме, что описана в статье. Мониторинг актуальности бэкапов настроил по той же схеме, что описана в другой статье: в директории кладу файлы с меткой времени создания, файлы смотрю по дате создания. Для директорий и дампов также мониторю их размеры штатными ключами Zabbix vfs.dir.size и vfs.file.size.
В итоге имею и бэкап виртуальных машин, и сырых данных. И хранится это всё на разных серверах. Почти всегда так делаю. Не доверяю бэкапам только виртуалок, хотя конечно, с ними проще. Никаких скриптов, колхоза и т.д. Всё делается на базе готового продукта. Мониторинг, оповещения, проверка целостности из коробки.
Только вот при восстановлении могут возникать нюансы. Например, бэкап виртуалки долго копируется или бьётся по дороге, особенно, если передаёшь через интернет поверх VPN. Лично с этим сталкивался и не раз. Поэтому всегда отдельно делаю бэкап сырых данных, чтобы всегда иметь их под рукой. Их и проверять проще, и частично восстанавливать можно. Бывает и просто покопаться надо в копии файлов.
Для сырых данных использую Rsync. Restic хорош, но он добавляет свой слой в виде дедупликации, снепшотов, сжатия. Тут тоже что-то может пойти не так. Это не файлы в чистом виде. Сервер с Rsync сам ходит на целевые сервера и собирает данные. В обратную сторону с серверов к нему доступа нет.
Под конец не удержался и настроил таки Pulse. Мне понравилась эта панелька. Собрал туда все сервера с этого проекта.
Если у кого-то есть вопросы по указанным темам и настройкам, задавайте. По возможности отвечу и раскрою тему.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#подборка
Настроил отправку системной почты через Яндекс. Писал об этом ранее. Заметка полностью актуальна, сделал по ней.
Также добавил мониторинг SMART с помощью встроенного шаблона и плагина в Zabbix Agent 2. Очень удобно, что не надо ничего самому колхозить. Раньше приходилось использовать сторонние шаблоны. Тоже писал об этом. Сейчас эта статья неактуальна. Я везде ставлю 2-ю версию агента.
В итоге имею и бэкап виртуальных машин, и сырых данных. И хранится это всё на разных серверах. Почти всегда так делаю. Не доверяю бэкапам только виртуалок, хотя конечно, с ними проще. Никаких скриптов, колхоза и т.д. Всё делается на базе готового продукта. Мониторинг, оповещения, проверка целостности из коробки.
Только вот при восстановлении могут возникать нюансы. Например, бэкап виртуалки долго копируется или бьётся по дороге, особенно, если передаёшь через интернет поверх VPN. Лично с этим сталкивался и не раз. Поэтому всегда отдельно делаю бэкап сырых данных, чтобы всегда иметь их под рукой. Их и проверять проще, и частично восстанавливать можно. Бывает и просто покопаться надо в копии файлов.
Для сырых данных использую Rsync. Restic хорош, но он добавляет свой слой в виде дедупликации, снепшотов, сжатия. Тут тоже что-то может пойти не так. Это не файлы в чистом виде. Сервер с Rsync сам ходит на целевые сервера и собирает данные. В обратную сторону с серверов к нему доступа нет.
Под конец не удержался и настроил таки Pulse. Мне понравилась эта панелька. Собрал туда все сервера с этого проекта.
Если у кого-то есть вопросы по указанным темам и настройкам, задавайте. По возможности отвечу и раскрою тему.
———
ServerAdmin:
#подборка
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
ServerAdmin.ru
В продуктах Proxmox не так давно появилась возможность использовать сторонние SMTP сервера для отправки уведомлений. Точнее, стало возможно через веб интерфейс настроить аутентификацию на внешнем сервере. В PVE вроде бы с 8-го релиза появилась эта настройка…
2👍138👎2
Столкнулся на днях с ошибкой, которую уже давно не видел. Минут 10 потратил, пока не понял, в чём проблема. Давно работает один LXC контейнер с Debian внутри. У меня давняя привычка везде и всюду использовать названия только на английском языке и никогда не ставить пробелы, заменяя их тире или подчёркиванием. И вам того же советую во избежание траты времени на поиск внезапных ошибок или проблем с отладкой.
Закинул туда скрипт с комментариями на русском языке, которые иногда оставляю в начале. Вместо русских букв местами получил крякозябры. Первое, на что посмотрел - кодировка исходного текста. На всякий случай сохранил его в VSCode, убедился, что там UTF-8 и скопировал ещё раз. Не помогло.
Подумал, может это в mcedit проблема. Открыл скрипт в nano - там то же самое. На всякий случай скопировал по scp этот же скрипт, чтобы исключить проблемы, связанные с буфером обмена. То же самое. Копирую на другой сервер, там всё нормально.
Дальше понял, что надо локали в терминале смотреть:
Если честно, даже не знаю, что это за локаль
Меняю локаль на английскую:
Теперь надо перезагрузиться, чтобы настройки применились. Перезахода в систему будет недостаточно. Или можно вручную выбрать из списка:
Чтобы новая локально заработала, нужно перезайти пользователем в терминал. Перезагружаться не обязательно.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#linux #terminal
Закинул туда скрипт с комментариями на русском языке, которые иногда оставляю в начале. Вместо русских букв местами получил крякозябры. Первое, на что посмотрел - кодировка исходного текста. На всякий случай сохранил его в VSCode, убедился, что там UTF-8 и скопировал ещё раз. Не помогло.
Подумал, может это в mcedit проблема. Открыл скрипт в nano - там то же самое. На всякий случай скопировал по scp этот же скрипт, чтобы исключить проблемы, связанные с буфером обмена. То же самое. Копирую на другой сервер, там всё нормально.
Дальше понял, что надо локали в терминале смотреть:
# localeLANG=C........Если честно, даже не знаю, что это за локаль
C. Пока нигде не было русского языка, проблем не замечал. Обычно тут по умолчанию стоит en_US.UTF-8. Если и надо поменять локаль, то на ru_RU.UTF-8, чтобы нормально 1С сервер работал. Больше не знаю ситуаций, где бы стоило менять её с английской.Меняю локаль на английскую:
# locale-gen en_US.UTF-8# update-locale en_US.UTF-8Теперь надо перезагрузиться, чтобы настройки применились. Перезахода в систему будет недостаточно. Или можно вручную выбрать из списка:
# dpkg-reconfigure localesЧтобы новая локально заработала, нужно перезайти пользователем в терминал. Перезагружаться не обязательно.
———
ServerAdmin:
#linux #terminal
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍101👎5
Решил сегодня вместо пятничного юмора страшилку разместить. Выше страшный сон поддержки - система Sentry, которая в последней версии после установки с настройками по умолчанию запускает ~75 контейнеров 😱.
Раньше тоже было много, штук 20-30. Разработчики, судя по всему, решили, что в их проекте не место монолитам и распилили приложение ещё сильнее. Представляете, всё это чинить, если что-то сломается?
Захотелось открыть новую рубрику, но пока не знаю, получится ли её регулярно чем-то наполнять. Что для одного ужас, для другого - норма жизни. Если у вас есть примеры ужасов, накидайте, пожалуйста, в комментарии.
#ужасы_ит
Раньше тоже было много, штук 20-30. Разработчики, судя по всему, решили, что в их проекте не место монолитам и распилили приложение ещё сильнее. Представляете, всё это чинить, если что-то сломается?
Захотелось открыть новую рубрику, но пока не знаю, получится ли её регулярно чем-то наполнять. Что для одного ужас, для другого - норма жизни. Если у вас есть примеры ужасов, накидайте, пожалуйста, в комментарии.
#ужасы_ит
👍126👎2
Я не так давно делал подборку инструментов для учёта трафика в сети. Сейчас наиболее функциональное и бесплатное решение - Akvorado. У него одна существенная особенность. Он на базе Elasticsearch и очень прожорлив до ресурсов.
Сразу скажу, для чего подобные продукты могут быть полезны, даже если у вас очень простая инфраструктура. Банально, хочется понимать, что вообще происходит в сети и желательно хотя бы с небольшой ретроспективой. Когда всё нормально работает, вроде как и не нужна никакая статистика. А если что-то идёт не так и где-то тормозит? А у вас нет ничего, что анализировало бы трафик. Надо идти на шлюз, что-то там запускать, смотреть в консоли кто куда ходит и из-за чего всё тормозит. Может и не из-за сети.
Упомянутой в начале подборке очень не хватает в составе Xenoeye. Это полностью бесплатный Netflow/IPFIX/sFlow коллектор и анализатор от российских разработчиков. Я его запустил у себя и попробовал. Очень классное решение, особенно для небольших инфраструктур. Расскажу обо всё по порядку.
Сразу перечислю основные особенности Xenoeye:
▪️Полностью бесплатное решение.
▪️Есть готовый LXC контейнер и шаблон на его базе для Proxmox, ничего вручную устанавливать не надо.
▪️Для базовой функциональности достаточно просто запустить контейнер и смотреть графики в Grafana.
▪️Простые и гибкие настройки для детализации по объектам и событиям.
▪️Относительно небольшое для такого рода продуктов потребление ресурсов.
По Xenoeye особо нет инструкций или подробного описания, кроме статьи на хабре от разработчика. Я сначала бегло посмотрел репозиторий и немного приуныл, так как показалось, что надо долго и муторно разбираться с системой. Потом заметил шаблон для Proxmox и решил развернуть систему из него.
Вот прямая ссылка на шаблон. Скачал в Proxmox и развернул в привилегированном контейнере. Установил туда openssh-server, чтобы можно было подключиться по SSH.
Зашёл в систему, открыл документацию и не очень понял, что надо сделать, чтобы начать собирать трафик. Открыл конфигурацию, посмотрел её, закрыл. Посмотрел список открытых портов, которые слушает приложение. Увидел там открытый порт UDP 2056. Сходил на свой Mikrotik, в раздел IP ⇨ Traffic Flow ⇨ Targets и добавил IP адрес LXC контейнера Xenoeye и порт 2056.
Оказалось, этого достаточно. То есть после запуска контейнера система полностью готова к приему Netflow потока. Все базовые настройки там уже сделаны, службы запущены.
Далее пошёл на 3000-й порт контейнера. Там уже запущена Grafana с несколькими обзорными дашбордами, которых для общего представления о том, что происходит, достаточно.
Более детальную статистику с выделением нужных вам подсетей, хостов или направлений можно сделать самостоятельно. В репозитории есть документация на русском языке с примерами. Настраивается всё довольно просто.
Данные хранятся в PostgreSQL, а дашборды в Grafana рисуются запросами напрямую в базу. Соответственно, вывести себе на дашборд вы можете всё, что угодно, предварительно создав нужные вам сущности в конфигурации. Покажу пример из документации.
Допустим, вам надо отследить тех, кто из вашей сети ходит на внешние SSH сервера. Описываете такие хосты в отдельном файле конфигурации
После этого отсортированный список IP адресов можно получить одним SQL запросом:
То же самое можно сделать для исходящих SMTP запросов не с ваших почтовых серверов и т.д.
Я для своей небольшой тестовой сети из нескольких хостов запустил контейнер с 2 CPU и 4 Gb RAM. Нагрузки почти никакой не было. Можно было и в 2 раза меньше ресурсов выделить.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки, а разработчикам⭐️ в 4️⃣
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#netflow #gateway
Сразу скажу, для чего подобные продукты могут быть полезны, даже если у вас очень простая инфраструктура. Банально, хочется понимать, что вообще происходит в сети и желательно хотя бы с небольшой ретроспективой. Когда всё нормально работает, вроде как и не нужна никакая статистика. А если что-то идёт не так и где-то тормозит? А у вас нет ничего, что анализировало бы трафик. Надо идти на шлюз, что-то там запускать, смотреть в консоли кто куда ходит и из-за чего всё тормозит. Может и не из-за сети.
Упомянутой в начале подборке очень не хватает в составе Xenoeye. Это полностью бесплатный Netflow/IPFIX/sFlow коллектор и анализатор от российских разработчиков. Я его запустил у себя и попробовал. Очень классное решение, особенно для небольших инфраструктур. Расскажу обо всё по порядку.
Сразу перечислю основные особенности Xenoeye:
▪️Полностью бесплатное решение.
▪️Есть готовый LXC контейнер и шаблон на его базе для Proxmox, ничего вручную устанавливать не надо.
▪️Для базовой функциональности достаточно просто запустить контейнер и смотреть графики в Grafana.
▪️Простые и гибкие настройки для детализации по объектам и событиям.
▪️Относительно небольшое для такого рода продуктов потребление ресурсов.
По Xenoeye особо нет инструкций или подробного описания, кроме статьи на хабре от разработчика. Я сначала бегло посмотрел репозиторий и немного приуныл, так как показалось, что надо долго и муторно разбираться с системой. Потом заметил шаблон для Proxmox и решил развернуть систему из него.
Вот прямая ссылка на шаблон. Скачал в Proxmox и развернул в привилегированном контейнере. Установил туда openssh-server, чтобы можно было подключиться по SSH.
Зашёл в систему, открыл документацию и не очень понял, что надо сделать, чтобы начать собирать трафик. Открыл конфигурацию, посмотрел её, закрыл. Посмотрел список открытых портов, которые слушает приложение. Увидел там открытый порт UDP 2056. Сходил на свой Mikrotik, в раздел IP ⇨ Traffic Flow ⇨ Targets и добавил IP адрес LXC контейнера Xenoeye и порт 2056.
Оказалось, этого достаточно. То есть после запуска контейнера система полностью готова к приему Netflow потока. Все базовые настройки там уже сделаны, службы запущены.
Далее пошёл на 3000-й порт контейнера. Там уже запущена Grafana с несколькими обзорными дашбордами, которых для общего представления о том, что происходит, достаточно.
Более детальную статистику с выделением нужных вам подсетей, хостов или направлений можно сделать самостоятельно. В репозитории есть документация на русском языке с примерами. Настраивается всё довольно просто.
Данные хранятся в PostgreSQL, а дашборды в Grafana рисуются запросами напрямую в базу. Соответственно, вывести себе на дашборд вы можете всё, что угодно, предварительно создав нужные вам сущности в конфигурации. Покажу пример из документации.
Допустим, вам надо отследить тех, кто из вашей сети ходит на внешние SSH сервера. Описываете такие хосты в отдельном файле конфигурации
/var/lib/xenoeye/mo/ssh_scanners/mo.conf:{ "filter": "src net my-nets and dst port 22", "fwm": [ { "name": "hosts", "fields": ["packets", "src host", "dst host", "proto"] } ]}После этого отсортированный список IP адресов можно получить одним SQL запросом:
$ select src_host, count(src_host) from (select distinct src_host, dst_host from ssh_scanners where time >= now() - interval '1 day' order by src_host desc) as x group by src_host order by count desc;То же самое можно сделать для исходящих SMTP запросов не с ваших почтовых серверов и т.д.
Я для своей небольшой тестовой сети из нескольких хостов запустил контейнер с 2 CPU и 4 Gb RAM. Нагрузки почти никакой не было. Можно было и в 2 раза меньше ресурсов выделить.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки, а разработчикам
———
ServerAdmin:
#netflow #gateway
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍122👎3
📊 Пришло время подвести итоги недавнего опроса про консольные редакторы. Его результаты меня немного удивили:
▪️nano 51%
▪️mcedit 21%
▪️vim 18%
▪️vi 4%
Остальное уже несущественно. Честно говоря не ожидал, что
Думал, что люди в основном ставят
Из комментариев к опросу впервые увидел упоминание редактора
Я по прежнему буду пользоваться
У меня в ближайших планах стоят опросы на тему систем мониторинга и почтовых серверов. Если у вас есть какие-то свои идеи на тему интересных опросов, озвучивайте. Буду потихоньку их проводить где-то раз в месяц. Мне лично интересен этот формат. Позволяет посмотреть на реальность, а не жить в своих представлениях, которые зачастую могут быть неверными.
📊 Напомню, что ранее прошли опросы:
◽️ОС на рабочем компьютере и серверах
◽️Системы виртуализации
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#опрос
▪️nano 51%
▪️mcedit 21%
▪️vim 18%
▪️vi 4%
Остальное уже несущественно. Честно говоря не ожидал, что
nano наберёт так много. Я предполагал, что многие им пользуются, потому что он стоит по умолчанию в deb дистрибутивах. Но он какой-то неказистый, и горячие клавиши в нём странные. Меня всегда смущали его подсказки в нижней части с комбинациями клавиш. Какие-то они неинтуитивные.Думал, что люди в основном ставят
mc используют его mcedit. Ожидал его в лидерах увидеть или где-то рядом, потому что mc практически доминирует в среде двухпанельных файловых менеджеров. Аналоги совсем малую долю имеют. Из комментариев к опросу впервые увидел упоминание редактора
micro, который я попробовал и описал свои впечатления. В целом, он мне понравился и показался удобным. Только сразу предупреждаю, что в старых версиях, которые ещё можно встретить где-то в репозиториях дистрибутивов, есть баги, которые приводят к 100% нагрузке на CPU из-за каких-то проблем с подсветкой. Видел упоминание об ошибках в репозитории. Так что если будете пробовать, ставьте свежие версии.Я по прежнему буду пользоваться
mcedit, он не из-за того, что он удобный и функциональный, а потому что почти везде устанавливаю mc. А там уже в комплекте есть редактор. Нет смысла ставить отдельно какой-то другой. Хотя micro намного удобнее mcedit.У меня в ближайших планах стоят опросы на тему систем мониторинга и почтовых серверов. Если у вас есть какие-то свои идеи на тему интересных опросов, озвучивайте. Буду потихоньку их проводить где-то раз в месяц. Мне лично интересен этот формат. Позволяет посмотреть на реальность, а не жить в своих представлениях, которые зачастую могут быть неверными.
◽️ОС на рабочем компьютере и серверах
◽️Системы виртуализации
———
ServerAdmin:
#опрос
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍102👎4
В качестве бесплатного решения для подключения к экрану сервера или обычного компьютера в локальной сети я обычно использую TightVNC. Локальная сеть в данном случае условность. Речь скорее идёт о прямом сетевом доступе к устройству в том числе через VPN без промежуточных серверов, типа тех, что использует Anydesk и его аналоги.
Я не знаю, какой сервер на базе VNC лучше, быстрее или удобнее. Не проводил исследований. Просто давно знаю TightVNC, поэтому использую его по привычке. На первый взгляд он не лучше и не хуже всех остальных.
У подключений по VNC есть один раздражающий момент. Нет нормальной работы с несколькими мониторами. Ты либо видишь на своём экране сразу все удалённые мониторы, если включил автоподстройку размера, либо ты её отключаешь и у тебя появляется горизонтальная полоса прокрутки для скроллинга по всей длине картинки на всех мониторах.
Если у тебя монитор меньше, чем те, к которым ты подключился, то работать очень неудобно. Когда я в очередной раз подключился к таким мониторам с ноутбука, решил разобраться с этим моментом.
Как оказалось, у сервера на базе TightVNC это решается относительно просто. В нём можно каждый монитор открыть на отдельном порту. Например, на стандартном порту 5900 открываем сразу все мониторы, а на портах 5901 и 5902 по отдельности каждый из двух мониторов. А когда монитор подключен только один, уже можно включить Scale: Auto и нормально работать.
Показываю настройку на примере двух мониторов с разрешением 1920x1080. Заходим в свойства сервера, на первую вкладку Server. Проверяем, чтобы была галка на настройке Use mirror driver if avaliable. Переходим на вкладку Extra Ports и добавляем настройки:
Тут логика такая. Порт 5900 будет открывать оба монитора по умолчанию. Порт 5901 открывает окно, размером 1920x1080 без смещения. Порт 5902 открывает окно с таким же размером 1920x1080, так как у нас одинаковые мониторы, то со смещением 1920 в ширину. То есть картинку с первого монитора пропускаем. Если бы у нас был третий такой же монитор, то мы бы его добавили так:
Если у мониторов разное разрешение, то вместо второго нуля нужно будет смещение по вертикали добавить.
Подозреваю, что у других реализаций сервера и клиента этот вопрос может быть решён по-другому. Я не искал и не разбирался, так как подобная реализация показалась хоть и не очень удобной для обычных задач с разовыми подключениями, но если надо вывести на постоянку какой-то один из мониторов, то получается удобно. Можно один раз заморочиться с настройкой, чтобы, к примеру, сразу открывать экран с камерами.
Пользуясь случаем спрошу у вас, какую реализацию VNC используете? Наверняка есть что-то более продвинутое и современное, так как TightVNC довольно старый продукт, хоть и обновляется периодически. Если под Винду есть из чего выбирать и не обязательно использовать VNC, то под Linux особо выбора и нет, кроме протокола NX и его реализации на базе X2Go. Несмотря на то, что на глаз картинка через него шустрее обновляется, такой популярности, как VNC он не снискал.
#remote #vnc
Я не знаю, какой сервер на базе VNC лучше, быстрее или удобнее. Не проводил исследований. Просто давно знаю TightVNC, поэтому использую его по привычке. На первый взгляд он не лучше и не хуже всех остальных.
У подключений по VNC есть один раздражающий момент. Нет нормальной работы с несколькими мониторами. Ты либо видишь на своём экране сразу все удалённые мониторы, если включил автоподстройку размера, либо ты её отключаешь и у тебя появляется горизонтальная полоса прокрутки для скроллинга по всей длине картинки на всех мониторах.
Если у тебя монитор меньше, чем те, к которым ты подключился, то работать очень неудобно. Когда я в очередной раз подключился к таким мониторам с ноутбука, решил разобраться с этим моментом.
Как оказалось, у сервера на базе TightVNC это решается относительно просто. В нём можно каждый монитор открыть на отдельном порту. Например, на стандартном порту 5900 открываем сразу все мониторы, а на портах 5901 и 5902 по отдельности каждый из двух мониторов. А когда монитор подключен только один, уже можно включить Scale: Auto и нормально работать.
Показываю настройку на примере двух мониторов с разрешением 1920x1080. Заходим в свойства сервера, на первую вкладку Server. Проверяем, чтобы была галка на настройке Use mirror driver if avaliable. Переходим на вкладку Extra Ports и добавляем настройки:
5901: 1920x1080+0+05902: 1920x1080+1920+0Тут логика такая. Порт 5900 будет открывать оба монитора по умолчанию. Порт 5901 открывает окно, размером 1920x1080 без смещения. Порт 5902 открывает окно с таким же размером 1920x1080, так как у нас одинаковые мониторы, то со смещением 1920 в ширину. То есть картинку с первого монитора пропускаем. Если бы у нас был третий такой же монитор, то мы бы его добавили так:
5903: 1920x1080+3840+0Если у мониторов разное разрешение, то вместо второго нуля нужно будет смещение по вертикали добавить.
Подозреваю, что у других реализаций сервера и клиента этот вопрос может быть решён по-другому. Я не искал и не разбирался, так как подобная реализация показалась хоть и не очень удобной для обычных задач с разовыми подключениями, но если надо вывести на постоянку какой-то один из мониторов, то получается удобно. Можно один раз заморочиться с настройкой, чтобы, к примеру, сразу открывать экран с камерами.
Пользуясь случаем спрошу у вас, какую реализацию VNC используете? Наверняка есть что-то более продвинутое и современное, так как TightVNC довольно старый продукт, хоть и обновляется периодически. Если под Винду есть из чего выбирать и не обязательно использовать VNC, то под Linux особо выбора и нет, кроме протокола NX и его реализации на базе X2Go. Несмотря на то, что на глаз картинка через него шустрее обновляется, такой популярности, как VNC он не снискал.
#remote #vnc
2👍113👎3
Команда Zabbix анонсировала недавно открытие своей онлайн академии. Мне нравится Zabbix, я постоянно с ним работаю, поэтому зарегистрировался и решил посмотреть, что там есть интересного.
Цены там, как и на всё обучение от Zabbix, моё почтение. Не понимаю, почему они так дорого его оценивают. Но есть несколько бесплатных курсов. Их то я и посмотрел.
Сразу скажу, что площадка сделана неудобно. Даже в бесплатных курсах для доступа к следующему уроку, нужно прослушать видео предыдущего, даже если тебе оно не интересно, либо ты знаешь материал. Причём работает всё это глючно. Некоторые видео я вынужден был смотреть по 2 раза, так как после первого просмотра следующий урок не открывался. А иногда достаточно было посмотреть половину.
Если бы я не сидел в зале ожидания, пока мне ТО машине делали, смотреть бы не стал. В целом, в бесплатных курсах нет ничего особенного. Часть из них - это запись бесплатных вебинаров, а часть - базовые инструкции по чистой установке на разные СУБД. Плюс, один курс с теорией о том, как устроен мониторинг в общем, и конкретно Zabbix.
Пару часов я всё это послушал на английском языке и могу сказать, что тратить вам на это время не имеет большого смысла. В сети есть много более подробных курсов, как в тексте, так и в видео на тему Zabbix на русском языке. Ниже несколько примеров:
▪️Текстовый курс по Zabbix от практикующего специалиста и преподавателя.
▪️Демо курс Zabbix 6. Мониторинг IT инфраструктуры предприятия - бесплатный урок от большого платного курса про Zabbix. В демо курсе разбирается установка и настройка сервера, плюс подключение к нему различных агентов.
▪️Zabbix с нуля до короля - очень подробный видеокурс на ютубе. Там прям вообще всё есть от автообнаружения до мониторинга Mikrotik.
Плюс, есть очень подробная книга на русском языке:
📔 Zabbix 7: мониторинг ИТ-инфраструктуры издательства Packt при поддержке КРОК. К сожалению, эта книга свободно гуляет по интернету в открытом доступе. При таких раскладах заниматься переводом и издательством скорее всего экономически невыгодно.
#zabbix #обучение
Цены там, как и на всё обучение от Zabbix, моё почтение. Не понимаю, почему они так дорого его оценивают. Но есть несколько бесплатных курсов. Их то я и посмотрел.
Сразу скажу, что площадка сделана неудобно. Даже в бесплатных курсах для доступа к следующему уроку, нужно прослушать видео предыдущего, даже если тебе оно не интересно, либо ты знаешь материал. Причём работает всё это глючно. Некоторые видео я вынужден был смотреть по 2 раза, так как после первого просмотра следующий урок не открывался. А иногда достаточно было посмотреть половину.
Если бы я не сидел в зале ожидания, пока мне ТО машине делали, смотреть бы не стал. В целом, в бесплатных курсах нет ничего особенного. Часть из них - это запись бесплатных вебинаров, а часть - базовые инструкции по чистой установке на разные СУБД. Плюс, один курс с теорией о том, как устроен мониторинг в общем, и конкретно Zabbix.
Пару часов я всё это послушал на английском языке и могу сказать, что тратить вам на это время не имеет большого смысла. В сети есть много более подробных курсов, как в тексте, так и в видео на тему Zabbix на русском языке. Ниже несколько примеров:
▪️Текстовый курс по Zabbix от практикующего специалиста и преподавателя.
▪️Демо курс Zabbix 6. Мониторинг IT инфраструктуры предприятия - бесплатный урок от большого платного курса про Zabbix. В демо курсе разбирается установка и настройка сервера, плюс подключение к нему различных агентов.
▪️Zabbix с нуля до короля - очень подробный видеокурс на ютубе. Там прям вообще всё есть от автообнаружения до мониторинга Mikrotik.
Плюс, есть очень подробная книга на русском языке:
📔 Zabbix 7: мониторинг ИТ-инфраструктуры издательства Packt при поддержке КРОК. К сожалению, эта книга свободно гуляет по интернету в открытом доступе. При таких раскладах заниматься переводом и издательством скорее всего экономически невыгодно.
#zabbix #обучение
👍90👎3
Не раз уже в комментариях к различным заметкам всплывал сервис hetrixtools.com. Всё руки не доходили про него написать. Решил исправить, так как сервис реально полезный.
Знаю, что некоторые его используют как простой и бесплатный внешний мониторинг для сайтов или серверов. Он давно существует (с 2015 года) и в целом набрал некоторую популярность. Но лично мне он нравится как сервис для проверки репутации IP адреса или домена.
Это особенно актуально во время аренды новой VPS. Если с её IP адресом какие-то проблемы, то проще сразу заменить либо его, либо саму VPS. Потом это может доставить лишних хлопот. У меня были такие истории. Заказчик арендует VPS, я разворачиваю там веб сервисы, а браузер Яндекс ругается на проблемы с безопасностью. Заходишь на свежий сайт, а он говорит, что это небезопасно.
Как оказалось, у IP адреса новой VPS была плохая репутация. Там что-то вредное хостилось и адрес замарался. Лучше было бы это на старте узнать.
Плюс, у hetrixtools есть бесплатный тариф для регулярной проверки ваших IP адресов и доменов. В основном это актуально для почтовых серверов, так как для них попадание в подобные списки может доставить много хлопот. Лучше на это реагировать оперативно.
Сейчас не так много людей держат свои почтовые сервера, так что разовые проверки одиночных IP наиболее актуальны. Для этого даже регистрация не нужна. Просто заходишь и проверяешь.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#сервис #бесплатно
Знаю, что некоторые его используют как простой и бесплатный внешний мониторинг для сайтов или серверов. Он давно существует (с 2015 года) и в целом набрал некоторую популярность. Но лично мне он нравится как сервис для проверки репутации IP адреса или домена.
Это особенно актуально во время аренды новой VPS. Если с её IP адресом какие-то проблемы, то проще сразу заменить либо его, либо саму VPS. Потом это может доставить лишних хлопот. У меня были такие истории. Заказчик арендует VPS, я разворачиваю там веб сервисы, а браузер Яндекс ругается на проблемы с безопасностью. Заходишь на свежий сайт, а он говорит, что это небезопасно.
Как оказалось, у IP адреса новой VPS была плохая репутация. Там что-то вредное хостилось и адрес замарался. Лучше было бы это на старте узнать.
Плюс, у hetrixtools есть бесплатный тариф для регулярной проверки ваших IP адресов и доменов. В основном это актуально для почтовых серверов, так как для них попадание в подобные списки может доставить много хлопот. Лучше на это реагировать оперативно.
Сейчас не так много людей держат свои почтовые сервера, так что разовые проверки одиночных IP наиболее актуальны. Для этого даже регистрация не нужна. Просто заходишь и проверяешь.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#сервис #бесплатно
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍94👎2
Последнее время постоянно использую Perplexity. Писал про него ранее, но тогда пользовался бесплатный тарифным планом. Сейчас купил на год Pro и пользуюсь им. На этом плане можно установить отдельный браузер с интеграцией в сервис.
Не могу сказать, что он прям как-то лучше ищет и компонует информацию, но в целом пользоваться удобнее. Там появляются два дополнительных режима. Если первый, бесплатный, это просто быстрый поиск, то второй делает более глубокое исследование на основе бОльшего количества источников, а третий режим прям проекты создаёт, в том числе пишет код, формирует интерфейсы для взаимодействия с кодом и т.д. В этом же режиме можно и агентов создавать.
Сразу скажу, что полностью написать какое-то функциональное приложение у меня не получилось. Немного поразбирался, но сходу не осилить. На основе простых промптов получался нерабочий мусор. Надо плотно изучать тему, чтобы эффективно пользоваться.
Агентов пока тоже не приспособил к решению конкретных задач. Всё это только в описаниях и демонстрациях круто выглядит, а как начинаешь разбираться, всё не так радужно. Даже режим исследования, где берётся информация из интернета, и где по идее не должно быть фантазий, иногда врёт. Много раз сталкивался. AI формирует итоговый результат с какими-то фактами и тут же под ними ссылки на источник. Идёшь по ссылке, а там этой информации нет. Всё надо перепроверять.
Рассказать хотел не об этом. Длинная подводка получилась. Есть open source проект Perplexica, как альтернатива коммерческому Perplexity. Мне он показался интересным. Посмотрел как он устроен и в целом понял реализацию. Это прям развитие одной моей старой идеи со своим поисковым движком, которую я когда-то давно озвучивал.
В основе Perplexica лежит поисковой движок SearXNG, про который я писал ранее. Он собирает выдачу с разных поисковиков и объединяет её. Получается объединённая выдача без привязки к вашим персональным данным. То есть аннонимизированная для поисковика.
Perplexica берёт выдачу от SearXNG и отдаёт её на анализ выбранному AI. Это может быть как коммерческий сервис, типа OpenAI, так и self-hosted модель. Последнее особенно интересно. Мне видится обработка результатов поиска относительно простой задачей для AI, с которой могут справиться небольшие локальные модели.
К сожалению, у меня нет вообще никакого железа с видеокартами, чтобы потестировать работу локальных моделей. Если у вас таковое есть, то можете попробовать Perplexica. У неё простая настройка, описание есть в репозитории. Легко и быстро интегрируется с моделью, запущенной через Ollama.
Было бы интересно узнать результаты реальных тестов этого поиска с локальной моделью. Может кто-то сделает? Насколько это удобно и жизнеспособно.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#ai
Не могу сказать, что он прям как-то лучше ищет и компонует информацию, но в целом пользоваться удобнее. Там появляются два дополнительных режима. Если первый, бесплатный, это просто быстрый поиск, то второй делает более глубокое исследование на основе бОльшего количества источников, а третий режим прям проекты создаёт, в том числе пишет код, формирует интерфейсы для взаимодействия с кодом и т.д. В этом же режиме можно и агентов создавать.
Сразу скажу, что полностью написать какое-то функциональное приложение у меня не получилось. Немного поразбирался, но сходу не осилить. На основе простых промптов получался нерабочий мусор. Надо плотно изучать тему, чтобы эффективно пользоваться.
Агентов пока тоже не приспособил к решению конкретных задач. Всё это только в описаниях и демонстрациях круто выглядит, а как начинаешь разбираться, всё не так радужно. Даже режим исследования, где берётся информация из интернета, и где по идее не должно быть фантазий, иногда врёт. Много раз сталкивался. AI формирует итоговый результат с какими-то фактами и тут же под ними ссылки на источник. Идёшь по ссылке, а там этой информации нет. Всё надо перепроверять.
Рассказать хотел не об этом. Длинная подводка получилась. Есть open source проект Perplexica, как альтернатива коммерческому Perplexity. Мне он показался интересным. Посмотрел как он устроен и в целом понял реализацию. Это прям развитие одной моей старой идеи со своим поисковым движком, которую я когда-то давно озвучивал.
В основе Perplexica лежит поисковой движок SearXNG, про который я писал ранее. Он собирает выдачу с разных поисковиков и объединяет её. Получается объединённая выдача без привязки к вашим персональным данным. То есть аннонимизированная для поисковика.
Perplexica берёт выдачу от SearXNG и отдаёт её на анализ выбранному AI. Это может быть как коммерческий сервис, типа OpenAI, так и self-hosted модель. Последнее особенно интересно. Мне видится обработка результатов поиска относительно простой задачей для AI, с которой могут справиться небольшие локальные модели.
К сожалению, у меня нет вообще никакого железа с видеокартами, чтобы потестировать работу локальных моделей. Если у вас таковое есть, то можете попробовать Perplexica. У неё простая настройка, описание есть в репозитории. Легко и быстро интегрируется с моделью, запущенной через Ollama.
Было бы интересно узнать результаты реальных тестов этого поиска с локальной моделью. Может кто-то сделает? Насколько это удобно и жизнеспособно.
———
ServerAdmin:
#ai
Please open Telegram to view this post
VIEW IN TELEGRAM
10👍59👎2
Когда я начинал изучать Linux, в качестве SSH клиента использовал Putty, как и многие в то время. Это было популярное решение. Потом, когда серверов стало больше, перешёл на Kitty. Там было чуть удобнее. Дальше уже пошли более навороченные клиенты.
Сейчас я постоянно использую Xshell, mRemoteNG и MobaXterm. И в каждой из них меня что-то не устраивает, поэтому не могу остановиться на чём-то одном.
🔹Xshell. Последние версии периодически отказываются запускаться и работать, пока их не обновишь. Меня это категорически не устраивает, поэтому буду отказываться от этого софта. Я им очень давно пользуюсь, недавно перенёс все настройки и сессии на новую версию, с 5-й на 8-ю. Потратил кучу времени. Лучше бы этого не делал и оставался на 5-й, с которой не было проблем. Захотелось посвежее версию, где появились RDP подключения.
🔹mRemoteNG. Тут хорошо работают RDP соединения, но плохо - SSH. Есть некоторые баги и неудобства, поэтому использую только для RDP.
🔹MobaXterm. Тут на первый взгляд всё нормально и удобно. Начал потихоньку переносить все свои соединения, но в процессе эксплуатации столкнулся с проблемами RDP. Иногда сворачиваешь программу, разворачиваешь и в RDP сессиях окно сужается до микро квадрата и снова разворачивается. В итоге все иконки на столах разъезжаются. Ну в целом как-то глючит сворачивание и разворачивание окна программы.
В итоге так и болтаюсь между этими тремя программами. Для понимания, у меня около сотни настроенных соединений (адреса, логины, пароли, шрифты и т.д.). Просто взять и поменять программу я не могу, поэтому куда-то переехать и в итоге разочароваться для меня означает впустую потратить кучу времени.
В комментариях к подобным заметкам не раз упоминали программу Superputty. Мне резануло упоминание Putty, поэтому решил на неё посмотреть. Это небольшое open source приложение для Windows на базе Putty, которое существенно расширяет её функциональность.
Эта простая и на вид старомодная программа выглядит довольно удобной. И если у вас нет каких-то старых привычек или особенных требований к такого рода программам, то рекомендую попробовать. Тут было много упоминаний о ней от тех, кто использует. Сразу предупрежу, что Superputty не сохраняет пароли от сессий. Надо либо использовать ключи, либо вручную вводить пароли.
Настроек у Superputty минимум. В основном там всё то же самое, что есть в Putty, только с табами. Вкладки можно как угодно компоновать на одном экране.
📌Мои обзоры на другие подобные программы:
▪️Remote Desktop Manager
▪️Remmina (Linux)
▪️Ásbrú Connection Manager (Linux)
▪️Royal TS/X
▪️WindTerm
▪️Tabby
▪️XPipe
▪️Snowflake
Вы чем пользуетесь? Все комментарии всегда к таким публикациям читаю и что-то новое пробую. Но сейчас мне кажется список уже нечем дополнить. Я всё более-менее популярное обозревал.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#менеджеры_подключений
Сейчас я постоянно использую Xshell, mRemoteNG и MobaXterm. И в каждой из них меня что-то не устраивает, поэтому не могу остановиться на чём-то одном.
🔹Xshell. Последние версии периодически отказываются запускаться и работать, пока их не обновишь. Меня это категорически не устраивает, поэтому буду отказываться от этого софта. Я им очень давно пользуюсь, недавно перенёс все настройки и сессии на новую версию, с 5-й на 8-ю. Потратил кучу времени. Лучше бы этого не делал и оставался на 5-й, с которой не было проблем. Захотелось посвежее версию, где появились RDP подключения.
🔹mRemoteNG. Тут хорошо работают RDP соединения, но плохо - SSH. Есть некоторые баги и неудобства, поэтому использую только для RDP.
🔹MobaXterm. Тут на первый взгляд всё нормально и удобно. Начал потихоньку переносить все свои соединения, но в процессе эксплуатации столкнулся с проблемами RDP. Иногда сворачиваешь программу, разворачиваешь и в RDP сессиях окно сужается до микро квадрата и снова разворачивается. В итоге все иконки на столах разъезжаются. Ну в целом как-то глючит сворачивание и разворачивание окна программы.
В итоге так и болтаюсь между этими тремя программами. Для понимания, у меня около сотни настроенных соединений (адреса, логины, пароли, шрифты и т.д.). Просто взять и поменять программу я не могу, поэтому куда-то переехать и в итоге разочароваться для меня означает впустую потратить кучу времени.
В комментариях к подобным заметкам не раз упоминали программу Superputty. Мне резануло упоминание Putty, поэтому решил на неё посмотреть. Это небольшое open source приложение для Windows на базе Putty, которое существенно расширяет её функциональность.
Эта простая и на вид старомодная программа выглядит довольно удобной. И если у вас нет каких-то старых привычек или особенных требований к такого рода программам, то рекомендую попробовать. Тут было много упоминаний о ней от тех, кто использует. Сразу предупрежу, что Superputty не сохраняет пароли от сессий. Надо либо использовать ключи, либо вручную вводить пароли.
Настроек у Superputty минимум. В основном там всё то же самое, что есть в Putty, только с табами. Вкладки можно как угодно компоновать на одном экране.
📌Мои обзоры на другие подобные программы:
▪️Remote Desktop Manager
▪️Remmina (Linux)
▪️Ásbrú Connection Manager (Linux)
▪️Royal TS/X
▪️WindTerm
▪️Tabby
▪️XPipe
▪️Snowflake
Вы чем пользуетесь? Все комментарии всегда к таким публикациям читаю и что-то новое пробую. Но сейчас мне кажется список уже нечем дополнить. Я всё более-менее популярное обозревал.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#менеджеры_подключений
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍118👎8
⇨ Как создать свой MCP сервер с НУЛЯ на Python за 5 минут и интегрировать его в LM Studio и Cursor AI
Хорошее наглядное пояснение на модную и актуальную сейчас тему по работе с AI.
⇨ Как поднять 3 виртуальные машины в Proxmox через Terraform | Infrastructure as Code
Наглядный пример работы с Proxmox через Terraform.
⇨ 5 усовершенствований домашней лаборатории, которые полностью изменили мою систему
Видео для любителей домашних лаб. Автор перешёл на 10Gbps, что позволило полноценно использовать Ceph, и топит за мини-ПК для домашнего применения. Я давно для себя решил, что дома в качестве серверов лучше использовать мини-ПК. Недавно заказал один производительный на пробу. Напишу о нём, как придёт. Если будет всё ОК, то соберу на таких кластер виртуализации.
⇨ Этот SWITCH не подойдет для HOMELAB! Сетевое оборудование для домашнего сервера. Строю HOMELAB 3
Ещё одно видео, где автор строит свою домашнюю лабораторию в серверном шкафу. Никакой ЛГБТ подсветки, заморских новинок и т.д., так как человек из России, делает из того, что есть в наличии.
⇨ Asahi Linux - новая ОС для твоего Макбука!
Длинный ролик для тех, кому эта тема актуальна. Я вообще не слышал раньше, что на макбуки с чипами M1 и M2 можно Linux ставить.
⇨ Что случится с ИИ через 3 года? Вопросы к экспертам с AI Conf 2025
Разговорное видео на горячую тему. Можно послушать на прогулке. Ничего особенного в нём нет, можно просто познакомиться с мнением других людей для расширения кругозора.
⇨ Manage Authentik Resources in Terraform
Узкая и довольно сложная тема. Автор на конкретном примере показывает, как настроить деплой экземпляра веб сервера Nginx через Terraform с интеграцией в Authentik. Он с нуля создаёт репозиторий проекта и практически в режиме реального времени всё настраивает и рассказывает. Внимательно посмотрел видео. С нуля разбираться с этой темой будет нелегко. А такие видео существенно упрощают задачу. Потом по аналогии можно всё, что угодно настроить.
⇨ Is Portainer still the best Docker and Kubernetes Management Platform?
Обзор современной версии Portainer - наиболее популярной бесплатной программы для управления платформами запуска контейнеров (Kubernetes, Podman, Docker).
———
ServerAdmin:
#видео
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Как создать свой MCP сервер с НУЛЯ на Python за 5 минут и интегрировать его в LM Studio и Cursor AI
#mcp #mcpserver #mcpjson
00:00 - Что изучим
00:27 - Что такое MCP
01:33 - Что такое MCP Client
02:47 - Что такое MCP Server
04:08 - Как всё это работает вместе
08:19 - Как LM Studio работает без MCP Server
09:27 - Создание MCP Server на Python
12:35 - Интеграция…
00:00 - Что изучим
00:27 - Что такое MCP
01:33 - Что такое MCP Client
02:47 - Что такое MCP Server
04:08 - Как всё это работает вместе
08:19 - Как LM Studio работает без MCP Server
09:27 - Создание MCP Server на Python
12:35 - Интеграция…
3👍55👎2
При работе в терминале Linux иногда возникает потребность записать все вводимые команды и результаты вывода этих команд. Речь идёт не о централизованном способе записи всей активности, а разовой задачи, потому что централизованно эти вещи не всегда настроены. Плюс, там есть разные нюансы в работе, из-за которых что-то может не попадать в вывод.
Приведу примеры централизованной записи команд, о которых я рассказывал ранее:
◽️sshlog - запись вводимых команд и вывода, централизованный сбор логов с записями сессий, уведомления о каких-то событиях в консоли и многое другое.
◽️tlog - централизованная система сбора пользовательской активности в консоли от RedHat.
◽️snoopy - небольшая библиотека под Linux, которая может логировать не только команды пользователей, но многое другое. Например, команды системных процессов.
◽️log-user-session - программа, которая запускается вместо оболочки пользователя и пропускает через себя все его команды, записывая их в текстовый файл.
◽️PROMPT_COMMAND - логирование в текстовый файл с помощью встроенной возможности оболочки bash.
Сегодня речь пойдёт о разовой задаче, когда вы подключились к серверу и хотите сохранить свою работу в консоли. Сделать это очень просто с помощью программы script, которая обычно уже присутствует в системе.
После подключения к серверу запустите её и направьте вывод в лог-файл:
Теперь всё, что вы введёте в консоль, будет записано в файл. Для удобства сразу дату туда добавил. Для того, чтобы прекратить запись, достаточно ввести команду
В лог попадёт некоторый "мусор", который затрудняет восприятие вывода. Это связано с тем, что script записывает сырой поток команд, который включает в себя некоторые закодированные ASCII последовательности, например, описывающие цветной вывод или команды терминала, типа возврата каретки и т.д.
Это всё можно разом очистить. Например, так:
На выходе будет чистый терминал практический такой же, как вы его видели, когда работали.
Простое и быстрое решение для разовой задачи по сохранению своей работы в терминале. Рекомендую сохранить и использовать по мере необходимости.
Я иногда включаю запись терминала средствами SSH клиента, но туда тоже всякий мусор попадает, надо обрабатывать. Плюс, не всегда всю сессию надо записывать. А тут в терминале включил запись, когда не надо, отключил. Потом очистил и всё видно в наглядном представлении без лишнего мусора. Можно вывод какой-то команды или набора команд сохранить и потом спокойно посмотреть.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#linux #terminal #ssh
Приведу примеры централизованной записи команд, о которых я рассказывал ранее:
◽️sshlog - запись вводимых команд и вывода, централизованный сбор логов с записями сессий, уведомления о каких-то событиях в консоли и многое другое.
◽️tlog - централизованная система сбора пользовательской активности в консоли от RedHat.
◽️snoopy - небольшая библиотека под Linux, которая может логировать не только команды пользователей, но многое другое. Например, команды системных процессов.
◽️log-user-session - программа, которая запускается вместо оболочки пользователя и пропускает через себя все его команды, записывая их в текстовый файл.
◽️PROMPT_COMMAND - логирование в текстовый файл с помощью встроенной возможности оболочки bash.
Сегодня речь пойдёт о разовой задаче, когда вы подключились к серверу и хотите сохранить свою работу в консоли. Сделать это очень просто с помощью программы script, которая обычно уже присутствует в системе.
После подключения к серверу запустите её и направьте вывод в лог-файл:
# script -q -f ~/terminal_$(date +%F_%T).logТеперь всё, что вы введёте в консоль, будет записано в файл. Для удобства сразу дату туда добавил. Для того, чтобы прекратить запись, достаточно ввести команду
exit в терминале, и script завершит свою работу.В лог попадёт некоторый "мусор", который затрудняет восприятие вывода. Это связано с тем, что script записывает сырой поток команд, который включает в себя некоторые закодированные ASCII последовательности, например, описывающие цветной вывод или команды терминала, типа возврата каретки и т.д.
Это всё можно разом очистить. Например, так:
# sed -i 's/\x1B\[[0-9;?]*[A-Za-z]//g; s/\x1B\][0-9;]*.*(\x07|\x1B\\)//g;' terminal_2025-10-12_22:42:54.log\x1B\[[0-9;?]*[A-Za-z] - убрали управляющие последовательности (цвета, курсор и bracketed paste);\x1B\][0-9;]*.*(\x07|\x1B\\) - убрали OSC-последовательности ESC ] 0; title ESC \ и некоторые другие;\r - убрали возврат каретки (^M);На выходе будет чистый терминал практический такой же, как вы его видели, когда работали.
Простое и быстрое решение для разовой задачи по сохранению своей работы в терминале. Рекомендую сохранить и использовать по мере необходимости.
Я иногда включаю запись терминала средствами SSH клиента, но туда тоже всякий мусор попадает, надо обрабатывать. Плюс, не всегда всю сессию надо записывать. А тут в терминале включил запись, когда не надо, отключил. Потом очистил и всё видно в наглядном представлении без лишнего мусора. Можно вывод какой-то команды или набора команд сохранить и потом спокойно посмотреть.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#linux #terminal #ssh
Please open Telegram to view this post
VIEW IN TELEGRAM
👍122👎3
Давно задумал купить себе 3 каких-нибудь современных неттопа, чтобы собрать из них дома тестовый кластер. Использовать для этого полноценные сервера не вижу никакого смысла. Только лишнее место занимают и шумят.
Параллельно у меня появилась необходимость обновить один из домашних компьютеров. Я давно уже не вижу смысла покупать полноценные системные блоки для типовых задач, типа посерфить в интернете, посмотреть видео, поиграть в какие-то простые игрушки на средней графике. Беру либо ноуты, либо неттопы. Все пылесборники - старые системники 10+ лет, новые давно не покупал.
Для домашнего компа выбор пал на современный неттоп FIREBAT F1 (AMD Ryzen 7, RAM 16 Gb DDR5, SSD 512 Gb, AMD Radeon 780M). Я особо сильно не ковырялся. У меня была задача - выбрать современный процессор AMD, современную графику и чтобы можно было 2 SSD диска воткнуть. Быстро на Озоне вышел на эту модель. Там полно реальных отзывов, поэтому решил заказать, хотя не особо люблю там технику покупать. Мне вышло в районе 30 т.р. с оплатой пошлины. Заказ полетел из Китая.
Остановился на этом бренде в том числе потому, что у него есть пустая платформа FIREBAT A8, где уже 2 x 2,5Gbps LAN, Ryzen 7 с 8 ядрами, 2 порта M.2 для SSD и два слота под память, которая поддерживается объёмом 64 Gb. Для тестовых серверов - идеальный вариант. 2 сети для кластера, 2 диска для RAID1 и достаточно памяти. Пустая эта коробка стоит в районе 25 т.р. Я побоялся наугад сразу 3 штуки покупать. Решил начать с одного.
В итоге мне уже пришёл FIREBAT F1. Я им немного попользовался, разобрал, чтобы оценить апгрейд. Там одна планка памяти на 16 Gb, что выглядит идеально. Можно воткнуть ещё одну такую же и память начинает работать в четырёхканальном режиме, против текущего двухканального. По отзывам людей прирост производительности в играх раза 1,5-2. То есть прям очень заметный.
Неттоп меня впечатлил. Он очень шустрый. Для типовых задач вообще никаких вопросов, всё летает. Я поставил туда Мир Танков (бывший WoT). Он как-то сам подобрал настройки в районе средних. FPS в игре 150-200. Можно улучшить графику, но я не стал. У меня сын без проблем играет, ему нравится. Всё чётко, ничего не перегревается, не лагает. Вообще не вижу смысла для дома покупать что-то большое, если нет желания играть в современные игры на высоких настройках.
Если покупали себе железо для домашней лабы, то поделитесь моделями. Интересно посмотреть. Я пока только выбираю. К сожалению, по закупкам есть более приоритетные цели, поэтому пока не знаю, когда реально куплю. Это всё же игрушки для меня. Большой нужды нет. Нарисовалась задача с покупкой запасной машины, так что всё необязательное теперь встало на паузу до лучших времён. Я по старинке коплю, в кредиты не беру ничего.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#железо
Параллельно у меня появилась необходимость обновить один из домашних компьютеров. Я давно уже не вижу смысла покупать полноценные системные блоки для типовых задач, типа посерфить в интернете, посмотреть видео, поиграть в какие-то простые игрушки на средней графике. Беру либо ноуты, либо неттопы. Все пылесборники - старые системники 10+ лет, новые давно не покупал.
Для домашнего компа выбор пал на современный неттоп FIREBAT F1 (AMD Ryzen 7, RAM 16 Gb DDR5, SSD 512 Gb, AMD Radeon 780M). Я особо сильно не ковырялся. У меня была задача - выбрать современный процессор AMD, современную графику и чтобы можно было 2 SSD диска воткнуть. Быстро на Озоне вышел на эту модель. Там полно реальных отзывов, поэтому решил заказать, хотя не особо люблю там технику покупать. Мне вышло в районе 30 т.р. с оплатой пошлины. Заказ полетел из Китая.
Остановился на этом бренде в том числе потому, что у него есть пустая платформа FIREBAT A8, где уже 2 x 2,5Gbps LAN, Ryzen 7 с 8 ядрами, 2 порта M.2 для SSD и два слота под память, которая поддерживается объёмом 64 Gb. Для тестовых серверов - идеальный вариант. 2 сети для кластера, 2 диска для RAID1 и достаточно памяти. Пустая эта коробка стоит в районе 25 т.р. Я побоялся наугад сразу 3 штуки покупать. Решил начать с одного.
В итоге мне уже пришёл FIREBAT F1. Я им немного попользовался, разобрал, чтобы оценить апгрейд. Там одна планка памяти на 16 Gb, что выглядит идеально. Можно воткнуть ещё одну такую же и память начинает работать в четырёхканальном режиме, против текущего двухканального. По отзывам людей прирост производительности в играх раза 1,5-2. То есть прям очень заметный.
Неттоп меня впечатлил. Он очень шустрый. Для типовых задач вообще никаких вопросов, всё летает. Я поставил туда Мир Танков (бывший WoT). Он как-то сам подобрал настройки в районе средних. FPS в игре 150-200. Можно улучшить графику, но я не стал. У меня сын без проблем играет, ему нравится. Всё чётко, ничего не перегревается, не лагает. Вообще не вижу смысла для дома покупать что-то большое, если нет желания играть в современные игры на высоких настройках.
Если покупали себе железо для домашней лабы, то поделитесь моделями. Интересно посмотреть. Я пока только выбираю. К сожалению, по закупкам есть более приоритетные цели, поэтому пока не знаю, когда реально куплю. Это всё же игрушки для меня. Большой нужды нет. Нарисовалась задача с покупкой запасной машины, так что всё необязательное теперь встало на паузу до лучших времён. Я по старинке коплю, в кредиты не беру ничего.
———
ServerAdmin:
#железо
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍151👎10