Давно собираюсь написать про своё новое рабочее место, но всё руки не доходили. В пятницу самое время это сделать. Для того, чтобы был понятен контекст моей истории и мотивация, нужно прочитать предыдущие сообщения с тэгом #спина. Там подробная история моих проблем со скелетом и мышцами. Не хочу здесь на этом останавливаться. Кратко поясню, что у меня хронические проблемы, которые уже невозможно полностью вылечить. Я постоянно занимаюсь профилактикой.
Перед новым годом я съездил в шоурум в Москве и протестировал E-Station. Это рабочее место с креслом, подставкой для клавиатуры и мыши, кронштейном для мониторов. И всё это одновременно меняет положение из сидячего до лежачего. Я попробовал, мне в целом понравилось и показалось удобным. Там было несколько рабочих мест с разным расположением мониторов. Я сам работаю с одним монитором, с ним же и купил станцию.
Не привожу никаких ссылок, цен и т.д. Кому интересно, сами поищите. Это не реклама, у меня никто не заказывал публикацию. Опишу свои впечатления от устройства. Сначала плюсы:
➕ Основное, почему я купил эту станцию - у неё самая удобная поддержка головы во время работы. Для меня это самое проблемное место. От сидячей работы устаёт шея, начинает болеть голова. Постоянно хочется откинуть голову на подголовник. На обычных креслах это неудобно. Голова откинута, она задирается, надо поднимать монитор чуть вверх, положение рук на столе становится некомфортным. Тут этой проблемы нет вообще. Я всё время работаю с головой на подголовнике, всё удобно и в одной плоскости, монитор всегда перед глазами.
➕ Легко меняется положение от сидячего до полностью лежачего. Можно подобрать для себя оптимальное. Ни на каких других рабочих местах с разными видами кресел такой амплитуды изменений не добиться. Я по вечерам иногда лежу, когда что-то смотрю. Настройки подголовника вариативны, легко меняются. Меняю в разное время дня в зависимости от усталости. Работаю в разных положениях. Начинаю обычно с сидячего и делаю наиболее сложную работу. Потом чуть откидываюсь и делаю остальную.
➕ Рабочее место становится немного обособленным. Садишься в него, опускаешь подлокотник и ты как-будто в закрытом пространстве. Я лучше концентрируюсь и погружаюсь в задачи.
Минусы:
➖ Монитор на кронштейне трясётся, даже когда печатаешь. Эту тряску видно во всех обзорах. И это первое, на что обращаешь внимание, когда впервые садишься. Когда я сел за рабочее место с тремя мониторами, там всё ходуном ходило. В том числе поэтому я взял кронштейн под один монитор. С ним я более-менее привык к тряске, она несильная. Я хотел бы два монитора повесить - один по центру, один сбоку, но не могу этого сделать из-за того, что от дополнительного веса кронштейн будет трястись ещё сильнее.
Это самый большой минус, который меня расстраивает. После моего тяжеленного рабочего стола, который как влитой стоит, мне некомфортно.
➖ Если положение не сидячее, то без слепой печати неудобно печатать. Осваиваю слепую печать. Я печатаю быстро, но надо подглядывать на клавиатуру.
➖ Из рабочего места не очень удобно вылезать и залезать. Из-за этого лишний раз вставать не хочется, соответственно, больше сидишь, хоть и с комфортом 😎
➖ Дорогой. На первый взгляд не понятно, почему такая цена. Но выбирать не из чего.
В целом, мне рабочее место нравится. Но рекомендовать его всем и каждому не могу. Нужно садиться и пробовать. Готов ли ты терпеть трясущийся монитор? Я периодически мониторил Авито, и там регулярно продают эти станции. То есть кому-то не подходит. Конкретно мне очень помогает с проблемами в шее. Вообще в ней не чувствую усталости от работы. Поясница немного всё равно устаёт, поднывать начинает. Так что это не панацея от проблем сидячей работы.
Лично мне кажется наиболее комфортным и полезным для здоровья рабочее место, где можно работать сидя и стоя, меняя положение в течении дня. Я так работал какое-то время, но у меня шея устаёт, поэтому отказался. Если у вас такой проблемы нет, я бы рекомендовал попробовать сначала это.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#спина
Перед новым годом я съездил в шоурум в Москве и протестировал E-Station. Это рабочее место с креслом, подставкой для клавиатуры и мыши, кронштейном для мониторов. И всё это одновременно меняет положение из сидячего до лежачего. Я попробовал, мне в целом понравилось и показалось удобным. Там было несколько рабочих мест с разным расположением мониторов. Я сам работаю с одним монитором, с ним же и купил станцию.
Не привожу никаких ссылок, цен и т.д. Кому интересно, сами поищите. Это не реклама, у меня никто не заказывал публикацию. Опишу свои впечатления от устройства. Сначала плюсы:
Минусы:
Это самый большой минус, который меня расстраивает. После моего тяжеленного рабочего стола, который как влитой стоит, мне некомфортно.
В целом, мне рабочее место нравится. Но рекомендовать его всем и каждому не могу. Нужно садиться и пробовать. Готов ли ты терпеть трясущийся монитор? Я периодически мониторил Авито, и там регулярно продают эти станции. То есть кому-то не подходит. Конкретно мне очень помогает с проблемами в шее. Вообще в ней не чувствую усталости от работы. Поясница немного всё равно устаёт, поднывать начинает. Так что это не панацея от проблем сидячей работы.
Лично мне кажется наиболее комфортным и полезным для здоровья рабочее место, где можно работать сидя и стоя, меняя положение в течении дня. Я так работал какое-то время, но у меня шея устаёт, поэтому отказался. Если у вас такой проблемы нет, я бы рекомендовал попробовать сначала это.
———
ServerAdmin:
#спина
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍132👎8
⇨ Защита от DoS-атак в Angie стандартными модулями
⇨ Защита от DoS-атак в Angie (дополнительные средства)
Хорошие разборы с примерами по защите от DoS. Я почти всё это знаю и использую. В первом видео разбираются модули Limit Req и Limit Conn. Я всегда делаю правила с ними в настройках веб сервера. Это самый простой способ отсечь тех, кто открывает кучу соединений с сайтом. Во втором fail2ban, ipset, модуль testcookie.
⇨ Полезные советы по Zabbix: Мониторинг баз данных с помощью Zabbix Agent 2
Небольшое видео с примером настройки мониторинга MySQL с помощью Zabbix. Я, кстати, тоже давно уже через Agent 2 настраиваю.
⇨ Zimaboard 2. Хайп 2 или Культ 2?
Очередной обзор прикольного одноплатника с двумя сетевухами. Любопытная с ним история. Блогерам прислали устройства на обзор, но купить из России их без плясок с бубном невозможно. Если только у перекупов, кто будет завозить их каким-то образом.
⇨ Как шпионить за любой веб-камерой с помощью Kali Linux?
Любопытное видео, где показан пример настройки Camish, с помощью которой можно создать фейковый сайт и получить доступ к камере зашедшего на него человека.
⇨ Контроль сайтов и пользователей на Mikrotik: кто куда ходит
Очень хорошо разобрана заявленная тема. Вебинар длинный, можно послушать на прогулке или сделать выжимку по рассмотренным решениям с помощью ИИ. Там много как теории по теме, так и примеров подходов и конкретных продуктов для решения задачи. В целом - Микротик не очень подходит для контроля. Лучше что-то другое использовать.
⇨ Напечатал домашний сервер на 3D принтере - HOMELAB
⇨ Вставил мониторинг в 10 дюймовую стойку HOMELAB
Автор напечатал на 3D принтере компактную стойку под своё железо, собрал её и настроил мониторинг на отдельном планшете. Выглядит очень прикольно. Мне понравилось, хоть и не особо понятно, зачем всё это. Чисто для фанатов модинга и самосбора.
⇨ I’m Documenting My Entire Home Lab as Code (This Is Genius)
Обзор программы RackPeek для документирования инфраструктуры, которая описывается и хранится в yaml, а потом автоматом визуализируется. Выглядит необычно и интересно. Проект новый. Записал его к себе на память, чтобы вернуться через полгода-год. Посмотрим, будет ли развитие.
⇨ Dokploy vs Coolify // Docker Swarm changes the game!
Обзор двух платформ для деплоя и управления масштабными проектами, состоящими из контейнеров. Про Coolify я уже рассказывал ранее. Это более простой аналог известного сервиса Heroku. Dokploy по сути аналог Coolify.
⇨ I Built a 5-Node Proxmox & Ceph Mini Rack with 17TB NVMe
Автор рассказывает про свой новый домашний кластер. Интересно, конечно, посмотреть. Но это, конечно, что-то на богатом, особенно по текущим временам. Я так и не успел себе ни ноут обновить, ни новый комп купить. Теперь вообще не понятно, когда это всё делать и за какие деньги.
⇨ My 2026 Homelab Tour (Rack + Servers + Network + Storage)
Ещё один обзор домашней лаборатории. Он каждый год их снимает, и я каждый год смотрю. Мне просто интересно. Там много всяких необычных штуковин. Практической пользы от этого не вижу.
⇨ OpenMediaVault 8 Overview - Start Here Before You Install
Очень старая сборка для NAS на базе Debian. Я немного использовал её, делал заметку. Одна из самых популярных сборок такого рода на базе Linux. В видео обзор новой 8-й версии.
———
ServerAdmin:
#видео
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Защита от DoS-атак в Angie стандартными модулями
В этом видео разберём базовые средства противодействия простым DoS-атакам стандартными средствами веб-сервера Angie. Это первая часть темы, в следующей разберём сторонние модули и Fail2Ban.
Этот канал посвящён теме поддержки сайтов: от технических аспектов…
Этот канал посвящён теме поддержки сайтов: от технических аспектов…
👍46👎2
Media is too big
VIEW IN TELEGRAM
▶️ Развлеку вас в выходной день ещё одним небольшим видео, которое меня очень впечатлило. Залетело в рекомендации Youtube. С автором не знаком, вообще ни одного его ролика не видел. Думал это очередная домашняя лаборатория какого-то блогера. Собственно, сам он её так и обозвал в описании: "У меня в подвале есть небольшая домашняя лаборатория."
Ближе к середине видео после показов ИБПшников, удивился, увидев потребление в 10 кВт. Думаю, что он там такого в доме нагородил на 10 киловатт. Собственно, а что он там собрал, можете сами посмотреть. Ролик короткий, 5 минут всего. Для удобства залил его ещё и на vkvideo. Уже не знаю, куда и заливать-то теперь, чтобы можно было спокойно посмотреть.
Тормознул видео, когда он на мониторе консоль одного из серверов показывал. Там было приветствие от PVE. Больше ожидал там VMware увидеть.
⇨ https://www.youtube.com/watch?v=-b3t37SIyBs
⇨ https://vkvideo.ru/video-95686747_456239393
Кому понравилась первая часть, может посмотреть продолжение. Заливать уже не стал никуда:
⇨ https://www.youtube.com/watch?v=OHsJA2uYH-w
Классный дом у мужика. Да и в целом он интересный человек. Посмотрел некоторые его видео. Он рассказывает, чем занимается на этих серверах. Основное у него там - HA кластер Proxmox с Ceph и большая хранилка на петабайт данных. Он любит всё сохранять и резервировать.
Он работает CTO (Chief Technology Officer, Технический директор) и говорит, что для работы на его должности надо не только уметь управлять людьми и процессами, но и разбираться в технологиях, которые у тебя на работе используются. Поэтому он собирает различные кластеры, всё сам щупает руками, настраивает и немного пользуется. Разумный подход.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#видео #железо
Ближе к середине видео после показов ИБПшников, удивился, увидев потребление в 10 кВт. Думаю, что он там такого в доме нагородил на 10 киловатт. Собственно, а что он там собрал, можете сами посмотреть. Ролик короткий, 5 минут всего. Для удобства залил его ещё и на vkvideo. Уже не знаю, куда и заливать-то теперь, чтобы можно было спокойно посмотреть.
Тормознул видео, когда он на мониторе консоль одного из серверов показывал. Там было приветствие от PVE. Больше ожидал там VMware увидеть.
⇨ https://www.youtube.com/watch?v=-b3t37SIyBs
⇨ https://vkvideo.ru/video-95686747_456239393
Кому понравилась первая часть, может посмотреть продолжение. Заливать уже не стал никуда:
⇨ https://www.youtube.com/watch?v=OHsJA2uYH-w
Классный дом у мужика. Да и в целом он интересный человек. Посмотрел некоторые его видео. Он рассказывает, чем занимается на этих серверах. Основное у него там - HA кластер Proxmox с Ceph и большая хранилка на петабайт данных. Он любит всё сохранять и резервировать.
Он работает CTO (Chief Technology Officer, Технический директор) и говорит, что для работы на его должности надо не только уметь управлять людьми и процессами, но и разбираться в технологиях, которые у тебя на работе используются. Поэтому он собирает различные кластеры, всё сам щупает руками, настраивает и немного пользуется. Разумный подход.
———
ServerAdmin:
#видео #железо
Please open Telegram to view this post
VIEW IN TELEGRAM
👍121👎3
Мне недавно один читатель задал простой вопрос, который заставил задуматься. Человек пояснил, что он далёк от ИТ, не сильно во всём этом разбирается, но хочет себя обезопасить от потери информации. Для этого он купил два одинаковых SSD в компьютер и хочет регулярно копировать всю информацию с одного диска на второй, чтобы в случае выхода из строя основного, он бы просто загрузился с другого и продолжил работу.
Запрос прост и понятен, но при этом лично я его в таком виде вообще никогда не решал. Первое, что мне приходит на ум, это RAID1. А второе - ПО для бэкапа, которое делает образ системного диска, который потом с помощью загрузочного диска можно быстро развернуть на любом новом железе. Делать постоянно полную копию диска нерационально с точки зрения времени бэкапа. Каждый раз это будет либо полная копия, либо как минимум полное сравнение двух дисков, поэтому лично я никогда так не делал.
Спрашивающий не разбирается ни в настройке RAID, ни в загрузочных дисках. Ему надо просто копию диска с системой Windows и регулярное её обновление из-под этой же системы. Я много писал про программы для бэкапа, но сходу не вспомнил, в какой бесплатной программе это реализовано. Например, бесплатный Veeam Agent, которым я сам пользуюсь, так не умеет. Навёл справки и узнал, что клон диска умеют делать бесплатные Hasleo Backup Suite Free и AOMEI Backupper Standard. Но там нет возможности сделать задачу для этих действий. Сделать клон можно только вручную.
Я лично проверил программу Hasleo. Системный диск нормально клонировался прямо из-под рабочей системы. Я его заменил копией, всё нормально загрузилось. Но нет никакой возможности автоматизировать этот процесс. У программы есть CLI, но там можно оперировать только задачами бэкапа. А клонирование диска идёт отдельной операцией, напрямую с бэкапами не связанной.
Немного помучал ИИшки на эту тему. Они, конечно, предлагали всякие костыли на тему diskshadow, монтирование и копирование образов, загрузочных разделов с помощью скриптов. Но мне всё это показалось слишком сложным и ненадёжным. Даже не стал пробовать. Особенно позабавил DeepSeek. Он написал, как сделать клон через Hasleo, и указал, что там же можно и задание на регулярное выполнение создать. Указал источник информации. Нажимаю на источник и открывается моя заметка в TG по этой программе. Он её прочитал и сделал ошибочное мнение о том, что есть такая возможность. В реальности её нет.
Честно говоря, думал, что есть какие-то простые бесплатные утилиты для этой задачи, типа того же
И всё, вообще никаких хлопот. DD есть и под Windows, но полностью всё скопировать в одно действие, как в Linux, не получится.
По итогу получается, что для решения этой задачи надо взять либо какую-то платную программу, типа Handy Backup, либо бесплатную Hasleo Backup Suite Free и делать клон вручную. В принципе, это нормальный вариант. Сами данные можно бэкапить каждый день автоматически куда-то во вне, например, на NAS, а систему раз в неделю вручную клонировать на второй диск. Ну и третий вариант - писать какие-то костыли на скриптах.
Если знаете простое и бесплатное решение этой задачи, поделитесь. По идее, запрос то простой и понятный для неискушённого человека. Сломался диск, сделал загрузочным в биосе запасной и продолжил работу. Ещё и от всяких вирусов, шифровальщиков защита, если клон диска не смонтирован в системе. Настроенный RAID1 сразу убьёт оба диска, а тут копия останется сохранной и позволит быстро восстановить работу. Я в итоге посоветовал Hasleo и ручное создание клона.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#backup #windows
Запрос прост и понятен, но при этом лично я его в таком виде вообще никогда не решал. Первое, что мне приходит на ум, это RAID1. А второе - ПО для бэкапа, которое делает образ системного диска, который потом с помощью загрузочного диска можно быстро развернуть на любом новом железе. Делать постоянно полную копию диска нерационально с точки зрения времени бэкапа. Каждый раз это будет либо полная копия, либо как минимум полное сравнение двух дисков, поэтому лично я никогда так не делал.
Спрашивающий не разбирается ни в настройке RAID, ни в загрузочных дисках. Ему надо просто копию диска с системой Windows и регулярное её обновление из-под этой же системы. Я много писал про программы для бэкапа, но сходу не вспомнил, в какой бесплатной программе это реализовано. Например, бесплатный Veeam Agent, которым я сам пользуюсь, так не умеет. Навёл справки и узнал, что клон диска умеют делать бесплатные Hasleo Backup Suite Free и AOMEI Backupper Standard. Но там нет возможности сделать задачу для этих действий. Сделать клон можно только вручную.
Я лично проверил программу Hasleo. Системный диск нормально клонировался прямо из-под рабочей системы. Я его заменил копией, всё нормально загрузилось. Но нет никакой возможности автоматизировать этот процесс. У программы есть CLI, но там можно оперировать только задачами бэкапа. А клонирование диска идёт отдельной операцией, напрямую с бэкапами не связанной.
Немного помучал ИИшки на эту тему. Они, конечно, предлагали всякие костыли на тему diskshadow, монтирование и копирование образов, загрузочных разделов с помощью скриптов. Но мне всё это показалось слишком сложным и ненадёжным. Даже не стал пробовать. Особенно позабавил DeepSeek. Он написал, как сделать клон через Hasleo, и указал, что там же можно и задание на регулярное выполнение создать. Указал источник информации. Нажимаю на источник и открывается моя заметка в TG по этой программе. Он её прочитал и сделал ошибочное мнение о том, что есть такая возможность. В реальности её нет.
Честно говоря, думал, что есть какие-то простые бесплатные утилиты для этой задачи, типа того же
dd в Linux. Там вообще 0 проблем с подобным клоном:# dd if=/dev/sda of=/dev/sdb bs=1M status=progressИ всё, вообще никаких хлопот. DD есть и под Windows, но полностью всё скопировать в одно действие, как в Linux, не получится.
По итогу получается, что для решения этой задачи надо взять либо какую-то платную программу, типа Handy Backup, либо бесплатную Hasleo Backup Suite Free и делать клон вручную. В принципе, это нормальный вариант. Сами данные можно бэкапить каждый день автоматически куда-то во вне, например, на NAS, а систему раз в неделю вручную клонировать на второй диск. Ну и третий вариант - писать какие-то костыли на скриптах.
Если знаете простое и бесплатное решение этой задачи, поделитесь. По идее, запрос то простой и понятный для неискушённого человека. Сломался диск, сделал загрузочным в биосе запасной и продолжил работу. Ещё и от всяких вирусов, шифровальщиков защита, если клон диска не смонтирован в системе. Настроенный RAID1 сразу убьёт оба диска, а тут копия останется сохранной и позволит быстро восстановить работу. Я в итоге посоветовал Hasleo и ручное создание клона.
———
ServerAdmin:
#backup #windows
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍88👎5
Я написал подробный обзор межсетевого экрана и по совместительству шлюза ИКС ФСТЭК, который можно установить на своё железо или виртуальную машину, а также приобрести в виде программно-аппаратного комплекса (ПАК) на уже собранном и настроенном железе от разработчиков. Это сертифицированный межсетевой экран для защиты корпоративных сетей, соответствующий требованиям регуляторов.
⇨ Межсетевой экран ИКС ФСТЭК - установка и настройка
С продуктом ИКС (Интернет Контроль Сервер) я знаком давно. Он появился ещё до всей движухи с импортозамещением. А началось оно, кто не помнит, ещё в 2012 году. Тогда первые законы на этот счёт пошли. То есть это осмысленный и зрелый продукт, не собранный в горячке последних лет под возникшие запросы.
Сразу говорю, что статья заказная. У меня её заказал разработчик. Но как обычно всю структуру и наполнение я написал полностью сам. Изучил продукт, установил, настроил, и как смог кратко и ёмко показал основные возможности:
◽️Настройка и управление доступом пользователей
◽️Блокировка приложений и протоколов
◽️Фильтрация HTTPS через MITM
◽️Блокировка по спискам Минюста и Госнаркоконтроля
◽️Настройка файрвола
Помимо этого у ИКС ФСТЭК есть следующие возможности:
◽️Работа с несколькими провайдерами, балансировка каналов, управление полосой пропускания.
◽️Интеграция с DLP (Data Leak Prevention) и SIEM (Security Information and Event Management) системами.
◽️Различные технологии VPN с многофакторной аутентификацией пользователей.
◽️Интеграция с FreeIPA и ALD Pro, импорт пользователей из LDAP, Active Directory.
◽️Политики доступа на основе пользователей и групп.
◽️Статистика по сетевой активности пользователей и устройств.
◽️Чёрные и белые списки адресов, IP, фраз, блокировки по Geo-IP, спискам Минюста, времени суток, URL, ключевым словам, регулярным выражениям
◽️DHCP и DNS сервер.
◽️Подробные настраиваемые отчёты по использованию интернет-ресурсов.
ИКС ФСТЭК подходит для всех субъектов критической информационной инфраструктуры (КИИ) в России. Он будет актуален образовательным учреждениями и объектам здравоохранения, промышленным предприятиям и административным учреждениям, коммерческим организациям с повышенными требованиями к безопасности.
❗️В линейке продуктов ИКС есть полнофункциональная бесплатная версия Lite на 9 пользователей, которую можно использовать, к примеру, дома, если у вас есть дети (я использовал одно время), или в качестве шлюза для виртуальных машин, если их не больше 9-ти. ИКС в том числе поддерживает разные протоколы VPN, что может быть удобно для объединения разрозненной инфраструктуры.
Вся настройка в ИКС выполняется через веб интерфейс. В консоль ходить не нужно. Интерфейс управления интуитивен и прост. Базовые вещи легко настраиваются. Немного привыкать придётся к файрволу, если раньше работали с iptables. ИКС сделан на базе FreeBSD и там под капотом ipfw. У него немного другая логика работы и построения правил. Если iptables не знаете, то наоборот будет проще, так как ipfw более логичен и интуитивен. В любом случае всё настраивается через адаптированный интерфейс в браузере.
Продукт давно на рынке. По нему можно навести справки, посмотреть отзывы, вебинары. Для него есть документация на русском языке, обучающие курсы, техническая поддержка. Я видел разные отзывы на него, в том числе и с какими-то проблемами. Но у кого их не бывает? Можно даже у меня на сайте к прошлым статьям или тут к заметкам почитать отзывы. Я ничего не удалял. Все, кто хотел, выразили своё мнение, как положительное, так и отрицательное. Только делайте поправку на то, что было это 5+ лет назад.
#икс #gateway
⇨ Межсетевой экран ИКС ФСТЭК - установка и настройка
С продуктом ИКС (Интернет Контроль Сервер) я знаком давно. Он появился ещё до всей движухи с импортозамещением. А началось оно, кто не помнит, ещё в 2012 году. Тогда первые законы на этот счёт пошли. То есть это осмысленный и зрелый продукт, не собранный в горячке последних лет под возникшие запросы.
Сразу говорю, что статья заказная. У меня её заказал разработчик. Но как обычно всю структуру и наполнение я написал полностью сам. Изучил продукт, установил, настроил, и как смог кратко и ёмко показал основные возможности:
◽️Настройка и управление доступом пользователей
◽️Блокировка приложений и протоколов
◽️Фильтрация HTTPS через MITM
◽️Блокировка по спискам Минюста и Госнаркоконтроля
◽️Настройка файрвола
Помимо этого у ИКС ФСТЭК есть следующие возможности:
◽️Работа с несколькими провайдерами, балансировка каналов, управление полосой пропускания.
◽️Интеграция с DLP (Data Leak Prevention) и SIEM (Security Information and Event Management) системами.
◽️Различные технологии VPN с многофакторной аутентификацией пользователей.
◽️Интеграция с FreeIPA и ALD Pro, импорт пользователей из LDAP, Active Directory.
◽️Политики доступа на основе пользователей и групп.
◽️Статистика по сетевой активности пользователей и устройств.
◽️Чёрные и белые списки адресов, IP, фраз, блокировки по Geo-IP, спискам Минюста, времени суток, URL, ключевым словам, регулярным выражениям
◽️DHCP и DNS сервер.
◽️Подробные настраиваемые отчёты по использованию интернет-ресурсов.
ИКС ФСТЭК подходит для всех субъектов критической информационной инфраструктуры (КИИ) в России. Он будет актуален образовательным учреждениями и объектам здравоохранения, промышленным предприятиям и административным учреждениям, коммерческим организациям с повышенными требованиями к безопасности.
❗️В линейке продуктов ИКС есть полнофункциональная бесплатная версия Lite на 9 пользователей, которую можно использовать, к примеру, дома, если у вас есть дети (я использовал одно время), или в качестве шлюза для виртуальных машин, если их не больше 9-ти. ИКС в том числе поддерживает разные протоколы VPN, что может быть удобно для объединения разрозненной инфраструктуры.
Вся настройка в ИКС выполняется через веб интерфейс. В консоль ходить не нужно. Интерфейс управления интуитивен и прост. Базовые вещи легко настраиваются. Немного привыкать придётся к файрволу, если раньше работали с iptables. ИКС сделан на базе FreeBSD и там под капотом ipfw. У него немного другая логика работы и построения правил. Если iptables не знаете, то наоборот будет проще, так как ipfw более логичен и интуитивен. В любом случае всё настраивается через адаптированный интерфейс в браузере.
Продукт давно на рынке. По нему можно навести справки, посмотреть отзывы, вебинары. Для него есть документация на русском языке, обучающие курсы, техническая поддержка. Я видел разные отзывы на него, в том числе и с какими-то проблемами. Но у кого их не бывает? Можно даже у меня на сайте к прошлым статьям или тут к заметкам почитать отзывы. Я ничего не удалял. Все, кто хотел, выразили своё мнение, как положительное, так и отрицательное. Только делайте поправку на то, что было это 5+ лет назад.
#икс #gateway
Server Admin
Межсетевой экран ИКС ФСТЭК - установка и настройка | serveradmin.ru
Установка и базовая настройка сертифицированного шлюза и сетевого экрана ИКС ФСТЭК для защиты корпоративных сетей.
1👍86👎18
Недавно была публикация про PDF принтер в Windows. В комментариях дали ссылку на шикарный бесплатный сервис BentoPDF для работы с PDF. Причём сервис этот можно развернуть у себя на сервере. Он работает через браузер.
Сначала прохладно отнёсся к нему. Таких штук как-будто бы много. Я ранее уже встречал. Но всё же посмотрел на него повнимательнее, развернул и попробовал. Штука на самом деле полезная, хоть и не всё там заработало, как хотелось бы, но решил таки рассказать о ней. В каких-то ситуациях она может очень сильно облегчить жизнь.
📌 Кратко перечислю особенности BentoPDF:
▪️Как уже сказал, это полностью бесплатный открытый проект одного человека. По сути его хобби.
▪️Написан на чистом JavaScript, вся обработка на стороне клиента, то есть в его браузере, поэтому никаких особых ресурсов сервера ему не надо. По сути это просто статическая html страничка с JavaScript.
▪️Всё это упаковано в небольшой проект на Docker. Запускается просто, ресурсов особых не требует.
▪️Попробовать всю функциональность можно на сайте bentopdf.com.
Мне даже трудно перечислить всё, что может BentoPDF. По сути всё, что можно только придумать для PDF - конвертировать, извлекать картинки, сжимать, объединять, обрезать, переворачивать, шифровать, ставить подписи, добавлять картинки и т.д.
Отдельно отмечу, что можно собрать конвейер обработки из разных действий и пачкой передавать туда файлы. Для тех, кто постоянно и на потоке что-то делает с PDF, это может очень облегчить жизнь.
По сути с помощью BentoPDF можно вообще разгрузить пользовательские компьютеры от каких-то PDF редакторов и делать всё через общий сервис в браузере. Причём работать это будет во всех операционных системах.
К сожалению, там подглючивает конвертация из некоторых форматов в PDF. У меня периодически процесс подвисает и не преобразовывает. Выскакивает ошибка: "An error occurred during conversion. Error: WASM initialization timeout". Я зашёл в Issues на гихабе, посмотреть, нет ли у кого-нибудь таких же ошибок. Вообще никто не жалуется. Понял, что проблема где-то у меня.
Стал разбираться. Выяснил, что преобразование происходит с помощью WASM (WebAssembly). Эта библиотека загружается клиентом из публичных CDN в момент запуска преобразования. И судя по всему, что-то не может скачаться. Если запускать через ВПН, то нормально работает. Я немного поковырялся, выяснил, что ссылки на скрипты с обработкой зашиты в образе Docker в момент сборки. Их можно либо через
Всё остальное вроде нормально работает. Я пробовал добавление и удаление текста, вставку картинок, рукописных подписей и некоторые другие операции. Причём редактор удобный. Мне понравился больше моего нативного на компе.
Сервис в целом понравился. Можно всё настроить, запустить локально и не переживать за обновление, поддержку всей этой функциональности на стороне клиентов.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#docs
Сначала прохладно отнёсся к нему. Таких штук как-будто бы много. Я ранее уже встречал. Но всё же посмотрел на него повнимательнее, развернул и попробовал. Штука на самом деле полезная, хоть и не всё там заработало, как хотелось бы, но решил таки рассказать о ней. В каких-то ситуациях она может очень сильно облегчить жизнь.
▪️Как уже сказал, это полностью бесплатный открытый проект одного человека. По сути его хобби.
▪️Написан на чистом JavaScript, вся обработка на стороне клиента, то есть в его браузере, поэтому никаких особых ресурсов сервера ему не надо. По сути это просто статическая html страничка с JavaScript.
▪️Всё это упаковано в небольшой проект на Docker. Запускается просто, ресурсов особых не требует.
▪️Попробовать всю функциональность можно на сайте bentopdf.com.
Мне даже трудно перечислить всё, что может BentoPDF. По сути всё, что можно только придумать для PDF - конвертировать, извлекать картинки, сжимать, объединять, обрезать, переворачивать, шифровать, ставить подписи, добавлять картинки и т.д.
Отдельно отмечу, что можно собрать конвейер обработки из разных действий и пачкой передавать туда файлы. Для тех, кто постоянно и на потоке что-то делает с PDF, это может очень облегчить жизнь.
По сути с помощью BentoPDF можно вообще разгрузить пользовательские компьютеры от каких-то PDF редакторов и делать всё через общий сервис в браузере. Причём работать это будет во всех операционных системах.
К сожалению, там подглючивает конвертация из некоторых форматов в PDF. У меня периодически процесс подвисает и не преобразовывает. Выскакивает ошибка: "An error occurred during conversion. Error: WASM initialization timeout". Я зашёл в Issues на гихабе, посмотреть, нет ли у кого-нибудь таких же ошибок. Вообще никто не жалуется. Понял, что проблема где-то у меня.
Стал разбираться. Выяснил, что преобразование происходит с помощью WASM (WebAssembly). Эта библиотека загружается клиентом из публичных CDN в момент запуска преобразования. И судя по всему, что-то не может скачаться. Если запускать через ВПН, то нормально работает. Я немного поковырялся, выяснил, что ссылки на скрипты с обработкой зашиты в образе Docker в момент сборки. Их можно либо через
.env переназначить, либо потом в веб интерфейсе в разделе Advanced Settings, в самом низу страницы. Подробно это описано в репозитории. Если у себя будете разворачивать на постоянную работу, то просто скачайте эти скрипты себе локально и пересоберите образ со своими урлами. Всё остальное вроде нормально работает. Я пробовал добавление и удаление текста, вставку картинок, рукописных подписей и некоторые другие операции. Причём редактор удобный. Мне понравился больше моего нативного на компе.
Сервис в целом понравился. Можно всё настроить, запустить локально и не переживать за обновление, поддержку всей этой функциональности на стороне клиентов.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#docs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍174👎3
Сегодня много времени провёл в дороге и размышлял над некоторыми вещами, в том числе об ИИ. Хочу с вами поделиться некоторыми мыслями. Я сейчас пишу новую статью про систему управления инфраструктурой. Пока не буду делать на ней акцент, когда выйдет статья, сами всё прочитаете. Там ИИ интегрирован в систему и работает очень хорошо.
Взаимодействие с инфраструктурой выходит на новый уровень. В мониторинге, к примеру, нет шаблонов. ИИ так хорошо их пишет по месту, что нет смысла в преднастройках, на что раньше уходило много времени, в том числе у меня. Написать шаблон с визуализацией под тот же Zabbix, как минимум день повозиться, пока всё сделаешь и отладишь. А тут просто пишешь, типа напиши мне шаблон такой-то где будет то-то и то-то. И он пишет. И почти всегда с первого раза нормально получается.
Или ещё пример. ИИ связан с агентами на серверах. Пишешь ему словами, что тебе надо что-то настроить. Например, у тебя мониторинг Zabbix и надо сделать бэкап базы данных. Пишешь ему "У меня на этом сервере установлен Zabbix и вообще не настроен бэкап базы данных. Выясни, какая база данных используется и предложи скрипт для бэкапа этой базы данных, который будет храниться локально." И он начинает поэтапно накидывать команды, которые ты одобряешь и выполняешь на сервере. Шаг за шагом он решает задачу. Конкретно этот пример он решил сразу и без ошибок. Сначала выяснил тип СУБД, доступ к ней, свободное место на диске и размер базы данных. И потом итоговый скрипт.
Похожим образом решаются проблемы в триггерах. Да, конечно, за ИИ надо присматривать и просто так автоматом нельзя всё это отдавать ему на откуп. Но, как минимум, налицо ускорение и упрощение всех процессов. Для настройки и поддержки инфраструктуры будет требоваться меньше людей. На фоне нарастающего экономического кризиса неизбежно сокращение персонала в этой сфере.
И тут уже встают серьёзные вопросы - а куда двигаться дальше и чем на жизнь зарабатывать, если тебя сократят? А кого-то в любом случае сократят. Например, я знаю человека, который несколько лет зарабатывал копирайтингом. Его практически полностью заменил ИИ и работы в этой сфере больше нет. Остался может быть каждый десятый, а девять ушли в другую сферу деятельности.
Мне видится тут такая развилка: начать активно изучать ИИ, чтобы оставаться на плаву, или менять сферу деятельности, пока ещё не поздно, на ту, где ИИ тебе точно не грозит. В первом случае светит серьёзная конкуренция, которая по мере развития ИИ будет только нарастать и в итоге велик шанс остаться за бортом. Второй путь более сложен и трудозатратен, и тоже нет никаких гарантий. Начинать с нуля очень тяжело, особенно в зрелом возрасте.
В общем, в интересное время живём. Даже не знаю, чем всё это в итоге закончится, но столько айтишников, сколько есть сейчас, точно не нужно будет. И на первом месте под сокращение, как мне видится, пойдут программисты. Эксплуатация и поддержка вторым эшелоном. Их в целом меньше, и вариативность деятельности там шире, но оптимизации и сокращения тоже будут.
У вас какие мысли на этот счёт? Уже есть те, кто переучиваются на сантехника, электрика или сварщика? Только если не работали с ИИ, то не пишите, что это всё ерунда, пузырь, который скоро лопнет и т.д. Пузырь то может и лопнет, как лопался раньше, но сама технология останется с нами. И будет развиваться дальше.
#мысли
Взаимодействие с инфраструктурой выходит на новый уровень. В мониторинге, к примеру, нет шаблонов. ИИ так хорошо их пишет по месту, что нет смысла в преднастройках, на что раньше уходило много времени, в том числе у меня. Написать шаблон с визуализацией под тот же Zabbix, как минимум день повозиться, пока всё сделаешь и отладишь. А тут просто пишешь, типа напиши мне шаблон такой-то где будет то-то и то-то. И он пишет. И почти всегда с первого раза нормально получается.
Или ещё пример. ИИ связан с агентами на серверах. Пишешь ему словами, что тебе надо что-то настроить. Например, у тебя мониторинг Zabbix и надо сделать бэкап базы данных. Пишешь ему "У меня на этом сервере установлен Zabbix и вообще не настроен бэкап базы данных. Выясни, какая база данных используется и предложи скрипт для бэкапа этой базы данных, который будет храниться локально." И он начинает поэтапно накидывать команды, которые ты одобряешь и выполняешь на сервере. Шаг за шагом он решает задачу. Конкретно этот пример он решил сразу и без ошибок. Сначала выяснил тип СУБД, доступ к ней, свободное место на диске и размер базы данных. И потом итоговый скрипт.
Похожим образом решаются проблемы в триггерах. Да, конечно, за ИИ надо присматривать и просто так автоматом нельзя всё это отдавать ему на откуп. Но, как минимум, налицо ускорение и упрощение всех процессов. Для настройки и поддержки инфраструктуры будет требоваться меньше людей. На фоне нарастающего экономического кризиса неизбежно сокращение персонала в этой сфере.
И тут уже встают серьёзные вопросы - а куда двигаться дальше и чем на жизнь зарабатывать, если тебя сократят? А кого-то в любом случае сократят. Например, я знаю человека, который несколько лет зарабатывал копирайтингом. Его практически полностью заменил ИИ и работы в этой сфере больше нет. Остался может быть каждый десятый, а девять ушли в другую сферу деятельности.
Мне видится тут такая развилка: начать активно изучать ИИ, чтобы оставаться на плаву, или менять сферу деятельности, пока ещё не поздно, на ту, где ИИ тебе точно не грозит. В первом случае светит серьёзная конкуренция, которая по мере развития ИИ будет только нарастать и в итоге велик шанс остаться за бортом. Второй путь более сложен и трудозатратен, и тоже нет никаких гарантий. Начинать с нуля очень тяжело, особенно в зрелом возрасте.
В общем, в интересное время живём. Даже не знаю, чем всё это в итоге закончится, но столько айтишников, сколько есть сейчас, точно не нужно будет. И на первом месте под сокращение, как мне видится, пойдут программисты. Эксплуатация и поддержка вторым эшелоном. Их в целом меньше, и вариативность деятельности там шире, но оптимизации и сокращения тоже будут.
У вас какие мысли на этот счёт? Уже есть те, кто переучиваются на сантехника, электрика или сварщика? Только если не работали с ИИ, то не пишите, что это всё ерунда, пузырь, который скоро лопнет и т.д. Пузырь то может и лопнет, как лопался раньше, но сама технология останется с нами. И будет развиваться дальше.
#мысли
1👍134👎8
Пару недель назад прочитал полезную статью на хабре:
⇨ Бросил tmux и написал свой инструмент
Там автор прошёлся прям по больному. Он рассказал про разные терминальные мультиплексоры с упоминанием проблем, которые напрягают в повседневной работе. Я нигде и ни от кого не видел ранее такую подборку. Думал всегда, что это я один страдаю из-за неудобного скрола мышки в screen или глюками с буферами или интерактивными утилитами в tmux. Там в статье прям по пунктам всякие неудобства перечислены и чем они вызваны с точки зрения архитектуры приложений.
Вроде основную задачу по сохранении сессии SSH при разрыве соединения решают и screen, и tmux, но пользоваться ими неудобно. Я последние года стал пользоваться повсеместно tmux вместо screen, но всё равно из-за разных глюков делал это редко и только для долгоиграющих процедур, типа обновления, которые крайне нежелательно прерывать. Во всех остальных случаях я отключал мультиплексор и работал напрямую в консоли. А разделение сессий на одном экране реализовывал с помощью менеджера соединений, а не мультиплексора.
В итоге автор написал небольшую утилиту atch на С, которая работает идеально, если вам нужно просто сохранять сессию при разрыве соединения и потом обратно в неё подключаться. Нет никакой эмуляции терминала, как в screen или tmux. Atch ничего не парсит, не перекодирует, поэтому нет проблем со скролом мышки, пропаданием истории терминала, глюками с OSC-последовательностями.
Работает atch так, как надо, без каких-либо дополнительных настроек. Я попробовал, очень понравилось. В репозитории есть собранный бинарник, его достаточно скачать:
Утилита совсем новая. В репозиториях дистрибутивов её, разумеется, пока нет. Очень надеюсь, что она там со временем появится, потому что она удобна и проста, решает ровно одну задачу и делает это хорошо. Всё в духе философии UNIX.
Дальше создаём сессию work:
И работаем в ней. Если соединение разорвалось, то подключаемся заново по SSH и заходим в сессию:
Видим тут же в терминале всю историю терминала, которая была до отключения!!! Она пишется в
Смотрим список сессий:
Всё интуитивно и просто. Запоминать команды не нужно. Этого достаточно, чтобы пользоваться, для моих задач. Я после перехода из screen в tmux постоянно вспоминаю, как посмотреть список сессий.
Можно запустить любой процесс через atch и потом посмотреть консольный вывод из любого места, подключившись в созданную сессию:
И история автоматом сохранится. Автор также приводит пример с AI агентами, которые работают в сессии с atch, а потом можно посмотреть, что они там делали. В принципе, записать действия в консоли можно очень разными способами (подборка разных решений этой задачи). Этот возможно и не самый удобный для этой задачи, но максимально простой.
Если много работаете в консоли, используете screen или tmux, рекомендую попробовать atch. Вам должно понравиться. Давно мне не попадались утилиты, которые бы так порадовали своей простой и удобством. Казалось бы, уже всё давно придумано, но, как видим, ещё нет.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#linux #terminal
⇨ Бросил tmux и написал свой инструмент
Там автор прошёлся прям по больному. Он рассказал про разные терминальные мультиплексоры с упоминанием проблем, которые напрягают в повседневной работе. Я нигде и ни от кого не видел ранее такую подборку. Думал всегда, что это я один страдаю из-за неудобного скрола мышки в screen или глюками с буферами или интерактивными утилитами в tmux. Там в статье прям по пунктам всякие неудобства перечислены и чем они вызваны с точки зрения архитектуры приложений.
Вроде основную задачу по сохранении сессии SSH при разрыве соединения решают и screen, и tmux, но пользоваться ими неудобно. Я последние года стал пользоваться повсеместно tmux вместо screen, но всё равно из-за разных глюков делал это редко и только для долгоиграющих процедур, типа обновления, которые крайне нежелательно прерывать. Во всех остальных случаях я отключал мультиплексор и работал напрямую в консоли. А разделение сессий на одном экране реализовывал с помощью менеджера соединений, а не мультиплексора.
В итоге автор написал небольшую утилиту atch на С, которая работает идеально, если вам нужно просто сохранять сессию при разрыве соединения и потом обратно в неё подключаться. Нет никакой эмуляции терминала, как в screen или tmux. Atch ничего не парсит, не перекодирует, поэтому нет проблем со скролом мышки, пропаданием истории терминала, глюками с OSC-последовательностями.
Работает atch так, как надо, без каких-либо дополнительных настроек. Я попробовал, очень понравилось. В репозитории есть собранный бинарник, его достаточно скачать:
# curl -Lo atch.tgz https://github.com/mobydeck/atch/releases/latest/download/atch-linux-amd64.tgz# tar -xzf atch-linux-amd64.tgz atch# mv atch /usr/local/bin/Утилита совсем новая. В репозиториях дистрибутивов её, разумеется, пока нет. Очень надеюсь, что она там со временем появится, потому что она удобна и проста, решает ровно одну задачу и делает это хорошо. Всё в духе философии UNIX.
Дальше создаём сессию work:
# atch workИ работаем в ней. Если соединение разорвалось, то подключаемся заново по SSH и заходим в сессию:
# atch workВидим тут же в терминале всю историю терминала, которая была до отключения!!! Она пишется в
~/.cache/atch/ сразу же в момент вывода. И потом воспроизводится при повторном подключении к сессии. Ничего не теряется. Ты попадаешь в тот же вывод терминала, откуда тебя отключило. Это очень удобно.Смотрим список сессий:
# atch listВсё интуитивно и просто. Запоминать команды не нужно. Этого достаточно, чтобы пользоваться, для моих задач. Я после перехода из screen в tmux постоянно вспоминаю, как посмотреть список сессий.
Можно запустить любой процесс через atch и потом посмотреть консольный вывод из любого места, подключившись в созданную сессию:
# atch start deploy ./deploy.shИ история автоматом сохранится. Автор также приводит пример с AI агентами, которые работают в сессии с atch, а потом можно посмотреть, что они там делали. В принципе, записать действия в консоли можно очень разными способами (подборка разных решений этой задачи). Этот возможно и не самый удобный для этой задачи, но максимально простой.
Если много работаете в консоли, используете screen или tmux, рекомендую попробовать atch. Вам должно понравиться. Давно мне не попадались утилиты, которые бы так порадовали своей простой и удобством. Казалось бы, уже всё давно придумано, но, как видим, ещё нет.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#linux #terminal
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Бросил tmux и написал свой инструмент
Десятилетия терминальных мультиплексеров, одна хроническая боль и маленькая тулза на C, которая наконец всё починила. Дисклеймер. Это адаптация статьи, которую я написал на английском для medium.com ....
2👍194👎2
В Microsoft работают настоящие специалисты по возвращению в систему одного и того же бага. Сколько лет уже наблюдается одна и та же проблема с раскладкой, а точнее с её переключением. Ещё 2 года назад делал статью, когда меня это конкретно достало:
⇨ Почему раскладка в Windows переключается не с первого раза? Решение.
На тот момент я вышел из ситуации сторонними программами. Отключил системное переключение и менял раскладку программой. Но когда баг исправили, перестал ими пользоваться, потому что привык переключать раскладку по Ctrl+Shift.
И вот спустя почти 2 года этот баг опять вернулся. Я сразу заметил, что переключаться стало опять не с первого раза. Тут же пошли комментарии к статье на эту тему, и к заметке в ВК. Она, судя по всему, тоже как-то в поиске выскакивает на эту тему.
Нормального решения у меня нет. Так и переключаю время от времени со второго или третьего раза. Если кто-то знает, как решить эту проблему в винде, поделитесь. Напрягает, а привыкать к другим комбинациям не хочу.
Не понимаю, как они умудряются постоянно воспроизводить этот баг? В прошлый раз он был вызван появляющимся окошком с анимацией переключения. Именно эта анимация давала тормоза. Анимацию убрали, баг пропал, переключение работало нормально. Теперь опять что-то случилось. Как показывает практика, решения от Microsoft можно ждать месяцами или годами.
#windows
⇨ Почему раскладка в Windows переключается не с первого раза? Решение.
На тот момент я вышел из ситуации сторонними программами. Отключил системное переключение и менял раскладку программой. Но когда баг исправили, перестал ими пользоваться, потому что привык переключать раскладку по Ctrl+Shift.
И вот спустя почти 2 года этот баг опять вернулся. Я сразу заметил, что переключаться стало опять не с первого раза. Тут же пошли комментарии к статье на эту тему, и к заметке в ВК. Она, судя по всему, тоже как-то в поиске выскакивает на эту тему.
Нормального решения у меня нет. Так и переключаю время от времени со второго или третьего раза. Если кто-то знает, как решить эту проблему в винде, поделитесь. Напрягает, а привыкать к другим комбинациям не хочу.
Не понимаю, как они умудряются постоянно воспроизводить этот баг? В прошлый раз он был вызван появляющимся окошком с анимацией переключения. Именно эта анимация давала тормоза. Анимацию убрали, баг пропал, переключение работало нормально. Теперь опять что-то случилось. Как показывает практика, решения от Microsoft можно ждать месяцами или годами.
#windows
👍73👎1
Я не раз между делом в заметках упоминал, что обычно не ставлю в автоматическую загрузку виртуальные машины на гипервизорах. Недавно один подписчик просил меня пояснить, на чём основана эта рекомендация и как он может убедить своё руководство в том, что лучше сделать так.
Убеждать никого не хочу, а просто поделюсь некоторыми реальными историями, которые были в моей практике. Сразу поясню, что всё это относится к небольшим инфраструктурам, где с каждым отдельным сервером работают руками. Речь не про кластеры с HA сервисами. Хотя там бы я тоже действовал так же.
1️⃣ У меня была ситуация была, когда сглючила память в сервере и он постоянно перезагружался. Сервер Dell почему-то не отключил её сам, пришлось идти в ЦОДе к серверу и вынимать физически. На сервере работал гипервизор с кучей виртуальных машин. Если бы они автоматом стартовали, то там 100% что-нибудь бы умерло. Он аварийно перезагружался каждые 5-10 минут и сделал это раз 10, пока сотрудник не добрался до ЦОД и не поменял память.
2️⃣ Ещё один пример. ЦОД обесточили, была серьезная авария с электропитанием. Как это обычно бывает, резервное оборудование под реальной нагрузкой никто не проверял, так как подобные отключения бывают крайне редко, а проверять хлопотно. В итоге электричество то появлялось, то пропадало, падал генератор под нагрузкой. Оборудование несколько раз включилось и выключилось.
3️⃣ В промзонах часто отключают электричество. Иногда надолго. Его могут вернуть, а потом опять отключить через 1-2 минуты. Сталкивался с этим десятки раз, так как много работал и работаю с реальным производством. Для меня это вообще обыденность. Стартующие сервера на пустых батареях аварийно падают. Это всё приводит к проблемам. У меня, кстати, и дома, такая же история бывала не раз.
В таких случаях считаю, что лучше перестраховаться и вручную всё запустить в случае аварии, нежели пускать процессы на самотёк. Во всех описанных случаях автозапуск виртуалок никак не помог бы восстановить нормальную работу. А вот организовать дополнительные проблемы - запросто. Лучше 5-10 минут подождать и всё запустить по своей команде, нежели отдать на откуп автоматическому запуску. Разумеется, если есть что-то, что должно сразу стартануть, типа шлюза, то его хочешь, не хочешь, а в автозагрузку придётся поставить. А всё остальное уже потом, когда можно будет удалённо отправить команду на запуск.
#совет
Убеждать никого не хочу, а просто поделюсь некоторыми реальными историями, которые были в моей практике. Сразу поясню, что всё это относится к небольшим инфраструктурам, где с каждым отдельным сервером работают руками. Речь не про кластеры с HA сервисами. Хотя там бы я тоже действовал так же.
В таких случаях считаю, что лучше перестраховаться и вручную всё запустить в случае аварии, нежели пускать процессы на самотёк. Во всех описанных случаях автозапуск виртуалок никак не помог бы восстановить нормальную работу. А вот организовать дополнительные проблемы - запросто. Лучше 5-10 минут подождать и всё запустить по своей команде, нежели отдать на откуп автоматическому запуску. Разумеется, если есть что-то, что должно сразу стартануть, типа шлюза, то его хочешь, не хочешь, а в автозагрузку придётся поставить. А всё остальное уже потом, когда можно будет удалённо отправить команду на запуск.
#совет
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍109👎21
Домучиваю статью про Loki. Никак не соберусь и не доделаю её полностью. В процессе настройки хочется наполнить систему реальными логами в нормальном объёме, чтобы всё проверить. Я использовал для этого простую утилиту с гитхаба для генерации логов типовых форматов - flog.
Это одиночный бинарник на Go, с которым очень просто работать. Он поддерживает несколько форматов:
- Apache common
- Apache combined
- Apache error
- RFC3164
- RFC5424
- Common log fomat
- JSON
По сути тут 2 типовых формата - разные виды логов веб сервера и syslog, плюс json, где тоже генерируются логи веб сервера.
Для использования можно скачать бинарник в репозиотрии, либо запустить через docker:
Вывели в консоль 10 строк стандартного лога apache, nginx и т.д. Все веб сервера чаще всего используют по умолчанию этот формат логов. Если добавить ключ
Если тестируете логи докера, то удобно запустить генерацию через докер и собирать вывод stdout. В случае какого-то отдельного веб сервера, удобнее писать логи в файл, как это обычно делает веб сервер и потом их забирать. Делается это примерно так:
Сгенерировали лог
Такая вот простая утилитка, которая нужна исключительно для настройки и отладки систем сбора логов. Из-за максимальной простоты её удобно использовать для этой задачи. Не придумаю, где она ещё может быть полезна.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#logs
Это одиночный бинарник на Go, с которым очень просто работать. Он поддерживает несколько форматов:
- Apache common
- Apache combined
- Apache error
- RFC3164
- RFC5424
- Common log fomat
- JSON
По сути тут 2 типовых формата - разные виды логов веб сервера и syslog, плюс json, где тоже генерируются логи веб сервера.
Для использования можно скачать бинарник в репозиотрии, либо запустить через docker:
# docker run -it --rm mingrammer/flog flog -f apache_common -n 10Вывели в консоль 10 строк стандартного лога apache, nginx и т.д. Все веб сервера чаще всего используют по умолчанию этот формат логов. Если добавить ключ
-l, то генерация логов будет идти непрерывно, пока её не остановишь.Если тестируете логи докера, то удобно запустить генерацию через докер и собирать вывод stdout. В случае какого-то отдельного веб сервера, удобнее писать логи в файл, как это обычно делает веб сервер и потом их забирать. Делается это примерно так:
# wget https://github.com/mingrammer/flog/releases/download/v0.4.4/flog_0.4.4_linux_amd64.tar.gz# tar -xzf flog_0.4.4_linux_amd64.tar.gz flog# mv flog /usr/local/bin/# flog -t log -f apache_combined -o /var/log/nginx/access.log -b 10485760/var/log/nginx/access.log is created.Сгенерировали лог
/var/log/nginx/access.log размером в 10 МБ. Теперь этот файл можно отправить в Loki. Конкретно по веб серверу хочу сделать отдельную заметку с примером дашборда.Такая вот простая утилитка, которая нужна исключительно для настройки и отладки систем сбора логов. Из-за максимальной простоты её удобно использовать для этой задачи. Не придумаю, где она ещё может быть полезна.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#logs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍50👎2
Расскажу про один трюк в strace, про который я вроде бы ещё ни разу не писал. В нём ничего особенного нет, но в некоторых ситуациях с ним удобно. Если случайно нигде не видел подобного использования, то самому может и в голову не прийти, что так можно.
У strace и её производных (ltrace, latrace) есть ключ
Strace много всего умеет и обычно используется при дебаге. Я про него часто упоминал в различных заметках в основном в контексте анализа дисковой активности процессов. Например, какие файлы читает процесс, в какие пишет. Вот сразу реальный и полезный пример с Angie/Nginx.
Если у вас навороченная конфигурация, где куча всего подключается из разных директорий, что бывает часто (привет настройкам Nginx в Bitrixenv), то хочется быстро посмотреть, а что реально из какой-то конкретной директории подключается в момент запуска веб сервера. Проще всего это сделать, анализируя активность процесса во время выполнения команды
Можно просто посмотреть все системные вызовы openat, которые отвечают за чтение:
В выводе будет много всего лишнего - библиотеки, логи, системные файлы и т.д. Можно попробовать грепнуть:
У вас, кстати, ничего не получится. Это особенность nginx, про которую просто надо знать. Вывод этой команды улетает не в стандартный поток stdout, а в stderr. Не знаю, почему так, но в Nginx это исторически сложилось. А grep не грепает stderr. Вам нужно будет как минимум сделать вот так:
То есть направить поток stderr в stdout. Тогда он грепнется. Но вывод всё равно будет не очень красивый и наглядный. И тут можно использовать вот такой трюк:
На выходе получили аккуратный обработанный список директорий и файлов в
В данном случае уже не имеет значение, куда и как пишет nginx. За этим не нужно следить. Аналогичная команда с обычным грепом выглядела бы так:
Тут обязательно перенаправление
Подобная обработка вывода через pipe актуальна для анализа каких-то интерактивных программ. Например,
Запускаем и сразу закрываем iftop. В консоли видим список файлов, которые она прочитала. В данном случае команда:
уже не сработает. До grep дело не дойдёт, так как сначала вывалится портянка strace, а потом запустится iftop. В первом случае мы сразу же обрабатываем вывод в strace, выводим его в консоль и потом запускается iftop.
Можно посмотреть, где живёт конфигурация mc, запущенная под рутом:
Просто и наглядно. Удобно смотреть, кто, что читает в момент запуска.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#bash #linux #terminal
У strace и её производных (ltrace, latrace) есть ключ
-o, через который настраивается вывод результата в файл. При этом вместо файла может выступать pipe, а не обычный файл. Покажу сразу на примере. Тут будет видно явное удобство такого подхода.Strace много всего умеет и обычно используется при дебаге. Я про него часто упоминал в различных заметках в основном в контексте анализа дисковой активности процессов. Например, какие файлы читает процесс, в какие пишет. Вот сразу реальный и полезный пример с Angie/Nginx.
Если у вас навороченная конфигурация, где куча всего подключается из разных директорий, что бывает часто (привет настройкам Nginx в Bitrixenv), то хочется быстро посмотреть, а что реально из какой-то конкретной директории подключается в момент запуска веб сервера. Проще всего это сделать, анализируя активность процесса во время выполнения команды
nginx -t. В этот момент конфигурация проверяется на ошибки, соответственно, она должна быть прочитана.Можно просто посмотреть все системные вызовы openat, которые отвечают за чтение:
# strace -zf -e trace=openat nginx -tВ выводе будет много всего лишнего - библиотеки, логи, системные файлы и т.д. Можно попробовать грепнуть:
# strace -zf -e trace=openat nginx -t | grep /etc/nginxУ вас, кстати, ничего не получится. Это особенность nginx, про которую просто надо знать. Вывод этой команды улетает не в стандартный поток stdout, а в stderr. Не знаю, почему так, но в Nginx это исторически сложилось. А grep не грепает stderr. Вам нужно будет как минимум сделать вот так:
# strace -zf -e trace=openat nginx -t 2>&1 | grep /etc/nginxТо есть направить поток stderr в stdout. Тогда он грепнется. Но вывод всё равно будет не очень красивый и наглядный. И тут можно использовать вот такой трюк:
# strace -o "| grep -Eo '/etc/nginx/[^\"]+'" -zf -e trace=openat nginx -t/etc/nginx/nginx.conf/etc/nginx/modules-enabled/etc/nginx/mime.types/etc/nginx/conf.d/etc/nginx/sites-enabled/etc/nginx/sites-enabled/defaultНа выходе получили аккуратный обработанный список директорий и файлов в
/etc/nginx, которые веб сервер прочитал. Смысл того, что мы сделали в том, что через ключ -o вывод отправили не в файл, а в пайп, где он сразу же был обработан тем же grep, который вывел только то, что было между " ", а это как раз путь в файловой системе. Вся остальная информация не нужна и только мешает.В данном случае уже не имеет значение, куда и как пишет nginx. За этим не нужно следить. Аналогичная команда с обычным грепом выглядела бы так:
# strace -zf -e trace=openat nginx -t 2>&1 | grep -Eo '/etc/nginx/[^\"]+'Тут обязательно перенаправление
2>&1. Подобная обработка вывода через pipe актуальна для анализа каких-то интерактивных программ. Например,
iftop:# strace -o "| grep -Eo '/[^\"]+'" -zf -e trace=openat iftopЗапускаем и сразу закрываем iftop. В консоли видим список файлов, которые она прочитала. В данном случае команда:
# strace -zf -e trace=openat iftop | grep -Eo '/[^\"]+'уже не сработает. До grep дело не дойдёт, так как сначала вывалится портянка strace, а потом запустится iftop. В первом случае мы сразу же обрабатываем вывод в strace, выводим его в консоль и потом запускается iftop.
Можно посмотреть, где живёт конфигурация mc, запущенная под рутом:
# strace -o "| grep -Eo '/root[^\"]+'" -zf -e trace=openat mc/root/.config/mc/ini/root/.bash_historyПросто и наглядно. Удобно смотреть, кто, что читает в момент запуска.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#bash #linux #terminal
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍109👎1
Хочу дать небольшие советы, основанные на личном опыте работы в отрасли. Может показаться, что они будут актуальны только новичкам, но это далеко не так. Проблемы обсуждения зарплаты с руководством, а конкретно её увеличения, возникают у многих вне прямой зависимости от возраста и опыта. Есть люди, которые всегда ощущают неловкость в таких разговорах, но её быть не должно. Это рабочий момент.
Во всём мире раскручивается спираль инфляции, в том числе долларовой, про рубль и говорить не приходится. Мы это всё наблюдаем постоянно, да ещё и с ускорением в последние несколько лет. Так что вопрос индексации и увеличения зарплаты стоит остро. Мои советы:
1️⃣ Когда устраиваетесь на новую работу, сразу, либо на собеседовании, либо при успешном приёме, оговорите тему повышения или индексации зарплаты. Как это происходит: автоматически раз в год или нужно самому к кому-то обращаться на пересмотр, какие процедуры на этот счёт. Если обсудите всё в самом начале, потом проще будет вести такие разговоры. Просто сошлётесь на эти договорённости. Это такая база, которую в обязательном порядке надо обсуждать. Она существенно упростит хотя бы в моральном плане задачу, если вам тяжело вывозить такие разговоры.
2️⃣ Постоянно отслеживайте среднюю зарплату по отрасли и следите за набором наиболее востребованных навыков. Подтягивайте их хотя бы минимально, если на работе не используете какой-то популярный стек. Проще всего подписаться на рассылку вакансий в hh, настроив подходящие параметры.
3️⃣ Если видите, что ваша зарплата упала ниже рынка, выходите на разговор с руководством, которое отвечает за индексацию и пересмотр зарплат. Не тяните, не копите обиду, не начинайте искать новое место, если на текущем устраивает всё, кроме зарплаты. Чаще всего нормальному руководителю нет смысла терять хорошего для себя сотрудника (вы же хороший сотрудник?). Спокойно объясните, почему вы считаете, что вам пора поднять зарплату. У вас должны быть чёткие аргументы, а не только желание получать больше денег.
Однажды я устроил одного знакомого в компанию, где работал сам. Ему тут предложили на треть больше, чем там, где он работает. Он прошел все собеседования и его готовы были брать. Когда пришел увольняться к своему работодателю, тот сделал круглые глаза и сразу же увеличил ему зарплату до такого же уровня. Руководитель просто не следил за этим, а работник сам на разговор не выходил. Надо было раньше всё обсудить и получить прибавку на полгода или год раньше. Представляете, сколько он денег потерял из-за своей нерешительности?
Я не гипотетически всё это говорю. Мне эти разговоры и индексации приходится делать в среднем чаще, чем человеку с постоянной одной работой. Сам всё это отслеживаю и индексирую все свои доходы в соответствии с инфляцией. Раньше каждый год делал, сейчас раз в два года, потому что доход по найму не мой основной источник дохода. Лишнюю суету не хочется разводить. Исключение, если у меня занятость на конкретном месте уменьшилась, то есть работы стало меньше и я трачу меньше времени, то пересмотр оплаты не затеваю. Но это лично моя особенность на частичной занятости. Я могу перераспределять свои усилия по разным направлениям.
❗️И ещё важно понимать. Компенсация инфляции - это не повышение зарплаты. Некоторые руководители преподносят индексацию, как повышение и увеличивают требования, нагрузку. Надо спокойно пояснить, если просите именно индексацию, что речь про повышение не идёт. Они сами это понимают, просто используют такую манипуляцию.
Повышение следует просить, если у вас реально выросла нагрузка и навыки. Ну и если рынок позволяет это сделать, а ваша зарплата по какой-то причине стала ниже рынка.
☝️ Только действуйте аккуратно и оценивайте трезво свои шансы и возможности если что найти другую работу. Сейчас с этим могут быть проблемы. Я бы в такой истории не блефовал.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#совет
Во всём мире раскручивается спираль инфляции, в том числе долларовой, про рубль и говорить не приходится. Мы это всё наблюдаем постоянно, да ещё и с ускорением в последние несколько лет. Так что вопрос индексации и увеличения зарплаты стоит остро. Мои советы:
Однажды я устроил одного знакомого в компанию, где работал сам. Ему тут предложили на треть больше, чем там, где он работает. Он прошел все собеседования и его готовы были брать. Когда пришел увольняться к своему работодателю, тот сделал круглые глаза и сразу же увеличил ему зарплату до такого же уровня. Руководитель просто не следил за этим, а работник сам на разговор не выходил. Надо было раньше всё обсудить и получить прибавку на полгода или год раньше. Представляете, сколько он денег потерял из-за своей нерешительности?
Я не гипотетически всё это говорю. Мне эти разговоры и индексации приходится делать в среднем чаще, чем человеку с постоянной одной работой. Сам всё это отслеживаю и индексирую все свои доходы в соответствии с инфляцией. Раньше каждый год делал, сейчас раз в два года, потому что доход по найму не мой основной источник дохода. Лишнюю суету не хочется разводить. Исключение, если у меня занятость на конкретном месте уменьшилась, то есть работы стало меньше и я трачу меньше времени, то пересмотр оплаты не затеваю. Но это лично моя особенность на частичной занятости. Я могу перераспределять свои усилия по разным направлениям.
❗️И ещё важно понимать. Компенсация инфляции - это не повышение зарплаты. Некоторые руководители преподносят индексацию, как повышение и увеличивают требования, нагрузку. Надо спокойно пояснить, если просите именно индексацию, что речь про повышение не идёт. Они сами это понимают, просто используют такую манипуляцию.
Повышение следует просить, если у вас реально выросла нагрузка и навыки. Ну и если рынок позволяет это сделать, а ваша зарплата по какой-то причине стала ниже рынка.
☝️ Только действуйте аккуратно и оценивайте трезво свои шансы и возможности если что найти другую работу. Сейчас с этим могут быть проблемы. Я бы в такой истории не блефовал.
———
ServerAdmin:
#совет
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
ServerAdmin.ru
Авторская информация о системном администрировании.
Информация о рекламе: @srv_admin_reklama_bot
Автор: @zeroxzed
Второй канал: @srv_admin_live
Сайт: serveradmin.ru
Ресурс включён в перечень Роскомнадзора
Информация о рекламе: @srv_admin_reklama_bot
Автор: @zeroxzed
Второй канал: @srv_admin_live
Сайт: serveradmin.ru
Ресурс включён в перечень Роскомнадзора
1👍165👎2
⇨ Автоматические TLS-сертификаты в Angie с модулем ACME
Очень подробно разобрана тема работы встроенного клиента ACME в веб сервере Angie. Он давно уже умеет сам получать и регулярно обновлять бесплатные сертификаты. Делал об этом заметку.
⇨ Chrome DevTools: полный разбор для ускорения сайтов
Очень подробный разбор DevTools в контексте анализа быстродействия и загрузки сайта. Нигде ранее не встречал такой подробной информации на эту тему. Если для вас актуальна история с быстродействием сайтов, то обязательно посмотрите. Автор очень хорошо разбирается в этой теме.
⇨ What’s Actually Running in My Homelab? (50+ Self-Hosted Services)
Очень любопытное видео от популярного блогера на тему того, что он использует. Я давно его смотрю и в целом всё это уже видел. Там по идее стандартный набор: Proxmox, TrueNAS, Traefik, Pi-hole, Prometheus, Uptime Kuma, n8n, NetbootXYZ и т.д. Практически всё из его списка было в то или иное время у меня на канале.
⇨ Cloud-init - развертывание виртуальных машин за секунды. Автоматизация Proxmox
Хорошая инструкция по настройки Cloud-init для автоматизации запуска виртуалок в Proxmox.
⇨ Защищаем приложения на своем сервере - безопасность Homelab и VPS
Хорошее наглядное видео, где автор специально сделал уязвимое приложение и на его примере показывает работу WAF (Web Application Firewall), а конкретно SafeLine.
⇨ Инструменты, которые незаметно обеспечивают работу моей домашней лаборатории Proxmox в 2026 году.
Автор пишет про некоторые программы под Proxmox, которые он использует. Среди них PegaProx и ProxCenter, про которые я вообще впервые услышал. Надо будет попробовать. А помимо них там речь идёт про Netdata, Pulse, ProxMenuX.
⇨ MCP Inspector | Протокол MCP - 02
⇨ Структура протокола MCP | Протокол MCP - 03
Продолжение нового курса от известного преподавателя Созыкина Андрея по теме MCP - протокола для взаимодействия с языковыми моделями (LLM).
⇨ Сервисы заметок для самохостинга. Альтенративы Google Keep
Очередное видео на тему хостинга текстовых заметок на своём сервере. Не знаю, остались ли ещё люди, у которых таких сервисов нет? 😁 На них постоянно выходят обзоры и сравнения. Автор основательно подошёл к теме и даже сравнительную таблицу составил. Если кому интересно, то сам я уже несколько лет использую Joplin.
⇨ Uptime Kuma v2 is HERE // Breaking Changes & Safe Upgrade Checklist
Популярный бесплатный мониторинг Uptime Kuma обновился до новой версии v2, где много изменений по сравнению с первой версией. Надо будет тоже её попробовать.
———
ServerAdmin:
#видео
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Автоматические TLS-сертификаты в Angie с модулем ACME
В этом видео мы изучим возможности получения TLS-сертификатов в Angie без посредников - напрямую у Let's Encrypt с помощью стандартного модуля ACME. Посмотрим, как получить обычный и wildcard-сертификат с использованием HTTP и DNS-проверок.
Этот канал посвящён…
Этот канал посвящён…
👍45👎1