Недавно была публикация про PDF принтер в Windows. В комментариях дали ссылку на шикарный бесплатный сервис BentoPDF для работы с PDF. Причём сервис этот можно развернуть у себя на сервере. Он работает через браузер.
Сначала прохладно отнёсся к нему. Таких штук как-будто бы много. Я ранее уже встречал. Но всё же посмотрел на него повнимательнее, развернул и попробовал. Штука на самом деле полезная, хоть и не всё там заработало, как хотелось бы, но решил таки рассказать о ней. В каких-то ситуациях она может очень сильно облегчить жизнь.
📌 Кратко перечислю особенности BentoPDF:
▪️Как уже сказал, это полностью бесплатный открытый проект одного человека. По сути его хобби.
▪️Написан на чистом JavaScript, вся обработка на стороне клиента, то есть в его браузере, поэтому никаких особых ресурсов сервера ему не надо. По сути это просто статическая html страничка с JavaScript.
▪️Всё это упаковано в небольшой проект на Docker. Запускается просто, ресурсов особых не требует.
▪️Попробовать всю функциональность можно на сайте bentopdf.com.
Мне даже трудно перечислить всё, что может BentoPDF. По сути всё, что можно только придумать для PDF - конвертировать, извлекать картинки, сжимать, объединять, обрезать, переворачивать, шифровать, ставить подписи, добавлять картинки и т.д.
Отдельно отмечу, что можно собрать конвейер обработки из разных действий и пачкой передавать туда файлы. Для тех, кто постоянно и на потоке что-то делает с PDF, это может очень облегчить жизнь.
По сути с помощью BentoPDF можно вообще разгрузить пользовательские компьютеры от каких-то PDF редакторов и делать всё через общий сервис в браузере. Причём работать это будет во всех операционных системах.
К сожалению, там подглючивает конвертация из некоторых форматов в PDF. У меня периодически процесс подвисает и не преобразовывает. Выскакивает ошибка: "An error occurred during conversion. Error: WASM initialization timeout". Я зашёл в Issues на гихабе, посмотреть, нет ли у кого-нибудь таких же ошибок. Вообще никто не жалуется. Понял, что проблема где-то у меня.
Стал разбираться. Выяснил, что преобразование происходит с помощью WASM (WebAssembly). Эта библиотека загружается клиентом из публичных CDN в момент запуска преобразования. И судя по всему, что-то не может скачаться. Если запускать через ВПН, то нормально работает. Я немного поковырялся, выяснил, что ссылки на скрипты с обработкой зашиты в образе Docker в момент сборки. Их можно либо через
Всё остальное вроде нормально работает. Я пробовал добавление и удаление текста, вставку картинок, рукописных подписей и некоторые другие операции. Причём редактор удобный. Мне понравился больше моего нативного на компе.
Сервис в целом понравился. Можно всё настроить, запустить локально и не переживать за обновление, поддержку всей этой функциональности на стороне клиентов.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#docs
Сначала прохладно отнёсся к нему. Таких штук как-будто бы много. Я ранее уже встречал. Но всё же посмотрел на него повнимательнее, развернул и попробовал. Штука на самом деле полезная, хоть и не всё там заработало, как хотелось бы, но решил таки рассказать о ней. В каких-то ситуациях она может очень сильно облегчить жизнь.
▪️Как уже сказал, это полностью бесплатный открытый проект одного человека. По сути его хобби.
▪️Написан на чистом JavaScript, вся обработка на стороне клиента, то есть в его браузере, поэтому никаких особых ресурсов сервера ему не надо. По сути это просто статическая html страничка с JavaScript.
▪️Всё это упаковано в небольшой проект на Docker. Запускается просто, ресурсов особых не требует.
▪️Попробовать всю функциональность можно на сайте bentopdf.com.
Мне даже трудно перечислить всё, что может BentoPDF. По сути всё, что можно только придумать для PDF - конвертировать, извлекать картинки, сжимать, объединять, обрезать, переворачивать, шифровать, ставить подписи, добавлять картинки и т.д.
Отдельно отмечу, что можно собрать конвейер обработки из разных действий и пачкой передавать туда файлы. Для тех, кто постоянно и на потоке что-то делает с PDF, это может очень облегчить жизнь.
По сути с помощью BentoPDF можно вообще разгрузить пользовательские компьютеры от каких-то PDF редакторов и делать всё через общий сервис в браузере. Причём работать это будет во всех операционных системах.
К сожалению, там подглючивает конвертация из некоторых форматов в PDF. У меня периодически процесс подвисает и не преобразовывает. Выскакивает ошибка: "An error occurred during conversion. Error: WASM initialization timeout". Я зашёл в Issues на гихабе, посмотреть, нет ли у кого-нибудь таких же ошибок. Вообще никто не жалуется. Понял, что проблема где-то у меня.
Стал разбираться. Выяснил, что преобразование происходит с помощью WASM (WebAssembly). Эта библиотека загружается клиентом из публичных CDN в момент запуска преобразования. И судя по всему, что-то не может скачаться. Если запускать через ВПН, то нормально работает. Я немного поковырялся, выяснил, что ссылки на скрипты с обработкой зашиты в образе Docker в момент сборки. Их можно либо через
.env переназначить, либо потом в веб интерфейсе в разделе Advanced Settings, в самом низу страницы. Подробно это описано в репозитории. Если у себя будете разворачивать на постоянную работу, то просто скачайте эти скрипты себе локально и пересоберите образ со своими урлами. Всё остальное вроде нормально работает. Я пробовал добавление и удаление текста, вставку картинок, рукописных подписей и некоторые другие операции. Причём редактор удобный. Мне понравился больше моего нативного на компе.
Сервис в целом понравился. Можно всё настроить, запустить локально и не переживать за обновление, поддержку всей этой функциональности на стороне клиентов.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#docs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍174👎3
Сегодня много времени провёл в дороге и размышлял над некоторыми вещами, в том числе об ИИ. Хочу с вами поделиться некоторыми мыслями. Я сейчас пишу новую статью про систему управления инфраструктурой. Пока не буду делать на ней акцент, когда выйдет статья, сами всё прочитаете. Там ИИ интегрирован в систему и работает очень хорошо.
Взаимодействие с инфраструктурой выходит на новый уровень. В мониторинге, к примеру, нет шаблонов. ИИ так хорошо их пишет по месту, что нет смысла в преднастройках, на что раньше уходило много времени, в том числе у меня. Написать шаблон с визуализацией под тот же Zabbix, как минимум день повозиться, пока всё сделаешь и отладишь. А тут просто пишешь, типа напиши мне шаблон такой-то где будет то-то и то-то. И он пишет. И почти всегда с первого раза нормально получается.
Или ещё пример. ИИ связан с агентами на серверах. Пишешь ему словами, что тебе надо что-то настроить. Например, у тебя мониторинг Zabbix и надо сделать бэкап базы данных. Пишешь ему "У меня на этом сервере установлен Zabbix и вообще не настроен бэкап базы данных. Выясни, какая база данных используется и предложи скрипт для бэкапа этой базы данных, который будет храниться локально." И он начинает поэтапно накидывать команды, которые ты одобряешь и выполняешь на сервере. Шаг за шагом он решает задачу. Конкретно этот пример он решил сразу и без ошибок. Сначала выяснил тип СУБД, доступ к ней, свободное место на диске и размер базы данных. И потом итоговый скрипт.
Похожим образом решаются проблемы в триггерах. Да, конечно, за ИИ надо присматривать и просто так автоматом нельзя всё это отдавать ему на откуп. Но, как минимум, налицо ускорение и упрощение всех процессов. Для настройки и поддержки инфраструктуры будет требоваться меньше людей. На фоне нарастающего экономического кризиса неизбежно сокращение персонала в этой сфере.
И тут уже встают серьёзные вопросы - а куда двигаться дальше и чем на жизнь зарабатывать, если тебя сократят? А кого-то в любом случае сократят. Например, я знаю человека, который несколько лет зарабатывал копирайтингом. Его практически полностью заменил ИИ и работы в этой сфере больше нет. Остался может быть каждый десятый, а девять ушли в другую сферу деятельности.
Мне видится тут такая развилка: начать активно изучать ИИ, чтобы оставаться на плаву, или менять сферу деятельности, пока ещё не поздно, на ту, где ИИ тебе точно не грозит. В первом случае светит серьёзная конкуренция, которая по мере развития ИИ будет только нарастать и в итоге велик шанс остаться за бортом. Второй путь более сложен и трудозатратен, и тоже нет никаких гарантий. Начинать с нуля очень тяжело, особенно в зрелом возрасте.
В общем, в интересное время живём. Даже не знаю, чем всё это в итоге закончится, но столько айтишников, сколько есть сейчас, точно не нужно будет. И на первом месте под сокращение, как мне видится, пойдут программисты. Эксплуатация и поддержка вторым эшелоном. Их в целом меньше, и вариативность деятельности там шире, но оптимизации и сокращения тоже будут.
У вас какие мысли на этот счёт? Уже есть те, кто переучиваются на сантехника, электрика или сварщика? Только если не работали с ИИ, то не пишите, что это всё ерунда, пузырь, который скоро лопнет и т.д. Пузырь то может и лопнет, как лопался раньше, но сама технология останется с нами. И будет развиваться дальше.
#мысли
Взаимодействие с инфраструктурой выходит на новый уровень. В мониторинге, к примеру, нет шаблонов. ИИ так хорошо их пишет по месту, что нет смысла в преднастройках, на что раньше уходило много времени, в том числе у меня. Написать шаблон с визуализацией под тот же Zabbix, как минимум день повозиться, пока всё сделаешь и отладишь. А тут просто пишешь, типа напиши мне шаблон такой-то где будет то-то и то-то. И он пишет. И почти всегда с первого раза нормально получается.
Или ещё пример. ИИ связан с агентами на серверах. Пишешь ему словами, что тебе надо что-то настроить. Например, у тебя мониторинг Zabbix и надо сделать бэкап базы данных. Пишешь ему "У меня на этом сервере установлен Zabbix и вообще не настроен бэкап базы данных. Выясни, какая база данных используется и предложи скрипт для бэкапа этой базы данных, который будет храниться локально." И он начинает поэтапно накидывать команды, которые ты одобряешь и выполняешь на сервере. Шаг за шагом он решает задачу. Конкретно этот пример он решил сразу и без ошибок. Сначала выяснил тип СУБД, доступ к ней, свободное место на диске и размер базы данных. И потом итоговый скрипт.
Похожим образом решаются проблемы в триггерах. Да, конечно, за ИИ надо присматривать и просто так автоматом нельзя всё это отдавать ему на откуп. Но, как минимум, налицо ускорение и упрощение всех процессов. Для настройки и поддержки инфраструктуры будет требоваться меньше людей. На фоне нарастающего экономического кризиса неизбежно сокращение персонала в этой сфере.
И тут уже встают серьёзные вопросы - а куда двигаться дальше и чем на жизнь зарабатывать, если тебя сократят? А кого-то в любом случае сократят. Например, я знаю человека, который несколько лет зарабатывал копирайтингом. Его практически полностью заменил ИИ и работы в этой сфере больше нет. Остался может быть каждый десятый, а девять ушли в другую сферу деятельности.
Мне видится тут такая развилка: начать активно изучать ИИ, чтобы оставаться на плаву, или менять сферу деятельности, пока ещё не поздно, на ту, где ИИ тебе точно не грозит. В первом случае светит серьёзная конкуренция, которая по мере развития ИИ будет только нарастать и в итоге велик шанс остаться за бортом. Второй путь более сложен и трудозатратен, и тоже нет никаких гарантий. Начинать с нуля очень тяжело, особенно в зрелом возрасте.
В общем, в интересное время живём. Даже не знаю, чем всё это в итоге закончится, но столько айтишников, сколько есть сейчас, точно не нужно будет. И на первом месте под сокращение, как мне видится, пойдут программисты. Эксплуатация и поддержка вторым эшелоном. Их в целом меньше, и вариативность деятельности там шире, но оптимизации и сокращения тоже будут.
У вас какие мысли на этот счёт? Уже есть те, кто переучиваются на сантехника, электрика или сварщика? Только если не работали с ИИ, то не пишите, что это всё ерунда, пузырь, который скоро лопнет и т.д. Пузырь то может и лопнет, как лопался раньше, но сама технология останется с нами. И будет развиваться дальше.
#мысли
1👍134👎8
Пару недель назад прочитал полезную статью на хабре:
⇨ Бросил tmux и написал свой инструмент
Там автор прошёлся прям по больному. Он рассказал про разные терминальные мультиплексоры с упоминанием проблем, которые напрягают в повседневной работе. Я нигде и ни от кого не видел ранее такую подборку. Думал всегда, что это я один страдаю из-за неудобного скрола мышки в screen или глюками с буферами или интерактивными утилитами в tmux. Там в статье прям по пунктам всякие неудобства перечислены и чем они вызваны с точки зрения архитектуры приложений.
Вроде основную задачу по сохранении сессии SSH при разрыве соединения решают и screen, и tmux, но пользоваться ими неудобно. Я последние года стал пользоваться повсеместно tmux вместо screen, но всё равно из-за разных глюков делал это редко и только для долгоиграющих процедур, типа обновления, которые крайне нежелательно прерывать. Во всех остальных случаях я отключал мультиплексор и работал напрямую в консоли. А разделение сессий на одном экране реализовывал с помощью менеджера соединений, а не мультиплексора.
В итоге автор написал небольшую утилиту atch на С, которая работает идеально, если вам нужно просто сохранять сессию при разрыве соединения и потом обратно в неё подключаться. Нет никакой эмуляции терминала, как в screen или tmux. Atch ничего не парсит, не перекодирует, поэтому нет проблем со скролом мышки, пропаданием истории терминала, глюками с OSC-последовательностями.
Работает atch так, как надо, без каких-либо дополнительных настроек. Я попробовал, очень понравилось. В репозитории есть собранный бинарник, его достаточно скачать:
Утилита совсем новая. В репозиториях дистрибутивов её, разумеется, пока нет. Очень надеюсь, что она там со временем появится, потому что она удобна и проста, решает ровно одну задачу и делает это хорошо. Всё в духе философии UNIX.
Дальше создаём сессию work:
И работаем в ней. Если соединение разорвалось, то подключаемся заново по SSH и заходим в сессию:
Видим тут же в терминале всю историю терминала, которая была до отключения!!! Она пишется в
Смотрим список сессий:
Всё интуитивно и просто. Запоминать команды не нужно. Этого достаточно, чтобы пользоваться, для моих задач. Я после перехода из screen в tmux постоянно вспоминаю, как посмотреть список сессий.
Можно запустить любой процесс через atch и потом посмотреть консольный вывод из любого места, подключившись в созданную сессию:
И история автоматом сохранится. Автор также приводит пример с AI агентами, которые работают в сессии с atch, а потом можно посмотреть, что они там делали. В принципе, записать действия в консоли можно очень разными способами (подборка разных решений этой задачи). Этот возможно и не самый удобный для этой задачи, но максимально простой.
Если много работаете в консоли, используете screen или tmux, рекомендую попробовать atch. Вам должно понравиться. Давно мне не попадались утилиты, которые бы так порадовали своей простой и удобством. Казалось бы, уже всё давно придумано, но, как видим, ещё нет.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#linux #terminal
⇨ Бросил tmux и написал свой инструмент
Там автор прошёлся прям по больному. Он рассказал про разные терминальные мультиплексоры с упоминанием проблем, которые напрягают в повседневной работе. Я нигде и ни от кого не видел ранее такую подборку. Думал всегда, что это я один страдаю из-за неудобного скрола мышки в screen или глюками с буферами или интерактивными утилитами в tmux. Там в статье прям по пунктам всякие неудобства перечислены и чем они вызваны с точки зрения архитектуры приложений.
Вроде основную задачу по сохранении сессии SSH при разрыве соединения решают и screen, и tmux, но пользоваться ими неудобно. Я последние года стал пользоваться повсеместно tmux вместо screen, но всё равно из-за разных глюков делал это редко и только для долгоиграющих процедур, типа обновления, которые крайне нежелательно прерывать. Во всех остальных случаях я отключал мультиплексор и работал напрямую в консоли. А разделение сессий на одном экране реализовывал с помощью менеджера соединений, а не мультиплексора.
В итоге автор написал небольшую утилиту atch на С, которая работает идеально, если вам нужно просто сохранять сессию при разрыве соединения и потом обратно в неё подключаться. Нет никакой эмуляции терминала, как в screen или tmux. Atch ничего не парсит, не перекодирует, поэтому нет проблем со скролом мышки, пропаданием истории терминала, глюками с OSC-последовательностями.
Работает atch так, как надо, без каких-либо дополнительных настроек. Я попробовал, очень понравилось. В репозитории есть собранный бинарник, его достаточно скачать:
# curl -Lo atch.tgz https://github.com/mobydeck/atch/releases/latest/download/atch-linux-amd64.tgz# tar -xzf atch-linux-amd64.tgz atch# mv atch /usr/local/bin/Утилита совсем новая. В репозиториях дистрибутивов её, разумеется, пока нет. Очень надеюсь, что она там со временем появится, потому что она удобна и проста, решает ровно одну задачу и делает это хорошо. Всё в духе философии UNIX.
Дальше создаём сессию work:
# atch workИ работаем в ней. Если соединение разорвалось, то подключаемся заново по SSH и заходим в сессию:
# atch workВидим тут же в терминале всю историю терминала, которая была до отключения!!! Она пишется в
~/.cache/atch/ сразу же в момент вывода. И потом воспроизводится при повторном подключении к сессии. Ничего не теряется. Ты попадаешь в тот же вывод терминала, откуда тебя отключило. Это очень удобно.Смотрим список сессий:
# atch listВсё интуитивно и просто. Запоминать команды не нужно. Этого достаточно, чтобы пользоваться, для моих задач. Я после перехода из screen в tmux постоянно вспоминаю, как посмотреть список сессий.
Можно запустить любой процесс через atch и потом посмотреть консольный вывод из любого места, подключившись в созданную сессию:
# atch start deploy ./deploy.shИ история автоматом сохранится. Автор также приводит пример с AI агентами, которые работают в сессии с atch, а потом можно посмотреть, что они там делали. В принципе, записать действия в консоли можно очень разными способами (подборка разных решений этой задачи). Этот возможно и не самый удобный для этой задачи, но максимально простой.
Если много работаете в консоли, используете screen или tmux, рекомендую попробовать atch. Вам должно понравиться. Давно мне не попадались утилиты, которые бы так порадовали своей простой и удобством. Казалось бы, уже всё давно придумано, но, как видим, ещё нет.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#linux #terminal
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Бросил tmux и написал свой инструмент
Десятилетия терминальных мультиплексеров, одна хроническая боль и маленькая тулза на C, которая наконец всё починила. Дисклеймер. Это адаптация статьи, которую я написал на английском для medium.com ....
2👍194👎2
В Microsoft работают настоящие специалисты по возвращению в систему одного и того же бага. Сколько лет уже наблюдается одна и та же проблема с раскладкой, а точнее с её переключением. Ещё 2 года назад делал статью, когда меня это конкретно достало:
⇨ Почему раскладка в Windows переключается не с первого раза? Решение.
На тот момент я вышел из ситуации сторонними программами. Отключил системное переключение и менял раскладку программой. Но когда баг исправили, перестал ими пользоваться, потому что привык переключать раскладку по Ctrl+Shift.
И вот спустя почти 2 года этот баг опять вернулся. Я сразу заметил, что переключаться стало опять не с первого раза. Тут же пошли комментарии к статье на эту тему, и к заметке в ВК. Она, судя по всему, тоже как-то в поиске выскакивает на эту тему.
Нормального решения у меня нет. Так и переключаю время от времени со второго или третьего раза. Если кто-то знает, как решить эту проблему в винде, поделитесь. Напрягает, а привыкать к другим комбинациям не хочу.
Не понимаю, как они умудряются постоянно воспроизводить этот баг? В прошлый раз он был вызван появляющимся окошком с анимацией переключения. Именно эта анимация давала тормоза. Анимацию убрали, баг пропал, переключение работало нормально. Теперь опять что-то случилось. Как показывает практика, решения от Microsoft можно ждать месяцами или годами.
#windows
⇨ Почему раскладка в Windows переключается не с первого раза? Решение.
На тот момент я вышел из ситуации сторонними программами. Отключил системное переключение и менял раскладку программой. Но когда баг исправили, перестал ими пользоваться, потому что привык переключать раскладку по Ctrl+Shift.
И вот спустя почти 2 года этот баг опять вернулся. Я сразу заметил, что переключаться стало опять не с первого раза. Тут же пошли комментарии к статье на эту тему, и к заметке в ВК. Она, судя по всему, тоже как-то в поиске выскакивает на эту тему.
Нормального решения у меня нет. Так и переключаю время от времени со второго или третьего раза. Если кто-то знает, как решить эту проблему в винде, поделитесь. Напрягает, а привыкать к другим комбинациям не хочу.
Не понимаю, как они умудряются постоянно воспроизводить этот баг? В прошлый раз он был вызван появляющимся окошком с анимацией переключения. Именно эта анимация давала тормоза. Анимацию убрали, баг пропал, переключение работало нормально. Теперь опять что-то случилось. Как показывает практика, решения от Microsoft можно ждать месяцами или годами.
#windows
👍73👎1
Я не раз между делом в заметках упоминал, что обычно не ставлю в автоматическую загрузку виртуальные машины на гипервизорах. Недавно один подписчик просил меня пояснить, на чём основана эта рекомендация и как он может убедить своё руководство в том, что лучше сделать так.
Убеждать никого не хочу, а просто поделюсь некоторыми реальными историями, которые были в моей практике. Сразу поясню, что всё это относится к небольшим инфраструктурам, где с каждым отдельным сервером работают руками. Речь не про кластеры с HA сервисами. Хотя там бы я тоже действовал так же.
1️⃣ У меня была ситуация была, когда сглючила память в сервере и он постоянно перезагружался. Сервер Dell почему-то не отключил её сам, пришлось идти в ЦОДе к серверу и вынимать физически. На сервере работал гипервизор с кучей виртуальных машин. Если бы они автоматом стартовали, то там 100% что-нибудь бы умерло. Он аварийно перезагружался каждые 5-10 минут и сделал это раз 10, пока сотрудник не добрался до ЦОД и не поменял память.
2️⃣ Ещё один пример. ЦОД обесточили, была серьезная авария с электропитанием. Как это обычно бывает, резервное оборудование под реальной нагрузкой никто не проверял, так как подобные отключения бывают крайне редко, а проверять хлопотно. В итоге электричество то появлялось, то пропадало, падал генератор под нагрузкой. Оборудование несколько раз включилось и выключилось.
3️⃣ В промзонах часто отключают электричество. Иногда надолго. Его могут вернуть, а потом опять отключить через 1-2 минуты. Сталкивался с этим десятки раз, так как много работал и работаю с реальным производством. Для меня это вообще обыденность. Стартующие сервера на пустых батареях аварийно падают. Это всё приводит к проблемам. У меня, кстати, и дома, такая же история бывала не раз.
В таких случаях считаю, что лучше перестраховаться и вручную всё запустить в случае аварии, нежели пускать процессы на самотёк. Во всех описанных случаях автозапуск виртуалок никак не помог бы восстановить нормальную работу. А вот организовать дополнительные проблемы - запросто. Лучше 5-10 минут подождать и всё запустить по своей команде, нежели отдать на откуп автоматическому запуску. Разумеется, если есть что-то, что должно сразу стартануть, типа шлюза, то его хочешь, не хочешь, а в автозагрузку придётся поставить. А всё остальное уже потом, когда можно будет удалённо отправить команду на запуск.
#совет
Убеждать никого не хочу, а просто поделюсь некоторыми реальными историями, которые были в моей практике. Сразу поясню, что всё это относится к небольшим инфраструктурам, где с каждым отдельным сервером работают руками. Речь не про кластеры с HA сервисами. Хотя там бы я тоже действовал так же.
В таких случаях считаю, что лучше перестраховаться и вручную всё запустить в случае аварии, нежели пускать процессы на самотёк. Во всех описанных случаях автозапуск виртуалок никак не помог бы восстановить нормальную работу. А вот организовать дополнительные проблемы - запросто. Лучше 5-10 минут подождать и всё запустить по своей команде, нежели отдать на откуп автоматическому запуску. Разумеется, если есть что-то, что должно сразу стартануть, типа шлюза, то его хочешь, не хочешь, а в автозагрузку придётся поставить. А всё остальное уже потом, когда можно будет удалённо отправить команду на запуск.
#совет
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍109👎21
Домучиваю статью про Loki. Никак не соберусь и не доделаю её полностью. В процессе настройки хочется наполнить систему реальными логами в нормальном объёме, чтобы всё проверить. Я использовал для этого простую утилиту с гитхаба для генерации логов типовых форматов - flog.
Это одиночный бинарник на Go, с которым очень просто работать. Он поддерживает несколько форматов:
- Apache common
- Apache combined
- Apache error
- RFC3164
- RFC5424
- Common log fomat
- JSON
По сути тут 2 типовых формата - разные виды логов веб сервера и syslog, плюс json, где тоже генерируются логи веб сервера.
Для использования можно скачать бинарник в репозиотрии, либо запустить через docker:
Вывели в консоль 10 строк стандартного лога apache, nginx и т.д. Все веб сервера чаще всего используют по умолчанию этот формат логов. Если добавить ключ
Если тестируете логи докера, то удобно запустить генерацию через докер и собирать вывод stdout. В случае какого-то отдельного веб сервера, удобнее писать логи в файл, как это обычно делает веб сервер и потом их забирать. Делается это примерно так:
Сгенерировали лог
Такая вот простая утилитка, которая нужна исключительно для настройки и отладки систем сбора логов. Из-за максимальной простоты её удобно использовать для этой задачи. Не придумаю, где она ещё может быть полезна.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#logs
Это одиночный бинарник на Go, с которым очень просто работать. Он поддерживает несколько форматов:
- Apache common
- Apache combined
- Apache error
- RFC3164
- RFC5424
- Common log fomat
- JSON
По сути тут 2 типовых формата - разные виды логов веб сервера и syslog, плюс json, где тоже генерируются логи веб сервера.
Для использования можно скачать бинарник в репозиотрии, либо запустить через docker:
# docker run -it --rm mingrammer/flog flog -f apache_common -n 10Вывели в консоль 10 строк стандартного лога apache, nginx и т.д. Все веб сервера чаще всего используют по умолчанию этот формат логов. Если добавить ключ
-l, то генерация логов будет идти непрерывно, пока её не остановишь.Если тестируете логи докера, то удобно запустить генерацию через докер и собирать вывод stdout. В случае какого-то отдельного веб сервера, удобнее писать логи в файл, как это обычно делает веб сервер и потом их забирать. Делается это примерно так:
# wget https://github.com/mingrammer/flog/releases/download/v0.4.4/flog_0.4.4_linux_amd64.tar.gz# tar -xzf flog_0.4.4_linux_amd64.tar.gz flog# mv flog /usr/local/bin/# flog -t log -f apache_combined -o /var/log/nginx/access.log -b 10485760/var/log/nginx/access.log is created.Сгенерировали лог
/var/log/nginx/access.log размером в 10 МБ. Теперь этот файл можно отправить в Loki. Конкретно по веб серверу хочу сделать отдельную заметку с примером дашборда.Такая вот простая утилитка, которая нужна исключительно для настройки и отладки систем сбора логов. Из-за максимальной простоты её удобно использовать для этой задачи. Не придумаю, где она ещё может быть полезна.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#logs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍50👎2
Расскажу про один трюк в strace, про который я вроде бы ещё ни разу не писал. В нём ничего особенного нет, но в некоторых ситуациях с ним удобно. Если случайно нигде не видел подобного использования, то самому может и в голову не прийти, что так можно.
У strace и её производных (ltrace, latrace) есть ключ
Strace много всего умеет и обычно используется при дебаге. Я про него часто упоминал в различных заметках в основном в контексте анализа дисковой активности процессов. Например, какие файлы читает процесс, в какие пишет. Вот сразу реальный и полезный пример с Angie/Nginx.
Если у вас навороченная конфигурация, где куча всего подключается из разных директорий, что бывает часто (привет настройкам Nginx в Bitrixenv), то хочется быстро посмотреть, а что реально из какой-то конкретной директории подключается в момент запуска веб сервера. Проще всего это сделать, анализируя активность процесса во время выполнения команды
Можно просто посмотреть все системные вызовы openat, которые отвечают за чтение:
В выводе будет много всего лишнего - библиотеки, логи, системные файлы и т.д. Можно попробовать грепнуть:
У вас, кстати, ничего не получится. Это особенность nginx, про которую просто надо знать. Вывод этой команды улетает не в стандартный поток stdout, а в stderr. Не знаю, почему так, но в Nginx это исторически сложилось. А grep не грепает stderr. Вам нужно будет как минимум сделать вот так:
То есть направить поток stderr в stdout. Тогда он грепнется. Но вывод всё равно будет не очень красивый и наглядный. И тут можно использовать вот такой трюк:
На выходе получили аккуратный обработанный список директорий и файлов в
В данном случае уже не имеет значение, куда и как пишет nginx. За этим не нужно следить. Аналогичная команда с обычным грепом выглядела бы так:
Тут обязательно перенаправление
Подобная обработка вывода через pipe актуальна для анализа каких-то интерактивных программ. Например,
Запускаем и сразу закрываем iftop. В консоли видим список файлов, которые она прочитала. В данном случае команда:
уже не сработает. До grep дело не дойдёт, так как сначала вывалится портянка strace, а потом запустится iftop. В первом случае мы сразу же обрабатываем вывод в strace, выводим его в консоль и потом запускается iftop.
Можно посмотреть, где живёт конфигурация mc, запущенная под рутом:
Просто и наглядно. Удобно смотреть, кто, что читает в момент запуска.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#bash #linux #terminal
У strace и её производных (ltrace, latrace) есть ключ
-o, через который настраивается вывод результата в файл. При этом вместо файла может выступать pipe, а не обычный файл. Покажу сразу на примере. Тут будет видно явное удобство такого подхода.Strace много всего умеет и обычно используется при дебаге. Я про него часто упоминал в различных заметках в основном в контексте анализа дисковой активности процессов. Например, какие файлы читает процесс, в какие пишет. Вот сразу реальный и полезный пример с Angie/Nginx.
Если у вас навороченная конфигурация, где куча всего подключается из разных директорий, что бывает часто (привет настройкам Nginx в Bitrixenv), то хочется быстро посмотреть, а что реально из какой-то конкретной директории подключается в момент запуска веб сервера. Проще всего это сделать, анализируя активность процесса во время выполнения команды
nginx -t. В этот момент конфигурация проверяется на ошибки, соответственно, она должна быть прочитана.Можно просто посмотреть все системные вызовы openat, которые отвечают за чтение:
# strace -zf -e trace=openat nginx -tВ выводе будет много всего лишнего - библиотеки, логи, системные файлы и т.д. Можно попробовать грепнуть:
# strace -zf -e trace=openat nginx -t | grep /etc/nginxУ вас, кстати, ничего не получится. Это особенность nginx, про которую просто надо знать. Вывод этой команды улетает не в стандартный поток stdout, а в stderr. Не знаю, почему так, но в Nginx это исторически сложилось. А grep не грепает stderr. Вам нужно будет как минимум сделать вот так:
# strace -zf -e trace=openat nginx -t 2>&1 | grep /etc/nginxТо есть направить поток stderr в stdout. Тогда он грепнется. Но вывод всё равно будет не очень красивый и наглядный. И тут можно использовать вот такой трюк:
# strace -o "| grep -Eo '/etc/nginx/[^\"]+'" -zf -e trace=openat nginx -t/etc/nginx/nginx.conf/etc/nginx/modules-enabled/etc/nginx/mime.types/etc/nginx/conf.d/etc/nginx/sites-enabled/etc/nginx/sites-enabled/defaultНа выходе получили аккуратный обработанный список директорий и файлов в
/etc/nginx, которые веб сервер прочитал. Смысл того, что мы сделали в том, что через ключ -o вывод отправили не в файл, а в пайп, где он сразу же был обработан тем же grep, который вывел только то, что было между " ", а это как раз путь в файловой системе. Вся остальная информация не нужна и только мешает.В данном случае уже не имеет значение, куда и как пишет nginx. За этим не нужно следить. Аналогичная команда с обычным грепом выглядела бы так:
# strace -zf -e trace=openat nginx -t 2>&1 | grep -Eo '/etc/nginx/[^\"]+'Тут обязательно перенаправление
2>&1. Подобная обработка вывода через pipe актуальна для анализа каких-то интерактивных программ. Например,
iftop:# strace -o "| grep -Eo '/[^\"]+'" -zf -e trace=openat iftopЗапускаем и сразу закрываем iftop. В консоли видим список файлов, которые она прочитала. В данном случае команда:
# strace -zf -e trace=openat iftop | grep -Eo '/[^\"]+'уже не сработает. До grep дело не дойдёт, так как сначала вывалится портянка strace, а потом запустится iftop. В первом случае мы сразу же обрабатываем вывод в strace, выводим его в консоль и потом запускается iftop.
Можно посмотреть, где живёт конфигурация mc, запущенная под рутом:
# strace -o "| grep -Eo '/root[^\"]+'" -zf -e trace=openat mc/root/.config/mc/ini/root/.bash_historyПросто и наглядно. Удобно смотреть, кто, что читает в момент запуска.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#bash #linux #terminal
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍109👎1
Хочу дать небольшие советы, основанные на личном опыте работы в отрасли. Может показаться, что они будут актуальны только новичкам, но это далеко не так. Проблемы обсуждения зарплаты с руководством, а конкретно её увеличения, возникают у многих вне прямой зависимости от возраста и опыта. Есть люди, которые всегда ощущают неловкость в таких разговорах, но её быть не должно. Это рабочий момент.
Во всём мире раскручивается спираль инфляции, в том числе долларовой, про рубль и говорить не приходится. Мы это всё наблюдаем постоянно, да ещё и с ускорением в последние несколько лет. Так что вопрос индексации и увеличения зарплаты стоит остро. Мои советы:
1️⃣ Когда устраиваетесь на новую работу, сразу, либо на собеседовании, либо при успешном приёме, оговорите тему повышения или индексации зарплаты. Как это происходит: автоматически раз в год или нужно самому к кому-то обращаться на пересмотр, какие процедуры на этот счёт. Если обсудите всё в самом начале, потом проще будет вести такие разговоры. Просто сошлётесь на эти договорённости. Это такая база, которую в обязательном порядке надо обсуждать. Она существенно упростит хотя бы в моральном плане задачу, если вам тяжело вывозить такие разговоры.
2️⃣ Постоянно отслеживайте среднюю зарплату по отрасли и следите за набором наиболее востребованных навыков. Подтягивайте их хотя бы минимально, если на работе не используете какой-то популярный стек. Проще всего подписаться на рассылку вакансий в hh, настроив подходящие параметры.
3️⃣ Если видите, что ваша зарплата упала ниже рынка, выходите на разговор с руководством, которое отвечает за индексацию и пересмотр зарплат. Не тяните, не копите обиду, не начинайте искать новое место, если на текущем устраивает всё, кроме зарплаты. Чаще всего нормальному руководителю нет смысла терять хорошего для себя сотрудника (вы же хороший сотрудник?). Спокойно объясните, почему вы считаете, что вам пора поднять зарплату. У вас должны быть чёткие аргументы, а не только желание получать больше денег.
Однажды я устроил одного знакомого в компанию, где работал сам. Ему тут предложили на треть больше, чем там, где он работает. Он прошел все собеседования и его готовы были брать. Когда пришел увольняться к своему работодателю, тот сделал круглые глаза и сразу же увеличил ему зарплату до такого же уровня. Руководитель просто не следил за этим, а работник сам на разговор не выходил. Надо было раньше всё обсудить и получить прибавку на полгода или год раньше. Представляете, сколько он денег потерял из-за своей нерешительности?
Я не гипотетически всё это говорю. Мне эти разговоры и индексации приходится делать в среднем чаще, чем человеку с постоянной одной работой. Сам всё это отслеживаю и индексирую все свои доходы в соответствии с инфляцией. Раньше каждый год делал, сейчас раз в два года, потому что доход по найму не мой основной источник дохода. Лишнюю суету не хочется разводить. Исключение, если у меня занятость на конкретном месте уменьшилась, то есть работы стало меньше и я трачу меньше времени, то пересмотр оплаты не затеваю. Но это лично моя особенность на частичной занятости. Я могу перераспределять свои усилия по разным направлениям.
❗️И ещё важно понимать. Компенсация инфляции - это не повышение зарплаты. Некоторые руководители преподносят индексацию, как повышение и увеличивают требования, нагрузку. Надо спокойно пояснить, если просите именно индексацию, что речь про повышение не идёт. Они сами это понимают, просто используют такую манипуляцию.
Повышение следует просить, если у вас реально выросла нагрузка и навыки. Ну и если рынок позволяет это сделать, а ваша зарплата по какой-то причине стала ниже рынка.
☝️ Только действуйте аккуратно и оценивайте трезво свои шансы и возможности если что найти другую работу. Сейчас с этим могут быть проблемы. Я бы в такой истории не блефовал.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#совет
Во всём мире раскручивается спираль инфляции, в том числе долларовой, про рубль и говорить не приходится. Мы это всё наблюдаем постоянно, да ещё и с ускорением в последние несколько лет. Так что вопрос индексации и увеличения зарплаты стоит остро. Мои советы:
Однажды я устроил одного знакомого в компанию, где работал сам. Ему тут предложили на треть больше, чем там, где он работает. Он прошел все собеседования и его готовы были брать. Когда пришел увольняться к своему работодателю, тот сделал круглые глаза и сразу же увеличил ему зарплату до такого же уровня. Руководитель просто не следил за этим, а работник сам на разговор не выходил. Надо было раньше всё обсудить и получить прибавку на полгода или год раньше. Представляете, сколько он денег потерял из-за своей нерешительности?
Я не гипотетически всё это говорю. Мне эти разговоры и индексации приходится делать в среднем чаще, чем человеку с постоянной одной работой. Сам всё это отслеживаю и индексирую все свои доходы в соответствии с инфляцией. Раньше каждый год делал, сейчас раз в два года, потому что доход по найму не мой основной источник дохода. Лишнюю суету не хочется разводить. Исключение, если у меня занятость на конкретном месте уменьшилась, то есть работы стало меньше и я трачу меньше времени, то пересмотр оплаты не затеваю. Но это лично моя особенность на частичной занятости. Я могу перераспределять свои усилия по разным направлениям.
❗️И ещё важно понимать. Компенсация инфляции - это не повышение зарплаты. Некоторые руководители преподносят индексацию, как повышение и увеличивают требования, нагрузку. Надо спокойно пояснить, если просите именно индексацию, что речь про повышение не идёт. Они сами это понимают, просто используют такую манипуляцию.
Повышение следует просить, если у вас реально выросла нагрузка и навыки. Ну и если рынок позволяет это сделать, а ваша зарплата по какой-то причине стала ниже рынка.
☝️ Только действуйте аккуратно и оценивайте трезво свои шансы и возможности если что найти другую работу. Сейчас с этим могут быть проблемы. Я бы в такой истории не блефовал.
———
ServerAdmin:
#совет
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
ServerAdmin.ru
Авторская информация о системном администрировании.
Информация о рекламе: @srv_admin_reklama_bot
Автор: @zeroxzed
Второй канал: @srv_admin_live
Сайт: serveradmin.ru
Ресурс включён в перечень Роскомнадзора
Информация о рекламе: @srv_admin_reklama_bot
Автор: @zeroxzed
Второй канал: @srv_admin_live
Сайт: serveradmin.ru
Ресурс включён в перечень Роскомнадзора
1👍165👎2
⇨ Автоматические TLS-сертификаты в Angie с модулем ACME
Очень подробно разобрана тема работы встроенного клиента ACME в веб сервере Angie. Он давно уже умеет сам получать и регулярно обновлять бесплатные сертификаты. Делал об этом заметку.
⇨ Chrome DevTools: полный разбор для ускорения сайтов
Очень подробный разбор DevTools в контексте анализа быстродействия и загрузки сайта. Нигде ранее не встречал такой подробной информации на эту тему. Если для вас актуальна история с быстродействием сайтов, то обязательно посмотрите. Автор очень хорошо разбирается в этой теме.
⇨ What’s Actually Running in My Homelab? (50+ Self-Hosted Services)
Очень любопытное видео от популярного блогера на тему того, что он использует. Я давно его смотрю и в целом всё это уже видел. Там по идее стандартный набор: Proxmox, TrueNAS, Traefik, Pi-hole, Prometheus, Uptime Kuma, n8n, NetbootXYZ и т.д. Практически всё из его списка было в то или иное время у меня на канале.
⇨ Cloud-init - развертывание виртуальных машин за секунды. Автоматизация Proxmox
Хорошая инструкция по настройки Cloud-init для автоматизации запуска виртуалок в Proxmox.
⇨ Защищаем приложения на своем сервере - безопасность Homelab и VPS
Хорошее наглядное видео, где автор специально сделал уязвимое приложение и на его примере показывает работу WAF (Web Application Firewall), а конкретно SafeLine.
⇨ Инструменты, которые незаметно обеспечивают работу моей домашней лаборатории Proxmox в 2026 году.
Автор пишет про некоторые программы под Proxmox, которые он использует. Среди них PegaProx и ProxCenter, про которые я вообще впервые услышал. Надо будет попробовать. А помимо них там речь идёт про Netdata, Pulse, ProxMenuX.
⇨ MCP Inspector | Протокол MCP - 02
⇨ Структура протокола MCP | Протокол MCP - 03
Продолжение нового курса от известного преподавателя Созыкина Андрея по теме MCP - протокола для взаимодействия с языковыми моделями (LLM).
⇨ Сервисы заметок для самохостинга. Альтенративы Google Keep
Очередное видео на тему хостинга текстовых заметок на своём сервере. Не знаю, остались ли ещё люди, у которых таких сервисов нет? 😁 На них постоянно выходят обзоры и сравнения. Автор основательно подошёл к теме и даже сравнительную таблицу составил. Если кому интересно, то сам я уже несколько лет использую Joplin.
⇨ Uptime Kuma v2 is HERE // Breaking Changes & Safe Upgrade Checklist
Популярный бесплатный мониторинг Uptime Kuma обновился до новой версии v2, где много изменений по сравнению с первой версией. Надо будет тоже её попробовать.
———
ServerAdmin:
#видео
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Автоматические TLS-сертификаты в Angie с модулем ACME
В этом видео мы изучим возможности получения TLS-сертификатов в Angie без посредников - напрямую у Let's Encrypt с помощью стандартного модуля ACME. Посмотрим, как получить обычный и wildcard-сертификат с использованием HTTP и DNS-проверок.
Этот канал посвящён…
Этот канал посвящён…
👍45👎1
Тихой сапой платформа виртуализации Proxmox захватила весь сегмент малого и среднего бизнеса и потихоньку ползёт дальше. Уже есть сравнения экосистемы PVE с VMware. Разумеется, не в пользу PVE в плане функциональности, но раньше и этого не было. Продукты были несопоставимы. Я в последнее время прочитал пару интересных статей на эту тему:
⇨ 25 ЛЕТ НА ИГЛЕ VMWARE: Почему ломка длится дольше, чем вы думаете
⇨ Миграция с VMware в 2026. Архитектурное сравнение альтернатив
Кому интересна эта тема - рекомендую. Там качественные разборы функциональности различных систем виртуализации. Но заметку не об этом хотел написать. Это так, к слову пришлось.
Блогеры тоже все поголовно в домашних лабах перешли на Proxmox. Как, собственно, и я. Если раньше у меня наравне трудился Hyper-V, то буквально на днях с покупкой нового компа (цены 😭) принял решение убрать тестовый сервер с Hyper-V и пересобрать на PVE. Давно уже им не пользовался и не запускал там виртуалки. Не вижу у него вообще никаких плюсов в сравнении с Proxmox.
Возвращаясь к блогерам. В одном из видео увидел продукт PegaProx для управлением кластерами PVE. Причём он ещё и XCP-NG поддерживает - единственную бесплатную альтернативу платформы виртуализации, сопоставимую с PVE. По описанию функциональности там всё очень красиво. Намного больше возможностей, чем в Proxmox Datacenter Manager.
PegaProx поддерживает:
▪️Межкластерную миграцию VM
▪️Полное управление виртуальными машинами (создание, удаление и т.д.)
▪️Управление хостами виртуализации (сети, хранилища, графики и т.д.)
▪️Автоматическую балансировка нагрузки с переездом виртуалок между кластерами. То есть своё HA поверх разных кластеров.
▪️Балансировку загрузкой хранилищ
▪️LDAP & OIDC аутентификацию
▪️Live миграцию из ESXi
▪️Управление кластером CEPH
▪️Встроенный сканер уязвимостей
▪️Планировщик различных действий с виртуальными машинами (запуск, остановка, выполнение скриптов и т.д.)
Это самое основное. Список возможностей там большой. Выглядит внушительно. Как на практике работает - неизвестно. Продукт новый и всё ещё в бете. Чтобы попробовать, можно воспользоваться готовым скриптом, docker compose, или установить в Debian через установку пакетов из репозитория разработчиков:
Я развернул в виртуалке, подключил свои тестовые PVE и PBS. Интерфейс управления удобный. Более наглядный, чем стандартный. Конечно, для простого управления всё это не имеет смысла. Основное тут, что может быть полезным - автоматическая миграция и управление кластерами. Для этого есть разные настройки, в том числе объединение VM и CT в группы, чтобы они переезжали только все вместе. Есть отдельная кнопка для запуска обслуживания ноды. После запуска все VM переезжают на другие сервера и можно производить обновление или другое обслуживание. Как всё это работает на практике - надо тестировать.
Из того, что может пригодиться помимо миграции - планировщик действий с виртуальными машинами и контейнерами. Для них можно создавать задания с расписанием, а в качестве действий использовать запуск, остановку, завершение работы, перезагрузку, создание снепшотов. Помимо этого там есть уведомления о превышении системных ресурсов кластера, ноды или отдельной VM.
В целом, проект интересный и функциональный. По ощущениям, задел сделали большой и будут развивать дальше для вывода на рынок коммерческой версии. Сейчас это только beta, так что в прод ставить не стоит. А для себя или тестовых кластеров вполне можно использовать, если понравится.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#proxmox
⇨ 25 ЛЕТ НА ИГЛЕ VMWARE: Почему ломка длится дольше, чем вы думаете
⇨ Миграция с VMware в 2026. Архитектурное сравнение альтернатив
Кому интересна эта тема - рекомендую. Там качественные разборы функциональности различных систем виртуализации. Но заметку не об этом хотел написать. Это так, к слову пришлось.
Блогеры тоже все поголовно в домашних лабах перешли на Proxmox. Как, собственно, и я. Если раньше у меня наравне трудился Hyper-V, то буквально на днях с покупкой нового компа (цены 😭) принял решение убрать тестовый сервер с Hyper-V и пересобрать на PVE. Давно уже им не пользовался и не запускал там виртуалки. Не вижу у него вообще никаких плюсов в сравнении с Proxmox.
Возвращаясь к блогерам. В одном из видео увидел продукт PegaProx для управлением кластерами PVE. Причём он ещё и XCP-NG поддерживает - единственную бесплатную альтернативу платформы виртуализации, сопоставимую с PVE. По описанию функциональности там всё очень красиво. Намного больше возможностей, чем в Proxmox Datacenter Manager.
PegaProx поддерживает:
▪️Межкластерную миграцию VM
▪️Полное управление виртуальными машинами (создание, удаление и т.д.)
▪️Управление хостами виртуализации (сети, хранилища, графики и т.д.)
▪️Автоматическую балансировка нагрузки с переездом виртуалок между кластерами. То есть своё HA поверх разных кластеров.
▪️Балансировку загрузкой хранилищ
▪️LDAP & OIDC аутентификацию
▪️Live миграцию из ESXi
▪️Управление кластером CEPH
▪️Встроенный сканер уязвимостей
▪️Планировщик различных действий с виртуальными машинами (запуск, остановка, выполнение скриптов и т.д.)
Это самое основное. Список возможностей там большой. Выглядит внушительно. Как на практике работает - неизвестно. Продукт новый и всё ещё в бете. Чтобы попробовать, можно воспользоваться готовым скриптом, docker compose, или установить в Debian через установку пакетов из репозитория разработчиков:
# curl https://git.gyptazy.com/api/packages/gyptazy/debian/repository.key -o /etc/apt/keyrings/gyptazy.asc# echo "deb [signed-by=/etc/apt/keyrings/gyptazy.asc] https://packages.gyptazy.com/api/packages/gyptazy/debian trixie main" | tee -a /etc/apt/sources.list.d/gyptazy.list# apt update# apt install pegaproxЯ развернул в виртуалке, подключил свои тестовые PVE и PBS. Интерфейс управления удобный. Более наглядный, чем стандартный. Конечно, для простого управления всё это не имеет смысла. Основное тут, что может быть полезным - автоматическая миграция и управление кластерами. Для этого есть разные настройки, в том числе объединение VM и CT в группы, чтобы они переезжали только все вместе. Есть отдельная кнопка для запуска обслуживания ноды. После запуска все VM переезжают на другие сервера и можно производить обновление или другое обслуживание. Как всё это работает на практике - надо тестировать.
Из того, что может пригодиться помимо миграции - планировщик действий с виртуальными машинами и контейнерами. Для них можно создавать задания с расписанием, а в качестве действий использовать запуск, остановку, завершение работы, перезагрузку, создание снепшотов. Помимо этого там есть уведомления о превышении системных ресурсов кластера, ноды или отдельной VM.
В целом, проект интересный и функциональный. По ощущениям, задел сделали большой и будут развивать дальше для вывода на рынок коммерческой версии. Сейчас это только beta, так что в прод ставить не стоит. А для себя или тестовых кластеров вполне можно использовать, если понравится.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#proxmox
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍143👎4
У платформы для управления IT инфраструктурой INFRAX в начале марта вышел первый стабильный релиз 1.0. Я уже делал заметки по этой системе:
▪️Первый обзор на начальную версию
▪️Крупное обновление с поддержкой управления виртуализацией
Не хочу сейчас повторяться, но для тех, кто впервые слышит об этой системе кратко поясню, что INFRAX - это платформа для управления всеми активами и процессами, имеющими отношение к IT инфраструктуре и её поддержке. Акцент сделан на серверах и сетевом оборудовании, но можно и пользовательские компьютеры в неё добавлять. Система объединяет в себе мониторинг, удалённые подключения, управление гипервизорами и контейнерами, единую систему аутентификации и управления доступом, техническую поддержку с тикетами, резервное копирование, базу знаний и многие другие сервисы.
В очередном обновлении добавлены:
◽️SNMP-мониторинг: автообнаружение, шаблоны, триггеры
◽️Резервное копирование: расписания, ротация, контроль выполнения
◽️SLA: соглашения о качестве ИТ-услуг
◽️Инвентаризация активов (CMDB): актуальная карта инфраструктуры
◽️Управление активами (ITAM): закупки, контракты, бюджеты
◽️Удалённый доступ к рабочим станциям без ручной настройки
◽️Файловый менеджер: работа с файлами на удаленных серверах
◽️Управление дисками и разделами на серверах
🔥ИИ-помощник: доступ к инструментам управления
Я написал подробную статью с разбором и примером настройки основных нововведений:
⇨ Стабильный релиз INFRAX 1.0 - ситуационный центр ИТ инфраструктуры: мониторинг, подключения, инциденты и обращения
Статья рекламная, то есть заказана разработчиками, но написана полностью мной от структуры и до конечного содержания. Я ещё с первой статьи развернул INFRAX в одном из филиалов и с тех пор он крутится на реальной инфраструктуре, на основе которой я пишу статьи по этой системе.
☝️Обращаю внимание на ИИ-помощника. Я уделил ему много внимания в статье, так как тема актуальная, а помощник реально помогает. Он встроен в структуру системы, постоянно находится в контексте серверов и инцидентов и позволяет эффективно решать некоторые вопросы, в том числе по настройке самой INFRAX. В статье есть реальные примеры с картинками, как всё это выглядит на практике.
Этот же ИИ пишет шаблоны для мониторинга. И у него это хорошо получается. Преднастроенных шаблонов нет. Их нет смысла заранее писать. ИИ-помощник по месту практически всегда с первого раза создаёт работающий шаблон под конкретное устройство. В статье тоже есть примеры на этот счёт.
Так что чем дальше, тем больше будет ИИ в нашей жизни, ну и в профессии, соответственно.
Напомню, что INFRAX полностью бесплатен без каких-либо ограничений для 100 узлов и 100 пользователей. ИИ оплачивается отдельно через личный кабинет. Стоимость будет зависеть от используемого режима модели. Я тестировал самую первую джун и вторую - мидл. В среднем у меня получился один запрос к джуну 1-1,5 ₽, к мидлу 2-5 ₽. Процесс установки и базовой настройки описан в первой заметке. Ссылка в начале.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#мониторинг #remote #infrax #отечественное
▪️Первый обзор на начальную версию
▪️Крупное обновление с поддержкой управления виртуализацией
Не хочу сейчас повторяться, но для тех, кто впервые слышит об этой системе кратко поясню, что INFRAX - это платформа для управления всеми активами и процессами, имеющими отношение к IT инфраструктуре и её поддержке. Акцент сделан на серверах и сетевом оборудовании, но можно и пользовательские компьютеры в неё добавлять. Система объединяет в себе мониторинг, удалённые подключения, управление гипервизорами и контейнерами, единую систему аутентификации и управления доступом, техническую поддержку с тикетами, резервное копирование, базу знаний и многие другие сервисы.
В очередном обновлении добавлены:
◽️SNMP-мониторинг: автообнаружение, шаблоны, триггеры
◽️Резервное копирование: расписания, ротация, контроль выполнения
◽️SLA: соглашения о качестве ИТ-услуг
◽️Инвентаризация активов (CMDB): актуальная карта инфраструктуры
◽️Управление активами (ITAM): закупки, контракты, бюджеты
◽️Удалённый доступ к рабочим станциям без ручной настройки
◽️Файловый менеджер: работа с файлами на удаленных серверах
◽️Управление дисками и разделами на серверах
🔥ИИ-помощник: доступ к инструментам управления
Я написал подробную статью с разбором и примером настройки основных нововведений:
⇨ Стабильный релиз INFRAX 1.0 - ситуационный центр ИТ инфраструктуры: мониторинг, подключения, инциденты и обращения
Статья рекламная, то есть заказана разработчиками, но написана полностью мной от структуры и до конечного содержания. Я ещё с первой статьи развернул INFRAX в одном из филиалов и с тех пор он крутится на реальной инфраструктуре, на основе которой я пишу статьи по этой системе.
☝️Обращаю внимание на ИИ-помощника. Я уделил ему много внимания в статье, так как тема актуальная, а помощник реально помогает. Он встроен в структуру системы, постоянно находится в контексте серверов и инцидентов и позволяет эффективно решать некоторые вопросы, в том числе по настройке самой INFRAX. В статье есть реальные примеры с картинками, как всё это выглядит на практике.
Этот же ИИ пишет шаблоны для мониторинга. И у него это хорошо получается. Преднастроенных шаблонов нет. Их нет смысла заранее писать. ИИ-помощник по месту практически всегда с первого раза создаёт работающий шаблон под конкретное устройство. В статье тоже есть примеры на этот счёт.
Так что чем дальше, тем больше будет ИИ в нашей жизни, ну и в профессии, соответственно.
Напомню, что INFRAX полностью бесплатен без каких-либо ограничений для 100 узлов и 100 пользователей. ИИ оплачивается отдельно через личный кабинет. Стоимость будет зависеть от используемого режима модели. Я тестировал самую первую джун и вторую - мидл. В среднем у меня получился один запрос к джуну 1-1,5 ₽, к мидлу 2-5 ₽. Процесс установки и базовой настройки описан в первой заметке. Ссылка в начале.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#мониторинг #remote #infrax #отечественное
Please open Telegram to view this post
VIEW IN TELEGRAM
Server Admin
Стабильный релиз INFRAX 1.0 - ситуационный центр ИТ...
Релиз INFRAX 1.0 - ситуационный центр ИТ инфраструктуры: мониторинг, подключения, инциденты и обращения, ИИ-помощник и многое другое.
👍56👎3
linux-book.pdf
604.3 KB
🎓 Я периодически просматриваю поток Администрирование на Хабре. Лет 5 назад и раньше я делал это регулярно, а потом забросил и вообще ничего не читал на этом сайте. Увлёкся телеграмом и почти весь контент читал либо в нём, либо по ссылкам из него. А последнее время стал опять посматривать. Заскучал что-ли по длинным статьям, не знаю.
Недавно попалась статья:
⇨ Основы системного администрирования Linux: от командной строки до веб-сервера
Автор написал небольшую книгу по основам Linux. Я всю её прочитал, там относительно немного. Мне не нужно было ничего изучать, так как всё, что там описано, я хорошо знаю. Причём реально всё, кроме некоторых моментов, типа работы с vim. Я просто в нём не работаю.
По постановке задачи в книге я сразу понял, что автор - сисадмин из как минимум двухтысячных годов. Цель книги - научить запускать сайт с движком WordPress на веб сервере с Nginx + PHP-FPM. Я тоже часто беру этот пример, хотя он и не кажется сильно актуальным в наше время, не то, что 10-15 лет назад. Но он хорош именно для линуксовой базы. Тут много всего пересекается - веб сервер, СУБД, многопроцессовый интерпретатор PHP, логи и т.д. И всё это хозяйство можно завернуть в контейнеры. Я когда-то писал статьи на сайте про Docker и CI/CD как раз на примере Wordpress.
Вот часть введения от самого автора:
Мы пройдём путь от первого подключения к серверу по SSH до развёртывания веб-сайта в контейнерах Docker с автоматическим деплоем. Через все главы проходит сквозной проект — настоящий сайт на nginx + PHP-FPM + WordPress, который вы соберёте своими руками: сначала вручную, потом в контейнерах, потом с автоматизацией через CI/CD.
Собственно, чем мне понравилась книга. Всё хорошо структурированно и последовательно описано. Такой формат лично мне кажется более удобным, нежели видеокурсы. Там на лекциях будут говорить примерно то же самое, но для самостоятельного изучения книга удобнее. С ней быстрее работать, к ней удобнее возвращаться и находить забытое. В ней та же база, что обычно дают на популярных последнее время курсах типа Основы Linux, Linux Basic и т.д.
Автор реально собрал всё самое нужное, хорошо скомпоновал и понятно объяснил с азов и до поставленной задачи. Видно, что у него хороший опыт не только работы со всем, что он описывает, но и донесения этой информации до других. Последнего опыта может и нет, трудно судить наверняка, но получилось хорошо. На выходе получится уверенный джун с практическим опытом, который позволит ему развиваться далее - мониторинг, сбор и анализ логов, бэкапы, автоматизация и т.д. У меня прям в голове возникает возможный план второй книги на эту тему. Я бы смог написать подобное, оно всё есть на этом канале, надо только скомпоновать, но у меня нет на это свободного времени и не предвидится пока как минимум не вырастут дети.
Можно сесть с этой книгой, позвать на помощью ИИ, чтобы пояснял, если что-то не понятно, и всё освоить за неделю-две в зависимости от вашего упорства и доступного времени. И сэкономить тысяч 30-50 на курсах по такой же теме.
⇨ Репозиторий с книгой
Даже не представляю, сколько времени было потрачено на написание, вычитку, оформление, проверку. И всё это полностью бесплатно. Пользуйтесь. Ну и звёздочку на гитхабе не забудьте влепить.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#обучение #бесплатно
Недавно попалась статья:
⇨ Основы системного администрирования Linux: от командной строки до веб-сервера
Автор написал небольшую книгу по основам Linux. Я всю её прочитал, там относительно немного. Мне не нужно было ничего изучать, так как всё, что там описано, я хорошо знаю. Причём реально всё, кроме некоторых моментов, типа работы с vim. Я просто в нём не работаю.
По постановке задачи в книге я сразу понял, что автор - сисадмин из как минимум двухтысячных годов. Цель книги - научить запускать сайт с движком WordPress на веб сервере с Nginx + PHP-FPM. Я тоже часто беру этот пример, хотя он и не кажется сильно актуальным в наше время, не то, что 10-15 лет назад. Но он хорош именно для линуксовой базы. Тут много всего пересекается - веб сервер, СУБД, многопроцессовый интерпретатор PHP, логи и т.д. И всё это хозяйство можно завернуть в контейнеры. Я когда-то писал статьи на сайте про Docker и CI/CD как раз на примере Wordpress.
Вот часть введения от самого автора:
Мы пройдём путь от первого подключения к серверу по SSH до развёртывания веб-сайта в контейнерах Docker с автоматическим деплоем. Через все главы проходит сквозной проект — настоящий сайт на nginx + PHP-FPM + WordPress, который вы соберёте своими руками: сначала вручную, потом в контейнерах, потом с автоматизацией через CI/CD.
Собственно, чем мне понравилась книга. Всё хорошо структурированно и последовательно описано. Такой формат лично мне кажется более удобным, нежели видеокурсы. Там на лекциях будут говорить примерно то же самое, но для самостоятельного изучения книга удобнее. С ней быстрее работать, к ней удобнее возвращаться и находить забытое. В ней та же база, что обычно дают на популярных последнее время курсах типа Основы Linux, Linux Basic и т.д.
Автор реально собрал всё самое нужное, хорошо скомпоновал и понятно объяснил с азов и до поставленной задачи. Видно, что у него хороший опыт не только работы со всем, что он описывает, но и донесения этой информации до других. Последнего опыта может и нет, трудно судить наверняка, но получилось хорошо. На выходе получится уверенный джун с практическим опытом, который позволит ему развиваться далее - мониторинг, сбор и анализ логов, бэкапы, автоматизация и т.д. У меня прям в голове возникает возможный план второй книги на эту тему. Я бы смог написать подобное, оно всё есть на этом канале, надо только скомпоновать, но у меня нет на это свободного времени и не предвидится пока как минимум не вырастут дети.
Можно сесть с этой книгой, позвать на помощью ИИ, чтобы пояснял, если что-то не понятно, и всё освоить за неделю-две в зависимости от вашего упорства и доступного времени. И сэкономить тысяч 30-50 на курсах по такой же теме.
⇨ Репозиторий с книгой
Даже не представляю, сколько времени было потрачено на написание, вычитку, оформление, проверку. И всё это полностью бесплатно. Пользуйтесь. Ну и звёздочку на гитхабе не забудьте влепить.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#обучение #бесплатно
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍214👎3
Давно уже надумал заменить свой основной рабочий ноутбук. Ещё год назад делал по этому поводу публикацию. Там какое-то рекордное обсуждение вышло на 1000+ комментариев. Меня убедили купить Макбук. Желание это никуда не ушло, но так за весь год и не появилась возможность его приобрести.
Последние полгода почти безвылазно работаю из дома, так что нужда в ноуте как-будто и пропала. Сейчас у меня старенький Thinkpad T480. Работает в родной док-станции с внешним моником, клавой и мышкой. Для работы в целом хватает, но уже как-то некомфортно с ним. Понаоткрываешь браузеров и программ, начинает подтупливать. Хоть и памяти 32 ГБ, но как-будто процессор не вытягивает. Плюс, частоту монитора выше 120 Гц не поддерживает, а у меня монитор 160 Гц.
Дома нет вообще ни одного системника с современной видеокартой. Одни ноутбуки и старый комп с GeForce GTX 560Ti. Новее ничего нет, если не считать неттоп FIREBAT F1 с Radeon 780M. Кстати, отличный аппарат за свои в то время деньги. Пытался потом купить ещё таких же, но увы, они все без памяти стали продаваться. А планка памяти выходит больше половины стоимости неттопа.
Недавно рубль начал падать, плюс обещают дополнительные сборы на импортную технику ввести. Решил, что ждать снижения цен уже не имеет смысла и заказал себе новый бюджетный системник. Я в них не особо разбираюсь, вообще не слежу за этой темой. Последний раз покупал системный блок 15 лет назад. На работе тоже этими делами не занимаюсь. Увидел на ютуб канале одного продавца компьютеров бюджетную сборку прошлого поколения на DDR4 за 90 000 и просто повторил её:
▪️Процессор AMD Ryzen 5 5600
▪️Материнская плата MSI B550M PRO-VDH
▪️Оперативная память G.Skill Aegis 32 ГБ
▪️Видеокарта Palit GeForce RTX 5060 Infinity 2 OC 8 ГБ
▪️Кулер DEEPCOOL AG300 DIGITAL
▪️Накопитель 1000 ГБ M.2 NVMe MSI SPATIUM M470 PRO
Кому интересно увидеть цены, ниже скриншот из магазина. Всё, кроме диска, уже подорожало. Мне не хотелось собирать из комплектующих самому, обычно не рекомендую это и другим, но у меня есть хороший корпус с шумопоглощающими стенками и новый блок питания в запасе. Так что сэкономил и не стал их покупать.
Интересен был перенос системы с ноутбука на системник. Я использую Veeam Agent for Windows для бэкапа всей системы. Программа в том числе делает свой загрузочный ISO образ, чтобы можно было с него загрузиться, подцепить бэкап и восстановить систему, если она умрёт полностью. Я забэкапил ноутбук, взял образ системы и рассчитывал его восстановить на новом системнике. Но не тут то было.
На новом компе этот образ не стартовал. Вылетала стандартная ошибка WinPE, на базе которой он собран, с синим экраном. Я сначала не понял этот момент. Думаю, что за образ и бэкап, если я не могу с него загрузиться и сделать восстановление. Потом немного покумекал и сам догадался, в чём тут дело.
Veeam создаёт загрузочный образ под конкретное железо, на котором запущено создание. Мне пришлось на новый компьютер установить чистую винду, потом Veeam Agent, и уже на этом компьютере сделать загрузочный диск. Успешно с него загрузился, подключил сетевую папку с бэкапом системы ноутбука и успешно восстановил. Система загрузился, накатил драйвера от компьютера, и всё завелось.
Так что метод с Veeam Agent вполне рабочий и для переноса на другое железо, но нужно учитывать этот нюанс. А в целом программа отличная, рекомендую. Бесплатной версии для бэкапов одиночных компьютеров без централизованного управления хватает вполне. Не раз выручало. Я людям, которые ничего в этом не понимают, настраивал автоматический бэкап на внешний диск при его подключении. Потом они успешно восстанавливали свои данные. Работает надёжно.
❓А вы верите, что стоимость железа ещё отыграет назад? Стоит ждать или брать, как есть? Мне кажется, сейчас мир так лихорадит, что будет только хуже, а какие-то вещи могут вообще из продажи пропасть.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#железо
Последние полгода почти безвылазно работаю из дома, так что нужда в ноуте как-будто и пропала. Сейчас у меня старенький Thinkpad T480. Работает в родной док-станции с внешним моником, клавой и мышкой. Для работы в целом хватает, но уже как-то некомфортно с ним. Понаоткрываешь браузеров и программ, начинает подтупливать. Хоть и памяти 32 ГБ, но как-будто процессор не вытягивает. Плюс, частоту монитора выше 120 Гц не поддерживает, а у меня монитор 160 Гц.
Дома нет вообще ни одного системника с современной видеокартой. Одни ноутбуки и старый комп с GeForce GTX 560Ti. Новее ничего нет, если не считать неттоп FIREBAT F1 с Radeon 780M. Кстати, отличный аппарат за свои в то время деньги. Пытался потом купить ещё таких же, но увы, они все без памяти стали продаваться. А планка памяти выходит больше половины стоимости неттопа.
Недавно рубль начал падать, плюс обещают дополнительные сборы на импортную технику ввести. Решил, что ждать снижения цен уже не имеет смысла и заказал себе новый бюджетный системник. Я в них не особо разбираюсь, вообще не слежу за этой темой. Последний раз покупал системный блок 15 лет назад. На работе тоже этими делами не занимаюсь. Увидел на ютуб канале одного продавца компьютеров бюджетную сборку прошлого поколения на DDR4 за 90 000 и просто повторил её:
▪️Процессор AMD Ryzen 5 5600
▪️Материнская плата MSI B550M PRO-VDH
▪️Оперативная память G.Skill Aegis 32 ГБ
▪️Видеокарта Palit GeForce RTX 5060 Infinity 2 OC 8 ГБ
▪️Кулер DEEPCOOL AG300 DIGITAL
▪️Накопитель 1000 ГБ M.2 NVMe MSI SPATIUM M470 PRO
Кому интересно увидеть цены, ниже скриншот из магазина. Всё, кроме диска, уже подорожало. Мне не хотелось собирать из комплектующих самому, обычно не рекомендую это и другим, но у меня есть хороший корпус с шумопоглощающими стенками и новый блок питания в запасе. Так что сэкономил и не стал их покупать.
Интересен был перенос системы с ноутбука на системник. Я использую Veeam Agent for Windows для бэкапа всей системы. Программа в том числе делает свой загрузочный ISO образ, чтобы можно было с него загрузиться, подцепить бэкап и восстановить систему, если она умрёт полностью. Я забэкапил ноутбук, взял образ системы и рассчитывал его восстановить на новом системнике. Но не тут то было.
На новом компе этот образ не стартовал. Вылетала стандартная ошибка WinPE, на базе которой он собран, с синим экраном. Я сначала не понял этот момент. Думаю, что за образ и бэкап, если я не могу с него загрузиться и сделать восстановление. Потом немного покумекал и сам догадался, в чём тут дело.
Veeam создаёт загрузочный образ под конкретное железо, на котором запущено создание. Мне пришлось на новый компьютер установить чистую винду, потом Veeam Agent, и уже на этом компьютере сделать загрузочный диск. Успешно с него загрузился, подключил сетевую папку с бэкапом системы ноутбука и успешно восстановил. Система загрузился, накатил драйвера от компьютера, и всё завелось.
Так что метод с Veeam Agent вполне рабочий и для переноса на другое железо, но нужно учитывать этот нюанс. А в целом программа отличная, рекомендую. Бесплатной версии для бэкапов одиночных компьютеров без централизованного управления хватает вполне. Не раз выручало. Я людям, которые ничего в этом не понимают, настраивал автоматический бэкап на внешний диск при его подключении. Потом они успешно восстанавливали свои данные. Работает надёжно.
❓А вы верите, что стоимость железа ещё отыграет назад? Стоит ждать или брать, как есть? Мне кажется, сейчас мир так лихорадит, что будет только хуже, а какие-то вещи могут вообще из продажи пропасть.
———
ServerAdmin:
#железо
Please open Telegram to view this post
VIEW IN TELEGRAM
👍69👎8
Кубер. Поды. Это основа.
И это только начало.
Kubernetes from Zero to Hero — видеокурс, который проведёт вас от первого знакомства с Kubernetes до Helm, Ingress и ConfigMap.
10 выпусков на YouTube, всё по порядку:
1 — Ты точно знаешь, что такое Kubernetes?
2 — Как запустить Kubernetes локально: пошаговая инструкция с Minikube
3 — Pod и Deployment в Kubernetes — это база, это знать надо
4 — Как собрать Docker-образ с werf
5 — Как развернуть приложение в Kubernetes с werf
6 — Как не потеряться внутри кластера: Service и labels
7 — Ingress в Kubernetes: доступ к приложению извне кластера
8 — Helm-чарт, шаблонизация и никакого хардкода
9 — Как добавить nginx в свой кластер Kubernetes?
10 — Настройки, mounts, ConfigMap в Kubernetes
Плейлисты в YouTube | VK Видео | Rutube
Вы в 70 минутах от уверенного деплоя, сохраняйте себе.
И это только начало.
Kubernetes from Zero to Hero — видеокурс, который проведёт вас от первого знакомства с Kubernetes до Helm, Ingress и ConfigMap.
10 выпусков на YouTube, всё по порядку:
1 — Ты точно знаешь, что такое Kubernetes?
2 — Как запустить Kubernetes локально: пошаговая инструкция с Minikube
3 — Pod и Deployment в Kubernetes — это база, это знать надо
4 — Как собрать Docker-образ с werf
5 — Как развернуть приложение в Kubernetes с werf
6 — Как не потеряться внутри кластера: Service и labels
7 — Ingress в Kubernetes: доступ к приложению извне кластера
8 — Helm-чарт, шаблонизация и никакого хардкода
9 — Как добавить nginx в свой кластер Kubernetes?
10 — Настройки, mounts, ConfigMap в Kubernetes
Плейлисты в YouTube | VK Видео | Rutube
Вы в 70 минутах от уверенного деплоя, сохраняйте себе.
👍44👎6
Media is too big
VIEW IN TELEGRAM
Вспомнилось очень старое и неприметное видео с небольшим количеством просмотров и комментариев:
▶️ Imagine DevOps
Ностальгическая пародия на песню Джона Леннона - Imagine. Забавно послушать сисадмина из 2011 года, как он себе представляет будущее разработки и эксплуатации:
Представь, нет разработчиков,
Попробуй, это легко,
Никакого сопровождения и контроля изменений,
И серверы все в облаках.
Представь, что все желающие,
Непрерывно деплоят…
Представь, нет больше тестировщиков,
Это несложно совсем,
NoSQL станет веб масштабируемым,
И разработчики всегда на связи.
Представь, что все руководители проектов
Используют методологию Agile.
Ты скажешь, я мечтатель,
Но я такой не один,
Надеюсь, ты придёшь в DevOps,
И мир наш станет един.
Представь, нет больше водопада задач,
Сможешь ли ты так жить?
Не нужно документаций,
Канбан нас всех объединит.
Представь, враги былые
Делят один git…
Ты скажешь, я мечтатель,
Но я такой не один,
Надеюсь, ты придёшь в DevOps,
И мир наш станет един.
Прикольная песенка, которую трудно перевести. Не смог ни переводчик, ни ИИ. Сам правил, как смог, чтобы смысл сохранить, да и то не особо получилось.
Мне кажется, эта песенка раскрывается в наши дни с внедрением ИИ. Теперь уже действительно иногда можно без разработчиков и тестировщиков обойтись. Уже полно примеров видел, в том числе среди знакомых, когда ИИ пишет программы непрограммистам. И они получаются вполне работоспособными. Но нужны платные подписки.
Кстати, если кому-то интересна эта тема, то рекомендую послушать конкретный пример такой разработки из большой беседы, которую лично я послушал всю во время пеших прогулок. Мне было интересно. Привожу ссылку сразу на пример, где человек рассказывает, как у него настроены ИИ агенты, как он ставит им задачу и что вообще у него происходит.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#музыка
▶️ Imagine DevOps
Ностальгическая пародия на песню Джона Леннона - Imagine. Забавно послушать сисадмина из 2011 года, как он себе представляет будущее разработки и эксплуатации:
Представь, нет разработчиков,
Попробуй, это легко,
Никакого сопровождения и контроля изменений,
И серверы все в облаках.
Представь, что все желающие,
Непрерывно деплоят…
Представь, нет больше тестировщиков,
Это несложно совсем,
NoSQL станет веб масштабируемым,
И разработчики всегда на связи.
Представь, что все руководители проектов
Используют методологию Agile.
Ты скажешь, я мечтатель,
Но я такой не один,
Надеюсь, ты придёшь в DevOps,
И мир наш станет един.
Представь, нет больше водопада задач,
Сможешь ли ты так жить?
Не нужно документаций,
Канбан нас всех объединит.
Представь, враги былые
Делят один git…
Ты скажешь, я мечтатель,
Но я такой не один,
Надеюсь, ты придёшь в DevOps,
И мир наш станет един.
Прикольная песенка, которую трудно перевести. Не смог ни переводчик, ни ИИ. Сам правил, как смог, чтобы смысл сохранить, да и то не особо получилось.
Мне кажется, эта песенка раскрывается в наши дни с внедрением ИИ. Теперь уже действительно иногда можно без разработчиков и тестировщиков обойтись. Уже полно примеров видел, в том числе среди знакомых, когда ИИ пишет программы непрограммистам. И они получаются вполне работоспособными. Но нужны платные подписки.
Кстати, если кому-то интересна эта тема, то рекомендую послушать конкретный пример такой разработки из большой беседы, которую лично я послушал всю во время пеших прогулок. Мне было интересно. Привожу ссылку сразу на пример, где человек рассказывает, как у него настроены ИИ агенты, как он ставит им задачу и что вообще у него происходит.
———
ServerAdmin:
#музыка
Please open Telegram to view this post
VIEW IN TELEGRAM
👍39👎4
Сейчас борьба с DDOS - в основном удел специализированных сервисов, у которых есть свои каналы и пулы IP адресов. Без этого эффективной защиты не построить. Если у вас не подключена специализированная защита, то вас просто отключит провайдер в случае серьёзной атаки.
Но далеко не всегда атаки реально серьёзные, с которыми невозможно справиться самостоятельно. С подобной ситуацией столкнулся в очередной раз. И вроде как успешно справился. Расскажу обо всём по порядку.
У меня есть в управлении веб сервер с очень старым проектом. Он уже не приносит прибыль, но бросить его жалко. У него очень много страниц в индексе, люди всё ещё заходят. Покупать для него защиту смысла не имеет.
В какой-то момент на сервер полился спам запросов на форумный поиск. Не сказать, что очень много, но сервер загрузили полностью. Отклик по 10-15 секунд, часто 500-е ошибки. Все запросы с разных IP, почти не повторялись. Трафик лился примерно 10-20 мегабит, небольшой, но и виртуалка под сервер не очень мощная, ей этой нагрузки хватало, тем более в поиск.
Я зашёл на сервер и бегло посмотрел, что там за IP адреса. Они были из экзотических стран, типа Сейшелы, Маврикий, Малайзия и т.д. Проект под аудиторию из РФ, решил временно ограничить страны, откуда идёт спам. Можно было бы разрешить только РФ и страны СНГ, а остальное запретить, но эти списки ненадёжны. А тем более сейчас, когда куча людей сидит по ВПН. Сразу скажу, что в любом случае это решение временное, на время атаки. Позже я такие ограничения убираю.
Есть сервис со списками IP адресов по странам. Я обычно его использую, так как списки легко забрать через wget. На сервере стоит iptables и ipset для больших списков адресов. Набросал простенький скрипт для загрузки IP стран и добавления их в iptables:
Скрипт рабочий, я его сходу написал и использовал. Ничего не отлаживал, проверок не делал, не оптимизировал. Любой ИИ вам всё это сделает, если нужно будет. У меня такой задачи не стояло.
Это помогло. Спам запросов прекратился. Через несколько дней возобновился. Список IP адресов очень разнообразный - США, Европа. Блокировать по странам не стал. Посмотрел внимательно на запросы. У них почему-то у всех был одинаковый user agent с фразой:
Решил банить IP по этому признаку. Сначала прошёл по всему логу и собрал всех с этим юзер агентом, кто сделал более одного запроса:
А потом загнал их в список ipset скриптом:
И забанил:
Это частично помогло, но, постоянно лезли новые IP. Собрал ещё один скрипт, который берёт последние 3000 строк лога и банит всех с указанным user agent. Перед запуском создал список и правило для него:
Скрипт:
Поставил его в cron на запуск раз в минуту. Примерно через час все адреса оказались в бане и нагрузка упала.
Не знаю, что это было, кто и зачем ддосил этот веб сервер. Ботнет был сильно разнесён географически, но почему-то с одинаковым user agent. Какая-то бессмыслица, но ситуация реальная. Написал заметку по горячим следам.
#iptables #ipset #ddos
Но далеко не всегда атаки реально серьёзные, с которыми невозможно справиться самостоятельно. С подобной ситуацией столкнулся в очередной раз. И вроде как успешно справился. Расскажу обо всём по порядку.
У меня есть в управлении веб сервер с очень старым проектом. Он уже не приносит прибыль, но бросить его жалко. У него очень много страниц в индексе, люди всё ещё заходят. Покупать для него защиту смысла не имеет.
В какой-то момент на сервер полился спам запросов на форумный поиск. Не сказать, что очень много, но сервер загрузили полностью. Отклик по 10-15 секунд, часто 500-е ошибки. Все запросы с разных IP, почти не повторялись. Трафик лился примерно 10-20 мегабит, небольшой, но и виртуалка под сервер не очень мощная, ей этой нагрузки хватало, тем более в поиск.
Я зашёл на сервер и бегло посмотрел, что там за IP адреса. Они были из экзотических стран, типа Сейшелы, Маврикий, Малайзия и т.д. Проект под аудиторию из РФ, решил временно ограничить страны, откуда идёт спам. Можно было бы разрешить только РФ и страны СНГ, а остальное запретить, но эти списки ненадёжны. А тем более сейчас, когда куча людей сидит по ВПН. Сразу скажу, что в любом случае это решение временное, на время атаки. Позже я такие ограничения убираю.
Есть сервис со списками IP адресов по странам. Я обычно его использую, так как списки легко забрать через wget. На сервере стоит iptables и ipset для больших списков адресов. Набросал простенький скрипт для загрузки IP стран и добавления их в iptables:
#!/bin/bash
country=mu
ipset -N ${country}_ip nethash
wget -O tmplist https://www.ipdeny.com/ipblocks/data/countries/${country}.zone
list=$(cat tmplist)
for ipnet in $list
do
ipset -A ${country}_ip $ipnet
done
iptables -I INPUT 1 -m set --match-set ${country}_ip src -j DROP
Скрипт рабочий, я его сходу написал и использовал. Ничего не отлаживал, проверок не делал, не оптимизировал. Любой ИИ вам всё это сделает, если нужно будет. У меня такой задачи не стояло.
Это помогло. Спам запросов прекратился. Через несколько дней возобновился. Список IP адресов очень разнообразный - США, Европа. Блокировать по странам не стал. Посмотрел внимательно на запросы. У них почему-то у всех был одинаковый user agent с фразой:
Macintosh; Intel Mac OS X 10_15_7. Пример лога веб сервера привёл на картинке.Решил банить IP по этому признаку. Сначала прошёл по всему логу и собрал всех с этим юзер агентом, кто сделал более одного запроса:
# egrep "Intel Mac OS X 10_15_7" /var/log/nginx/access.log | awk '{print $1}' | sort -n | uniq -c | sort -n | awk '{if ($1 > 1 ) print $2}' > 10_15_7.txtА потом загнал их в список ipset скриптом:
#!/bin/bash
{
echo "create 10_15_7 iphash hashsize 32696 maxelem 262144"
while read -r ip; do
echo "add 10_15_7 $ip"
done < 10_15_7.txt
} > ipset-restore
ipset restore < ipset-restore
И забанил:
# iptables -I INPUT 1 -m set --match-set 10_15_7 src -j DROPЭто частично помогло, но, постоянно лезли новые IP. Собрал ещё один скрипт, который берёт последние 3000 строк лога и банит всех с указанным user agent. Перед запуском создал список и правило для него:
# ipset -N banip iphash hashsize 16348 maxelem 131072# iptables -I INPUT 1 -m set --match-set banip src -j DROPСкрипт:
#!/bin/sh
tail -n 3000 /var/log/nginx/access.log | egrep "Intel Mac OS X 10_15_7" | awk '{print $1}' | sort -n | uniq -c | sort -n | awk '{if ($1 > 0 ) print $2}' > ban.txt
list=$(cat ban.txt)
for ipnet in $list
do
ipset -A banip $ipnet -exist
done
Поставил его в cron на запуск раз в минуту. Примерно через час все адреса оказались в бане и нагрузка упала.
Не знаю, что это было, кто и зачем ддосил этот веб сервер. Ботнет был сильно разнесён географически, но почему-то с одинаковым user agent. Какая-то бессмыслица, но ситуация реальная. Написал заметку по горячим следам.
#iptables #ipset #ddos
👍163👎1