На днях обновились два продукта Proxmox, которые я активно использую: Virtual Environment 9.0 и Backup Server 4.0. Прежде чем перейти к содержанию обновлений, сделаю предупреждение. Не торопитесь обновлять свои сервера. У Proxmox есть некоторый шанс получить проблемы после обновления, особенно для большого обновления со сменой релиза Debian. Я сам лично много раз сталкивался с ними. Делал тут по этому поводу заметки. Плюс, опыт других людей говорит о том же.
Расскажу про своё отношение к обновлению гипервизоров. Если рядом нет подменного сервера, на который можно быстро восстановить работу виртуальных машин, то я его не обновляю без веских оснований. Процесс этот откладываю на максимально комфортное время, когда это можно сделать. Обычно какие-то длинные праздники, типа майских или новогодних. То же самое для кластера. Обновлять надо очень аккуратно и понимать, что ты будешь делать, если он вдруг не переживёт обновление. Уронить прод от неаккуратного обновления гораздо проще, чем получить проблемы от каких-то уязвимостей, которых во-первых, не так много, чтобы это было опасно в закрытом контуре, во-вторых, обновления приходят регулярно и если постоянно обновляться по мере их выхода, то частота этого процесса сама по себе по теории вероятности принесёт рано или поздно проблемы.
Соответственно, вы либо держите тестовый контур, там всё проверяете и регулярно обновляетесь, либо изыскиваете какие-то другие подходы к этому процессу, более безопасные и растянутые во времени. Опять же, если нет чего-то срочного и критичного. Для Proxmox вообще такого не припоминаю. В интернет они у меня никогда не смотрят, и доступ к ним ограничен. Ещё раз подчеркну, что этот подход используется только для гипервизоров. Не для виртуальных машин с рабочей нагрузкой. Их можно относительно безопасно обновлять, так как масштаб бедствия несоизмерим, если что-то пойдёт не так.
📌Ключевые обновления Proxmox VE:
🔥Обычные LVM тома, не Thin, теперь поддерживают снэпшоты. У меня это самый популярный формат хранения. Из-за того, что он не поддерживал снепшоты, иногда приходилось использовать qcow2 диски, но они не очень удобны из-за ряда особенностей. В описании указано, что хранилища типа Directory, NFS, и CIFS тоже получили такую функциональность. Но по описанию я не очень понял, относится ли это, к примеру, к RAW дискам, расположенным в директории. Из описания вроде бы да (Directory, NFS, and CIFS storages also gain additional support for snapshots as volume chains), но я не понимаю, как это технически реализовано. Надо будет на практике проверять. Вроде бы автоматически создаётся qcow2 файл для накопления изменений относительно базового диска.
◽️Добавлена функциональность SDN Fabric для построения отказоустойчивых управляемых и динамически маршрутизируемых сетей. У меня таких вообще нет, так что попробовать не придётся. Это в основном актуально для больших кластеров.
◽️Дополнительные графики с метриками. Будет полезно. Я частенько их смотрю для беглой оценки работы VM.
◽️Новый мобильный веб интерфейс. Лично я им вообще не пользуюсь. Заходил очень редко в исключительных ситуациях. Не знаю, зачем он нужен. Изредка можно и версию для ПК открыть.
Из основного это всё. Как я понимаю, триггером для релиза был переход на Debian 13, поэтому непосредственно в функциональности изменений немного.
📌 Ключевые обновления Proxmox BS:
🔥Поддержка S3-совместимых хранилищ. Этого реально не хватало. Подобные хранилища очень популярны и относительно дёшевы. Теперь можно спокойно брать дедики с небольшими локальными дисками и подключать более дешёвые S3 хранилища.
◽️Автоматический запуск синхронизации при подключении съёмного хранилища. Можно руками подключить внешний диск или подключить скриптами и бэкап на него будет автоматически синхронизирован. Потом его можно отмонтировать.
◽️Много мелких исправлений в интерфейсе, в уведомлениях, в очистке старых данных и некоторых других моментах.
Я наверное первые обновления сделаю, когда выйдут версии 9.1 и 4.1.
#proxmox
Расскажу про своё отношение к обновлению гипервизоров. Если рядом нет подменного сервера, на который можно быстро восстановить работу виртуальных машин, то я его не обновляю без веских оснований. Процесс этот откладываю на максимально комфортное время, когда это можно сделать. Обычно какие-то длинные праздники, типа майских или новогодних. То же самое для кластера. Обновлять надо очень аккуратно и понимать, что ты будешь делать, если он вдруг не переживёт обновление. Уронить прод от неаккуратного обновления гораздо проще, чем получить проблемы от каких-то уязвимостей, которых во-первых, не так много, чтобы это было опасно в закрытом контуре, во-вторых, обновления приходят регулярно и если постоянно обновляться по мере их выхода, то частота этого процесса сама по себе по теории вероятности принесёт рано или поздно проблемы.
Соответственно, вы либо держите тестовый контур, там всё проверяете и регулярно обновляетесь, либо изыскиваете какие-то другие подходы к этому процессу, более безопасные и растянутые во времени. Опять же, если нет чего-то срочного и критичного. Для Proxmox вообще такого не припоминаю. В интернет они у меня никогда не смотрят, и доступ к ним ограничен. Ещё раз подчеркну, что этот подход используется только для гипервизоров. Не для виртуальных машин с рабочей нагрузкой. Их можно относительно безопасно обновлять, так как масштаб бедствия несоизмерим, если что-то пойдёт не так.
📌Ключевые обновления Proxmox VE:
🔥Обычные LVM тома, не Thin, теперь поддерживают снэпшоты. У меня это самый популярный формат хранения. Из-за того, что он не поддерживал снепшоты, иногда приходилось использовать qcow2 диски, но они не очень удобны из-за ряда особенностей. В описании указано, что хранилища типа Directory, NFS, и CIFS тоже получили такую функциональность. Но по описанию я не очень понял, относится ли это, к примеру, к RAW дискам, расположенным в директории. Из описания вроде бы да (Directory, NFS, and CIFS storages also gain additional support for snapshots as volume chains), но я не понимаю, как это технически реализовано. Надо будет на практике проверять. Вроде бы автоматически создаётся qcow2 файл для накопления изменений относительно базового диска.
◽️Добавлена функциональность SDN Fabric для построения отказоустойчивых управляемых и динамически маршрутизируемых сетей. У меня таких вообще нет, так что попробовать не придётся. Это в основном актуально для больших кластеров.
◽️Дополнительные графики с метриками. Будет полезно. Я частенько их смотрю для беглой оценки работы VM.
◽️Новый мобильный веб интерфейс. Лично я им вообще не пользуюсь. Заходил очень редко в исключительных ситуациях. Не знаю, зачем он нужен. Изредка можно и версию для ПК открыть.
Из основного это всё. Как я понимаю, триггером для релиза был переход на Debian 13, поэтому непосредственно в функциональности изменений немного.
📌 Ключевые обновления Proxmox BS:
🔥Поддержка S3-совместимых хранилищ. Этого реально не хватало. Подобные хранилища очень популярны и относительно дёшевы. Теперь можно спокойно брать дедики с небольшими локальными дисками и подключать более дешёвые S3 хранилища.
◽️Автоматический запуск синхронизации при подключении съёмного хранилища. Можно руками подключить внешний диск или подключить скриптами и бэкап на него будет автоматически синхронизирован. Потом его можно отмонтировать.
◽️Много мелких исправлений в интерфейсе, в уведомлениях, в очистке старых данных и некоторых других моментах.
Я наверное первые обновления сделаю, когда выйдут версии 9.1 и 4.1.
#proxmox
6👍125👎2
Решил выделить в отдельную публикацию свежий цикл из трёх видео про настройку виртуализации на базе Proxmox для малого и среднего бизнеса. Автор построит IT инфраструктуру с нуля на голом железе. Всё это будет сделано на базе реальных примеров с настройкой сети, VPN, файрвола, удалённого доступа в инфраструктуру и т.д.
Получился хороший, информативный цикл (ещё не закончен), который будет интересен в основном новичкам, потому что даётся база. Из интересного, автор рассматривает разные способы организации доступа в интернет для виртуальных машин.
1. Каждая виртуалка имеет свой внешний IP.
2. В качестве шлюза выступает сам гипервизор.
3. В качестве шлюза использует Mikrotik CHR в отдельной виртуальной машине.
Я тоже в разных ситуациях могу использовать один из этих способов. Это в 3-м видео разбирается. Причём с практическим примером от Hetzner, но похожая схема бывает и у других провайдеров.
▶️ Обзор построения IT-инфраструктуры на базе Proxmox (Debian, Mikrotik CHR, VPN, VM, AD, RDP) [Видео0]
▶️ Установка Proxmox на Hetzner + базовая защита (Debian 12, SSH, Fail2Ban, Firewall, Nmap) [Видео1]
▶️ Организация интернета для ВМ в Proxmox (PROXMOX, Bridge, NAT, MikroTik CHR, vmbr0/vmbr1) [Видео2]
В целом ничего особенного лично для меня, но мне импонирует такой формат, когда показывают на примере реального хостинга, а не искусственной лабы.
Очень хочется написать такой же цикл в тексте на примере реального хостера, например, Selectel. У меня там куча бонусных средств для этого есть. Не хватает только одного - времени. Такие статьи писать очень времязатратно. Но, думаю, получится рано или поздно.
У меня есть большая статья про настройку Proxmox, но она устарела. Хотя принципиально ничего не поменялось, но всё равно надо освежить. Я там в том числе рассказываю про реальный пример настройки доступа в интернет виртуальных машин с использованием шлюза на одной из них с пробросом в него внешнего IP. Прям с одного из рабочих серверов взял пример и описал.
#обучение #proxmox
Получился хороший, информативный цикл (ещё не закончен), который будет интересен в основном новичкам, потому что даётся база. Из интересного, автор рассматривает разные способы организации доступа в интернет для виртуальных машин.
1. Каждая виртуалка имеет свой внешний IP.
2. В качестве шлюза выступает сам гипервизор.
3. В качестве шлюза использует Mikrotik CHR в отдельной виртуальной машине.
Я тоже в разных ситуациях могу использовать один из этих способов. Это в 3-м видео разбирается. Причём с практическим примером от Hetzner, но похожая схема бывает и у других провайдеров.
В целом ничего особенного лично для меня, но мне импонирует такой формат, когда показывают на примере реального хостинга, а не искусственной лабы.
Очень хочется написать такой же цикл в тексте на примере реального хостера, например, Selectel. У меня там куча бонусных средств для этого есть. Не хватает только одного - времени. Такие статьи писать очень времязатратно. Но, думаю, получится рано или поздно.
У меня есть большая статья про настройку Proxmox, но она устарела. Хотя принципиально ничего не поменялось, но всё равно надо освежить. Я там в том числе рассказываю про реальный пример настройки доступа в интернет виртуальных машин с использованием шлюза на одной из них с пробросом в него внешнего IP. Прям с одного из рабочих серверов взял пример и описал.
#обучение #proxmox
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Обзор построения IT-инфраструктуры на базе Proxmox (Debian, Mikrotik CHR, VPN, VM, AD, RDP) [Видео0]
0:00 Приветствие
0:42 Proxmox Server
0:58 Интернет для виртуалок
2:42 Mikrotik CHR
3:56 Установка виртуалок
4:38 Mikrotik VPN
5:41 Microsoft AD
7:51 Итог
Хочешь обсудить тему или задать вопрос лично?
Залетай в чат :
https://xn--r1a.website/sudo_hub
Это вводное видео…
0:42 Proxmox Server
0:58 Интернет для виртуалок
2:42 Mikrotik CHR
3:56 Установка виртуалок
4:38 Mikrotik VPN
5:41 Microsoft AD
7:51 Итог
Хочешь обсудить тему или задать вопрос лично?
Залетай в чат :
https://xn--r1a.website/sudo_hub
Это вводное видео…
6👍156👎2
В пятницу в подборке видео с ютуба был ролик с системой мониторинга для Proxmox VE и BS под названием Pulse. По внешнему виду продукт сразу заинтересовал, поэтому решил попробовать. Забегая вперёд скажу, что очень понравилась эта веб панель с мониторингом. Расскажу обо всём по порядку.
📌 Особенности Pulse:
◽️Эта программа только под продукты PVE и PBS
◽️Ничего сама на хостах не делает, только берёт информацию
◽️Максимально простая в настройке, достаточно дать доступ к гипервизору или хранилищу бэкапов в режиме чтения
◽️Приятный и удобный веб интерфейс
◽️Встроенная аутентификация самой панели
◽️Просмотр данных в режиме реального времени
◽️Отправляет уведомления на основании данных о базовых метриках доступных ресурсов
◽️Поддерживает email и механизм вебхуков для отправки уведомлений. Для популярных сервисов типа Telegram для вебхуков есть преднастройки.
◽️Удобный просмотр бэкапов виртуальных машин
◽️Простая установка в одно действие
Развернул я Pulse на своём тестовом гипервизоре и сервере с бэкапами. Панель очень понравилась своим внешним видом и набором визуализаций. Особенно удобно смотреть информацию по бэкапам и снэпшотам. Последние подсвечиваются отдельным цветом, так что не пропустишь. Иногда оставленные по ошибке снепшоты могут принести очень много проблем. Я лично с ними сталкивался, делал заметки на эту тему.
Сразу могу сказать, что Pulse не заменяет систему мониторинга. Не тестировал тут уведомления, так как в любом случае всегда настраиваю Zabbix для задач мониторинга.
Изначально держал в голове, что Pulse - чисто для любителей и домашних лабораторий. Но когда немного посмотрел на него, захотелось и на рабочие сервера поставить, потому что удобно. Да и проблем нет с настройкой. Можно выделить микро виртуалку под это дело. Сделать токены на чтение и запустить. Мешать эта панель не будет. Не понадобится, просто выключаешь её и всё.
Для установки есть несколько способов:
1️⃣ Готовый скрипт для запуска на гипервизоре. Скрипт автоматом всё запускает в небольшом LXC контейнере.
2️⃣ Запуск через Docker.
3️⃣ Ручная установка бинарника с конфигурацией и запуск через systemd.
Я устанавливал через Docker. Мне показалось это максимально простым и безопасным способом. Взял отдельную виртуалку и запустил:
Настраивать ничего не надо. Все данные помещаются в отдельный volume. Дальше можно идти на порт сервера 7655, создавать учётку админа и настраивать.
В одну веб панель можно собрать все свои гипервизоры и бэкап серверы. В веб интерфейсе работают группировки, сортировки, фильтры и т.д. Удобно настроить подходящий список.
Обзор панели, как и описание, увидел на ресурсах Самохостинга.
Заметил, что у проекта мало звёзд на github. Мне кажется, он заслуживает большего. Накидайте, если не трудно. Это вдохновит автора.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#proxmox #мониторинг
📌 Особенности Pulse:
◽️Эта программа только под продукты PVE и PBS
◽️Ничего сама на хостах не делает, только берёт информацию
◽️Максимально простая в настройке, достаточно дать доступ к гипервизору или хранилищу бэкапов в режиме чтения
◽️Приятный и удобный веб интерфейс
◽️Встроенная аутентификация самой панели
◽️Просмотр данных в режиме реального времени
◽️Отправляет уведомления на основании данных о базовых метриках доступных ресурсов
◽️Поддерживает email и механизм вебхуков для отправки уведомлений. Для популярных сервисов типа Telegram для вебхуков есть преднастройки.
◽️Удобный просмотр бэкапов виртуальных машин
◽️Простая установка в одно действие
Развернул я Pulse на своём тестовом гипервизоре и сервере с бэкапами. Панель очень понравилась своим внешним видом и набором визуализаций. Особенно удобно смотреть информацию по бэкапам и снэпшотам. Последние подсвечиваются отдельным цветом, так что не пропустишь. Иногда оставленные по ошибке снепшоты могут принести очень много проблем. Я лично с ними сталкивался, делал заметки на эту тему.
Сразу могу сказать, что Pulse не заменяет систему мониторинга. Не тестировал тут уведомления, так как в любом случае всегда настраиваю Zabbix для задач мониторинга.
Изначально держал в голове, что Pulse - чисто для любителей и домашних лабораторий. Но когда немного посмотрел на него, захотелось и на рабочие сервера поставить, потому что удобно. Да и проблем нет с настройкой. Можно выделить микро виртуалку под это дело. Сделать токены на чтение и запустить. Мешать эта панель не будет. Не понадобится, просто выключаешь её и всё.
Для установки есть несколько способов:
Я устанавливал через Docker. Мне показалось это максимально простым и безопасным способом. Взял отдельную виртуалку и запустил:
# docker run -d -p 7655:7655 -v pulse_data:/data rcourtman/pulse:latestНастраивать ничего не надо. Все данные помещаются в отдельный volume. Дальше можно идти на порт сервера 7655, создавать учётку админа и настраивать.
В одну веб панель можно собрать все свои гипервизоры и бэкап серверы. В веб интерфейсе работают группировки, сортировки, фильтры и т.д. Удобно настроить подходящий список.
Обзор панели, как и описание, увидел на ресурсах Самохостинга.
Заметил, что у проекта мало звёзд на github. Мне кажется, он заслуживает большего. Накидайте, если не трудно. Это вдохновит автора.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#proxmox #мониторинг
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍133👎3
Хочу отдельно привлечь ваше внимание к циклу видео с youtube канала RealManual, которые там недавно появились. Не стал их добавлять в общую подборку, потому что их там много и все я не смотрел. Видео этого автора часто бывают у меня на канале, как и он сам иногда появляется в комментариях.
Василий выложил серию роликов про Proxmox из своего платного курса. Там не только непосредственно гипервизор, но и обвязка вокруг него: PBS, NFS и Ceph для хранилищ, Linstore, Terraform и т.д. Качество материала на хорошем уровне: наглядно, простыми словами, всегда с примерами. Всё делается на наших глазах. Несмотря на то, что всё снималось в разное время и уже с устаревшими версиями, вся база не изменилась. Появились какие-то новые возможности, типа SDN, но все старые материалы остались актуальны. Например, я проксомовский SDN не использую.
Отдельно отмечу одно видео под названием Proxmox VE: храним и бекапим - Бонусы: Бекапы (факапы) и ресторы. Я его посмотрел и увидел новую для себя информацию. В Proxmox есть один важный нюанс с бэкапом и восстановлением LXC контейнера, который может привести к безвозвратной потери данных.
Если вы исключили из бэкапов какой-то подключенный к контейнеру диск, забэкапили контейнер, а потом восстановили из бэкапа, этот исключённый диск будет автоматически удалён без каких-либо вопросов. Просто вжик и ничего нет. Поведение неочевидно и пока не столкнёшься, вряд ли будете ожидать такого. Причём я часто так делаю с виртуалками. Создаю быстрые бэкапы только с системным диском, чтобы можно было оперативно откатить только систему, а не терабайты подключенных к ней данных.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#видео #обучение #proxmox
Василий выложил серию роликов про Proxmox из своего платного курса. Там не только непосредственно гипервизор, но и обвязка вокруг него: PBS, NFS и Ceph для хранилищ, Linstore, Terraform и т.д. Качество материала на хорошем уровне: наглядно, простыми словами, всегда с примерами. Всё делается на наших глазах. Несмотря на то, что всё снималось в разное время и уже с устаревшими версиями, вся база не изменилась. Появились какие-то новые возможности, типа SDN, но все старые материалы остались актуальны. Например, я проксомовский SDN не использую.
Отдельно отмечу одно видео под названием Proxmox VE: храним и бекапим - Бонусы: Бекапы (факапы) и ресторы. Я его посмотрел и увидел новую для себя информацию. В Proxmox есть один важный нюанс с бэкапом и восстановлением LXC контейнера, который может привести к безвозвратной потери данных.
Если вы исключили из бэкапов какой-то подключенный к контейнеру диск, забэкапили контейнер, а потом восстановили из бэкапа, этот исключённый диск будет автоматически удалён без каких-либо вопросов. Просто вжик и ничего нет. Поведение неочевидно и пока не столкнёшься, вряд ли будете ожидать такого. Причём я часто так делаю с виртуалками. Создаю быстрые бэкапы только с системным диском, чтобы можно было оперативно откатить только систему, а не терабайты подключенных к ней данных.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#видео #обучение #proxmox
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍129👎6
Вчера обновил один из своих тестовых серверов Proxmox версии 8.4 до недавно вышедшей 9.1. Ничего не выдумывал, сделал всё строго по официальной инструкции. Всё совпало до каждого пункта и предупреждения. Причём даже с установленным на этом же хосте PBS прямо на железо вместе с PVE. Никаких конфликтов и проблем не возникло.
Обновиться решил из-за некоторых нововведений релиза 9.1. Когда вышел 9.0, обновляться не стал даже из любопытства, так как не увидел каких-то интересных и полезных обновлений.
А вот в 9.1 как минимум появилась возможность запускать напрямую Docker контейнеры, что хоть и не решает каких-то глобальных проблем, но выглядит интересно. Плюс, у контейнеров в веб интерфейсе виден настроенный IP адрес, чего не хватало. Люди городили костыли для этого, теперь они не нужны.
Попробовал я запуск Docker контейнеров и могу сказать, что пока это всё игрушки и не очень удобно. Работает это так:
1️⃣ В локальное хранилище предварительно загружается Docker контейнер. В том же разделе, где загружаются образы LXC.
2️⃣ Создаётся новый контейнер, где в качестве образа выбирается скачанный ранее контейнер. Настройки все те же, что и в случае с LXC. По факту вы LXC и создаёте, где автоматически запустится контейнер докера.
3️⃣ Переменные вынесены в отдельный раздел в Options в настройках контейнера.
4️⃣ Контейнер запускается на выбранном сетевом бридже и использует настроенный в момент создания IP адрес.
На практике всё это выглядит точно так же, как LXC, только запускается контейнер Docker из Docker Hub. Причём одиночный контейнер фиксированной версии. Я так и не понял, как его обновить, кроме как скачать образ новой версии и снова запустить его, подключив тот же диск.
Получилась некая новая сущность, и не LXC, и не Docker, а что-то между ними. Данные контейнера пишутся и хранятся на подключенный raw образ. То есть контейнер нормально бэкапится и переносится. Но при этом в него не зайти, как в LXC, через веб интерфейс. Не выполнить
В таком виде это удобно только для запуска одиночных Docker контейнеров. С ними можно работать, как с LXC или виртуальными машинами - бэкапить, переносить, выделять ресурсы. Думаю, что это только проба пера и функциональность будут наращивать до уровня взаимодействия Docker Compose. А пока для полноценного запуска нескольких контейнеров придётся действовать как и раньше:
Cоздание контейнера LXC ⇨ установка Docker и Docker Compose ⇨ загрузка YML-файла ⇨ запуск контейнеров.
По идее вот эту цепочку должны в итоге реализовать в более аккуратном и удобном виде в следующих релизах.
❓Если уже используете эту функциональность, то что думаете по этому поводу? Как я уже сказал, для одиночного контейнера всё неплохо. А для связки из нескольких контейнеров пока неприменимо. Ну и обновление надо как-то автоматизировать.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX
#proxmox #docker
Обновиться решил из-за некоторых нововведений релиза 9.1. Когда вышел 9.0, обновляться не стал даже из любопытства, так как не увидел каких-то интересных и полезных обновлений.
А вот в 9.1 как минимум появилась возможность запускать напрямую Docker контейнеры, что хоть и не решает каких-то глобальных проблем, но выглядит интересно. Плюс, у контейнеров в веб интерфейсе виден настроенный IP адрес, чего не хватало. Люди городили костыли для этого, теперь они не нужны.
Попробовал я запуск Docker контейнеров и могу сказать, что пока это всё игрушки и не очень удобно. Работает это так:
На практике всё это выглядит точно так же, как LXC, только запускается контейнер Docker из Docker Hub. Причём одиночный контейнер фиксированной версии. Я так и не понял, как его обновить, кроме как скачать образ новой версии и снова запустить его, подключив тот же диск.
Получилась некая новая сущность, и не LXC, и не Docker, а что-то между ними. Данные контейнера пишутся и хранятся на подключенный raw образ. То есть контейнер нормально бэкапится и переносится. Но при этом в него не зайти, как в LXC, через веб интерфейс. Не выполнить
docker ps или docker inspect, как в обычной среде запуска Docker. Контейнеры Docker не связать между собой, как это сделано в Docker Compose.В таком виде это удобно только для запуска одиночных Docker контейнеров. С ними можно работать, как с LXC или виртуальными машинами - бэкапить, переносить, выделять ресурсы. Думаю, что это только проба пера и функциональность будут наращивать до уровня взаимодействия Docker Compose. А пока для полноценного запуска нескольких контейнеров придётся действовать как и раньше:
Cоздание контейнера LXC ⇨ установка Docker и Docker Compose ⇨ загрузка YML-файла ⇨ запуск контейнеров.
По идее вот эту цепочку должны в итоге реализовать в более аккуратном и удобном виде в следующих релизах.
❓Если уже используете эту функциональность, то что думаете по этому поводу? Как я уже сказал, для одиночного контейнера всё неплохо. А для связки из нескольких контейнеров пока неприменимо. Ну и обновление надо как-то автоматизировать.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#proxmox #docker
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍91👎5