понедельник, 11 ноября 2019 г.

Руководство администратора Proxmox VE R 6.0 Глава 5.

Proxmox VE Administration Guide

Графический интерфейс пользователя

  1. Особенности
  2. Вход в систему
  3. Обзор графического интерфейса
  4. Панель Содержимого
Proxmox VE-это просто. В нем нет необходимости устанавливать отдельный инструмент управления, и все может быть сделано через ваш веб-браузер (последние Firefox или Google Chrome является предпочтительным). Для доступа к гостевой консоли используется встроенная консоль HTML5. В качестве альтернативы можно использовать SPICE.


Поскольку мы используем файловую систему кластера Proxmox (pmxcfs), вы можете подключиться к любому узлу для управления всем кластером. Каждый узел может управлять всем кластером. Нет необходимости в выделенном узле диспетчера.

Вы можете использовать веб-интерфейс администрирования с любым современным браузером. Когда Proxmox VE обнаруживает, что вы подключаетесь с мобильного устройства, вы перенаправляетесь на более простой, сенсорный пользовательский интерфейс.

Веб-интерфейс доступен по адресу https://youripaddress:8006 (логин по умолчанию: root, и пароль задается в процессе установки).

  1. Особенности

    • Полная интеграция и управление кластерами Proxmox VE
    • Технологии AJAX для динамического обновления ресурсов
    • Безопасный доступ ко всем виртуальным машинам и контейнерам с помощью шифрования SSL (https)
    • Быстрый поисковый интерфейс, способный обрабатывать сотни и, возможно, тысячи виртуальных машин
    • Безопасная консоль HTML5 или SPICE
    • Управление разрешениями на основе ролей для всех объектов (виртуальных машин, хранилищ, узлов и т.д.)
    • Поддержка нескольких источников аутентификации (например, local, MS AD, LDAP, ...)
    • Двухфакторная аутентификация (OATH, Yubikey)
    • На основе ExtJS 6.х JavaScript фреймворка
  2. Вход в систему


    При подключении к серверу вы сначала увидите окно входа в систему. Proxmox VE поддерживает различные бэкэнды аутентификации (Realm), так же здесь вы можете выбрать язык. Графический интерфейс переведен на более чем 20 языков.
    Примечание
    Вы можете сохранить имя пользователя на стороне клиента, установив флажок внизу. Это избавит от его набора при входе в следующий раз.

  3. Обзор графического интерфейса


    Пользовательский интерфейс Proxmox VE состоит из четырех областей:

    Верхняя панель Показывает информацию о состоянии и содержит кнопки для наиболее важных действий.
    Панель дерева ресурсов слеваПанель навигации, в котором можно выбрать определенные объекты.
    Центральная панель содержимогоЗдесь отображается состояние выбранных объектов и параметры конфигурации.
    Панель журнала внизуОтображает последние записи журнала. Вы можете дважды щелкнуть по этим записям, чтобы получить дополнительные сведения или прервать выполнение задачи.

    Примечание
    Можно уменьшить и расширить размер дерева ресурсов и панели журнала или полностью скрыть панель журнала. Это бывает полезно, когда вы работаете на небольших дисплеях и хотите получить больше места для просмотра другого контента.

    1. Верхняя панель

      На ее левой стороне, первое, что вы видите, это логотип Proxmox. Рядом находится версия запущенной Proxmox VE. В строке поиска рядом вы можете искать определенные объекты (виртуальные машины, контейнеры, узлы, ... ). Иногда это происходит быстрее, чем выбор объекта в дереве ресурсов.

      Справа от строки поиска мы видим идентификатор (имя пользователя). Символ шестеренки - кнопка, открывающая диалоговое окно "Мои настройки". Там вы можете настроить некоторые параметры пользовательского интерфейса на стороне клиента (сбросить сохраненный логин или макет).

      Самая правая часть заголовка содержит четыре кнопки:

      Справкаоткрывает новое окно браузера, в котором отображается справочная документация.
      Создание VMоткрывает мастер создания виртуальной машины
      Создать CTоткрывает мастер создания контейнера
      Выход из системывыход из системы на окно авторизации
    2. Мои Настройки


      В окне "Мои настройки" можно задать локально сохраняемые настройки. К ним относятся панели мониторинга хранилищ, которые позволяют включать или отключать определенные хранилища для подсчета общего объема, отображаемого в сводке центра обработки данных. Если ни одно хранилище не выбрано, отображается сумма объемов всех хранилищ, так же как и при включении каждого из них.

      Под настройками панели мониторинга вы найдете сохраненное имя пользователя и кнопку для его очистки, а также кнопку для сброса ваших настроек GUI к макету по умолчанию.

      На правой стороне есть настройки xterm.js. Они содержат следующие параметры:

      Font-Familyшрифт, используемый в xterm.js (например Arial).
      Font-Sizeпредпочитаемый размер шрифта для использования
      Интервалувеличивает или уменьшает расстояние между буквами в тексте
      Высота строкиукажите абсолютную высоту строки
    3. Дерево Ресурсов

      Это главная панель с деревом навигации. В верхней части этого дерева вы можете выбрать некоторые предопределенные представления, которые изменяют структуру дерева ниже. Представление по умолчанию - это представление сервера, в котором отображаются следующие типы объектов:

      ДатацентрСодержит настройки кластера (применяются ко всем узлам)
      УзелПредставляет хосты кластера, на них запускаются гостевые системы
      ГостьVM, контейнеры и шаблоны
      ХранилищеХранилища Данных
      ПулДля упрощения управления гости могут группироваться в пулы


      Доступны следующие типы представлений:

      Просмотр серверовпоказывает все виды объектов, сгруппированных по узлам
      Просмотр папокотображаются все виды объектов, сгруппированных по типу объекта
      Просмотр хранилищотображаются только объекты хранения, сгруппированные по узлам
      Просмотр пуловотображаются виртуальные машины и контейнеры, сгруппированные по пулам
    4. Панель Журнала

      Основная цель панели журнала-показать вам, что в настоящее время происходит в вашем кластере. Такие действия, как создание новой виртуальной машины, выполняются в фоновом режиме, и мы называем такое фоновое задание задачей.

      Любой вывод из такой задачи сохраняется в отдельном файле журнала. Вы можете просмотреть этот журнал, просто дважды щелкнув запись журнала задач. Там также можно прервать выполнение задачи.

      Обратите внимание, что здесь отображаются самые последние задачи со всех узлов кластера. Таким образом, вы можете наблюдать, когда кто-то другой работает на другом узле кластера в режиме реального времени.
      Примечание
      Мы удаляем старые и готовые задачи из панели журнала, чтобы сохранить этот список коротким. Но вы все равно можете найти эти задачи в истории задач на панели узлов.

      Некоторые кратковременные действия просто отправляют логи всем членам кластера. Эти сообщения можно просмотреть на панели журнал кластера.
  4. Панель Содержимого

    При выборе объекта в дереве ресурсов соответствующий объект отображает информацию о его конфигурации и состоянии на панели содержимого. В следующих разделах дается краткий обзор функциональности. Пожалуйста, обратитесь к отдельным главам справочной документации, чтобы получить более подробную информацию.
    1. Датацентр


      На уровне датацентра можно получить доступ к настройкам и сведениям кластера в целом.
      • Поиск: можно искать что-либо в кластере, это может быть узел, виртуальная машина, контейнер, хранилище или пул.
      • Сводка: дает краткий обзор работоспособности кластера.
      • Кластер: позволяет создать/присоединиться к кластеру и показывает информацию о присоединении.
      • Параметры: можно показать и установить значения по умолчанию, которые применяются в масштабах кластера.
      • Хранилище: здесь хранилище можно добавить/настроить/удалить.
      • Резервное копирование: доступ к планировщику резервного копирования. Это общие настройки кластера, поэтому для расписания не важно, где находится виртуальная машина/контейнер в вашем кластере.
      • Репликация: показывает задания репликации и позволяет создавать новые.
      • Разрешения: здесь можно настроить разрешение пользователя и группы, LDAP, MS-AD и двухфакторную аутентификацию.
      • HA: управление высокой доступностью в Proxmox VE
      • Брандмауэр: на этом уровне брандмауэр Proxmox работает по всему кластеру и делает шаблоны доступными для всего кластера.
      • Поддержка: здесь вы получите всю информацию о Вашей подписке на поддержку.
      Если вы хотите получить дополнительную информацию об этом, см. соответствующую главу.
    2. Узлы

      На этом уровне Узлы кластера могут управляться индивидуально.

      Верхняя панель содержит полезные кнопки, такие как перезагрузка, завершение работы, оболочка, массовые операции и справка. Оболочка имеет опции noVNC, SPICE и xterm.js. Массовые действия имеют параметры: массовый запуск, массовая остановка и массовая миграция.
      • Поиск: можно искать что-либо на узле, это может быть виртуальная машина, контейнер, хранилище или пул.
      • Сводка: дает краткий обзор использования ресурсов.
      • Примечания: могут быть написаны пользовательские заметки о узле.
      • Оболочка: доступ к командной оболочке узла.
      • Система: предназначена для настройки сети, DNS и времени, а также показывает ваш системный журнал.
      • Обновления: обновление системы, сообщение о новых пакетах.
      • Брандмауэр: этот уровень только для этого узла.
      • Диски: дает вам краткий обзор ваших физических жестких дисков и как они используются.
      • Ceph: используется только в том случае, если на вашем хосте установлен сервер Ceph. Здесь вы можете управлять своим кластером Ceph и видеть его статус.
      • Репликация: показывает задания репликации и позволяет создавать новые.
      • История задач: здесь показаны все прошлые задачи.
      • Подписка: здесь вы можете загрузить ключ подписки и получить обзор системы в случае обращения в службу поддержки.
    3. Гости


      Есть два различных типа гостей, и оба могут быть преобразованы в шаблон. Один из них-это виртуальная машина на основе ядра (KVM), а другой-контейнер Linux (LXC). Как правило, навигация одинакова, только некоторые параметры отличаются.

      В главном центре управления навигация по виртуальной машине начинается, если виртуальная машина выбрана в левом дереве.

      Верхний заголовок содержит важные команды работы виртуальной машины, такие как запуск, выключение, сброс, удаление, перенос, консоль и справка. Некоторые из них имеют скрытые кнопки, такие как Shutdown has Stop, а консоль содержит различные типы консолей SPICE, noVNC и xterm.js.

      Справа содержимое изменяется в зависимости от выбранного параметра.

      С левой стороны. Все доступные опции перечислены одна под другой.

      • Сводка: дает краткий обзор состояния виртуальной машины.
      • Консоль: интерактивная консоль для виртуальной машины.
      • (KVM)оборудование: показывает и устанавливает оборудование виртуальной машины KVM.
      • (LXC)ресурсы: определяет аппаратные возможности LXC.
      • (LXC)сеть: параметры сети LXC.
      • (LXC)DNS: параметры DNS LXC.
      • Опции: все опции для гостей настраиваются здесь.
      • История задач: здесь будут показаны все предыдущие задачи от выбранного гостя.
      • Монитор (KVM): это интерактивный коммуникационный интерфейс для процесса KVM.
      • Резервное копирование: показывает доступные резервные копии из выбранного гостя, а также создает резервную копию.
      • Репликация: показывает задания репликации для выбранного гостя и позволяет создавать новые задания.
      • Моментальные снимки: управление моментальными снимками виртуальной машины.
      • Брандмауэр: управление брандмауэром на уровне виртуальной машины.
      • Разрешения: управление пользовательским разрешением для выбранного гостя.
    4. Хранилища


      Это представление разделено на два раздела.  С левой стороны отображены опции хранения, а с правой стороны будет показано содержимое выбранной опции.
      • Сводка: показывает важную информацию о хранилищах, таких как использование, тип, содержание, активный и включен.
      • Содержимое: Здесь отображается содержимое сгруппированное по типу.
      • Разрешения: управление разрешениями пользователя для этого хранилища.
    5. Пулы


      Это представление разделено на два раздела. С левой стороны параметры логического пула, а с правой стороны будет показано содержимое выбранного параметра.
      • Сводка: Показывает описание пула.
      • Члены: Здесь будут перечислены все члены этого пула и доступно управление ими.
      • Разрешения: управление разрешениями пользователя для этого пула.




22 комментария:

  1. Фантастика!!! Новая глава - не прошло и недели!!! Александр, спасибище!!! А как быть если у меня появляются практические вопросы по проектированию/установке/настройкам/практической работе с Proxmox? Именно практические, ответы на которые, возможно, очевидны практикам, уже работающим с Proxmox продолжительное время? Можно ли завести в блоге некий FAQ для всех и дополнять его периодически?

    ОтветитьУдалить
    Ответы
    1. Изначальная идея и была: глава в неделю, но некоторые главы оказались большими, а некоторые недели загруженными работой. Насчет практических вопросов - у меня только один кластер и на Proxmox мы перешли только 2 года как. Я и с переводом связался, только потому, что несколько раз сталкивался с тем что в русскоязычном сегменте ответа на свои вопросы не находил, а они при этом отлично освещены в руководстве.
      Так что вопросы то задавать конечно можно, но у меня нет ответов на все вопросы, а на некоторые кроме Вас самого и не ответит.

      Удалить
  2. Ну тогда начну с самых простеньких но для меня как начавшего работать практически с Proxmox c месяц назад пока что безответных. Кстати, опыта работы с Linux у меня тоже нет и потому конечно же наверняка эти вопросы могут быть интересны опять же только таким же как и я, имеющие таковой опыт наверняка уже давным-давно знают на них ответы, но всё же.
    1. Насколько интенсивно работает с диском где он сам установлен Proxmox? Может ли он сам быть установлен на промышленного типа DOM-носитель (SATA или USB 2.0) а его логи и конфигурационные файлы вынесены отдельно (если в этом есть смысл)? Оправдана ли будет его установка на SSD? Сейчас у меня он установлен на старый SATA HDD 160 Gb.
    2. Как правильно разбивать на разделы диск для установки Proxmox? Нужен ли ему SWAP-раздел и какой именно объём в зависимости от установленной RAM? Имеет ли смысл изначальная установка самого Proxmox сразу на создаваемый непосредственно при инсталляции том ZFS (а инсталлятор такое позволяет сейчас)?
    3. Установил NVME диск для размещения дисков виртуальных машин, при подключении нужно выбрать файловую систему для него, xfs или ext4 - что выбрать и почему именно? На что это будет влиять? Какой образ диска виртуальной машины предпочтительнее: raw или qcow2? Как его переносить между хранилищами на одной и той же ноде (нечто вроде миграции по прямому указанию администратора) Почему формат образа диска при переносе может самопроизвольно поменяться (например из raw в qcow2)?
    4. Я так понял что после создания пула дисков zfs добавить к ним новые нельзя даже если только для конвертации имеющегося raid-z1 в raid-z2 или raid-z3. А что тогда делают команды add и attach?
    Пока хватит вопросов, буду признателен за ответы, Александр!

    ОтветитьУдалить
    Ответы
    1. 1. Я для Proxmox использую старые SAS Диски 32/72Gb. Файловая система ZFS - у меня был пост по сравнению производительности FS. В более ранних установках использовал настройки по умолчанию. Есть установки на SSD. Был случай выхода SSD из строя, после которого я начал добавлять в планировщике принудительный трим. Интенсивность использования ресурсов можно смотреть в разделе сводка ноды.

      Удалить
    2. 2. Я использую маленькие диски 30-120Gb(SAS или SSD), которые Полностью используются только Proxmox, поэтому разбиваю по умолчанию, на SSD своп выключаю, чтоб не умер, на шпиндельных делаю 1-2Gb(у меня в серверах минимум 96Gb RAM)

      Удалить
    3. 3. Для хранилища я использую только ZFS или Ceph, так как мне важна высокая доступность, образы использую raw, какой предпочтительнее не скажу.

      Удалить
    4. 4. В пулы диски добавлять можно, некоторые типы пулов можно преобразовывать из одного в другой.

      Удалить
  3. Продолжение: как только я попытался проинициализировать nvme-диск как директорию с файловой системой xfs то получил вот такую ошибку:
    # /sbin/sgdisk -n1 -t1:8300 /dev/nvme0n1
    The operation has completed successfully.
    # /sbin/mkfs -t xfs /dev/nvme0n1p1
    mkfs.xfs: /dev/nvme0n1p1 appears to contain an existing filesystem (ntfs).
    mkfs.xfs: Use the -f option to force overwrite.
    TASK ERROR: command '/sbin/mkfs -t xfs /dev/nvme0n1p1' failed: exit code 1
    Теперь использование устройства /dev/nvme0n1 указано как partitions и больше я его инициализировать как Storage не могу - как его удалить из командной строки? А потом всё же проинициализировать как Storage и хранить на нём диски виртуальных машин?

    ОтветитьУдалить
  4. 4. На самом деле большинство Ваших вопросов достаточно подробно освещены в руководстве.
    Убить разметку помогает dd if=/dev/zero of=/dev/sd[X] bs=1M count=1024
    С xfs дела не имел, возможно ваш дитк имеет MBR разметку, а требуется GPT.

    ОтветитьУдалить
    Ответы
    1. Нет, диск изначально был виден как GPT, а я ещё раз принудительно его повторно инициализировал как GPT из GUI Proxmox - это точно.
      Про эту команду почитаю и попробую, спасибо!

      Удалить
  5. Спасибо за сверхоперативные ответы, правда мне пока не всё понятно, к примеру как отделить интенсивность работы с диском самого Proxmox для своей работы от работы дисковой подсистемы ноды для виртуальных машин - график-то один на всё (вроде как, нет сейчас перед глазами)!
    Так-то у меня в планах как раз и наладить постоянный бекап образов виртуальных машин с накопителя NVME на пул ZFS для их надёжного хранения - тогда можно будет безбоязненно работать с единственным диском NVME зная что пару раз за день он бэкапится и не переживать, но это всё будет описано в следующих главах перевода так что я пока что жду его. Кстати о размерах RAM на сервере - у меня тоже будет 96 Gb - купил и жду когда доставят, к сожалению это максимальный объём для этого сервера (Supermicro X8DTL-iF) - если считать что этот сервер планируется сделать гиперконвергентным и отдавать половину памяти виртуальным машинам то с оставшейся половиной каков объём дисковой подсистемы ZFS возможен для комфортной работы? Влияет ли число дисков на этот показатель? - тут я имею в виду есть ли разница для производительности и потребления памяти между, к примеру, 8 дисками по 2 ТБ или 4 дисками по 4 ТБ?

    ОтветитьУдалить
    Ответы
    1. Советы по улучшению производительности ZFS
      ZFS использует много памяти, поэтому лучше всего добавить дополнительную оперативную память, если вы хотите использовать ZFS. Хороший расчет-это 4 ГБ плюс 1 ГБ оперативной памяти для каждого ТБ необработанного дискового пространства.

      Удалить
    2. Если да, то для бэкапов я бы советовал использовать отдельную машину, настроив на ней NFS и подключив в качестве хранилища. FreeNAS позволяет легко сделать это, но подойдет любая Linux машина.

      Удалить
    3. Однонодовые конфигурации сложно рассмартивать для промышленного использования

      Удалить
  6. Эту рекомендацию я знаю, но хотелось бы практической конкретики при её применении и влиянии следующих факторов: перенос ZIL на SSD, организацию дополнительного кэша L2ARC на SSD, включение сжатия ZFS и дедупликации - какими тогда будут рекомендации? и практическое быстродействие? Насколько сильно влияет на него увеличение количества дисков, к примеру, вдвое при снижении их объёма также вдвое?
    Сервер пока один, второй тоже будет после апгрейда и покупки дисков, аппаратно платформа идентична первому, кстати я и сам тоже думал именно про организацию доступа по NFS на стороннюю машину для сброса долговременных бэкапов.
    Пока о промышленном применении нет речи, это для домашнего применения всё - отработки технологий настройки и практической работы виртуальных машин как рабочих мест фотографа и видеомонтажёра.

    ОтветитьУдалить
    Ответы
    1. Я собираю в страйп по 2 SSD, 2 SAS, 2 SATA диска и отражаю на точно такую же конфигурацую с помощью ZFS снэпшотов. У меня на отдельной ноде избыточности нет. Избыточность достигается за счет снэпшотов на другую ноду, важные машины на несколько нод. Плюс бэкапы. Всегда надо отталкиваться от требуемых задач и имеющихся ресурсов. Хороший результат показывал так же Ceph. Если Вы имеете возможность экспериментировать, то я, например делаю виртуальную машину, а потом делаю разные конфигурации хранилища и перемещаю с одного на другое (забыл написать это делается в оборудовании виртуалки, если встать на диск в меню появляется кнопка переместить) и гоняю тесты производительности (для дисковой подсистемы например использую Crystal Disc Mark).

      Удалить
    2. А как реализован страйп? Аппаратно? каким контроллером?

      Удалить
    3. Я использую ZFS и все делаю средствами ZFS. Контроллеры рекомендуется перевести в режим предоставления сырых дисков(для каждого рецепт индивидуальный, но для большинства возможно)

      Удалить
  7. Потому с самого начала я и хотел как дополнение к переводу читать именно ваши выводы из практики - это же самое ценное!
    А когда именно появляется эта кнопка "переместить"? Только если работает Ceph?

    ОтветитьУдалить
    Ответы
    1. Нет при любом виде хранилища идете VM->оборудование->жесткий диск, выделяете диск, сверху кнопки и среди них переместить. После нажатия появляется диалох выбора хранилища, естественно хранилище-получатель должно быть настроено для хранения образов VM: делается датацентр->хранилище->редактировать

      Удалить
    2. Ценная подсказка!!! Спасибо!

      Удалить