Proxmox VE Administration Guide
Гиперконвергентная инфраструктура
Proxmox VE - это платформа виртуализации, которая тесно интегрирует вычислительные, запоминающие и сетевые ресурсы, управляет высокодоступными кластерами, резервным копированием/восстановлением, а также аварийным восстановлением. Все компоненты программно определены и совместимы друг с другом. Поэтому их можно администрировать как единую систему через централизованный веб-интерфейс управления. Эти возможности делают Proxmox VE идеальным выбором для развертывания и управления гиперконвергентной инфраструктурой с открытым исходным кодом.- Преимущества гиперконвергентной инфраструктуры (HCI) с Proxmox VE
- Управление службами Ceph на узлах Proxmox VE
Преимущества гиперконвергентной инфраструктуры (HCI) с Proxmox VE
Гиперконвергентная инфраструктура особенно полезна для развертываний, в которых высокий спрос на инфраструктуру соответствует низкому бюджету администрирования, для распределенных установок, таких как удаленные среды и филиалы, или для виртуальных частных и общедоступных облаков. HCI обеспечивает следующие преимущества:- Масштабируемость: плавное расширение вычислительных, сетевых и запоминающих устройств (т. е. быстрое и независимое масштабирование серверов и хранилищ).
- Низкая стоимость: Proxmox VE является ПО с открытым исходным кодом и объединяет все необходимые компоненты, такие как вычислительные ресурсы, хранилище, сеть, резервное копирование и Центр управления. Он может заменить дорогостоящую вычислительную инфраструктуру / инфраструктуру хранения данных.
- Защита данных и эффективность: интегрированы такие службы, как резервное копирование и аварийное восстановление.
- Простота: простота настройки и централизованное администрирование.
- Открытый исходный код: • Отсутствие блокировки со стороны поставщика
Управление службами Ceph на узлах Proxmox VE
Proxmox VE объединяет ваши вычислительные системы и системы хранения, т.е. вы можете использовать одни и те же физические узлы в кластере как для вычислений (обработка виртуальных машин и контейнеров), так и для реплицированного хранилища. Традиционные хранилища вычислительных и запоминающих ресурсов могут быть объединены в одно гиперконвергентное устройство. Отдельные сети хранения (SANs) и подключения через сетевые хранилища (NAS) исчезают. Благодаря интеграции Ceph, программной платформы хранения с открытым исходным кодом, Proxmox VE имеет возможность запускать и управлять хранилищем Ceph непосредственно на узлах гипервизора.
Ceph - это распределенное хранилище объектов и файловая система, предназначенная для обеспечения отличной производительности, надежности и масштабируемости.
НЕКОТОРЫМИ ПРЕИМУЩЕСТВАМИ CEPH НА PROXMOX VE ЯВЛЯЮТСЯ:
- Простая настройка и управление с поддержкой CLI и GUI
- Тонкая настройка
- Поддержка снапшотов
- Самовосстановление
- Масштабируемость до уровня эксабайт
- Настройка пулов с различными характеристиками производительности и резервирования
- Данные реплицируются, что делает их отказоустойчивыми
- Работает на бюджетном оборудовании
- Нет необходимости в аппаратных RAID контроллерах
- Открытый исходный код
Для упрощения управления мы предоставляемpveceph
- инструмент для установки и управления службами Ceph на узлах Proxmox VE.
CEPH, ДЛЯ ИСПОЛЬЗОВАНИЯ В КАЧЕСТВЕ ХРАНИЛИЩА RBD, ТРЕБУЕТ СЛЕДУЮЩИЕ ДЕМОНЫ:
- Ceph Monitor (ceph-mon)
- Ceph Manager (ceph-mgr)
- Ceph OSD (ceph-osd; Object Storage Daemon)
- Совет
- Мы настоятельно рекомендуем ознакомиться с архитектурой и лексикой Ceph.
Ceph архитектура http://docs.ceph.com/docs/luminous/architecture/
Ceph глоссарий http://docs.ceph.com/docs/luminous/glossary
Предварительное условие
Для построения гиперконвергентного кластера Proxmox + Ceph должно быть как минимум три (желательно) одинаковых сервера для установки.
Проверьте также рекомендации с веб-сайта Ceph.
CPU
Более высокая частота ядра процессора уменьшает задержки и является предпочтительной. В качестве простого практического правила вы должны назначить ядро (или поток) процессора каждому сервису Ceph, чтобы обеспечить достаточно ресурсов для стабильной и надежной работы Ceph.
Память
Особенно в гиперконвергентной установке, потребление памяти необходимо тщательно контролировать. В дополнение к предполагаемой рабочей нагрузке от виртуальных машин и контейнера, Ceph требуется достаточно памяти, чтобы обеспечить хорошую и стабильную производительность. Как правило, для примерно 1 TiB данных, 1 GiB памяти будет использоваться OSD. Кэширование OSD будет использовать дополнительную память.
Сеть
Мы рекомендуем пропускную способность сети, которая используется исключительно для Ceph не менее 10 GbE или более. Ячеистая топология сети2 также является выходом, если нет доступных коммутаторов 10 GbE. Объем трафика, особенно во время восстановления, будет мешать другим службам в той же сети и может даже разрушить стек кластера Proxmox VE. Кроме того, оцените свои потребности в пропускной способности. В то время как один жесткий диск может не насыщать канал 1 Гб, несколько жестких дисков на узле могут, а современные накопители SSD NVMe даже быстро насыщают пропускную способность 10 Gbps. Развертывание сети, способной к еще большей пропускной способности, гарантирует, что это не ваше узкое место и не будет в ближайшее время, возможно 25, 40 или даже 100 Gbps.
Диски
При планировании размера кластера Ceph важно учитывать время восстановления. Особенно с небольшими кластерами, восстановление может занять много времени. Рекомендуется использовать твердотельные накопители вместо жестких дисков в небольших установках, чтобы сократить время восстановления, минимизируя вероятность последующего сбоя во время восстановления.
В целом SSD накопители обеспечивают больше операций ввода-вывода, чем вращающиеся диски. Этот факт и более высокая стоимость могут сделать привлекательным разделение пулов на основе классов устройств (см раздел 4.2.9). Другая возможность ускорить OSD - использовать более быстрый диск для журнала или DB/Write-Ahead-Log устройства (см. раздел Ceph OSD.) Если для нескольких операционных систем используется более быстрый диск, необходимо выбрать правильный баланс между OSD и Wal/DB (или журнальным) диском, в противном случае более быстрый диск становится узким местом для всех связанных операционных систем. Помимо типа диска, Ceph лучше всего работает с равномерным распределением размеров и количества дисков на узел. Например, 4 х 500 ГБ дисков с в каждом узле лучше, чем смешанная установка с одним 1 ТБ и три 250 ГБ диска.
Также необходимо сбалансировать количество OSD и емкость одного OSD. Большая емкость позволяет увеличить плотность хранения, но это также означает, что сбой одного OSD сразу заставляет ceph восстанавливать большее количество данных.
Отказ от RAID
Поскольку Ceph самостоятельно обрабатывает избыточность объектов данных и распаралеливание операций записи на диски (OSD) , использование RAID - контроллера обычно не улучшает производительность или доступность. Напротив, Ceph предназначен для работы напрямую с дисками самостоятельно, без какой-либо абстракции между ними. RAID - контроллеры не предназначены для использования Ceph и могут усложнять ситуацию, а иногда даже снижать производительность, так как их алгоритмы записи и кэширования могут мешать работе Ceph.
- Внимание!
- Избегайте RAID-контроллера, используйте вместо него host bus adapter (HBA).
- Примечание
- Приведенные выше рекомендации следует рассматривать как примерное руководство по выбору аппаратного обеспечения. Поэтому по-прежнему важно адаптировать его к вашим конкретным потребностям, протестировать вашу установку и постоянно контролировать работоспособность и производительность.
2Полная ячеистая сеть для Ceph https://pve.proxmox.com/wiki/Full_Mesh_Network_for_Ceph_Server
Начальная установка и настройка Ceph
С Proxmox VE вы можете воспользоваться простым в использовании мастером установки Ceph. Щелкните на одном из узлов кластера и перейдите к разделу Ceph в дереве меню. Если пакет еще не установлен, вам будет предложено сделать это сейчас.
Мастер разделен на различные разделы, каждый из них должен быть успешно завершен, чтобы использовать Ceph. После запуска установки мастер загрузит и установит все необходимые пакеты из репозитория Ceph Proxmox VE.
После завершения первого шага, вам нужно будет создать конфигурацию. Этот шаг необходим только один раз для каждого кластера, поскольку эта конфигурация автоматически распространяется среди всех остальных узлов кластера через файловую систему конфигурации кластера Proxmox VE (pmxcfs), глава 7.
Шаг настройки включает в себя следующие параметры:- Публичная сеть: Вы должны настроить выделенную сеть для Ceph, этот параметр является обязательным. Отделение вашего трафика Ceph настоятельно рекомендуется, потому что это может привести к проблемам с другими зависимыми от задержки службами, например, взаимодействие узлов кластера может снизить производительность Ceph, если этого не сделано.
- Сеть кластера: В качестве дополнительного шага вы можете пойти еще дальше и отделить трафик репликации разделов OSD (см. 4.2.7) и heartbeat трафик. Это облегчит работу общедоступной сети и может привести к значительному повышению производительности, особенно в больших кластерах.
- Количество реплик: Определяет частоту репликации объекта.
- Минимальное количество реплик: Определяет минимальное количество требуемых реплик для I/O, помеченных как завершенные.
Кроме того, вы обязательно должны выбрать свой первый узел монитора.
Вот и все, вы должны увидеть сообщение об успешном окончании установки в качестве последнего шага, с инструкциями о дальнейших действиях. Теперь вы готовы начать использовать Ceph, дальше вам нужно будет создать дополнительные мониторы (см. раздел 4.2.5), создать несколько OSD (см. раздел 4.2.7) и по крайней мере один пул (см. раздел 4.2.8).
Остальная часть этой главы будет направлять вас о том, как получить максимальную отдачу от вашего Ceph на базе Proxmox VE, это будет включать в себя вышеупомянутые шаги и другие, такие как CephFS (см. раздел 4.2.11), которая является очень удобным дополнением к вашему новому кластеру Ceph.Установка пакетов Ceph
Используйте мастер установки Proxmox VE Ceph (рекомендуется) или выполните следующую команду на каждом узле:
Это устанавливает репозиторий пакетов apt вpveceph install
/etc/apt/sources.list.d/ceph.list
и устанавливает необходимое программное обеспечение.Создание начальной конфигурации Ceph
Используйте мастер установки Proxmox VE Ceph (рекомендуется) или выполните следующую команду на одном узле:
Эта команда создаст начальную конфигурацию вpveceph init --network 10.10.10.0/24
/etc/pve/ceph.conf
с выделенной сетью для ceph. Этот файл автоматически распространяется на все узлы Proxmox VE с помощью pmxcfs см. Главу 7. Команда также создает символическую ссылку из файла/etc/ceph/ceph.conf
указывающую на этот файл. Таким образом, вы можете просто запускать команды Ceph без необходимости указывать файл конфигурации.Создание Ceph мониторов
Ceph Monitor (MON)3 поддерживает главную копию карты кластера. Для высокой доступности необходимо иметь не менее 3 мониторов. Один монитор уже был установлен, если вы использовали мастер установки. Вам не понадобится более 3 мониторов, пока ваш кластер мал до среднего размера, только действительно большие кластеры требуют большего количества.
На каждом узле, где вы хотите разместить монитор (рекомендуется три монитора), создайте его с помощью вкладки Ceph → Monitor в графическом интерфейсе или запустите.
Это также установит необходимый Ceph Manager (ceph-mgr) по умолчанию. Если вы не хотите устанавливать диспетчер, укажите параметрpveceph createmon
-exclude-manager
.Создание Ceph Manager
Manager daemon работает рядом с мониторами, обеспечивая интерфейс для мониторинга кластера. С момента выпуска Ceph luminous демон ceph-mgr4 обязателен. Во время установки монитора также будет установлен Ceph manager.
3Ceph Monitor http://docs.ceph.com/docs/luminous/start/intro/
4Ceph Manager http://docs.ceph.com/docs/luminous/mgr/
- Примечание
- Рекомендуется установить Ceph Manager на узлах, где установлены мониторы. Для обеспечения высокой доступности установите более одного менеджера.
pveceph createmgr
Создание Ceph OSD
Используя GUI или с помощью коммандной строки следующим образом:pveceph createosd /dev/sd[X]
- Совет
- Мы рекомендуем размер кластера Ceph, начиная с 12 OSD, равномерно распределенных между вашими, по крайней мере, тремя узлами (4 OSD на каждом узле).
Если диск использовался ранее (например, ZFS/RAID/OSD), для удаления таблицы разделов, загрузочного сектора и всех оставшихся OSD должна быть достаточно следующей команды.ceph-volume lvm zap /dev/sd[X] --destroy
- Внимание!
- Приведенная выше команда уничтожит данные на диске!
Ceph Bluestore
Начиная с выпуска Ceph Kraken, был представлен новый тип хранилища ceph OSD, так называемый Bluestore5. Это значение по умолчанию при создании OSD начиная с Ceph Luminous.pveceph createosd /dev/sd[X]
Block.db и block.wal
Если вы хотите использовать отдельное устройство DB/WAL для ваших OSD, вы можете указать его с помощью параметров-db_dev и -wal_dev
. WAL помещается вместе с DB, если не указано отдельно.
Вы можете непосредственно выбрать размер для них, с помощью параметров -db_size и -wal_size соответственно. Если они не заданы, будут использоваться следующие значения (по порядку):pveceph createosd /dev/sd[X] -db_dev /dev/sd[Y] -wal_dev /dev/sd[Z]
- bluestore_block_{db,wal}_size from ceph configuration...
- ...database, section osd
- ...database, section global
- ...file, section osd
- ...file, section global
- 10%(DB)/1%(WAL) от размера OSD
- Примечание
- B хранит внутренние метаданные BlueStore, а WAL - это внутренний журнал BlueStore или журнал опережающей записи. Рекомендуется использовать быстрый SSD или NVRAM для повышения производительности.
5Ceph Bluestore http://ceph.com/community/new-luminous-bluestore/
Ceph Filestore
До Ceph Luminous, тип Ceph Filestore использовался в качестве хранилища по умолчанию для Ceph машин. Начиная с Ceph Nautilus, Proxmox VE больше не поддерживает создание таких OSD с pveceph. Если вы все же хотите создать filestore OSD, используйте непосредственноceph-volume
.ceph-volume lvm create --filestore --data /dev/sd[X] --journal /dev/sd[Y]
Создание Ceph Пулов
Пул-это логическая группа для хранения объектов. Он содержит группы размещения (PG, pg_num), набор объектов.
Если параметры не заданы, используется значение по умолчанию 128PG, size 3 реплики и min_size 2 реплики для обслуживания объектов в случае деградации пула.
- Примечание
- Количество PG по умолчанию подходит для 2-5 дисков. Ceph выдает предупреждение HEALTH_WARNING, если у вас слишком мало или слишком много PG в вашем кластере.
Рекомендуется рассчитать число PG в зависимости от ваших настроек, в интернете вы можете найти формулу и онлайн PG калькулятор6. Количество PG может быть увеличено позже, но оно никогда не может быть уменьшено.
Вы можете создавать пулы с помощью графического интерфейса на каждом PVE узле в Ceph → Pools или командной строки.
Если вы хотите автоматически добавить хранилище во время создания пула, активируйте флажок "добавить хранилище" в графическом интерфейсе или используйте параметр командной строкиpveceph createpool <name>
--add_storages
при создании пула.
Дополнительную информацию об обработке пула Ceph можно найти в Ceph pool operation7 manual.
6PG calculator http://ceph.com/pgcalc/
7Ceph pool operation http://docs.ceph.com/docs/luminous/rados/operations/pools/Ceph CRUSH и классы устройств
Фундамент Ceph - это его алгоритм "Controlled Replication Under Scalable Hashing" (CRUSH8).
CRUSH вычисляет, где хранить и откуда извлекать данные, преимуществом этого подхода является то, что не требуется централизованная служба индексирования. CRUSH работает с картой OSD, сегментов (расположения устройств) и наборов правил (репликация данных) для пулов.
- Примечание
- Дополнительную информацию можно найти в документации Ceph, в разделе CRUSH mapa.
aCRUSH map http://docs.ceph.com/docs/luminous/rados/operations/crush-map/ 8CRUSH https://ceph.com/wp-content/uploads/2016/08/weil-crush-sc06.pdf
Эта карта может быть изменена для отражения различных иерархий репликации. Реплики объектов могут быть разделены (например отказ доменов), сохраняя при этом желаемое распределение. Общим вариантом использования является использование различных классов дисков для разных пулов Ceph. По этой причине Ceph ввел классы устройств с версии luminous, чтобы удовлетворить потребность в простом создании набора правил.
Классы устройств можно увидеть в выходных данных ceph osd tree. Эти классы представляют свои собственные корневые сегменты, которые можно увидеть с помощью приведенной ниже команды.
Пример вывода формы приведенной выше команды: Чтобы пул мог распределять свои объекты только по определенному классу устройств, сначала необходимо создать набор правил с определенным классом.ceph osd crush tree —show-shadow
ceph osd crush rule create-replicated <rule-name> <root> <failure-domain> <class>
<rule-name> Имя правила, для соединения с пулом (видно в GUI и командной строке) <root> К какому корневому каталогу он должен принадлежать (по умолчанию ceph root "default") <failure-domain> Тип узлов CRUSH (не путать с понятием узлов PVE), через которые мы должны разделять реплики. (обычно хост) <class> Какой тип OSD резервного хранилища использовать (например nvme, ssd, hdd) ceph osd pool set <pool-name> crush_rule <rule-name>
- Совет
- Если пул уже содержит объекты, все они должны быть перемещены соответствующим образом. В зависимости от ваших настроек, это может привести к значительному снижению производительности вашего кластера. В качестве альтернативы можно создать новый пул и перемещать диски по очереди.
Ceph Client
Затем можно настроить Proxmox VE для использования таких пулов для хранения образов виртуальных машин или контейнеров. Просто используйте графический интерфейс, чтобы добавить новое хранилище RBD (см. раздел Ceph RADOS Block Devices (RBD) раздел 8.14).
Вам также необходимо скопировать связку ключей в предопределенное расположение для внешнего кластера Ceph. Если Ceph установлен на узлах Proxmox, то это будет сделано автоматически.
- Примечание
- Имя файла должно быть <storage_id> + '.keyring' - <storage_id> - это выражение после rbd: в
/etc/pve/storage.cfg
, который являетсяmy-ceph-storage
в следующем примере:
mkdir /etc/pve/priv/ceph cp /etc/ceph/ceph.client.admin.keyring /etc/pve/priv/ceph/my-ceph-storage.keyring
CephFS
Ceph также предоставляет файловую систему, работающую поверх того же хранилища объектов, что и блочные устройства RADOS. Сервер метаданных (MDS) используется для сопоставления объектов, поддерживаемых RADOS, с файлами и каталогами, что позволяет обеспечить реплицированную файловую систему, совместимую с POSIX. Это позволяет иметь кластерную высокодоступную общую файловую систему простым способом (если ceph уже настроен). Его серверы метаданных гарантируют, что файлы будут равномерно распределены по всему кластеру Ceph, таким образом, что даже высокая нагрузка не будет перегружать один хост, что может быть проблемой при использовании общих файловых систем с традиционным подходом, например таких, как NFS. Proxmox VE поддерживает оба варианта, используя существующую CephFS в качестве хранилища (см. раздел 8.15) для сохранения резервных копий, ISO-файлов или шаблонов контейнеров и создавая гиперконвергентную CephFS.
Сервер метаданных (MDS)
Для функционирования CephFS необходим как минимум один сервер метаданных, который должен быть настроен и запущен. Можно просто создать его через узел Proxmox VE web GUI -> панель CephFS или в командной строке с помощью:
В кластере можно создать несколько серверов метаданных. Но с настройками по умолчанию только один единовременно может быть активным. Если MDS или его узел перестает отвечать на запросы (или аварийно завершает работу), другой резервный MDS будет активирован. Можно ускорить передачу обслуживания между активным и резервным MDS помощью опцииpveceph mds create
hotstandby
при создании MDS, или если вы его уже создали его, вы можете установить/добавить:
в соответствующем разделе MDS файлаmds standby replay = true
ceph.conf
. Если этот параметр включен, этот конкретный MDS всегда будет опрашивать активный, так что он сможет приступить к обслуживанию быстрее, поскольку он находится в готовом к обслуживанию состоянии. Но, естественно, регулярный опрос вызовет некоторую дополнительную нагрузку на вашу систему и активный MDS.
Несколько активных MDS
Начиная с Ceph Luminous (12.2.x), вы также можете использовать несколько активных серверов метаданных, но это обычно полезно только для большого количества параллельных клиентов, так как в противном случае MDS редко является узким местом. Если вы все же хотите настроить их, пожалуйста, обратитесь к документации ceph9.
Создание CephFS
CephFS интегрирована в Proxmox VE и вы можете легко создавать CephFS через веб-интерфейс, интерфейс командной строки или внешний API. Для этого требуются некоторые предварительные условия:
ПРЕДПОСЫЛКИ ДЛЯ УСПЕШНОЙ УСТАНОВКИ CEPHFS:- Установка пакетов Ceph (см. раздел 4.2.3), если это уже было сделано некоторое время назад, вы можете повторно запустить его в обновленной системе, чтобы убедиться, что также установлены все пакеты, связанные с CephFS.
- Установлены Мониторы. (см. Раздел 4.2.5)
- Настроены ваши OSD. (см. Раздел 4.2.7)
- Настроен хотябы один MDS. (см. Раздел 4.2.11)
При этом создастся CephFS с именем 'cephfs', использующая пул с именем 'cephfs_data' для своих данных с '128' группами размещения и пул для метаданных с именем 'cephfs_metadata' с одной четвертью групп размещения пула данных ('32'). Обратитесь к разелу 4.2.8 "Настройка Ceph пула Proxmox VE" или документации Ceph для получения дополнительной информации о подходящем значении параметра "количество групп размещения" (pg_num)10 для вашей настройки. Кроме того, параметр "add-storage", после успешного создания CephFS добавит новое хранилище в конфигурацию хранилища Proxmox VE.pveceph fs create --pg_num 128 --add-storage
9Настройка нескольких активных демонов MDS http://docs.ceph.com/docs/luminous/cephfs/multimds/
10Ceph Placement Groups http://docs.ceph.com/docs/luminous/rados/operations/placement-groups/
Удаление CephFS
- Внимание!
- Уничтожение CephFS сделает все его данные непригодными для использования, и может быть отменено!
Если вы действительно хотите уничтожить существующий CephFS, вам сначала нужно остановить или уничтожить все сервера метаданных (MDS). Вы можете уничтожить их либо через веб-интерфейс или интерфейс командной строки, с помощью:
на каждом узле Proxmox VE, где размещается демон MDS.pveceph mds destroy NAME
Затем вы можете удалить (уничтожить) CephFS, выполнив:
на одном из узлов, где запущен Ceph. После этого вы можете удалить созданные пулы данных и метаданных, это можно сделать либо через веб-интерфейс пользователя, либо с помощью интерфейса командной строки:ceph fs rm NAME --yes-i-really-mean-it
pveceph pool destroy NAME
Ceph Мониторинг и устранение неполадок
Хорошей практикой является непрерывный мониторинг работоспособности ceph с самого начала развертывания. Как через набор инструментов самого ceph, так и путем доступа к его статусу через API Proxmox VE.
Нижеследующие команды ceph могут использоваться, чтобы увидеть, является ли кластер исправным (HEALTH_OK), есть ли предупреждения (HEALTH_WARN), или ошибки (HEALTH_ERR). Если кластер находится в нерабочем состоянии, нижеприведенные команды состояния также дадут вам обзор текущих событий и действий.
# одноразовый вывод статуса:
# непрерывный вывод изменений статуса (нажать CTRL+C для остановки)pve# ceph -s
Для получения более детальной информации, каждая служба ceph имеет файл журнала вpve# ceph -w
/var/log/ceph/
и если нет достаточной детализации, уровень логирования можно настроить11.
Дополнительную информацию об устранении неполадок12 кластера Ceph можно найти на его веб-сайте.
11Логирование и отладка Ceph http://docs.ceph.com/docs/luminous/rados/troubleshooting/log-and-debug/
12Ceph устранение проблем http://docs.ceph.com/docs/luminous/rados/troubleshooting/
Александр, отличная работа!! Спасибо за твой труд - сильно ждал продолжения, заходил по нескольку раз в день и смотрел есть ли что-то новое в блоге, и вот дождался!!!
ОтветитьУдалитьСпасибо за мотивирующий комментарий. К сожалению чаще не получается - работа сама себя не делает :-).
УдалитьМне и самому интересно что там дальше.
Отличная работа! Вы не в курсе, будет ли PVE переходить на следующие релизы? Такие как Pacific, Octopus. И есть ли возможность совместного использования шкурки Cephadm, совместно со шкуркой PVE?
ОтветитьУдалитьУже вышла версия PVE 7.1 и в ней используется новая версия Ceph
Удалить