1

ситуация

Запуск действительно маленького кластера ceph:

  • с тремя узлами (каждый из которых содержит mon, osd и mds)
  • администраторская виртуальная машина (содержащая также mgr-сервис)
  • повторение пула три раза

Просто чтобы поиграть, я удалил ane osd и заново добавил его как новый, используя

ceph-deploy --overwrite-conf osd --zap-disk <host>:<disk>

Теперь после успешного добавления кластер деградирует и восстанавливается, как и ожидалось. Но количество объектов ухудшилось, чем я ожидал (информация взята из веб-интерфейса mgr):

Health check update: Degraded data redundancy: 15970/11538 objects degraded (138.412%), 52 pgs degraded (PG_DEGRADED)

Вопрос

Как это возможно, что больше объектов деградировало, чем вообще существует?

0