ситуация
Запуск действительно маленького кластера ceph:
- с тремя узлами (каждый из которых содержит mon, osd и mds)
- администраторская виртуальная машина (содержащая также mgr-сервис)
- повторение пула три раза
Просто чтобы поиграть, я удалил ane osd и заново добавил его как новый, используя
ceph-deploy --overwrite-conf osd --zap-disk <host>:<disk>
Теперь после успешного добавления кластер деградирует и восстанавливается, как и ожидалось. Но количество объектов ухудшилось, чем я ожидал (информация взята из веб-интерфейса mgr):
Health check update: Degraded data redundancy: 15970/11538 objects degraded (138.412%), 52 pgs degraded (PG_DEGRADED)
Вопрос
Как это возможно, что больше объектов деградировало, чем вообще существует?