[Перемещено из моего поста Ask HN. Не стесняйтесь закрыть его, если вопрос слишком широк для суперпользователя.]
Это то, что мне было интересно в течение многих лет, но я никогда не находил хороших обсуждений по этой теме. Конечно, мой Google-фу может просто подвести меня ...
Я часто имею дело с проектами, включающими тысячи относительно небольших файлов. Это означает, что я часто выполняю операции со всеми этими файлами или их большим подмножеством - копирую папку проекта в другом месте, удаляю кучу временных файлов и т.д. Из всех машин, на которых я работал в течение многих лет, я Вы заметили, что NTFS выполняет эти задачи гораздо медленнее, чем HFS на Mac или ext3/ext4 на Linux. Однако, насколько я могу судить, необработанная пропускная способность на NTFS на самом деле не медленнее (по крайней мере, незначительно), но задержка между каждым отдельным файлом лишь чуть-чуть больше. Эта небольшая задержка действительно складывается для тысяч файлов.
(Примечание: из того, что я прочитал, это одна из причин, по которой git испытывает такую боль в Windows, поскольку он так сильно полагается на файловую систему для своей объектной базы данных.)
Конечно, мое свидетельство просто анекдотично - у меня в настоящее время нет реальных цифр производительности, но я бы хотел проверить это дальше (возможно, с Mac с двойной загрузкой в Windows). Тем не менее, моя увлеченность настаивает на том, что кто-то там уже есть.
Может кто-нибудь объяснить это, или, возможно, укажет мне правильное направление для дальнейших исследований?