Я пишу контрольные примеры для высокопроизводительной системы сжатия данных. (ну, не совсем так, но для целей тестирования это можно описать так)
Для теста я должен создать 500 ГБ ~ 3 ТБ случайных файлов в каталоге.
На данный момент я использую /dev/urandom
но это проблема случайности.
Ничто не гарантирует, что я не получу несколько файлов, заполненных нулями за один раз, и изменение алгоритма, которое должно было негативно отразиться на эффективности, покажет высокую эффективность.
Есть ли способ генерировать такое количество случайных данных без необходимости их постоянного хранения и обеспечения их предсказуемости?
что-то вроде: заполнить одну функцию, сгенерировать данные, проверить данные, зафиксировать начальное значение, поверить, что вы будете получать одни и те же сгенерированные данные каждый раз.
я знаю, что может посеять случайный случай, но он не работает, чтобы генерировать одни и те же данные каждый раз, как я надеялся
Есть ли что-то похожее на вышесказанное с тем удобством в UNIX, которое предоставляет /dev /urandom?