Если я реализовал надежный протокол передачи файлов UDP и у меня есть файл, который намеренно отбрасывает процент пакетов при передаче, почему будет более очевидно, что время передачи увеличивается с увеличением процента потери пакетов при переходе от клиента к серверу по мере в противоположность серверу клиенту? Это то, что может быть объяснено в результате протокола?

Вот мои цифры из двух отдельных экспериментов. Я сохранил максимальный размер пакета до 500 байт и потерю пакета в противоположном направлении до 5% с файлом размером 1 мегабайт:

Процент потерь от сервера к клиенту варьировался:

Файл 1 МБ, сегменты 500 б, потери от клиента к серверу 5%

1%: 17253 мс

3%: 3388 мс

5%: 7252 мс

10%: 6229 мс

11%: 12346 мс

13%: 11282 мс

15%: 9252 мс

20%: 11266 мс


Процент потерь от клиента к серверу изменился

Файл 1 МБ, сегменты 500 б, потери от сервера к клиенту 5%

1%: 4227 мс

3%: 4334 мс

5%: 3308 мс

10%: 31350 мс

11%: 36398 мс

13%: 48436 мс

15%: 65475 мс

20%: 120515 мс

Вы можете ясно увидеть экспоненциальный рост числа клиентов в группе серверов.

0