Архитектура компьютера обновлена с 16-битной до 32-битной до 64-битной. Какова была логика для пропуска 48-битного? Какие рассуждения использовались для обновления до 64-битной, а не какой-то другой показатель?
В следующих таблицах показано: 2 ^ 32 в 65536 раз больше, чем 2 ^ 16. Поэтому логично использовать 2 ^ 48, что также в 65536 раз больше, чем 2 ^ 32. Использование 2 ^ 64 кажется огромным скачком по сравнению. (Через 10 лет после выпуска amd64 настольные компьютеры продаются с двухзначной ГБ ОЗУ, а серверы используют трехзначную ГБ ОЗУ.)
2^16 65.536
2^32 4.294.967.296 2^16 X 65536
2^48 281.474.976.710.656 2^32 X 65536
2^64 18.446.744.073.709.600.000 2^32 X 4294967296
РЕДАКТИРОВАТЬ НИЖЕ
Я использовал онлайн десятичный в двоичный преобразователь, и я получаю эти результаты. По-видимому, 2 ^ 48 максимально с 48 двоичными 1 с.
1111111111111111 65535 2^16 - 1 (16 ones)
10000000000000000 65536 2^16
11111111111111111111111111111111 4294967295 2^32 - 1 (32 ones)
100000000000000000000000000000000 4294967296 2^32
111111111111111111111111111111111111111111111111 281474976710655 2^48 - 1 (48 ones)
1000000000000000000000000000000000000000000000000 281474976710656 2^48
1111111111111111111111111111111111111111111111111111111111111111 18446744073709551615 2^64 - 1 (64 ones)
10000000000000000000000000000000000000000000000000000000000000000 18446744073709551616 2^64