«Скорость» интернета зависит не только от того, что дает вам ваш провайдер, но и от того, какие серверы вам дают, и последний не зависит от вашего провайдера, поэтому независимо от того, сколько вы платите за интернет, некоторые сайты (большинство) не улучшат в целом много. Единственный раз, когда я действительно вижу потенциал соединения, это когда (совершенно законный) торрент загружается с большими файлами и большим количеством читателей, таких как, например, копия Ubuntu, серверы имеют большую пропускную способность, чем они дают вам, они просто сохранить его для других пользователей.

Я хочу знать, как использовать несколько прокси-серверов для одновременного доступа к серверу из разных точек, что позволяет повысить общую скорость, а затем разбить данные и передать их обратно по основному соединению (вероятно, я не объяснять это слишком хорошо, но кто-то может понять, к чему я клоню). Желательно что-то, что будет работать со всеми протоколами не только просмотра веб-страниц, но и сторонних приложений, игр и т.д.

2 ответа2

2

Вы не можете - сеть не работает так, как вы хотите, - в частности,

  • Ни UDP, ни TCP не предлагают встроенные механизмы для разделения трафика, что делает нереалистичным общее решение
  • Интернет-провайдеры обычно используют входящие и исходящие фильтры, чтобы предотвратить маршрутизацию IP-адресов, которые не были получены / нацелены через их сеть, - чтобы предотвратить определенные типы атак. (сделать общее решение нереальным)
  • Скорость вашего соединения зависит от ряда факторов, помимо скорости вашего соединения, включая задержку соединения и величину потери пакетов.
  • Большинство серверов будут пытаться распределять нагрузки справедливо, но не оставят пропускную способность бездействующей - однако они будут отдавать предпочтение пропускной способности.
  • Прокси-сервер определяет IP-адрес источника и назначения - несколько прокси будут иметь разные адреса источника, поэтому цель будет обрабатывать их как разные сеансы (правильно)
1

Это не совсем жизнеспособный подход с точки зрения клиента. Я не верю, что есть какие-либо технологии, которые поддерживают технику, которую вы описываете.

Во-первых, для загрузок HTTP/FTP-загрузки представляют собой один двоичный поток ответов, поэтому загружаемые данные поступают в результате одного запроса. Если сервер поддерживает ЧАСТИЧНОЕ СОДЕРЖАНИЕ (206), то вы можете организовать систему, в которой вы устанавливаете несколько загрузок с вычисленным смещением и длиной, чтобы делать это по нескольким соединениям, но это не будет работать для каждого сервера. В любом случае, по крайней мере, механизм должен знать, что он манипулирует HTTP-соединением, поэтому он будет работать только для HTTP-данных.

Во-вторых, большинство современных веб-сайтов уже не просто статические документы, а программно сконструированы на стороне сервера, поэтому они часто полагаются на концепцию сеанса. Сеансы обычно ограничиваются пользовательским соединением, поэтому, если вы подключаетесь из двух разных мест, это два разных сеанса. Попытка создать и отобразить страницу, созданную на основе Gets, полученных из разных сеансов, будет практически невозможной, поскольку каждый сеанс имеет свои собственные файлы cookie, сценарии и т.д., А также существуют барьеры безопасности, разработанные для того, чтобы злоумышленники не могли совершать подобные действия думаем о.

В конечном счете, такой инструмент мог бы существовать, но он должен был бы обладать большим интеллектуальным интеллектом протокола (чтобы он мог перезаписывать специфичные для протокола данные для использования разных соединений по разным путям) и был бы ограничен в своей способности шунтировать изолированные GET для другие соединения из-за ограничений, накладываемых серверными протоколами и операциями.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .