1

На 16 линиях устройство PCIe имеет теоретическую пропускную способность 16 ГБ / с по шине и эффективно (из моей работы с графическими процессорами) 12 ГБ / с.

Теперь, если производитель ЦП предлагает ЦП с более чем 16 линиями - скажем, с 64 линиями в качестве примера - означает ли это, что он может обмениваться данными на полной скорости с 4 устройствами с 16 линиями?

2 ответа2

5

Да... Может быть.

Это действительно зависит от того, как эти линии связаны на материнской плате. Не забывайте, что линии PCIe теперь используются другими вещами, такими как M.2 NVMe SSD, а также стандартными слотами PCIe.

Если вы приобретете материнскую плату, которая имеет 4 разъема PCIe на 16 каналов, а также имеет один или два слота M.2, совместимых с NVMe, то есть вероятность, что некоторые из этих разъемов PCIe на 16 линий на самом деле не полностью подключены.

Прочитайте руководства по процессору и материнской плате, чтобы быть уверенным в том, что вы получаете.


В ответ на ваш вопрос:

То есть вы говорите, что это может означать, что производители плат могли бы сделать это, верно? Но если процессор поддерживает это, это не должно быть сложной задачей?

Правильно ... должно быть возможно физически сделать это.

* Разговор о спекуляции здесь *: проблема возникает, когда у вас есть ряд процессоров, которые могут быть установлены в данный сокет. Конечно, будет интересно посмотреть, что происходит с процессорами ThreadRipper и i9 ... У Линуса, конечно, есть некоторые проблемы, и я думаю, что он, вероятно, несколько прав ... Если семейство процессоров (или конкретный сокет) может поддерживать такое широкое минимальное / максимальное количество линий (например, от 16 линий до 64 линий или более), то для производителя материнской платы нет хорошего способа действительно предлагайте полнофункциональный продукт для каждого процессора, который может быть установлен - вы можете купить материнскую плату, которая « поддерживает 4x 16-канальные слоты PCIe », но процессор, который имеет только 16 доступных линий ... Что должно произойти в этой ситуации? Обеспечить 8 дорожек для двух слотов, оставив два других полностью неработоспособными?

Вы также должны помнить, что, хотя ЦП с 64 линиями PCIe может поддерживать 4 разъема PCIe по 16 каналов, это вряд ли из-за таких вещей, как NVMe ... некоторые линии будут выделены для "других вещей" "и, таким образом, вам, вероятно, понадобится процессор с более чем 64 линиями PCIe, прежде чем настоящая материнская плата будет поддерживать 4 разъема PCIe с 16 линиями. На данный момент я сильно сомневаюсь, что производитель, скорее всего, разработает материнскую плату без поддержки NVMe.

3

Это очень многое зависит. Например, вот ваша типичная схема материнской платы:

Есть 16 линий от ЦП, остальные подключены к ЦП через PCIe x4, эквивалентный DMI 3.0. Но вполне возможно, что у производителя вашей материнской платы есть другие приоритеты:

(обратите внимание, что на самом деле переключатель не существует, скорее, вы можете купить две разные модели.) Это Supermicro X11SSL-nF, и они решили, что их клиенты нуждаются в полной полосе пропускания в разъемах U.2 больше, чем в электронном слоте x16. Учитывая, как мало карт на самом деле ограничено тем, чтобы быть PCIe 3.0 x8 вместо PCIe 3.0 x16, это отличное решение, но производители настольных МБ не хотят этого делать, потому что их клиенты не хотят признавать, что для всех настольных приложений это не предел ( Вычисления на GPU - единственное время, когда оно действительно ограничивает).

Здесь нам нужно поговорить о двух процессорах: Ryzen Threadripper, который имеет 64 линии PCIe. Теперь у вас нет 64 для слотов, 4 используется для чипсета и, по крайней мере, 4, но, вероятно, 8 будет использоваться для 1-2 устройств NVMe (U.2/M.2), и тогда вам нужно, возможно, 10 GbE также и родной USB 3.1/ThunderBolt, занимающий четыре полосы ... Реально будет доступно 48 линий для слотов PCIe, и, действительно, AMD заявила, что планирует поддерживать три карты x16. Здесь будет использоваться динамическое распределение, очень вероятно, я могу легко представить, что на досках будут размещены шесть или семь слотов механически x16, а затем, в зависимости от того, что вы хотите, вы можете использовать три карты x16, шесть карт x8 или, возможно, 2 x 8 + 2. х 16 и пр. Четыре x16 просто не возможны (без PCIe-коммутатора, но стоимость будет стремительно расти с одним), потому что если ничего другого, то чипсет съедает 4 линии.

Другая ситуация намного проще. Материнские платы EPYC будут иметь шесть или семь слотов x16, и это все, 96-112 линий из 128, остальные будут использоваться для устройств NVMe (M.2/U.2/OCuLink), для подключения чипсета, работы в сети и т.д. Некоторые платы будет значительно больше NVMe, но будет мало слотов - я могу представить себе 2U-машину с 20-24 CPU-подключенными NVMe-дисками, одним или двумя 100-гигабитными соединениями и ничего больше (что еще нужно, правда?). Или Supermicro имеет сервер на базе Intel, поддерживающий 48 дисков NVMe, и это 192 полосы, но это не так, как один или два Intel Xeon имеют 192 полосы, они используют 32 полосы и восемь ИС коммутатора PCI с 4 по 24 полосами. Теперь вместо этого использовать 48 линий (для учета систем с одним процессором) совершенно не сложно, и это дает преимущество в 50% пропускной способности. Я думаю, что динамическое распределение не будет особенностью в этом сегменте, потому что серверы построены более специально, а простота важна для поддержки и увеличения продаж.

Сноска: для сервера M.2 не идеален, потому что он может производить относительно большое количество тепла (15-22 Вт) без радиатора - в то время как передние диски имеют гораздо большую площадь поверхности, образованную в радиаторе. Вы не хотите серверную часть для теплового газа. Независимо от того, используется ли на сервере кабели U.2 или OCuLink внутри коробки, в любом случае в кюветах для горячей замены всегда используется краевой разъем SFF-8639.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .