2

Есть ли такой момент, когда использование GPU Processing или сопроцессоров (таких как карта Intel Xeon PHI или карта Nvidia Tesla) может реально снизить скорость, с которой программное обеспечение вычисляет данные?

Скажем, у меня был огромный кластер внешних расширений PCI-E (например, http://www.cyclone.com/products/expansion_systems/FAQ.php), все они подключены к одному компьютеру. Из-за того, что данные должны быть распределены по расширениям и графическим процессорам в указанных расширениях, разве это теоретически не замедлит скорость обработки данных?

Просто интересуюсь. Если это не так, почему?

1 ответ1

2

Есть момент, когда вы будете насыщать ресурсы своего ЦП, а графические процессоры будут бездействовать. Существует также момент, когда вы можете исчерпать ресурсы шины. Поскольку это шина, существует максимальное количество передаваемых данных в единицу времени, что может снова привести к простоям графических процессоров.

При этом добавление графических процессоров не должно снижать производительность, но не может способствовать ее дальнейшему улучшению.


Говоря в вычислительном отношении, есть также некоторые проблемы, которые пытаются сделать их на GPU, может быть медленнее, чем на CPU. Алгоритмы типа scrypt специально разработаны для использования большого количества оперативной памяти для предотвращения нелинейных ускорений, полученных при реализации на FGPA и графических процессорах.

Графические процессоры обеспечивают увеличение скорости только тогда, когда происходит много параллельных операций. Расчет одного умножения не будет быстрее. Графические процессоры также обычно не любят ветвления (выполнения условного кода).

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .