Когда я запускаю некоторые игровые приложения, мой компьютер, использующий встроенную видеокарту, очень быстро нагревается.

Считаете ли вы, что замена встроенной видеокарты на автономную будет генерировать меньше тепла?

Поскольку ЦП не предназначен специально для игровых или 3D-приложений, эти задания довольно интенсивны для ЦП.

Имея отдельную видеокарту, большая часть рабочей нагрузки переносится на нее, и, поскольку она предназначена для такого рода приложений, эти задания могут быть совсем не интенсивными.

В общем, как вы думаете, это правда?

2 ответа2

1

Это будет полностью зависеть от выделенной видеокарты, которую вы вставите в систему, но в целом нет. Выделенная видеокарта будет генерировать БОЛЬШЕ тепла, поскольку это будет более мощный графический процессор, и он будет работать больше, чтобы обеспечить лучший дисплей.

Теперь "большая часть рабочей нагрузки перенесена на него" ... не точно. Во-первых, мы говорим о новейшем поколении процессоров Intel и AMD с графическими процессорами, встроенными в настоящий CPUS? Или речь идет о старых системах, где в конструкцию материнской платы интегрирован графический процессор? Потому что для целей, о которых вы говорите, это яблоки и апельсины.

В системах, где центральный процессор и графический процессор разделены, но графический процессор является частью материнской платы, все еще существует отдельный графический процессор, который генерирует свое собственное тепло и выполняет свою собственную работу. Существуют эмпирические данные, свидетельствующие о том, что в подобной интегрированной системе ЦП будет работать в целом усерднее, но фактические результаты тестирования не были опубликованы, чтобы доказать это.

Таким образом, у вас более слабый, меньший встроенный графический процессор, выделяющий тепло, с одной стороны, и более мощная выделенная видеокарта, выделяющая тепло, с другой.

Подумай об этом так. В системах со встроенным графическим процессором вы можете увидеть радиатор на нем, но вы редко видите вентилятор на этом радиаторе. Что касается видеокарт, сегодня вы редко видите видеокарты без фанатов. Зачем? Они генерируют тонну тепла.

1

Если вы переносите вычислительные задачи с CPU на GPU, вы можете использовать меньше энергии на единицу работы. Но это относится только к очень конкретным задачам (главным образом, к научному моделированию, которое включает в себя Seti @ Home или шифрование методом перебора), например, BitCoin, и программное обеспечение должно быть специально написано с кодом GPGPU.

Перемещение задач с одного GPU на другое будет иметь незначительный эффект. Однако отдельная карта имеет свой собственный контроллер памяти и т.д., Поэтому на холостом ходу потребляется больше энергии. Но не так много, правда.

Включение настроек в ваших играх, потому что дискретный графический процессор намного более эффективен, приведет к гораздо более высокому энергопотреблению. Вот почему мощные графические процессоры имеют репутацию производящих много тепла. И это где ваше предположение нарушается. Да, процессоры менее эффективны при обработке графики. Но это обязательно означает, что они выполняют меньше работы, а не потребляют больше энергии. Даже для GPGPU видеокарта редко потребляет меньше энергии, чем процессор, она просто выполняет гораздо больше работы.

Конечно, это дополнительное тепло вырабатывается на отдельной плате, что может быть менее проблематично с точки зрения перегрева.

Как правило, интегрированные графические процессоры разработаны с упором на низкое энергопотребление, а не производительность. Дискретные видеокарты будут использовать больше энергии и создавать больше тепла.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .