Я не могу найти рабочую опцию Spark, требующую исполнителей с графическим процессором.
Я пытаюсь настроить кластер HADOOP для запуска алгоритмов машинного обучения на доступных графических процессорах через Spark.
До сих пор я опробовал свою установку с минимальным кластером (1 менеджер ресурсов и 2 менеджера узлов (каждый с 8 ядрами, 32 ГБ ОЗУ, 1 Nvidia GPU), все работают под управлением Ubuntu 18.04.
Обнаружение ресурсов работает как положено (я вижу мои 16 ядер, 56 Гб памяти и 2 yarn.io/gpu)
Документация предоставляет способ, используя «--conf spark.yarn.executor.resource.yarn.io/gpu=1», но это не работает для меня (никакого эффекта вообще, как в параметре команды spark-submit, так и в $ SPARK_CONF/metrics.properties).
Поскольку YARN 3 является первым, кто обеспечивает изоляцию графического процессора, я стараюсь избегать отката к более старой (/ более документированной) версии.
Я думаю, это можно было бы установить в коде через SparkContext, и я был бы рад узнать, как это сделать, но, поскольку я больше на стороне администратора, чем на инженера ML, я бы предпочел установить это в файлах conf раз и навсегда. Во всяком случае, на данный момент, любое решение будет оценено.
Кто-нибудь рад предоставить хороший синтаксис для выделения GPU с включенной изоляцией ресурсов?
Люблю вас, ребята, Кевин
(Пряжа 3.1.1/3.2.0 на HortonWorks HDP)