Комментарии 7
Очень интересно и понятно получилось, спасибо за статью!
А если у меня встройка AMD на ноутбуке, есть смысл пробовать что-то по этому циклу?
CUDA на AMD картах не поддерживается, там свой инструмент ROCm, но насколько я знаю там есть тула для трансляции кода CUDA на их платформу, HIP называется и она входит в тулкит ROCm. То есть впринципе повторять можно, в обучающих целях этого точно должно быть достаточно, но я лично такую штуку не пробовал.
ну а вообще со встройкой есть смысл пробовать, Может дальше пойдут такие вычисления, что нет смысла даже пытаться?
Ну пробовать всегда имеет смысл. Я не могу гарантировать, что все техники оптимизации например на CUDA будут правильно перенесены на архитектуру AMD. Но в целом работать должно я думаю. Вообще GPGPU не ограничивается одним CUDA, вычисления можно писать и на OpenGL например, алгоритмы примерно те же будут и основной смысл параллельных вычислений тоже один и тот же. Просто тут чуть больше специфики именно CUDA будет. Я надеюсь мы еще разберем Triton и он уже работает на amd тоже. Так что если есть желание разобраться впринципе в GPGPU то amd не должно останавливать, наоборот будет дополнительный опыт работы на другой платформе.
Если говорить про встроенную видеокарту для понимания, разбора и запуска ее будет достаточно, просто меньший объем и меньшая скорость будет финальной модели например. В целях обучения не вижу проблем попробовать и на встроенной.
Сейчас посмотрел, Gemini пишет, что cuda функции почти 1:1 hip rocm. Типа hipFree(). У меня тоже на ноуте Radeon. Можно поиграться

От MNIST к Transformer. Hello CUDA. Основы, Setup и наше первое ядро