основываясь на идее из другой темы, я надеялся, что вы поможете мне с этой идеей / подтолкнете меня в правильном направлении.
Я видел пример OpenCL, который не выглядел слишком сложным для базовых вычислений, поэтому я надеюсь просто переписать функцию числового градиента, используемую подпрограммой оптимизации на языке OpenCL, и втиснуть ее в функцию оптимизатора, чтобы каждый раз оптимизирует какую-то функцию, он будет выполнять независимые вычисления в графическом процессоре.
Идея: использовать GPU для расчета функционалов и градиентов во время оптимизации (например, nlminb()).
Проблемы: 1. Как подключиться к процедуре оптимизации? (Кажется, я не могу найти файл C, в котором выполняется оптимизация)
2, Могу ли я просто заменить расчет градиента тем, что я готовлю для GPU?
3, У кого-нибудь что-то подобное работает? Есть идеи, заметки?
Спасибо и хорошего дня!
PS: Если вы думаете, что это не ускорит оптимизацию, это сложно закодировать / сложно сделать и т. д., пожалуйста, дайте мне знать! Я очень неопытный и паршивый "программист".