въз основа на идея от друга тема, надявах се, че можете да ми помогнете с тази идея / да ме тласнете в правилната посока.
Виждал съм пример за OpenCL, който не изглежда твърде сложен за основни изчисления, така че се надявам просто да пренапиша функцията за числов градиент, която рутината за оптимизация използва в езика OpenCL, и да я вмъкна във функцията за оптимизиране, така че всеки път, когато ще оптимизира някои функции, ще направи независимите изчисления в GPU.
Идея: Използвайте gpu за изчисляване на функционали и градиенти по време на оптимизациите (напр. nlminb()
Проблеми: 1, Как да докоснете рутината за оптимизация? (Изглежда не мога да намеря C файла, който прави оптимизацията)
2, Мога ли просто да заменя изчислението на градиента с това, което подготвям за GPU?
3, Някой има ли нещо подобно за работа? Някакви идеи, бележки?
Благодаря и хубав ден!
PS: Ако смятате, че няма да ускори оптималното, че е трудно да се кодира / трудно е да се направи и т.н., моля, уведомете ме! Аз съм много неопитен и скапан "програмист".