Имам серия от алгоритми за обработка на сигнали, които в момента са внедрени в рамките на FPGA архитектура. Бих искал да преместя тази обработка към сървър, базиран на GPU, но трябва да измисля прогноза колко GPU ще са необходими. Какъв е най-добрият начин да се справите с тази задача? Трябва ли да се опитам да разбия всяка математическа операция в брой FLOP и след това да събера всичко и да се надявам, че съм на ниво?
Как да оценя GPU FLOP от пренасяне на FPGA алгоритъм?
Отговори (1)
Ако разделите операциите, изисквани от броя на FLOP, на производителността на GPU, ще получите долна граница за необходимото време, дори и в най-добрия възможен случай, но няма гаранция, че GPU действително ще може да поддържа необходимата за това производителност, или че ще можете да напишете програмите, необходими за това във всяко разумно време. Също така бих разгледал какви библиотеки за обработка на сигнали са налични за избрания от вас GPU и ще видя дали някоя от тях предоставя нещо близко до това, от което се нуждаете. Ако можете да разберете, че можете да правите това, от което се нуждаете, с библиотечни извиквания и някакъв базиран на процесора залепващ код, бихте могли да засечете залепващия код без GPU и след това да погледнете спецификациите на библиотеката, за да разберете колко време ще отнеме и ще се появи с оценка на времето, която бихте могли да се надявате да постигнете без излишен оптимизъм.