У меня есть ряд алгоритмов обработки сигналов, которые в настоящее время реализованы в архитектуре FPGA. Я хотел бы перенести эту обработку на сервер на основе графического процессора, но мне нужно оценить, сколько графических процессоров потребуется. Как лучше всего выполнить эту задачу? Должен ли я попытаться разбить каждую математическую операцию на количество FLOP, а затем сложить все это и надеяться, что я отдаленно на приблизительном уровне?
Как оценить FLOP графического процессора от алгоритма портирования FPGA?
Ответы (1)
Если вы разделите операции, требуемые количеством FLOP, на производительность графического процессора, вы получите нижнюю границу требуемого времени даже в лучшем случае, но нет гарантии, что графический процессор действительно сможет поддерживать требуемую для этого производительность, или что вы сможете написать необходимые для этого программы в любое разумное время. Я также хотел бы посмотреть, какие библиотеки обработки сигналов доступны для выбранного вами графического процессора, и посмотреть, предоставляет ли какая-либо из них что-то близкое к тому, что вам нужно. Если бы вы могли понять, что можете делать то, что вам нужно, с вызовами библиотек и неким связующим кодом на основе процессора, вы могли бы запрограммировать связующий код без графического процессора, а затем посмотреть на спецификации библиотеки, чтобы определить, сколько времени они займут и появятся. с оценкой времени, которую вы могли бы надеяться достичь без лишнего оптимизма.