Мне нужно смоделировать задержку с помощью нескольких системных конфигураций (одноядерных, многоядерных, многоузловых на одном сервере, нескольких серверов) симулятора LTE. Кто-нибудь знает, как рассчитать объем вычислений исходного кода (или части всего кода, если я хочу)? Я думаю, что возможные подходы:
- Возьмите разницу в отметке времени в начале и в конце выполнения, используя clock()
- Общее количество операторов/инструкций в секунду (зависит от машины)
- Общее количество инструкций/инструкций в секунду
3-й - это более общая версия 2-го.
Симулятор находится в Matlab, и я могу использовать c (через файлы Mex).