Внедрявам ефект "пречистване на филтъра" (не знам дали се нарича така). Това, което правя, е основно да създам нискочестотен филтър и да го накарам да се „движи“ в определен честотен диапазон.
За да изчисля честотата на прекъсване на филтъра в даден момент, използвам предоставена от потребителя линейна функция, която дава стойности между 0 и 1.
Първият ми опит беше директно да картографирам стойностите, върнати от линейната функция, към диапазона от честоти, както в cf = freqRange * lf(x). Въпреки че работи добре, изглеждаше така, сякаш сканирането вървеше много по-бързо при преминаване през ниски честоти и след това се забавяше по време на пътя си към високочестотната зона. Не съм сигурен защо е това, но предполагам, че е нещо общо с човешкия слух, който възприема промените в честотата по нелинеен начин.
Следващият ми опит беше да преместя честотата на прекъсване на филтъра по логаритмичен начин. Сега работи много по-добре, но все още имам чувството, че филтърът не се движи с постоянна възприемана скорост през диапазона от честоти.
Как трябва да разделя честотното пространство, за да получа постоянна възприемана скорост на почистване?
Благодаря предварително.