Och vad är poängen med att mäta tidsfel i dB? Logaritmisk skala är ju naturligt när man mäter ex. brus och ljudvolym men jitter måste väl vara bättre att mäta i linjär skala?
Tidsfel är brus. En frekvensmodulerande signal som ligger överlagrad på den digitala signalen. Visst använder man dB när man anger dämpning, och värdet är negativt med den urspungliga signalnivån som referens.
"Innan man är riktigt säker är man ofta tvärsäker"
Om ni läser artikeln i High Fidelity 2004 nr.1 om Altmanns Micro Machines, så ser ni att man anger jittermumsarnas förmåga att dämpa jittret i dB. Jitternivån från jittermumsarna är alltså avhängigt vilken nivå på jittret som kommer in och kan alltså inte anges som ett fast värde i ex.vis picosekunder. Det stämmer ju bra med mina erfarenheter där det fortfarande har stor betydelse på slutresultatet vilken transport jag ansluter med, trots att jag har en jittermumsare. T.o.m. byte av nätkabel på transporten slog igenom med bättre ljud.
Jag vill inte påstå att jag kan det här eller ens riktigt förstår vad jag skriver om, men jag vill gärna använda forumet för att diskutera sådant här och eventuellt få mina missuppfattningar korrigerade, så rätta mig gärna.
"Innan man är riktigt säker är man ofta tvärsäker"