00 17/02/2012 01:00
Le medie sugli errori sono fatte su molte migliaia di file. Su pochi file, è improbabile avere le stesse medie (o anche solo simili). C'è troppa casualità.

Per esempio, su 60 file, 3 errori sono il 5%, 2 errori il 3,3%, un errore 1,6%.

Se non ci fosse stato neanche un problema, per esempio non analizzando un particolare cd (i tre errori sono avvenuti nello stesso cd, che era problematico di natura, ed erano tracce molto brevi), ci sarebbero stati per esempio 50 file e ZERO errori.

Comunque, quell'algoritmo (in uno dei siti linkati c'è spiegato come funziona) cerca anomalie tipiche della compressione lossy e lo fa per via matematica. Se ne trova poche, è indotto a ritenere che la fonte derivi da materiale "non compresso".
La brevità delle tracce è un problema. Quando si cercano artefatti in un file compresso al meglio (mpc braindead, mp3 320 cbr), è più facile trovarli in un file lungo 6 minuti piuttosto che in uno lungo 30 secondi.