piway a écrit :
Et bien je ne connaissait pas du tout ce terme "aliasing"...
Je savais que l'échantillonage créait des fréquences de replis et qu'il falait filtré au dela sous peine de génerer des fréquences "fantômes"....
c'est exactement ça l'aliasing : le repliement des extrémités du spectre. C'est une conséquence de l'échantillonage. Si on échantillonne avec une fréquence trop faible, on bouffe les extrémités du spectre. Par exemple les roues de voitures qui roule 'à l'envers' sur le vieux films', c'est de l'aliasing, la fréquence d'échantillonnage (dans ce cas le nb d'images/secondes ) est trop faible par rapport à la fréquence associée au mouvement de la roue.
piway a écrit :
Si l'aliasing c'est juste la transformation de l'onde en échantillons ( escalier) alors là oui il y a du progrès à faire! surtout pour les aigus... en 44,1kh pour les fréquences de 20kH il n'y a que 2 échantillons... ( cad une jolie onde triangulaire.. :sad: ) par contre pour les basses, en théorie c'est vraiment inaudible.
Non tu as tort, en fait pour échantillonner un signal de fréquence de 20khz, 44,1 Khz c'est parfait. C'est le théorème de Nyquist qui le dit. il faut une fréquence d'échantillonnage supérieure à 2 fois la fréquence maximum et la reconstruction du signal est alors parfaite. cela ne te parait pas intuitif car tu raisonnes en échantillon discret et tu relies par des lignes droites dans ta tête (ou un truc du style) , car c'est ce qui est intuitif, mais on travaille avec des transformées de Fourier donc c'est un peu plus compliqué en fait.
Le problème est plus complexe, car il y a l'échantillonnage, mais aussi la quantification (les 16,32 bits etc qui sont accolés aux 44,1khz etc...). Car si pour les besoins informatiques on a besoin de traiter des échantillons, les valeurs en ces échantillons sont elles aussi réelles (au sens mathématiques) et donc pas bonnes pour un ordinateur, elles sont donc elles aussi converties en 1 et en 0, c'est ce que l'on appelle la quantification. En 16bit cela veut dire que les valeurs sont codées sur des nombres binaires de 16 chiffres : 1000 1011 1010 1111 par exemple en est un. Autrement dit toutes les valeurs du signal sont simplifiées en une echelle de 2 puissance 16 nombres ce que l'ordinateur peut gérer. Si le théorème de Nyquist assure qu'avec un échantillonage suffisant il y a 0 perte, ce n'est pas le cas de la quantification. A cela s'ajoute les problèmes de filtrage en entrée déjà évoqués mais aussi en sortie, à la reconstruction du signal pour éviter les escaliers dans le signal qui engendrent des harmoniques désagréables (parait-il là ce n'est pas mon domaine), des filtrages sont effectués, sans oublier que les traitements dans l'ordinateur ne sont pas forcemment transparents (sinon toute la théorie du codage informatique n'existerait pas et je n'aurais pas été enseigner un semaine en Tunisie l'année dernière :lol
, enfin bref le problème est infiniment plus compliqué que juste une question d'échantillonnage. Tant mieux, ça fait du boulot pour les gens qui bossent sur le sujet!