der zitierte Artikel vergleicht Äpfel mit Birnen:
ein 44,1 khz Signal kann in der realen Welt nie mit einem 96khz Signal verglichen werden, weil das unvermeidliche Aliasing bei 96khz ausserhalb des Hörbereichs liegt
man hört (als Unterschied) nicht die 'bessere' Abtastung, sondern das Fehlen des Aliasing
und das keineswegs subtil: deswegen ist (zwischenzeitliches) upsampling in Plugins so beliebt
die Abtast-Tiefe in Bits bildet in erster Linie die Dynamik ab
logischerweise ist die spektrale Komponente mit betroffen: in 2 bits lässt sich nicht allzu viel Information 'verpacken'
damit das gut funktioniert, muss der Wandler eine entsprechende 'Ortsauflösung' haben, die direkt von der Qualität des Takt-Signals abhängt
'eiert' das (genannt jitter) werden Frequenzen verbogen, weil die Berechnung von anderen Werten ausgeht. Der Takt wird ja als konstant vorrausgesetzt
bis 16bit ist das technisch relativ problemlos umzusetzen, deswegen hat man sich seinerzeit dafür entschieden (als Kompromiss zwischen Qualität und Preis)
jenseits von 20bit sind die Anforderungen an den Takt aber so hoch, dass nur hochwertigstes Equipment das korrekt umsetzen kann (Einzelheiten unter dem Stichwort 'converter aperture')
das sind die Fakten der Rahmenbedingungen
wie sie sich auswirken, hängt konkret von ihrer Position in der Verarbeitungskette ab:
an den Grenzen (AD/DA Wandlung) oder innerhalb eines digitalen Systems (DAW)
Jitter ist nur an den Übergängen zur Analogwelt relevant - innerhalb des digitalen Systems spielt er praktisch keine Rolle
apropos Praxis:
ich war lange der Meinung, das Quantisierungs-Rauschen tatsächlich nur den Bereich des letzten oder vorletzten Bits betrifft
das würde dann bei 16bit Abtastung Pegelbereiche von unter -80dB betreffen. Da ich kein Equipment habe, was diesen Geräuschabstand effektiv schafft, habe ich mit 16bit aufgenommen
tatsächlich gehen die Auswirkungen aber sehr viel höher - kA wie das zustande kommt
jedenfalls sind die Rauschfähnchen sehr leiser Mikrofonsignale weniger kratzig - ansonsten wirkt sich das nicht aus
im Klartext: die Dynamik des Ausgangssignals muss das auch hergeben
bei typischen Metal-Produktionen kann man das komplett knicken - Ausnahme Gesang: da werden die Grenzen bereits bei der Rohaufnahme überschritten - die menschliche Stimme ist ein extrem dynamisches 'Instrument'
was die Ausgangswandlung betrifft: kann sich bei aktuellen Produktionen ja jeder selbst ausmalen...
aber selbst bei einer Oper dürften nur wenige die Möglichkeit haben, ihre Anlage so weit aufzudrehen, dass eine 16bit Dynamik überschritten wird.
'Innerhalb der DAW' ist ein eigenes Thema - das hat mit den Eingangs/Ausgangsdaten wenig zu tun - wenn nicht komplett geschlampt wurde (was ich niemandem unterstellen will)
cheers, Tom