muss jedes mal gedithert werden?

madi70
madi70
Registrierter Benutzer
Zuletzt hier
27.12.21
Registriert
02.09.12
Beiträge
117
Kekse
26
Hallo,
ich hab da 16 bit Wave-Dateien, die beim Mastern schonmal gedithert wurden. Es sind 5.1 Dateien, die jetzt zu einer 16 bit Stereospur zusammengemischt werden müssen.
Das ganze mische ich mit Cubase zusammen, was ja wieder mit 32 bit arbeitet. Nun meine ich vor langer Zeit mal in einem Buch gelesen zu haben (ich finde die Stelle leider nicht mehr und bin mir auch nicht mehr ganz sicher), dass jedes mal wenn Bits reduziert werden gedithert werden muss.
Das Dithering ist aber doch ein Rauschen das hinzugefügt wird. Müsste das nicht noch da sein? Auch nach dem es mal in 32bit umgewandelt wurde? Warum dann noch mal hinzufügen?
Kann mir hier jemand sagen wie es richtig gemacht wird?

Gruß
Matthias
 
Eigenschaft
 
Ich muss zwar zugeben, dass ich selbst noch nicht so ganz begriffen habe, warum und wann man eigentlich dithern muss... also theoretisch schon grundlegend, aber in der Praxis sieht das wieder anders aus ... aber prinzipiell muss ich dir zustimmen.
Ich würde auch behaupten, dass wenn das Rauschen da schon im Signal drin ist, die Umwandlung zu 32 bit und zurück ja eiiigentlich ohne Dithern möglich sein müsste..

Aber bin ebenfalls auf eine wirklich kompetente Antwort gespannt :)
 
Wenn ich ganz ehrlich sein soll hab ich den Unterschied auch noch nie wirklich gehört :gruebel:


edit: ...habs aber auch noch nie verglichen :)
 
wenn du ihn nicht hörst: vergisses einfach. Ich kappe auch oft und gern die letzten 8 bit. Einfach so...
es ist in 90% der Fälle schlicht nicht relevant.
Es gibt Musik (und Mixe) wo man das tatsächlich hören kann, aber von den hier (vermutlich) Beteiligten dürfte es weniger als 0,1% tangieren.
Manche Ideen machen sich einfach selbstständig... und werden dann immer wieder runtergebetet
(was wörtlich gemeint ist, der Verstand kommt ja nicht zum Einsatz)

Im Grunde hilft aber schon die Definition: dithern dient dazu das 'ungenaue' letzte bit zu 'verbessern', indem man seine Wirkung durch Rauschen 'abschleift' oder überpinselt.
Nur muss man das auch wahrnehmen können - und dazu halte man sich die Pegelverhältnisse eines schlichten 16bit Signals vor Augen, eh Ohren...
Nur wenn es die Dynamik hergibt, dass eine leise Stelle 'freistehend' zu hören ist, wirkt das Dithern.
Das war jetzt auf den kompletten Mix oder eine Aufnahmespur bezogen.

Nun sind natürlich nicht alle taub oder Hypochonder, die bei dem Procedere tatsächlich schon Verbesserungen wahrgenommen haben.
Das kommt (imho) sogar sehr oft vor und liegt an den kleinen mathematischen Gemeinheiten der Signalverarbeitung.
Bei 'nicht so guter' Programmierung schleicht sich gern eine gewisse Härte ein, oder sie ist schlicht im Aufnahmeequipment vorhanden. Das SM57 und das Rode NT1 neigen zB zu einem leichtern 'knuspern' in den Hochmitten.
Wenn man so ein (digitalisiertes) Signal dithert, wird es logischerweise 'weichgespült' und klingt angenehmer.
Was aber absolut nichts mit der Bit-Auflösung selbst zu tun hat ;)

Ein anderer Bereich in dem Dithern tatsächlich nützlich ist, sind komplexe Mixe, bei denen viele Signale mit (auch) leisen Stellen summiert werden. Da wirkt sich das durch die Vervielfachung der Quellen aus.
ZB 32 Spuren zu 16 bit, die in ein 24/32bit System übernommen werden sollen.
Ist jetzt nicht sonderlich sauber formuliert, aber vom Prinzip her... rein praktisch gedacht.

cheers, Tom
 
Irre ich mich, oder hat das konvertieren von 16 zu 32 bit, keinen Sinn?

Ich meine, irgendwo gelesen zu haben, dass man nicht nach oben konvertieren kann.
 
man kann "nach oben" konvertieren .. der nutzen ist aber für die katz da man dann nur zusätzliche nullen dran hängt ^^ wenn man die audiodatei selbst über 0db pegeln will (was zieemlich wenig sinn macht) bringts einem vllt was auf 32bit zu konvertieren aber rein von der "qualität" des signals ändert sich absolut niente beim hochsamplen
 
Ich habe mal eine ganz nette Umschreibung gelesen, was dithern macht und wollte sie an dieser Stelle weitergeben:
Da beim Abschneiden der letzten Ziffern so zu sagen Rundungsfehler entstehen, hat man ähnlich wie bei einem verpixelten Bild Ungenauigkeiten. Wenn ich meine Finger ungefähr so spreize, dass der Abstand so breit ist, wie meine Finger dick und damit vor dem Bild rumwedle, scheint es mir schärfer als es ist. So ähnlich sei es mit dem Dither.

Ich finde das, wenn auch weit hergeholt, verständlich.

Das hochkonvertieren macht vielleicht noch Sinn, wenn man dem Signal anschliessend zusätzliche Anteile, wie die Obertöne bei einem Exciter zufügen möchte. Dann wären diese in zb. 32 bit aufgelöst und könnten für noch weitere Verarbeitung von Vorteil sein. Das ist aber sicher ein Sonderfall.

Achso, Cubase arbeitet zwar intern mit 32 bit, Signale, die in einertieferen Bitstufe (zb. 16) vorliegen müssen aber dann nicht auf diese gedithert werden. Oder gar nicht, wie uns Telefunky erklärt hat:great:
 
@gincool: so einfach ist die Sache nicht...
je nachdem wie die Daten interpretiert und ggf skaliert werden, kann das Ergebnis durchaus abweichen
es gibt nicht nur 1 Möglichkeit, das zu machen.

Rubbl, dein Vertrauen ehrt mich, aber bei mir und Mathe ist auch (eine gesunde Portion) Skepsis angebracht :D

cheers, Tom

ps: das ist jetzt dumm gelaufen... ;)
 
Auf was genau beziehst du dich?
Ich kann mit meinen Fingern sehr unterschiedlich wedeln! :D
 
Telefunky schrieb:
...Das SM57 und das Rode NT1 neigen zB zu einem leichtern 'knuspern' in den Hochmitten.
Wenn man so ein (digitalisiertes) Signal dithert, wird es logischerweise 'weichgespült' und klingt angenehmer.
Wenn ich mir nicht sicher wäre, dass du Ahnung hast von der Audiotechnik würde ich diesen Satz als kompletten Mist abtun.
Da er von dir kommt, möchte ich nicht zu vorschnell urteilen, aber trotzdem fragen: Wie genau stellst du dir das vor?
Dithern ist im grunde ja wirklich nur hinzufügen von sehr leisem (ev. geshapetem) Rauschen wie kann das einem Signal die Härte nehmen?

LG Jakob
 
das ist vom Prinzip her genauso wie Rubbl es in der Analogie oben umschreibt
vermutlich irritiert dich das 'sehr leise'
manche Dinge haben in geringer Dosis eine unglaubliche Wirkung
(damit sind weder Hormone noch Psychopharmaka gemeint) :p

die angesprochenen Transienten haben Obertöne, die in einen sehr empfindlichen Hörbereich fallen
da reichen minimale Modifikationen im Signal, um eine Wirkung zu erzeugen.
wobei das gar nicht so wenig ist: der Bereich von 2bit deckt maximal 6 dB ab

ich habe das aber weder nachgemessen noch empirisch untersucht.
es ist einfach meine Interpretation dessen, was Leute beschreiben - die können ja nicht alle taub sein. :D
 
auf die beschreibung von iwelchen leuten gebe ich in der regel höchst selten was .. die meisten leute hören nämlich genau das was sie hören wollen. wenn einmal jmd das märchen erfunden hat wirds ausprobiert und man hört dann natürlic hdas was man hören will und zack verbreitet mans selber weiter ;)

man muss eben überlegen dass ditherrauschen ja wirklich iwo in der gegen -90db und drunter abläuft (bei 16bit .. bei 24bit ists nochmal viiieel weiter unten). das ditherrauschen ist also auf lauten signalen praktisch nicht bemerkbar (addiert man zu einem -10db signal ein signal mit -90db hat mein in der summe -9,9999999565705520268220567388648db) wie man also erkennen kann ist die abweichung erst nach der 7. nachkommastelle "zu hören". selbst wenn man jetzt davon ausgeht dass transienten in einem sehr empfindlichen hörbereich liegen darf bezweifelt werden dass das menschliche ohr einen unterschied von 0,00000004db hören kann .. da kann man noch so sehr von unglaublicher wirkung sprechen das hört keine sau ;)
und um die medikamenten analogie aufzugreifen: es handelt sich hier vermutlich um einen reinen placebo effekt ;)
 
also... etwas genauer darfst du mein Geschreibsel schon lesen...
ich habe bereits eingangs erwähnt, dass der Vorgang für Signale im Bereich der Vollaussteuerung absolut nicht relevant ist.
In einem typischen Metal-Mix beisst da die Maus keinen Faden ab :D

Nun ist aber nicht jede Musik durchgehend gleich laut... und manchmal werden auch echte Feinheiten hörbar, selbst bei streaming audio

es geht dabei weniger um den Pegel irgendwelcher Signalanteile, sondern um ihre reine Anwesenheit.
Die ist in aller Regel nicht exakt zeitsynchron zum Ursprung und darauf reagiert das Ohr erheblich empfindlicher, als auf ein isoliertes Einzelsignal.

cheers, Tom
 
hab dein geschreibsel schon gelesen keine sorge ^^ dass dithering bei der üblichen schwarzen wurst der heutigen popmusik praktisch für die katz is hab ich auch nie bezweifelt (falls das hier falsch rübergekommen sein sollte ;))

ging mir lediglich darum dass eben auch bei signalen sehr weit entfernt von voll aussteuerung (nimm statt den -10db einfach -40db) durch dithering eben nur rein rechnerisch beeinflusst werden .. und damit eben nicht mal wahrgenommen werden obwohl sie da sind. wenn man dann noch verdeckungseffekte des menschlichen gehör berücksichtigt wird klar dass dithering wirklich NUR bei seehr leisen knapp oberhalb der auflösungsgrenze bemerkbar werden. auf normalem musikmaterial hört man das nicht .. nicht mal die anwesenheit.

dithering wird wirklich nur bemerkbar wenn ALLES grade sehr leise ist .. ne ausklingende hallfahne am ende eines songs, oder becken oder dergleichen. innerhalb eines songs wird keiner die verzerrungen bemerken wenn der hall -80db pegel hat solange noch vocals, keys oder sonstwas grade drüber spielen einfach weil das verhältnis von der lautstärken SO stark voneinander abweicht ^^
 
man kann sich dithering auch wie antialiasing vorstellen. das war immer mein vergleich :D (ich denke hier sind auch viele zocker im board... die wissen schon was das is... kanten glatt bügeln. hörbare unterschiede konnte ich bisher auch nicht festellen. was aber auch definitiv an meiner produzierten mäßigen qualität liegt.
wenn man viel geld investiert und wirklich qualitativ hochwertig produziert sollte man diesen schritt aber auch nicht unbedingt unbeachtet passieren, das gehört zum feinschliff schon dazu.
 
Dithering macht sich vor allem vorteilhaft bemerkbar, wenn es im Stück Details gibt, die sehr leise sind und deshalb nur noch mit wenigen Bits abgebildet werden. Das klingt dann ziemlich unangenehm verzerrt. Wenn man leises Rauschen beimischt, sind die Verzerrungen nicht mehr hörbar, dafür rauscht es ein wenig. Bei einem durchgehend fast voll ausgesteuertem Mix wird man vom Dithering wenig merken.

Wer's probieren will, macht sich mal einen Mix, der nur bis -70 dB oder so ausgesteuert ist, speichert ihn einmal auf 16bit gedithert und einmal ungedithert und zieht sich die Dateien dann wieder rein und verstärkt wieder massiv nach oben, damit man bei normaler Lautstärkte abhören kann. Der Unterschied ist schon frappierend.

Zur konkreten Frage: wenn beim Surround-auf-Stereo-Downmix der Pegel abgesenkt wurde, ist das ursprüngliche Dithering vermutlich unterhalb der 16-Bit-Schwelle und damit verschwunden. Dann kann nochmaliges Dithering nichts schaden. An sich ist es allerdings doof, wenn die Spuren nicht von vorneherein in 24Bit vorliegen, das wird immer ein Kompromiss bleiben.

Banjo
 
Das ganze mische ich mit Cubase zusammen, was ja wieder mit 32 bit arbeitet.

Korrekterweise muss gesagt werden, dass die Mixbus-Auflösung von Cubase 32-bit fp beträgt, das ist ein Unterschied.
Hinweis: Nicht bei jeder Operation wechselt das Format des Datenstroms (also des Audiosignals) zu 32-bit fp.


ich würde auch behaupten, dass wenn das Rauschen da schon im Signal drin ist, die Umwandlung zu 32 bit und zurück ja eiiigentlich ohne Dithern möglich sein müsste..

Stimmt schon, das Rauschen ist hier tatsächlich Teil des Audio-Materials, aber das Rauschen wird ja nicht um des Rauschens Willen eingefügt, sondern es hat einen technischen Hintergrund welcher bei einer erneuten Requantisierung wieder bestand hat. Das sich Dither-Rauschen auch kumulieren kann ist allerdings zu berücksichtigen.



Ich kappe auch oft und gern die letzten 8 bit. Einfach so...

Und dann ist die Wellenform bei Dir auch untenrum abgeschnitten? :D ;)



Im Grunde hilft aber schon die Definition: dithern dient dazu das 'ungenaue' letzte bit zu 'verbessern', indem man seine Wirkung durch Rauschen 'abschleift' oder überpinselt.

Warum sollte das "letzte bit" (welches so gar nicht existiert) denn ungenauer sein, als die anderen? Die Quantisierung erfolgt linear.



Irre ich mich, oder hat das konvertieren von 16 zu 32 bit, keinen Sinn?

Wenn man eine Audio-Datei von 16-bit zu 32-bit fp konvertiert, ist das in der Tat sinnfrei.




man kann "nach oben" konvertieren .. der nutzen ist aber für die katz da man dann nur zusätzliche nullen dran hängt ^^

Es werden keine Nullen angehängt, die vorhandenen Zustände werden einfach in den vergrößerten Adressraum übernommen, dabei kommt es allerdings zu keinem Informationsgewinn o.ä., also auch keinem positiven Effekt.



Das hochkonvertieren macht vielleicht noch Sinn, wenn man dem Signal anschliessend zusätzliche Anteile, wie die Obertöne bei einem Exciter zufügen möchte. Dann wären diese in zb. 32 bit aufgelöst und könnten für noch weitere Verarbeitung von Vorteil sein. Das ist aber sicher ein Sonderfall.

Ein Exciter fügt Obertöne hinzu, er arbeitet also in der Frequenzdomäne. Die Wortbreite bestimmt allerdings die Abbildung des Pegels, die Abtastfrequenz hingegen bestimmt die Abbildbarkeit von Frequenzen. Eine Erhöhung der Wortbreite brngt hier also erstmal nichts.


Achso, Cubase arbeitet zwar intern mit 32 bit, Signale, die in einertieferen Bitstufe (zb. 16) vorliegen müssen aber dann nicht auf diese gedithert werden. Oder gar nicht, wie uns Telefunky erklärt hat:great:

Solange die Mixbusauflösung aktueller Sequenzer nicht standardmäßig höher als 32-bit fp liegt und es auch kein Endformat gibt welches auf 32-bit-Festkomma setzt, ist Dithering auf 32-bit sowieso obsolet.




Dithering macht sich vor allem vorteilhaft bemerkbar, wenn es im Stück Details gibt, die sehr leise sind und deshalb nur noch mit wenigen Bits abgebildet werden. Das klingt dann ziemlich unangenehm verzerrt. Wenn man leises Rauschen beimischt, sind die Verzerrungen nicht mehr hörbar, dafür rauscht es ein wenig.

Fast richtig. Zu den "wenigen Bits" habe ich ja schon was geschrieben. Der Rest passt aber.




Was passiert bei der Wortbreiten-Reduzierung?

Die Anzahl der Dynamikstufen wird verringert. Wenn man in die Wellenform hineinzoomt, hat diese also nach der Konvertierung weniger "Treppenstufen". Es wird nun versucht, die bisherigen Zustände des 32-bit-fp-Signals in den 24-bit-Adressraum zu übernehmen, ohne dass dabei Fehler in der Form entstehen, dass die Abstufung der Original-Dynamik bzw. der Abstufungen der einzelnen Pegelwerte des Originals sich ändern. Solche Fehler bezeichnet man als Verzerrungen bzw. Quantisierungsrauschen.


Wann bemerkt man diese Verzerrungen?

Wie im Verlauf des Threads bereits mehrfach zur Sprache gekommen ist, machen sich diese Verzerrungen bei lauten Signalen nicht unbedingt bzw. meist nicht bemerkbar. Bei leisen Signalen ist das anders. Ein leises Signal, wie etwa das angesprochene Ausklingen eines Beckens, hat aber in der Regel wenig Dynamik. Das Becken wird ja immer nur leiser und das in relativ geringen Schritten über eine relativ lange Zeitspanne. Werden diese zunächst sehr feinen Dynamikschritte nun in das grobere Raster des 24-bit-Formats überführt, kommt es zu einer Vergrößerung der Pegelsprünge. Was zuvor sanft ausgeklungen ist, ist nun "stufiger" - und das kann als störend wahrgenommen und empfunden werden.


Was passiert beim Dithering?

Das Dither-Rauschen wird im kritischen Pegel-Bereich hinzugefügt, seine wichtigste Eigenschaft dabei ist die Gefälligkeit für das menschliche Gehör. Das gefällige Dither-Rauschen mischt sich nun mit dem Quantisierungsrauschen und mindert dessen negative Höreigenschaften, denn wie bekannt ist, werden digitale Artefakte wie eben auch das digital entstandene Quantisierungsrauschen als recht unangenehm empfunden.


Multiples Dithering?

Es gibt (wie im vorliegenden Fall) hin und wieder die Notwendigkeit zum wiederholten Dithering, auch wenn dieses generell zu vermeiden ist. Dabei sollte darauf geachtet werden, das nicht der gleiche Dither-Algorithmus wiederholt zur Anwendung kommt, man also durch bspw. noise-shaping versuchen sollte, das Dither-Rauschen anders zu gestalten um eine Kummulation zu vermeiden.


Was man nicht hört...

... kann man sich meist anzeigen lassen. Wie bereits oben erwähnt, provoziert nicht jede Bearbeitung einen Sprung hin zur Mixbusauflösung, ob dies wirklich der Fall ist kann man sich bequem, einfach und eindeutig mit einem Bit-Meter anzeigen lassen.



So, alle Klarheiten beseitigt? :)
 
  • Gefällt mir
Reaktionen: 2 Benutzer
dass die Abstufung der Original-Dynamik bzw. der Abstufungen der einzelnen Pegelwerte des Originals sich ändern. Solche Fehler bezeichnet man als Verzerrungen bzw. Quantisierungsrauschen.
Oder der Wertebereich wird bei sehr niedriger Amplitude so klein, dass die vertikale Auflösung nicht mehr ausreicht, um eine saubere Wellenform abzubilden. Es reichen dann bei der Konvertierung von 24 auf 16bit die Stufen bei sehr leisen Amplituden nicht mehr aus, die ehemals bei 24bit noch funktioniert haben. Da das Dithering auf dem untersten Bit stattfindet, ist des vornehmlich dazu gedacht die sehr leisen Signalanteile bei der Konvertierung auf 16 bit zu "retten"
Denn wir müssen uns ja vor Augen führen, das eine 24bit Wortbreite eine 256 mal so hohe, vertikale Auflösung liefert, als eine 16bit Wortbreite
 
Zuletzt bearbeitet:
Und dann ist die Wellenform bei Dir auch untenrum abgeschnitten? :D ;)
(als Kommentar zu: Telefunky kappt gern und oft die letzten 8 bit)
das mag sich auf die Hilfsdarstellung am Bildschirm beziehen...
Die muss aber mit den tatsächlich aus den Samples rekonstruierten Signalen nicht korrelieren... ;)
Ich bin nicht gerade der Signal-Theorethiker, aber die Sache mit Nyquist leuchtet mir ein, bzw ich akzeptiere das einfach
Genauso akzeptiere ich, dass es offensichtlich ausreicht, mit 1 bit pro 3dB Pegelunterschied saubere Daten zu rekonstruieren.
Die Funktion dazu überschreitet zwar meinen mathematischen Horizont... aber ich muss ja keine Hardware entwerfen...
Das ganze bezogen auf 1 isoliertes Signal - dass ein Mixbus zusätzliche 'features' braucht ist klar.
Entscheiden ist, dass 'Samples' eben nicht direkt wiedergegeben werden, sondern Futter einer Funktion darstellen.
Wenn das also (aus welchen Gründen auch immer) funktioniert, dann sind mehr 'Eingabewerte' einfach überflüssig.
Am Ergebnis würde sich nichts ändern. Und (ganz ehrlich) genauso klingt das für mich.

Ich habe natürlich 24bit Wandler und es ist im Grunde egal, ob ich 16 oder 32 bit aufzeichne.
(in meinem speziellen Fall sind es oft virtuelle Tapes, die eh auf 32bit ausgelegt sind, vermutlich wegen effizienteren Zugriff)
Erklär mich für taub, aber wie soll ich da einen Unterschied hören, wenn mein Bass ein Leerlaufrauschen von -60 dB liefert ?
Die offenen Vorstufen bestenfalls bei -87 dB ?
Mit anderen Worten: im Bereich der reinen Eingangssignale ist es völlig Banane.
Und wenn ich mit denen wenig veranstalte, dann bleibt es das auch... ;)

Ich hätte nichts gegen eine Referenz, die den Sinn des 'mit grösseren (Amplituden) Werten' encodieren erläutert.
(also das klassische PCM Audio à la CD erweitert...)
wenn du 2 gleiche Teile hast, dann reicht es 1+1 zu schreiben... 5+5, 120+120, 2500+2500 sind natürlich auch möglich

was Novik anspricht, hat mir allerdings auch schon Kopfzerbrechen bereitet.
Wie definiert eine Software ihren Wertebereich ? wo 'sortiert' sie ein Format ein ? :gruebel:
Dass sie mit der Eingangs-Skala nicht auskommt, ist bereits ab dem 2. Signal klar.
Ein standarmässig eingesetztes 24bit Format könnte zumindest etwas Ordnung hineinbringen...
Aber wie ich das sehe, ist das ja so standardisiert auch nicht... :p

Ein Satz über Floating Point Bereiche hat mir mal sehr zu denken gegeben:
fp kann zwar äusserst 'detaillierte' Daten abliefern, aber es kann keinen kontinuierlichen Wertebereich abdecken...
Was in der Signalverarbeitung sicher nicht ganz ohne Bedeutung ist...

cheers, Tom
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben