... MatthiasT geht in etwa diesen Weg, in dem er einfach nur einen EQ benutzt. Das ist in meinen Augen auch richtig. Alleine der Gedanke das jede Spur etwas "analoges" hat und Phasenverschiebungen erzeugt, finde ich fürchterlich. ...
also... zunächst mal ist erlaubt was gefällt - und was MathiasT macht ist völlig in Ordnung... es ist schliesslich 'sein' Mix
nur die Schlussfolgerung ist definitiv falsch...
sein 'einfacher' Eq erzeugt Phasenverschiebungen - das ist das Arbeitsprinzip der Schaltung. Egal ob analog oder digital.
ich wende mich auch nicht gegen eine bestimmte Arbeitsweise, sondern gegen die
Annahme, dass Digitaltechnik per definitionem etwas absolutes, reproduzierbares oder gar besonders präzises darstellt.
unter bestimmten Umständen kann sie sich diesem Ziel sehr weit annähern, aber in dem Themenbereich hier ist eher Vorsicht angebracht.
Ich möchte noch mal an das Kemper Zitat erinnern, dass es nicht unbedingt 'richtig' gerechnet sein muss, um gut zu klingen.
(der Mann dürfte als Designer des Access Virus ausreichend Reputation für so eine Aussage besitzen)
Ich habe mich durchaus schon häufig gefragt, wie das mit der Effektverarbeitung wohl unter der DAW Haube im Detail aussieht.
Das grobe ist schon klar, aber innerhalb so einer Effektkette...
Auf der einen Hälfte meines Systems (DSP Hardware) kann ich diese Dinge in Einzelschritten zeitlich nachverfolgen.
Das Gesamtverhalten ist audio-mässig ausgezeichnet (der DSP Monitor liegt in Transparenz hörbar vor der DAW), aber dennoch tritt gelegentlich hier oder da mal ein Sampleversatz von 2-5 auf.
Manches ist auch funktionsbedingt - eine Transientenbearbeitung kann mit 1 isolierten Datenpunkt nun mal nichts anfangen.
Klar, auf DSP Hardware muss das eher auffallen, weil es strikte Echtzeit Bearbeitung ist.
Protools lädt deswegen Plugins dediziert auf DSP und nicht einfach in beliebiger Reihenfolge bis nichts mehr geht.
Es fällt mir schwer zu glauben, dass es native Plugins auf Intel CPUs da deutlich leichter haben sollen, was das zeitliche 'alignment' angeht.
Vermutlich machen sich 90% der Entwickler darüber auch keinen Kopf.
Das thread-management von CPU/OS dürfte da einiges an 'Unvorhersehbarkeitsfaktor' bieten.
Ist aber nur eine Annahme - im Detail hat mich das nie interessiert.
Im 'normalen' Gebrauch wirkt sich das auch nicht gravierend aus, aber wenn man 'high-end' denkt, wird es schon relevant.
Vielleicht ist es auch ein Faktor für die gern zitierten Unterschiede von Audio-Engines. Wer weiss...
Ich bin kein Mathematiker, aber ich habe mehrfach Unterschiede gehört, für die es keine plausible Erklärung gibt.
Alles im Bereich 'normaler' Digitaltechnik
es ist auch nicht so, dass ich ein 'Lieblingssystem' habe, bei dem es besser klingen 'soll'. Die Differenzen sind einfach nur lästig...
cheers, Tom