Ich weiß nicht ob die Fragen jetzt so überhaupt Sinn machen

Aber ich stelle mir diese Fragen seit ein paar Tagen und wollte ma hören was ihr dazu zu sagen habt!
Es macht sehr wohl Sinn, sich darüber mal genauere Gedanken zu machen. Das Thema "Lokalisation" ist als Teilgebiet der Psychoakustik Gegenstand intensiver wissenschaftlicher Forschung und weitaus komplexer als man annimmt.
Dieter B. schrieb:
Wo ein Instrument steht, entscheiden lediglich die unterschiedlichen Lautstärken auf den beiden Kanälen.
Zunächst was Grundsätzliches: Es mag trivial, haarspalterisch oder pseudo-philosophisch klingen, aber beim Panning erzeugt man Phantomschallquellen, und diese SIND NICHT links, rechts oder irgendwo dazwischen, wir HÖREN SIE NUR DA, und das auch NUR, wenn wir die korrekte Aufstellung der Boxen beachtet haben und an einem genau bestimmten Punkt sitzen. Man benutzt im Endeffekt Tricks, die das Gehirn überlisten, ähnlich optischen Täuschungen.
Dieter B. schrieb:
Wo ein Instrument steht, entscheiden lediglich die unterschiedlichen Lautstärken auf den beiden Kanälen.
Das ist z.B. ein populärer Irrtum, denn es gibt auch andere Faktoren, z.B. den Zeit- oder Phasenunterschied, wenn ein Signal an einem Ohr früher bzw. mit anderer Phasenlage eintrifft. Es stimmt allerdings insofern, dass man in einem normalen Mischpult oder DAW gar keine anderen Möglichkeiten direkt angeboten bekommt, als einen "Lautstärke"-Panpot. Bei analogen Mischpulten war auch gar nichts anderes möglich, aber auf digitaler Ebene, wäre es völlig trivial, einen Panner zu integrieren, der mit Pegel- und Laufzeitdifferenzen arbeitet. Am sinnvollsten wäre es, einen Panner zu haben, der gleich die richtigen frühen Reflektionen enstprechend für jeden Kanal mitgeneriert. Die frühen Reflektionen haben enormen Einfluss auf die Lokalisation und Entfernungswahrnehmung. Bisher hat meines Wissens nur Studer in seinen völlig unerschwinglichen Konsolen so ein Konzept integriert.
Witzigerweise werden aufnahmeseitig von fast allen Tontechniker in den meisten Situationen Mikrofontechniken bevorzugt, die Laufzeitunterscheide beinhalten. Es wäre also vielleicht mal angesagt, das die Hersteller die digitale Technik einfach auch mal dort einsetzen, wo sich völlig neue Möglichkeiten ergeben.
Ich will jetzt nicht nur "klugscheissen", ich sage das, weil man ohne ein gewisses Verständnis dieser Dinge leicht einige Fehler macht und andererseits, wenn man sich genau bewusst macht, was eigentlich passiert, weiss man was man simulieren muss um ein glaubhaftes Ergebnis zu erzielen. Beispiel:
Viele Hallgeräte und Plugins sind gar nicht True-Stereo-fähig, dass heisst, in die Dinger geht praktisch ein Monomix rein und es kommt ein Stereohall raus. Das ist ungefähr damit vergleichbar, wie wenn man eine Box irgendwo in die Mitte eines Raumes stellt, darüber den Monomix der einzelnen Sends laufen lässt, und das dann Stereo aufnimmt. So wurde das früher ja auch gemacht. Allerdings ist es bei dieser Methode völlig egal, ob meine "eigentliche" Gitarre voll links oder rechts gepanned ist. Im Hall sitzen alle Instrumente aufeinander. Die wichtigen frühen Reflektionen sind beispielsweise also für alle Instrumente gleich und tragen nichts zur Lokalisation bei, im Gegenteil, sie dürften sie eher verschlechtern, denn sie verwirren das Ohr. Der Direktschall (= der eigentlichen Kanal) eines Instruments ist z.B mit einem normalen Panpot auf halb links gedreht. Das Ohr "sagt": "Ok, von links is'n gutes Stück lauter, also kommts von ca. 15° links." Bei der "Auswertung" der frühen Reflektionen aber z.B.:"Hä? Die sind ja links und rechts gleichzeitg und ausserdem, bei allen Instrumenten gleich." Schlau isses das Ohr...
Vor allem die einfachen Faltungsreverbs können gar nicht True-Stereo sein, eine Stereo-Impulsantwort kann nur Informationen über eine Quelle an einem Ort beinhalten. Waves-IR z.B. braucht deshalb ZWEI Stereoantworten.
Aber auch wenn man ein True-Stereo-Reverb verwendet, die meisten Leute profitieren davon überhaupt nicht. Man dreht einfach den Sendregler des Mono-Kanales zum Reverb hin auf. Was passiert? Das Signal landet auf beiden Kanälen des Reverbs gleich laut. Also mittig. Ich weiss nicht wie andere DAWs das lösen, aber in Cubase und Nuendo hat der Sendweg einen EIGENEN PANNER, wenn auch sehr versteckt. Es gibt auch dummerweise keine Option, den automatisch an den Panner im Kanal zu koppeln, nein man muss ihn von Hand nachstellen...:screwy:
Bei einem einfachen Faltungsreverb und allen anderen, die nicht True-Stereo-Fähig sind nützt das aber eh nix. Im Gegenteil, sende ich einen Monokanal mittels Sendweg "durch" eine Stereo-IR und panne den Sendweg, dann wird am Ausgang des Reverbs einfach nur eine Seite leiser, im Extremfall stumm. Das ist natürlich noch grösserer Quatsch.
Es hilft also auch nix, wenn ich Impulsantworten von Lexikon oder TC habe...

Mit dem TC 6000 ist es bespielsweise möglich, Quellen in einem virtuellen Raum zu platzieren. Man sieht also, die Profis haben doch noch andere Möglichkeiten als wir. Also man kann das Gerät nicht einfach mal so "absamplen".
Selbst wenn man True-Stereo-fähige Reverbs hat, ist das Ergebnis im Sinne einer echten Raumsimulation mit vernünftiger Lokalisation und Tiefenstaffelung allenfalls eine mehr oder weniger brauchbare Annäherung. Denn z.B. selbst wenn ich zwei Stereoimpulsantworten habe wie im Waves-IR, dann ist das nur vergleichbar damit, dass ich zwei Lautsprecher in einem Raum aufstelle und über diese meinen Stereosignal (=gepannter Monokanal) wiedergebe und in Stereo aufnehme. Habe ich dieses Signal mittels regulärem Panpot auf halblinks gestellt, wird es in dem "virtuellen Hallraum" auch halblinks wiedergegeben? Jein. Es ist ja nur eine Phantomschallquelle in unserem virtuellen Hallraum und da schliesst sich der Kreis zu dem oben gesagten. Sprich, die eine echte Schallquelle, positioniert an dem Ort, wo die Phantomschallquelle """ist""", würde andere Reflektionen, Laufzeitunterschiede, etc. hervorrufen.
Die Illusion von Tiefenstaffelung kann man natürlich mit dem Verhältnis von Direktschall- und Nachhall erzeugen. Aber auch das ist nur eine Annäherung. Das Ohr merkt aber auch hier den Zeitunterschied. Es sind übrigens nicht die Bässe, die mit der Entfernung abnehmen, sondern die Höhen, selbst in der Wüste, da die Luft die Höhen stärker absorbiert. Allerdings kann man sich das kaum zunutze machen, denn das Ohr müsste "wissen", wieviel Höhenanteil in dem entsprechenden Sound drin sein sollte. Bei Quellen die es gut kennt würde das gehen, oder wenn sich die Quelle bewegt.
Was soll das Gequatsche nun? Praktische Schlüsse:
In der Praxis könnte man z.B. hergehen und sich mit dem Voxengo Impulse Modeler (Freeware Version reicht) ein Set von IRs eines Raumes mit verschiedensten Schallquellenpositionen basteln. Beschränkt man sich dabei auf die frühen Reflektionen, kann man auf jedem Kanal im Insert eine solche IR anwenden, da sie dann sehr kurz sind und daher wenig Rechenleistung brauchen. Als Plugin reicht dafür dann SIR (Freewareversion) völlig aus. Den diffusen Nachhall kann man dann auf herkömmliche Art zusätzlich erzeugen, da sind Richtungsinformationen drin, lediglich auf die Tiefenstaffelung muss man da noch aufpassen.
Die Überlegungen zeigen auch, warum ein "hartes" Pannen sinnvoll sein kann. Ist z.B. eine Gitarre nur links, dann ist das keine Phantomschallquelle mehr, sondern wird immer aus der Richtung des entsprechenden Lautsprechers kommen, EGAL wo sich die Abhörposition befindet. Ist vieleicht auch ein Vorteil, wenn man bedenkt, über welche durchschnittlichen Lautsprecheraufstellungen die Sachen angehört werden. Ist ja eher die Regel, dass in den Wohnzimmern die Boxen so stehen, dass sämtliche Phantomschallquellen eh "zusammenbrechen".
Ich denke es ist sicherlich lohnenswert, sich mit der Thematik und den Grundlagen auseinander zu setzen...
Gruß,
Uranus