Also wäre ein Lösungsansatz für mich, das ich die Sounds, wie ich sie jetzt habe kopiere und bei den kopierten Sounds dann nur ein trockenes Signal speichere. Dann kann ich dem FoH geben, was er gerne mag. Mir ist schon klar, das bei einem Open Air mir keine Sorgen wegen meinem Sound, vor allem Hall und Echo, machen brauche. Da gibt es ja (fast) kein Hall und Echo. In einer Kirche wäre das sicher das andere Extrem (wobei, wenn ich mir eine Punkrock Band in einer Kirche vorstelle...
)
Wenn ich bei dem ein oder anderen Lied gezielt ein Effekt einsetze (Chorus, Flanger oder Octaver)), bleibt das davon ungerührt, weil das eben zu meinem Sound gehört. Vielleicht kann ich beim Lead-Sound noch ein wenig gezieltes Delay dazufügen (also auch in der angenommen Kirche) aber nur sparsam.
Es sind also nicht die Effekte die dem Toni Kopfzerbrechen bereiten, sondern in erster Linie Hall und Echo. Und ja, man kann auch mit Chorus und Kohorten den Sound matschig machen. Und wie es
@Mfk0815 so schön geschrieben hat, so lange es keinen "Dereverb", oder ähnliches gibt, ist man da am Mischpult machtlos.
Na da hab ich doch schon einen Lösungsansatz. Obendrein mir relative wenig Arbeit verbunden.
Was den Equalizer am Mikrofon angeht, da hab ich es auch anders gelernt. Ja, es gibt Stimmen die mit einem bestimmten Mikrofon einfach funktionieren. Deshalb sollen Sänger ja auch die Mikros vor Ort ausprobieren, bevor man sich das Mikro kauft. Das richtige Mikro, mit dem richtigen vordefinierte Frequenzgang, wird der eigenen Stimme schmeicheln.
Da dies aber doch seltener ist, als man denkt (vor allem bei kleineren Bands), muss man fast immer den Grundsound des Mikros an den/die Vokalisten*innen anpassen. Wenn es nasal klingt und das Mikro obendrein noch bei 800 - 1000 HZ eine leichte Anhebung hat, hört es sich nun mal an, wie eine "hochnäsige Adlige" (Fräulein Rottenmaier). Aber auch wenn das Mikrofon zu 100% Linear ist, würde man in diesem Fall diese Frequenz etwas herausnehmen. Das hat dann wenig mit der Klangveränderung zu tun, sondern viel mehr mit der Sprachverständlichkeit. Und ich hab das Gefühl das in diesem Punkt gerade aneinander vorbei geredet wird.
Ich war mal auf einem Seminar, an dem wir das EQen an Beispielstimmen (gesprochen) aus dem Radio geübt haben. Das waren also Mittschnitte, die genau so irgendwann mal über den Äther liefen. Da haben wir dann nur mit einem Analogpult (war ein Soundcraft mit HF, Parametrischen Mitten und LF Equalizer) meist mit dem Parametrischen EQ die sogenannten "bösen Frequenzen"" herausgenommen in dem wir sie mit sweeping gesucht hatten. Da ist mir erst mal aufgefallen wie lieblos teilweise die Klangeinstellungen im Radio waren. Manchmal hatte ich das Gefühl, das es auch ohne Korrektur passt. Aber nach der Korrektur war es grundsätzlich immer besser.
Dabei hat sich der Klang der Stimme nicht wirklich verändert, aber sie wurde jedes mal deutlicher und verständlicher. Das Zuhören bei langen gesprochenen Texten wurde plötzlich viel einfacher. Es ging also nie darum den Sound anzupassen, sondern nur darum die Stimmen verständlicher zu machen.
Bei gesungenem Material kommt noch dazu, das die Stimme im Mix "vorne" sein sollte, so das man den Text gut versteht. Ich geh da jetzt nicht auf die Ausnahmen ein, sondern bleibe bei der Regel. Wenn im Bandmix die Stimme nach vorne geholt werden soll, gibt es drei Möglichkeiten:
1) Die Stimme lauter machen (ist wohl eher Plan B)
2) Der Stimme im Frequenzspektrum der Band mehr Platz schaffen und die Sprachverständlichkeit verbessern (die berühmten 2KHz)
3) Die Instrumente muten (grins)
Also ist ein Eingriff mit dem EQ meistens sinnvoll. Wohl gemerkt wollen die wenigsten den Charakter der Stimme verändern, aber eben die Verständlichkeit verbessern.