moin moin,
ich fürchte das wird wieder ein etwas länglicherer Beitrag von mir.
dann wird so langsam mal Zeit.....^^
falsch - stichwort MATRIX
und das falsch ist auch falsch!
Die Matrix ist terminierend (habe ich jetzt schon mehrmals hier und/oder im englischsprachigen Behringer-Request-Feature Forum geschrieben)
Ich würde behaupten, die Matrix ist nur für physikalische Ausgänge da, die ich in der Matrix noch etwas nachkonfigurieren kann, hinsichtlich eq, comp, fx, .....
Wenn ich jetzt bspw. in den Mix-Bussen die Stimmen zusammenfasse (Sopran, Alt, Tenor, Bass) und dann wie du behauptest in der Matrix den Chor-Gesamt-Sound, dann die Frage an dich, wie ich jetzt den ChorGesamtSound auf meine Main-Outs und auf diverse Monitorboxen bekomme?
Ich würde sagen, das geht nicht......
.....und genau für diesen Zweck brauche ich den von dir als quatsch bezeichneten verschwenderischen Loopback zu 4 Input-Kanäle
Aber wenn du magst, darfst du mich hier gerne eines besseren belehren.
indem einfach prefade zum Monitorbus geroutet wird, da sind keine FX drauf - und wenn du doch im channelstrip einen Effekt legst, denn muss der Tappoint eben VOR dem insert sein
Monitorbus==Matrix?
Also angenommen, ich route von nem Mix-Bus preFade zur Matrix/Monitorbus, dann nehme ich in der Tat die Effekte,EQ, etc die in dem Mix-Bus hinzugekommen sind nicht mit.
Was ist wenn ich jetzt aber auch die Effekte,..... die ich direkt auf die InputKanäle verteilt habe nicht mitnehmen möchte.
1 Frage hierzu möchte ich das überhaupt so?
2 Frage hierzu falls ja: zweiten Mix-Bus einführen und die Input-Kanäle auf zwei Mix-Busse senden. Wie machst du das?
auf die summe - da gehören sie hin (nicht auf den Monitor)
Ich nehme an du meintest mit Summe hier Main-Out?
stimmt!. Aber wie oben schon angesprochen habe ich Effekte (ich verwende den Begriff Effekte jetzt mal generisch für fx/eq/comp/,.....) schon irgendwo in meiner pipeline drinnen.
Natürlich vorbereitend für den Main-Out.
Abzwackende Pipelineröhrchen (also bpsw hin zu den Monitoren) haben dann aber ja meist den Sideffekt, dass hier vorher in der pipeline auftretende Effekte noch vorhanden sind, die ich aber an der Stelle gar nicht haben möchte.
der PEQ ist eh auf den mains.
Das beantwortet mir aber meine Frage nicht.
Ist es eventuell sinnvoller den GEQ einzusetzen?
Falls nicht, wo wird er dann überhaupt eingesetzt?
schade^^
nein, das X32 ist keine dlive, du kannst aber in bestehender szene alles mögliche SAFEN - das bleibt dann beim laden einer anderen szene so erhalten (du musst dann aber die neue szene mit der neuen einstellung erneut speichern, damit die gesaften einstellungen in der szene gespeichert bleiben.
Szene ist aber immer alles.
Geht sowas auch mit den Snippets?
Ich denke hier gibts weniger fehlerträchtige Implementierungen, aber das Fass lasse ich jetzt mal zu..... Ich muss mich wohl VORERST damit abgeben, was vorhanden ist.
Um ehrlich zu sein: ich mache seit > 40 Jahren Musik auf kleinen und großen Bühnen - das was du da versuchst zu basteln, klingt für mich wie der Versuch nicht vorhandene Praxis und Erfahrung mit Technik ersetzen zu wollen.
Ja ich habe tatsächlich nicht viel Erfahrung. Hätte ich diese würde ich hier ja keine Fragen stellen.
Ok ich stelle hier ja nicht nur Fragen, sondern mache auch Feature-Requests, aber trotzdem auch Fragen^^
Ein SD8 bekommt man für < 400€ - da kostet ein (halbwegs vernünftiger) Submixer das gleiche. Kein Argument.
ja der Submixer ist jetzt von der Quali nicht so gut, den wir bereits haben! (betonung liegt auf haben.... ist ein einfaches analoges behringer-pult (klingt auch nicht ganz so toll, aber ist verwertbar))
Und ich würde den auch nur dann verwenden, wenn ich vllt. gerade mal noch 4Mics dazu speissen möchte.
Aber wenn wir schon bei der Thematik sind, ich hätte auch noch ein DDX1632......... Das als Submixer zu verwenden, wäre auch nicht sinnvoll, oder?
Klar ich kann hier dann nichts mehr steuern. (wobei das nur bedingt stimmt, ich habe ja einen Remote-Controller für diese Pult^^, Auf midi-sysex Ebene -> Vollzugriff bis auf Meter und Gain)
Aber so könnte ich es ja noch sinnvoll einsetzen, oder?
Eine bereits integrierte ADAT Karte in diesem könnte ich auf ein X-ADAT vom Behringer X32 connecten. Wobei dann wohl eine gute Mitschnittmöglichkeit vollständig entfällt, oder?
Das ändert sich auch, wenn ein Gitarrist auf der Bühne einen Meter geht - und so funktioniert das seit ein paar Dekaden. Wieder das Thema Intelligenz/Erfahrung mit Technik ersetzen....
Das ist richtig. Aber so hätte er immer noch selbst die Entscheidung, ob er sich gut hören möchte oder nicht. Und er wird in seiner Entscheidung nicht technisch eingeschränkt.
Dann TU ES EINFACH - wenn du das erste mal eine Stunde mit der Suche nach einem Brumm verbracht hast, dann hast du eben selbst die Erfahrung gemacht.
Deshalb habe ich darum gebeten, detalliert zu antworten. Du hast in deinem vorletzten Beitrag nur das Problem der Symmetrierung angebracht.
Vllt. hat das Behringer-Pult ja nen Anti-Brum-Mechanismus?, kA....... deshalb frage ich ja nach.
Man kann die Erfahrung auch mit nochsoviel Computer nicht ersetzen - auch wenn vor allem Leute, die frisch von der Uni kommen und alles programmieren können glauben, dass alles mit der Technik lösbar ist....
Ich habe in den vielen Jahrzehnten gelernt, dass Minimalismus auf der Bühne das Beste ist, was man tun kann. Wenn bei deinem Konstrukten der Mixer mal ausfällt, kannst du den Gig knicken - bei so viel technischer Hilfestellung müssen Chor, Musiker und Solisten keinerlei Mikrofontechnik beherrschen, nicht auf das hören was die anderen spielen/singen und werden nur noch durch die Technik verwaltet. Zugegeben - die Fähigkeit, mit anderen auf der Bühne zu spielen wird einem nicht in die Wiege gelegt - die muss man lernen. Wenn man es kann, funktioniert es einfach.
Final: die Unzulänglichkeiten der Musiker und des Chors mit Technik auszugleichen ist der falsche Weg - dann kannst du auch Playbacks abspielen.
Dazu kommt verschärfend hinzu dass ich sogar noch in der Uni bin^^
Aber ich gehöre auch zu denen die schon viel Programmierpraxis gehabt haben, von daher bin ich schon realistischer^^
Und ich weiß auch welchen Haufen Arbeit das verursacht sich selbst in das OSC-Proktokoll einzuarbeiten und von SCRATCH einen Mischpult-Computer/Smartphone-Controller zu bauen.
Eine Pluginarchitektur in Behringerx x32-edit-application wäre hier schon sehr sinnvoll.
Hast Du schon mal nachgedacht wofür ein EQ eingesetzt werken kann, welche Aufgaben er erfüllen soll?
1) Um kritische Frequenzen herauszufiltern. Wenn man Faul ist, geht das auch halbwegs auf der Summe
2) Um das signal/signalsumme atomosphärisch richtig anzupassen
3) Um das signal/summensignal durchsetzungsfähiger zu machen
4) Um das Soundspektrum unter allen Signalteilnehmern differenziert aufzuteilen^^
Hast Du schon mal darüber nachgedacht wofür man den Kanal-EQ und wofür man einen Summen EQ verwenden kann?
siehe oben meine 4 Punkte
Kanal-EQ, nur wenn man nicht Faul ist -> siehe hierzu 1)
Summen EQ überall wo auch summensignal steht
oder auch nicht?!
Es geht natürlich alles im Kanal-EQ
Und hier wären wir schon bei einem weiteren Feature-Request von mir^^
Ich nenne es mal den DCA-splitted-EQ
Um das ganze zu erklären, muss ich erstmal ein paar Dinge definieren:
1) physikalischen EQ: das ist der EQ mit dem das Pult dann später direkt arbeiten wird. Sprich ist der EQ, den es aktuell gibt
2) logischen EQ : Dies ist ein EQ, den es nur virtuell bzw. logisch gibt, jedoch keinen phyiskalischen EQ darstellt, diesen aber speisst.
3) interpolativen rückrechnenden logischen EQ: gleiche wie der logische EQ + er wird automatisch so konfiguiert, dass er vorgenommen EQ-Einstellungen interpolativ/ausgleichend wieder rausrechnen kann.
So was habe ich vor:
2 logische EQs bauen und zwar LEQ1 und LEQ2. Beide sitzen hintereinander in den Input-Kanälen
Mithilfe des LEQ1 stelle ich den EQ-Anteil ein, der Input-relevant ist.
LEQ2 wird von einem DCA aus gesteuert und enthält die "Summen"-EQ Anteile
Die Software rechnet dann aus LEQ1+LEQ2 automatisch den physikalischen EQ aus.
=> ich kann aus eq-Sicht auf Mix-Busse verzichten.
Möchte ich später z.B im Monitorsound POST-Fader arbeiten und habe nicht genügend hardware-mix-busse zur Verfügung, dann hätte ich da noch den interpolativen rückrechnenden logischen EQ kurz IRL-EQ zur verfügung. Dieser versucht aus allen einem Summen-DCA zugeordnenten Channel LEQ1 interpolativ zurückzurechnen und zweitens LEQ2 zu subtrahieren.
Somit habe ich dann zwar am Monitor nicht die jeweils reinen input-anteile vorliegen, aber immerhin anäherungsweise^^
Weitere Vorteile der LEQs: Ich kann jetzt auch anfangen in jedem Kanal unendlich viele LEQs anzubieten => wäre interessant für Szenen/Snippets.
Und Nein, ich rauche keine verschwefelten, blauen Backsteine.
Hast Du schon mal darüber nachgedacht wozu man Signale Summiert?
um meine DCA-logik zur Hälfte in Hardware zu haben.
Um bspw. den Kompressor/(Effekte im Allgemeinen) auf ne Summe geben zu können
Außerdem habe ich so schnellere Eingriffsmöglichkeiten, kann die Summe lauter/leiser machen und muss mich nicht um zig-tausend einzelne Channel kümmern.
Das können meine DCAs auch, sind aber nicht vom Limit an Hardwarebussen eingeschränkt.
Habe ich was vergessen?
Hast Du schon mal darüber nachgedacht inwieweit man seine Konzepte an die Hardware anpassen muss um ein sinnvolles Ergebnis zu erhalten?
Ja und genau deshalb frage ich ja nach, wie ihr das mit bestehender Behringer-X32 Hardware sinnvoll umsetzt
Also wäre schön, wenn du mir mal ein detailreiches Routing präsentieren könntest.
Die Konzepte, die ich aktuell vorschlage, sind so noch nicht umsetzbar, weil Behringer das SOFTWARETECHNISCH aktuell nicht bietet, sich aber hoffentlich meine Beiträge durchlesen wird und somit uns in einer der kommenden Firmwareupdates positiv überraschen wird^^
Hast Du schon mal darüber nachgedacht wie sinnvoll es für die eigentliche Umsetzung ist über nicht vorhandene Features eines Geräts nachzudenken anstelle ein Konzept mit dem vorhandenen zu entwickeln?
Ja hier das gleiche: Ich würde mich freuen, wenn ihr mir ein funktionierendes Konzept präsentieren könntet
Wie viele Hall-Effekte braucht es wirklich für eine Live-Veranstaltung?
Solo-Mic würde ich sagen
Wofür ist der Monitorsound eigentlich notwendig und wie viel davon braucht es?
So genau habe ich das Ziel der Frage nicht verstanden.
Sind Halleffekte in schwierigen Umgebungen (Viele Mikros, Chor usw) am Monitor sinnvoll und wenn ja was ist der Vorteil?
Habe ich behauptet, es wäre sinnvoll?
Ein minimaler Hallefekt kann die Durchsetzbarkeit bspw. eines Solo-Mics steigern
Wie viele Hände hat ein Gitarrist frei um das Monitorsystem zu bedienen während er Gitarre spielt?
Ok hier habe ich mich etwas unpräzise ausgedrückt. Mit "manchmal" meine ich nicht Lied-intern sondern für das eine Lied gilt dies und für ein anderes jenes
Welche Nachteile könnte es haben wenn er immer nur das eine oder das andere machen kann?
Die Frage habe ich nicht verstanden.
Und wie sieht es mit der Konzentration des Musikers aus wenn er sich nebenbei auch noch um den Monitorsound kümmern muss?
Muss er doch nicht. Am Anfang einmal selbst eingestellt, wird er vermutlich den ganzen GIGs über, den Monitorsound gar nicht mehr anrühren, und wenn nur mal ab und zu.
(Offtopic) Den Durchbruch von künstlichen Intelligenzen hat man schon für die frühen '70er Jahre vorhergesagt. Um wie viel sind wir heute näher dran als damals?
sagt dir der Begriff ALPHA GO was?
Wenn man in deiner Konstellation einen analogen Submixer verwenden will, wo soll der dann stehen?
Ja neben dem Behringer-Rack, oder als kleine Stagebox etwas entfernt davon
Was haben unterschiedliche Positionen für Vor- und Nachteile für die Abwicklung einer Veranstaltung?
Was meinst du mit Positionen?
Ich bitte dich jetzt diese Fragen mit möglichst genauen und belegbaren Begründungen zu beantworten.
Dann können wir ja weiter machen.
Falls ich dir noch etwas zu ungenau beantwortet haben sollte, dann frage/präzesiere nach
Soweit, dass so ein blöder Hilfsassistent - bei welchem Gerät auch immer - es besser zu wissen meint als der Nutzer und alles verschlimmbessert (ich sag nur Autokorrektur ...)
Hier würde ich nicht von KI sprechen
Es gibt hier Leute mit Erfahrung, die auf Vereinfachung drängen, und es gibt einen TE, dem das nicht eingehen will.
Also wie schon in einem Beitrag früher geschrieben, bin ich sehr interessiert daran, wie ihr es "vereinfacht" umsetzen würdet. Vllt. hast auch du ein paar Routing-Vorschläge zu meinen Rahmenbedingungen (22Kanäle, 2Front-Out-Zone,........)
Chormikros nicht/nie auf Monitor. Chor bekam Keyboard und Drums. Solisten auf der Vorbühne nur SelbstMonitoring.
Das ist ein heikles Thema. Als Techniker würde ich genau das so unterstreichen. Meist ist aber etwas Chor auf den Monitoren für den Chor gewünscht. Vor allem wenn der Chor etwas größer ist, sodass es nicht möglich ist, dass der Sopran den Alt hören kann. Klar ein Profi-Chor, wo jeder 100%ig ohne eine andere Stimme seinen Ton halten kann, muss das nicht sein. Ist aber vermutlich atmosphärisch wieder bedenklich. Da der Chor besser singt, wenn die Atmosphäre passt. Sprich er hört alle Stimmen und am besten auch alle Instrumente. Hier muss eben abgewogen werden.
Das macht das ganze Rückkoplungstechnisch schwierig, aber ist machbar. (kommt auch drauf an welche MICS eingesetzt werden und wie die Monitore und MICS gerichtet sind)
Dass Die Band direkt vor dem Chor steht und diesen mit Ihren eigenen Monitoren mitbeschallt ist ja auch nicht immer gegeben.
Aber das Akkustik-Drumset auf deinem Bild in der nähe von den ChorMics........ hmmm na gut^^
Für die Band ist ein E-Drumset und inEar-Monitoring - denke ich - am besten.
Keys und ausgewählte Komponenten des E-Drumsets auf die Chormonitore, da stimme ich dir ganz zu. (das steht ein wenig im Widerspruch zu oben angesprochender Atmosphäre/Motivation beim Chor)
Auf Fragen von @knotenpunkt werde ich nicht eingehen.
Fachkundige, nette und erfahrene Bord Mitglieder, MODs, HCAs, HFUs arbeiten sich höflich und geduldig mit verständlichen Antworten daran ab und erzeugen doch nur Widerstände und noch wildere Theorien bei dem TE.
Interessant ist auf jeden Fall, das bis jetzt sich Leute hier immer nur über diese "Theorien" aufgeregt haben, aber nie begründet haben, was dagegen spricht.
Und ne einfache Meta-Antwort, es verkompliziert die Sache, das wurde vor 70 Jahren nicht so gemacht, also brauchen wir das heute auch nicht, ist keine gut argumentierte Begründung.
Wenn schon gegen die Theorien wettern, dann wenigstens inhaltlich^^
Apropo auf Fragen von mir eingehen: Welchen Sinn hatte dann dein letzter Beitrag?
Zum Thema detailierten Antworten:
Ich bevorzuge Whiteboards und Person X auch (Person X, weil ich mich nicht gerne mit einem Lehrer vergleichen möchte^^)
Person X wird an eine andere Schule versetzt. Diese hat leider keine Whiteboards (Behringer-X32 ohne meine tollen Features)
Also muss Person sich mit ner alten Tafel und nem Stück Kreide abgeben.
Früher hatte er, um das an die Tafel geschriebene aufbewahren zu können, am Whiteboard einfach auf den Save-Button geklickt.
Wie muss er das heute machen? Dazu fragt er einen anderen Lehrer.
Dieser schlägt ne Kamera Y vor. Mittels dieser kann er den Inhalt immer fotographieren und somit "abspeichern".
Es stellt sich nun die Frage, warum Kamera Y besser ist als Kamera Z.
Es wäre wirklich toll und nett, wenn ihr - zumindest ein wenig - so begründet könntet.
Das Paradebeispiel war eben die DI-BOX........ Das Brummen wurde nirgends erwähnt.
Manchmal sind Dinge selbstverständlich, aber was für einen selbst selbstverständlich ist, ist für jemand anderen vllt. nicht so
und schcon gar nicht für eine Person mit wilden Theorien^^
Kamera Y ist übrigens deshalb besser weil Kamera Z einen blinden Fleck für blaue Kreide hat.
in diesem Sinne
lg knotenpunkt