Ein Kanal in Studio One kann immer nur einen Kern eines Prozessors nutzen
Wer sagt das?
Ich habe eben mal in einen Kanal 64 Plugins eingesetzt. In der Tat wird da Core 1 mit ca. 65 % belastet. Alle anderen Core so um die 5 - 10. Dann habe ich den Track dupliziert. Wenn die Theorie stimmt, sollte ja dann ein zweiter Core um die 65 % belastet sein. Ist aber nicht. Die durchschnittliche Auslastung der anderen ist hoch gegangen, Core eins immer noch so um die 65 - 75.
Also das kann so nicht ganz stimmen. Wäre ja auch irgendwie unlogisch. Warum sollte S1 Cores einem Kanal zuordnen? Macht irgendwie nicht viel Sinn.
Ich verwende aber auch nicht MORPH oder ADAPTIVERB
Tja. Aber das sind ja nun auch nicht die einzigen Plugins, welche hohe Rechenleistung fordern. Insgesamt kann man schon einen Trend zu mehr benötigter Rechenleistung feststellen bei den Plugin Veröffentlichungen in den letzten Jahren. Bei einem Neutron mit allen Plugins aktiv und noch einigen dynamischen EQ landet man da schon auch mal bei 15 - 20% in der S1 Anzeige. Oder oben im Bild der Mautodynamic 20 mit 11%. Wobei es bei Dynamik EQ noch drauf ankommt. Sind die mit Sidechain belegt geht die Last noch mal einen guten Zacken hoch.
Selbst sowas eher simples wie Kush Omega N gönnt sich mal kurz 5%.
Oder ein bx_X2. Landet auch schon bei 10 oder so.
Jedenfalls habe ich die letzten Wochen immer abwechselnd und nach Lust und Laune mal mit Cubase, dann Pro Tools und dann wieder S1 gemischt. Für mich irgendwie kein grosses Problem die auszulasten. Das schaffe ich zuverlässig bei jeder DAW und jeder Mischung. Und da ist kein grosser Unterschied. Ich habe sogar Mischung, bei der ich in der einen DAW an die Grenze gestossen bin in anderen nachgebaut und da kam ich dann ebenfalls an die Grenzen. Vor dem letzen Update war da nur S1 die Ausnahme mit schlechterer Leistung. Aber jetzt nicht mehr.
So fette Dinger wie Adaptiverb oder oder Morph rendere ich vor dem finalen Mix. Aber die sind auf jeden Fall so lange wie möglich in Echtzeit mit drin. Gerade bi solchen Dingern macht es einen großen Unterschied, wenn man da noch mal an den Stellschrauben dreht. Das verändert das ganze Klangbild. Also so spät wie möglich rendern.
Irgendwann ist das aber auf jeden Fall nötig. Auch Automation oder viele Sidechain belasten die Audio Engine. Also ist der Zeitpunkt der Wahl für das Rendern von Effekten vor der eigentlichen Mischung wo dann die ganze Mischautomation dazukommt. So ungefähr. Oder so.
Übrigens, wie kommt es zu 255 ms Latenz bei einem Hall Plug-in
Das ist einfach die Latenz dieses Plugins. Gibt auch noch andere mit hoher Latenz. VSTi zum Beispiel. Oder UAD Plugins. Da gibt es einige die über 150 ms haben. Ozon kann auch Latenzen bis über 150 haben. Das addiert sich ja auch auf und kann dann zum Problem werden. Pro Tools kann nicht mehr als 850 ms Latenzausgleich. Wenn ich mich recht entsinne. Da muss man dann Maßnahmen ergreifen.Ich hatte schon Mischungen mit absurd hohen Latenzen von über 1500 ms. Da hinken dann die Pegelanzeigen so weit hinterher da wird einem ganz Schwindelig. Die haben zumindest in S1 keinen Latenzausgleich.
Wie auch immer, will man tatsächlich echtes in the Box Mixing betreiben, dann sollte man auf jeden Fall einen entsprechenden Rechner haben. Sonst gibt das immer wieder Render Orgien ohne gleichen. Und da weiß man dann nicht, was man vielleicht anders gemacht hätte, wäre es möglich gewesen, das bis zu Ende in Echtzeit abzuspielen.......