Latenzunterschiede zwischen Nativen bzw. TDM Systemen?

  • Ersteller turjaci
  • Erstellt am
turjaci
turjaci
Registrierter Benutzer
Zuletzt hier
07.02.21
Registriert
30.12.07
Beiträge
477
Kekse
0
Ort
Pforzheim
Hey an alle,

ich würde mal gerne eure Meinung zum Thema Latenzproblem bei nativen Systemen wie Cubase und Logic hören. Es wird oft erzählt, dass es bei Liveaufnahmen oftmals zu starken Latenzen kommt, die das Timing sehr beeinflussen. Wie geht ihr damit um? Geht ja ziemlich viel Feeling verloren, wenn das Timing jedes eingespielten Instruments varriert. Bei ProTools gibts das Problem nicht, aber die HD Systeme sind ja für Hobbymusiker unbezahlbar.

Auch hier wurde das Thema mit Martin Haas angesprochen (Teil 2):

http://www.musotalk.de/talks-interv...as-sabrina-setlurglashausmoses-pelham-teil-1/
 
Eigenschaft
 
Naja, also das sind ja wohl zwei sehr kompetente Leute, aber Martin Haas z.B. gibt zu, dass er sich selbst lange nicht mehr mit nativen Systemen beschäftigt hat. UNd der INterviewer lässt ebenso durchschimmern, dass da auch etwas Voodoo und Psychologie mitschwinkt...

Auffällig ist ja schon, dass der Herr Haas von Hardware-Monitoring wohl noch nicht so viel gehört hat bzw. wird das eh nur so nebenbei erwähnt. Während ich das ja hier immer wieder als Argument dafür bringe, dass die Latenz in den meisten Aufnahmesituationen egal ist. Ich bin jetzt kein professionller Sänger und hab auch nicht mit solchen zu tun - daher weiß ich nicht, ob es für viele so wichtig ist, dass sie schon beim Einsingen einen HAll auf der Stimme haben . Nun gibt natürlich auch Situationen wo man ums Software.-Monitoring nicht drum herum kommt wie z.B. Amp Modelling. Aber ehrlich gesagt habe ich da bisher auf meinem System kein Problem gehabt eine so nieedrige Latenz einstellen zu können, dass ich sie nicht merke. Wenn ich einen echten Gitarrenamp habe und der 3 Meter weit weg steht, dann hat man auch 10ms Latenz.

Ich hab auch ein Projekt an einem ProToolsHD gemacht. Ja, das ist schon toll, und für professionelle Situationen vielleicht auch nötiger. WUrde ja auch angesprochen also vom WOrkflow. BEim Softwaremonitoring ist man natürlich flexibler, kann alles schnell so einstellen, wie der MUsiker es haben will - und braucht sich dann bei Pro Tools HD dennoch keine Gedanken über Latenz und Systembelastung zu machen. Aber z.B. ist das HArdware-Monitoring bei größeren Interface ja auch ziemlich gut, also dass man da einen flexiblen Moniktormixer hat. Und bei manchen kann man ja sogar Effekte einbinden (auch wenn die nicht gut sind, aber man hat dann halt wenigsten etwas Hall auf der Stimme beim einsingen).

Dieses Gefühl der Sicherheit kann ich in gewisser Weise auch nachvollziehen. Zumindest eben in professionellen Situationen, wo DInge eben einfach schnell funktionieren müssen, ohne sich über irgednwas GEdanken zu machen. Aber das zeigt ja auch wieder, dass es viel Psychologie ist, und nicht unbedingt ein tatsächliches Problem. Sieht man aber ja hier im Forum auch immer wieder, dass Latenz zu einem großen Problem gemacht bzw. da viel drüber gesprochen wird, obwohl viele sich oft gar nicht klar sind, ob die Latenz nur wirklich relevant ist bzw. für welche Situationen.

Pro Tools LE hat keinen Latenzausgleich? Das ist ja krass. Aber auf was bezieht sich das genau? Noch nicht mal ein Aufnahme-Offset (Den beherrscht nämlich sogar Audacity ;)) ? Oder einfach kein Berücksichtigen von Latenzbehafteten Effekten? Dann könnte man diese ja gar nicht einsetzen. In der Tat ist man dann natürlich eher von einem guten TReiber abhängig. Z.B. las ich im amazona-Test vom Tascam us-1641 von schwankenden Latenzen. Das ist natürlich übel, da hätte ich auch eher immer ein komisches Gefühl, ob das nun passt. Meine M-Audio Delta 1010LT aber liefert absolut stabile Latenzen bei jeder Einstellung. Da passt das dann auch alles.

Am HD-System hat man natürlich immer garnatierte Fehlerfreie Echtzeit wiedergabe - dafür nervte mich dann, dass es nicht schneller als Echtzeit geht :) Da hat man einen 10MInuten langen Song, nur einen Effekt drauf der kaum Rechenleistung beansprucht - aber muss dennoch 10 Minuten warten, wenn man den mal eben schnell rausrendern will...
 
Es wird oft erzählt, dass es bei Liveaufnahmen oftmals zu starken Latenzen kommt, die das Timing sehr beeinflussen. Wie geht ihr damit um? Geht ja ziemlich viel Feeling verloren, wenn das Timing jedes eingespielten Instruments varriert.

Man sollte natürlich nur dort Rechenzeit aufwenden, wo es wirklich notwendig ist. Für Monitoring ist es IMHO nicht notwendig, viel Rechenzeit aufzuwenden:
  • Aufnahmesignal ins Pult
  • Direct Out oder als Subgruppe in den Rechner
  • Playback des Rechners (Stereo) ins Pult
  • Mix aus Aufnahmesignal und Playback auf den Kopfhörer des Musikers
Der Rechner muß also das Playback zusammenmischen und abspielen und gleichzeitig das eingehende Aufnahmesignal aufnehmen. Da kann es höchstens zu Problemen kommen, wenn (a) entweder viele Spuren zusammengemischt werden oder (b) viele Signale gleichzeitig aufgenommen werden. Für (a) hilft nur vorheriges Zusammenmischen, für (b) ein leistungsstarker Rechner. Latenz spielt aber in diesen Szenarien keine Rolle. Also leidet das Timing dann auch nicht.

Latenz spielt erst dann eine Rolle, wenn man das Monitoring im Rechner macht oder am Ende gar der Rechner die Klangerzeugung bzw. Klangveränderung eines eingehenden Signals übernimmt. Damit sollte man halt extrem sparsam umgehen, um die Ressourcen sparsam und sinnvoll zu nutzen. Klangerzeugung ist IMHO keine Sache, die ein Audiorechner primär übernehmen sollte, der sollte nur fürs Aufnehmen selbst da sein.

Harald
 
Erst mal Danke, das gleich 2 HCa´s antworten :)

Aber z.B. ist das HArdware-Monitoring bei größeren Interface ja auch ziemlich gut

Wie verhält sich das Hardware Monitoring beim Fireface 800, es bietet ja glaube ich aus m Kopf jetzt 9 Monitoring Möglichkeiten?! Ich z.B. besitze kein Pult, über welches ich meine Aufnahmen tätige. Bei mir läuft alles über das Interface.

wie z.B. Amp Modelling.

Damit meinst du das digitale, wie z.B über Guitar Rig, simmts?

Und bei manchen kann man ja sogar Effekte einbinden (auch wenn die nicht gut sind, aber man hat dann halt wenigsten etwas Hall auf der Stimme beim einsingen).

Die Aussage von Haas hat mich auch etwas verwundert, da ich die HAlleffekte etc. auch erst nach der Aufnahme zufügen kann, so dass sich dieses Problem von alleine löst und ich "clean" aufnehme. Aber vielleicht meint er damit, da man so besser auf den Sänger eingehen kann.

obwohl viele sich oft gar nicht klar sind, ob die Latenz nur wirklich relevant ist bzw. für welche Situationen.

Für welche Situationen sind sie für dich relevant?

Pro Tools LE hat keinen Latenzausgleich? Das ist ja krass. Aber auf was bezieht sich das genau? Noch nicht mal ein Aufnahme-Offset (Den beherrscht nämlich sogar Audacity ) ? Oder einfach kein Berücksichtigen von Latenzbehafteten Effekten?

Ich glaube, dass LE kein HD gestütztes System ist und er auf dies bezogen sagt, dass es keinen Latenzausgleich vorweist. Sicher bin ich mir jetzt aber auch nicht. Korrigiert mich, wenn ich falsch liege.

Da hat man einen 10MInuten langen Song, nur einen Effekt drauf der kaum Rechenleistung beansprucht - aber muss dennoch 10 Minuten warten, wenn man den mal eben schnell rausrendern will...

Wieso verhält sich dies bei ProTools so?

Ergänzung: Ich denke, dass man mit DSP Karten, wie UAD, ebenfalls zumindest beim Mischen latenzfrei arbeiten kann, auch ohne HD Systeme wie ProTools.

Latenz spielt erst dann eine Rolle, wenn man das Monitoring im Rechner macht oder am Ende gar der Rechner die Klangerzeugung bzw. Klangveränderung eines eingehenden Signals übernimmt. Damit sollte man halt extrem sparsam umgehen, um die Ressourcen sparsam und sinnvoll zu nutzen. Klangerzeugung ist IMHO keine Sache, die ein Audiorechner primär übernehmen sollte, der sollte nur fürs Aufnehmen selbst da sein.

Hey Harald. Ich lese raus, dass du von Softwareinstrumenten eher abraten würdest, stimmts? Also eher mit Outboardequipment arbeiten, um die Rechenressourcen zu sparen und somit gar nicht erst mit dem Latenzproblem in Berührung zu treten.

Bezogen aufs Monitoring im PC hätte ich noch ne Frage. Bei vielen Soundkarten bestehet ja wie bereits erwähnt die Möglichkeit des Monitorings, von daher stellt sich mir die Frage nach dem Sinn des Softwaremonitorings? Oder ist es eben nur ne Frage des Budgets?

Freu mich auf eure Antworten. Gute Nacht :)
 
Wie verhält sich das Hardware Monitoring beim Fireface 800, es bietet ja glaube ich aus m Kopf jetzt 9 Monitoring Möglichkeiten?! Ich z.B. besitze kein Pult, über welches ich meine Aufnahmen tätige. Bei mir läuft alles über das Interface.


Was meinst du mit "9 Monitoring Möglichkeiten"? Das FF kann Hardware Monitoring, das man sehr schoen und komfortabel über die zugehörige Totalmix Software bedienen kann. Allerdings wird das Signal trotzdem AD und DA gewandelt und ist damit theoretisch auch nicht mehr Latenzfrei. Funktioniert aber in der Praxis sehr gut.

Bei Echtzeit-Effekten und Software-Instrumenten beginnt das Thema Latenz erst wirklich spannend zu werden. Beim normalen Aufnehmen eher nicht.
 
Was meinst du mit "9 Monitoring Möglichkeiten"? Das FF kann Hardware Monitoring, das man sehr schoen und komfortabel über die zugehörige Totalmix Software bedienen kann. Allerdings wird das Signal trotzdem AD und DA gewandelt und ist damit theoretisch auch nicht mehr Latenzfrei. Funktioniert aber in der Praxis sehr gut.

Sorry, ich hatte mich unglücklich ausgedrückt. Ich meinte natürlich 9 unabhängige Stereo Submixes.

Bei Echtzeit-Effekten und Software-Instrumenten beginnt das Thema Latenz erst wirklich spannend zu werden.

Wie gesagt, dass Thema Echtzeit-Effekte kann mit DSP Karten ziemlich gut in den Griff kriegen. Bei Softwareinstrumeneten ist es halt ne Frage des Budgets, ob man drauf verzichten kann oder nicht.
 
Hey Harald. Ich lese raus, dass du von Softwareinstrumenten eher abraten würdest, stimmts? Also eher mit Outboardequipment arbeiten, um die Rechenressourcen zu sparen und somit gar nicht erst mit dem Latenzproblem in Berührung zu treten.

Tendenziell: ja. Ich persönlich habe das für meine Situation so entschieden, weil ich einen ~5 Jahre alten Rechner verwende, mit einem Marian ADCON-Audiointerface, Cubase 3 SL und als einzigem VSTi die Vienna Symphonic Library Special Edition. Ich hatte vorher einen Rechner mit einer weiß-nicht-was-Audiokarte, die das Monitoring übernommen hat und es war grausam schwer bedienbar und nicht vernünftig speicherbar. Daher habe ich mir damals geschworen, Monitoring erstmal nur im externen Pult zu machen (Mackie 1604 VLZ), um es durch Bedienen von Hardware vielseitig und schnell kontrollierbar zu machen.

Ansonsten tendiere ich zum Hardware-Instrument, richtig, weil ich vom Klavierspielen her komme. Die Trennung "Instrument zur Klangerzeugung"-"Computer zum Aufnehmen" hat sich bei mir technisch und musikalisch bewährt, auch wenn ich die VSL zu schätzen weiß und mir klar ist, daß zukünftig immer mehr Produzenten VSTis verwenden und der Markt entsprechend reagieren wird.

Bezogen aufs Monitoring im PC hätte ich noch ne Frage. Bei vielen Soundkarten bestehet ja wie bereits erwähnt die Möglichkeit des Monitorings, von daher stellt sich mir die Frage nach dem Sinn des Softwaremonitorings?

Ich habe zwar die Situation nicht hier vor Ort, aber wenn man Monitoring-Einstellungen im Projekt speichern kann (statt in den Soundkarten-Hardware-Einstellungen), ist damit Total Recall möglich. Bei der nächsten Aufnahmesession ein paar Monate später bekommen also Drummer und Sänger z.B. die Mixe aufs Ohr, die bei der ersten Session schon da waren.

Harald
 
Wie gesagt, dass Thema Echtzeit-Effekte kann mit DSP Karten ziemlich gut in den Griff kriegen.

Sorry, das würde ich nicht so pauschal stehenlassen.

Schonmal versucht, mit dem Nigel von der UAD Karte einen Gitarren-Part einzuspielen? Dann weiss man, was Latenz bedeutet...
 
Der Sinn des Softwaremonitorings ist einmal die "Integrierte Bedienung", dass ich das also direkt in der DAW machen kann und nicht extra dafür den MonitorMixer meines Interfaces öffnen muss.

Und es ist eben notwändig, wenn man Software-Effekte oder Instrumente in Echtzeit spielen will. BEi VSTis die man per MIDI-Keyboard einspielt würde man ja sonst gar nichts hören. Und wenn ich E-Gitarre mit GuitarRig einspiele, dann will ich GuitarRig auch schon beim aufnehmen hören. Und Es gibt eben auch Sänger, die gerne schon beim einsingen einen Hall auf ihrer Stimme haben wollen.

Anderreist ist eben die Latenz auch nur in diesen Situationen relevant.

Und noch zu der Sache, dass man nur in Echtzeit (und nicht schneller) rausrendern kann: Weil es eben mit DSPs arbeitet. Das müsste doch bei UAD genauso sein, oder etwa nicht?
 
Die UAD ist ja eine reine DSP-Karte ohne eigene I/O´s und somit vom verwendeten AudioInterface abhängig.
Dumm ist aber nur, daß man im Fall einer DSP-Karte wie der UAD eine doppelte Latenz erhält.

Das ist wie bei meinen Creamware/Sonic Core DSP Boards im XTC-Modus.
Man hat den Vorteil das die PlugIns direkt in Cubase als VSTi bzw. VSTfx laufen, erkauft sich diesen
Vorteil allerdings mit einer stark erhöhten Latenz.

Deshalb lasse ich lieber die OS-Software (Scope5) der Boards neben Cubase laufen.
Dadurch liegt die Latenz nur im Bereich der AD/DA Wandlung die sehr gering ist.

Die Synth und Sampler von Scope5 fühlen sich so wie ein Hardwaresynth an.
Da die Boards über eigene I/O´s verfügen lassen sich die Effekte wie z.B. Hall,Delay usw. auch wie ein HardwareEffekt nutzen.
 
Schonmal versucht, mit dem Nigel von der UAD Karte einen Gitarren-Part einzuspielen? Dann weiss man, was Latenz bedeutet...

Hats du starke Latenzen?

Und noch zu der Sache, dass man nur in Echtzeit (und nicht schneller) rausrendern kann

Hast du ein Praxisbeispiel zum Thema "schneller rausrendern als in Echtzeit"?
 
Hast du ein Praxisbeispiel zum Thema "schneller rausrendern als in Echtzeit"?

Naja bei einem Audiomixdown, in z.B. Cubase, kann man das Ganze in Echtzeit(Realtime)
machen, dann dauerts eben solange wie die Spielzeit des Songs.

Wenn man Echtzeit nicht anwählt geht es üblicherweise schneller.
 
Hats du starke Latenzen?

Das kann nur einer fragen, der es noch nie selbst ausprobiert hat...

Damit Du weisst wovon ich rede, habe ich mal folgenden Aufbau gemacht:

Gitarre -> Splitter ->

Weg 1 direkt in das Fireface und dort UAD Nigel als Amp Sim
Weg 2 in den Amp + Mikro und ins Fireface

Den Output vom Nigel hab ich auf einem anderen Kanal analog wieder ausgespielt und wiederum aufgenommen.

Es hängt natürlich von der Soundkarte ab, aber in meinem Fall komm ich auf eine Latenz von über 150ms. Das ist dann schon ein richtiges Delay!

Zur Belustigung hier das Ergebnis nochmal als Audio, mit dem Original (Amp+Mikro) hart rechts und dem UAD Amp Sim hart links.
 

Anhänge

  • NigelDelay.jpg
    NigelDelay.jpg
    153,4 KB · Aufrufe: 204
Und noch zu der Sache, dass man nur in Echtzeit (und nicht schneller) rausrendern kann: Weil es eben mit DSPs arbeitet. Das müsste doch bei UAD genauso sein, oder etwa nicht?

Nee, das geht schnell. Eigentlich nicht anders als bei anderen plugins auch. Kann sein, dass es davon abhängt, wieviel Rechenpower man verbraucht hat.
 
Zur Belustigung hier das Ergebnis nochmal als Audio, mit dem Original (Amp+Mikro) hart rechts und dem UAD Amp Sim hart links.

Danke fürs anschauliche Besipsiel :) Ist echt hart. Hätte ich jetzt nicht gedacht, dass es sich so auswirkt. Kannst du erklären, woran es liegt, dass du bei so starken Latzen landest und wie gehst du mit dem Problem dann in der Praxis um?
 
Die Plugins für die UAD sind nicht für den Einsatz als Echtzeit-Effekte gemacht. Latenzen kommen generell von der Länge von Puffern auf dem Verarbeitungsweg und der Dauer des Processings. Es hängt also an den verwendeten Algorithmen.

Wie ich damit umgehe? Ich benutze die Amp Sim nicht. Und die UAD-Effekte generell nie für Echtzeit-Effekte, sondern nur zur nachträglichen Bearbeitung. Da kann die DAW ja den Latenzausgleich machen und es ist egal.
 
Wie ich damit umgehe? Ich benutze die Amp Sim nicht. Und die UAD-Effekte generell nie für Echtzeit-Effekte, sondern nur zur nachträglichen Bearbeitung. Da kann die DAW ja den Latenzausgleich machen und es ist egal.

sorry für die späte antwort. welche guten echtzeiteffekte gibt es, oder sollte man da lieber auf outboard bauen?
 
Eigentlich schade, dass ich diesen Thread nicht schon gefunden habe, als er noch wirklich aktuell war.
Zum eigentlichen Thema: Die Latenzen bei allen digitalen Systemen (egal ob nativ, DSP-gestützt, TDM oder standalone) kommt, wie 901 gesagt hat, von Puffern und dem tatsächlichen Processing. TDM-Systeme (ProTools|HD ist meines Wissens nach das einzige TDM-System auf dem Markt) sind so aufgebaut, dass sie sehr kleine Puffer ermöglichen und damit kleine Latenzen. Die DSPs auf den ProTools|HD-Karten bieten zudem sehr viel Leistung für das Processing. Damit kommt PT|HD auf Latenzen von guten 100 Samples insgesamt (maximal ca. 2ms), während viele native Systeme bereits mehrere Puffer von jeweils 128, 256 oder sogar noch mehr Samples benötigen. ProTools LE beispielsweise ist ein rein natives System und hat mit der HD-Version nur das Aussehen gemeinsam. Im Setup-Dialog kann ich bei meiner Mbox 2 einen minimalen Prozessorpuffer von 512 Samples wählen, mit dem ich eine Gitarre über Guitar Rig noch annehmbar einspielen kann. Erhöhe ich den Puffer auf 1024 Samples, ist die Latenz bereits deutlich zu groß für Software-Monitoring.

Meine Meinung zum Direkt- oder Hardware-Monitoring: Auf diese Weise muss man das Signal zwangsläufig *vor* dem Aufnahmemedium hören und bekommt nichts davon mit, wenn auf dem digitalen Weg irgendetwas schief geht. Läuft etwa einer der Puffer über, kann das in Knacksern und Aussetzern resultieren, die man so erst nach der Aufnahme erkennen kann. Das ist mir bei einem kleinen Projekt schonmal zum Verhängnis geworden: Wegen der großen Latenz (falsche Treiberkonfiguration :redface:) mussten wir auf Hardware-Monitoring zurückgreifen. Während der Aufnahme hat sich irgendwie der Wandler aufgehängt, alle 9 Spuren sind gleichzeitig in Verzerrungen, Krachen und Rauschen abgesackt. Ich hatte nichts davon bemerkt, aus Zeitgründen hatten wir uns darauf verlassen dass die Aufnahme ok war (die Performance war gut) und haben die Session beendet. Beim Mischen kam dann der Schock.
Deshalb versuche ich immer, returnseitig zu hören, also das Signal, das aus der DAW zurückkommt.

Warum ProTools nur Echtzeit-Bouncing anbietet, ist einfach eine grundsätzliche Herangehensweise. ProTools ist unter anderem dafür konzipiert, in den Mixdown (und damit auch den Bounce) externe Effekte einzubinden und diese müssen natürlich in Echtzeit beschickt werden. Zudem hat man während dem Bouncen noch einmal die Kontrolle, ob das richtige Signal berechnet wird.
 

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben