Welche Latenzzeit ist noch im "nicht-hörbaren" Rahmen

SLOGO
SLOGO
Registrierter Benutzer
Zuletzt hier
29.04.15
Registriert
28.08.07
Beiträge
121
Kekse
0
hi leute

ich benutze ein interface und cubase...

cubase zeigt mir aber an dass ich mit dem interface im eingang aber noch 181,98 ms habe ....ist das viel?

oder ab welchem bereich ist es so, dass man es eigentlich nicht hört ...?
 
Eigenschaft
 
Hi,
Der Schall braucht für einen Meter ca 3ms. Wenn du also 4m von deinem Amp wegstehst hast du bereits eine Latenz von 12ms. Ich schaffe mit meinem Interface eine Latenz von ca 15ms also Eingangslatenz von 7,5ms + Ausgangslatenz von 7,5ms. Man muss immer beide Latenzen zusammenrechnen um die tatsächliche Latenz zu ermitteln. Bei direct Monitoring sieht das ganze schon wieder etwas anders aus.

Also deine 181ms sind bei weitem zu hoch. Evtl mal Asio4all benutzen bzw welches Interface hast du?

Gruß Benjamin
 
Das ist sogar sehr viel, immerhin fast 0.2 Sekunden. Bei 120bpm und 4/4 Takt hast du 0.5 Sekunden pro Beat, deine Latenz beträgt somit schon bald 1/8 Note (was 0.25 Sekunden entspräche).
 
Im Allgemeinen gilt etwa 10ms als Grenze. Aber da ist wohl auch jeder unterschiedlich empfindlich, und es kommt auch drauf an, was du machst.
182ms sind sehr viel und deutlich hörbar. Aber dass du diese Zahl postest, aber dir bisher noch gar nichts aufgefallen ist, zeigt mir nur wieder, dass das Thema Latenz oft überbewertet wird ;) Die Latenz ist nur dan von Bedeutung, wenn du Virtuelle Instrumente (also mit einem MIDI-Keyboard) oder Effekte (z.B. Gitarrenamp-Simulation) in Echtzeit spielen willst. Ansonsten ist die Latenz völlig egal.
Offenbar verwendest du keinen richten ASIO-Treiber in Cubase, sonst würdest du niemals eine so hohe Latenz haben. Du musst also den ASIO-Treiber vom Interface verwenden. Falls es den nicht gibt, dann ASIO4ALL.
 
@ars
Also ich würde nicht sagen das sie vollkommen egal ist. Ich habe die Erfahrung gemacht das der Latenzausgleich von Cubase z.b. nicht immer einwandfrei arbeitet. Also wird das eingespielte Signal, auch wenn ich es über direct monitoring höre, durch die Latenz etwas nach hinten versetzt. Ich gehe deshalb immer so vor das ich Eingang und Ausgang verbinde und den ermittelten Versatz dann Manuell per Platzierungsversatz einstellung im Treiber ändere.

Gruß Benjamin
 
Das ist dann aber ein Problem von Cubase und darf eigenlich nicht sein. Vor allem aber: Ist dann die Höhe der Latenz nicht dennoch egal? Wenn du sowieso ran musst und manuell die Korrektur einstellen musst, dann interessiert es doch nicht, wie groß die Korrektur ist.
 
Da gebe ich dir vollkommen recht, in diesem Fall ist sie wirklich total egal. Solange man den Plazierungsversatz natürlich vernünftig eingestellt hat. Eine Verzögerung tritt hier ja so oder so nicht auf. Wenn ich allerdings z.B eine Gitarrenamp simulation in Echtzeit ansteuere dann muss ich dennoch einen ganz minimalen Plazierungsversatz einstellen. Auch wenn keine Latenz beim spielen spürbar ist.
Du hattest oben von 10ms gesprochen. Beziehst du das nur auf die Eingans oder Ausgagslatenz oder auf beides?
 
ich will hald einfach mit meiner band über cubase aufnehmen...


wenn ich den asiotreiber "asio4all" hernehme ...dann hab ich da des grüne zeichen beim "line in" eingang, aber beim "line out" hab ich nur dann des rote zeichen ...das heißt iwie "beyond logic" ....ich weiß nicht wie ich das wegbekomme, ...also er nimmt es dann schon auf, aber ich kanns nicht anhören übers interface...

ich habe ein EDIROL UA 25...

wieviele samples soll ich da einstellen?
 
ok, also beim aufnehmen brauche ich also nicht auf die latenz achten oder wie? ,ich will eigentlich ja nur spuren aufnehmen mit meiner band, um demo tapes zu machen ....

aber wenn ich dann darauf iwelche effekte setze ...also im nachhinein, wie z.b. einen hall oder sowas ... da verändert sich dann auch nix oder?
 
Wenn du das Edirol UA 25 hast, dann brauchst du ja auch kein ASIO4ALL - sondern nimmst eben den Edirol Treiber. Aber den musst in Cubase auch explizit benutzen, das muss man einstellen.

Beim unmittelbaren aufnehmn ist die Latenz eh egal. Diese bedeutet ja nur, dass der Ton später aufgezeichnet wird, als er gespielt wird. Aber da merkt man ja nichts von, das interessiert ja nicht. Wenn man mehrere Spuren hintereinander aufnimmt (also z.B. schon aufgenommene Instrumente auf dem Kopfhörer hört, und dazu singt) ensteht durch die atenz ein Versatz zwischen den Spuren. Aber auch das macht in der Praxis nichts, denn Cubase hat einen Latenzausgleich. Das heißt, die Spuren werden automatisch entsprechend verschoben, so dass sie zueinander synchron sind. Daher ist die Latenz auch egal, wenn es einfach nur um das Aufnehmen von Audiospuren geht. Wenn du die Effekte im Nachheinein machst, dann macht das auch nix, das wird eben auch entsprechend "verrechnet". Beim Mischen ist ja die Gesamtlatenz ja ebenso wie bei der reinen Aufnahme egal, die bedeute ja nur, dass eben eine Verzögerung zwischen den beiden Ereignissen "Playcursor erreicht eine bestimmte Stelle" und "man hört diese Stelle" gibt.

Zu den 10ms: Das bezieht sich wohl auf alles, also dass man grundsätzlchj nur ein Signal wahrnimmt, wenn die beiden um weniger als 10ms zeitversetzt sind. Das ist aber auch nur so eine Zahl, die hier irgendjemand mal geschrieben hat bzw. vielleicht in irgendwelchen Büchern als Richtwert genannt wird (kann man psychoakustisch ja auch ermitteln). Also ich spiele durchaus mit 512 samples Buffersize Gitarre, das sind schon tehoretisch run 11ms, in der Praxis vielleicht noch etwas mehr. Und ich empfinde da keine störenden Latenz.
 
Hm irgendwie kann ich das mit den 512 Buffersize und 11ms nicht ganz glauben. Ich muss schon auf 96Buffersize runtergehen um eine Gesamtlatent von 12-14ms zu erhalten. Und ich würde mein System nicht als schlecht bezeichnen. Kann es sein das es sich bei dir da nur um die Einganslatenz handelt? Das klänge logischer.

Gruß Benjamin
 
Bei externen USB-Interfaces die einen Monitor-Ausgang haben ist die Latenz eh irrelevant, da würde ich gar nicht auf die Werte schauen. Man hört sich das ganze dann eh direkt am Interface an und somit kriegt man nichts von der Latenz mit (sofern der Treiber nicht völliger Schrott ist).
 
Um es mal zusammenzufassen:
  • reine Wiedergabe
    Latenz spielt keine Rolle​
  • Aufnahme einer Solo-Spur ohne Effekte
    Latenz spielt keine Rolle, Direct-Monitoring kann genutzt werden​
  • Aufnahme einer Solo-Spur mit Effekten
    Gesamt-Latenz spielt eine Rolle, Direct-Monitoring kann nicht genutzt werden​
  • Aufnahme einer zusätzlichen Spur im Overdub-Verfahren ohne Effekte
    Ausgangs-Latenz spielt eine Rolle, Direct-Monitoring kann genutzt werden​
  • Aufnahme einer zusätzlichen Spur im Overdub-Verfahren mit Effekten
    Gesamt-Latenz spielt eine Rolle, Direct-Monitoring kann nicht genutzt werden​

die jeweilig Latenz sollte in einem Bereich von 10-20ms liegen. Dabei kommt es natürlich auf die Geschwindigkeit des Stückes an und auf das Instrument, das gerade aufgenommen wird - bei einem Schlagzeug macht sich eine höhere Latenz natürlich eher störend bemerkbar als bei einem Synthie-Pad.

Man sollte die Latenz-Werte aber nicht überbewerten, was hier doch anscheinend sehr gerne gemacht wird. Als Beispiel sei hier noch einmal die Laufzeit von Schallwellen im Raum in Erinnerung gerufen:
der Schall braucht für einen Meter ca. 3ms - wenn man also 4 Meter neben dem Schlagzeug steht, so bedeutet das, dass da auch schon eine Latenz von 12ms vorhanden ist und ich kenne keine Live-Band die damit Probleme hat.

/hoffe ich habe es richtig aufgedröselt ;)
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Das hängt alles vom Gerät ab. Bei meinem simplen Lexicon Omega kann ich mit Direktmonitoring und vielen Spuren "latenzfrei" arbeiten, das Gerät liest ja die bereits aufgenommenen Spuren samt Effekte etwas im Voraus, so dass der Eindruck entsteht als ob keine Latenz da wäre. Dabei ist die eigentliche Latenz bei weit über 100 ms (die hört man dann auch wenn man z.B. Cubase-Monitoring benutzt). Ein cleverer Treiber bringt da sehr viel.
 
das Gerät liest ja die bereits aufgenommenen Spuren samt Effekte etwas im Voraus,
den Trick würde ich gerne Kennenlernen :D nee - die Spuren müssen vom Programm gesendet werden, anders ist das techn. gar nicht machbar. Und wie oben geschrieben, kann Direct-Monitoring nur dann genutzt werden, wenn keine Effekte (Hardware-Effekte im Signalweg mal ausgenommen) verwendet werden. Beim Direct-Monitoring wird das Signal im Interface vom Eingang direkt zum Ausgang geschleift.

Eine Latenz von 100ms ist beim Lexicon aber nur dann vorhanden, wenn Du die Buffursize riesig machst. Bei meinem Motu komm ich bei 4096 Samples Buffergröße auf 94ms - mehr geht da gar nicht !? Du benutzt aber den richtigen ASIO-Treiber - den von Lexicon?
 
Ja, den Originaltreiber. Auch keinerlei Latenz spürbar mit gut einem Dutzend Spuren.

Der Trick ist einfach und wird an vielen Ecken verwendet in der Softwarewelt, man hat einen Puffer oder quasi-Cache wo man eben im voraus liest und somit die Daten schneller hin und her schieben kann (sofern die Sequencer-SW mitmacht, versteht sich). Eine CPU macht das auch nicht viel anders im Alltagsbetrieb.

Wenn das nicht so wäre, könnte man mit keinem externen Interface arbeiten - die USB-Schnittstelle ist dafür einfach nicht schnell genug (man hätte reale Latenzen im Bereich mehrere 100 ms) und bietet nur zwei mono-Ausgänge bzw. einen stereo-Ausgang, daher muss eh vorher "gemischt" werden um mithören zu können.
 
.. man hat einen Puffer oder quasi-Cache ...
damit meinst Du wohl den ASIO-Sample Buffer. Der wird aber vom Treiber bedient - das Interface selbst kann das nicht steuern. Das ganze geht etwa so von statten bei der Wiedergabe z.B.

- die Sound-Daten werden von der DAW-Software an den ASIO-Treiber übergeben
- ist der ASIO-Buffer gefüllt wird an die DAW-Software ein (Interrupt)-Signal gesendet - Buffer voll Stop - und die Daten des ASIO-Buffer werden per USB an das Interface übertragen
- das Interface verarbeietet diese Daten nun und macht 'Sound' daraus
- ist der ASIO-Buffer an das Interface übertragen, wird wider ein Interrupt an die DAW-Software gesendet, der diese veranlasst den ASIO-Buffer wieder zu füllen und das ganze Spiel beginnt von vorne

die für das Füllen des Buffers und die Übertragung an das Interface benötigte Zeit ist dann die Latenzzeit - hier wird dann auch klar, warum ein größerer Buffer eine höhere Latenzzeit verursacht, es müssen halt mehr Daten übertragen werden. Bei der Aufnahme passiert genau das gleiche, nur halt in die andere Richtung.

Wenn das nicht so wäre, könnte man mit keinem externen Interface arbeiten - die USB-Schnittstelle ist dafür einfach nicht schnell genug(man hätte reale Latenzen im Bereich mehrere 100 ms)
das ist dann völliger Quatsch, wenn wir über USB 2.0 reden - bei USB 1.x ist das richtig, aber externe Mehrkanal-Interface (mehr als 2 Kanäle In/Out) nutzen und brauchen alle USB 2.0 oder Firewire.
 
Zuletzt bearbeitet:
pico schrieb:
# Aufnahme einer zusätzlichen Spur im Overdub-Verfahren ohne Effekte

Ausgangs-Latenz spielt eine Rolle, Direct-Monitoring kann genutzt werden

In der Praxis spielt die Ausgangslatenz eben keine Role, weil das Audiopgramm einen Latenzausglech macht (machen sollte). Darauf wollte _xxx_ wohl auch hinaus. Ich weiß nicht, wie das bei Cubase oder anderen Anwendungen ist, aber bei Samplitude kann man den Puffer für das Projekt auch noch manuell einstellen (und da stellt man recht hohe Werte ein). Ich denke mal andere Programme haben auch so einen Gesamtpuffer (der unabhängig ist vom ASIO-Puffer), auch wenn man den vielleicht nichts so direkt sieht oder einstellen kann. Und schon deshalb ist es notwendig, dass es diesen Latenzausgleich gibt.

Aber das mit dem USB-Interfaces stimmt so nicht. Man kann doch über USB-Interfaces mit niedrigen Latenzen spielen, was soll da denn vorher gemischt werden, und wie soll die Software in die "Zukunft sehe"? Unjd wieso soll USB überhaupt so eine hohe Eigenlatenz haben?

@Sunbird: Man kann die theoretische Latenzzeit ja auch einfach ausrechnen. Und diese Werte gibt auch mein M-Audio-TReiber an. Wenn ich da die Buffersize auf 512 ändere, erscheint eine Infobox, wo dann unter anderem drinsteht, dass man bei 44,1KHz eine Latenz von 11ms für INput und Output zu erwarten hat. Aber hast schon recht, das müsste ja pro Richtung sein, also insgesamt wäre es dann das doppelte.
Zeigt Cubase diese Werte eigentlich an, oder wie? Irgendwie nennen hier alle immer ihre Latenzwerte, und ich kann da nie was mit anfangen. Ich weiß nicht, wo man das bei Samplitude sieht. Und ansonsten stell ich die halt de Buffer so niedrig, dass ich keine Latenz bemerke, die Zahl hat mich da bisher nicht interessiert.
 
pico schrieb:
das ist dann völliger Quatsch, wenn wir über USB 2.0 reden - bei USB 1.x ist das richtig, aber externe Mehrkanal-Interface (mehr als 2 Kanäle In/Out) nutzen und brauchen alle USB 2.0 oder Firewire.
Aber auch bei USB 1.1 hat man keine hohen Latenz - es passen da nur durch die geringe Banbreite nicht so viele Kanäle drüber.
 
Aber auch bei USB 1.1 hat man keine hohen Latenz - es passen da nur durch die geringe Banbreite nicht so viele Kanäle drüber.
ja, natürlich. Hab das etwas ungeschickt ausgedrückt.

Die Buffergröße sollte man zum Aufnehmen auf den kleinsten Wert einstellen, der eine störungsfreie Wiedergabe und Aufnahme gewährleistet - das lässt sich nur experimentell ermitteln, da sich jeder Rechner anders verhält, da spielen viele Faktoren rein - Hardwareleistung und laufende Prozesse, die wiederum per Interrupt die kommunikation DAW-Software <-> Interface stören können.

Für die Wiedergabe beim mischen stellt man dann den Buffer auf groß.
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben