allerdings kann ich mit dem ASIO 4 ALL eine klare Steigerung erkennen.
OK, du hast also beide Treiber ausprobiert, hast bei beiden mal an den Latenz/Puffer-Größen rumgespielt, und hast letztlich mit ASIO4ALL bessere Ergebnisse erzielt? Bzw. kamst du mit dem Line6-Treiber nicht so weiter unter, weil es vorher zu fehlerhaftem Sound kam? Ich rede hier natürlich nur von dem was du hörst, weil angezeigte Zahlen eben nicht interessieren. Selbst wenn sie stimmen würden kann dir das ja egal sein. Jeder ist da auch unterschiedlich empfindlich. Übrigens ist Schall in der Luft auch sehr langsam - wenn du über einen echten Gitarrenverstärker spielst, der drei Meter weit weg steht, hast du auch schon etwa 10ms Latenz
Wirklich Latenzfrei kann man dann also doch nur mit der lizensierten Guitar Rig Hardware spielen
Nein! Bei der GuiatrRig Hardware handelt es sich wie gesagt um ganz normale Hardware, da gibt es noch nicht mal so eine Tone Direct Spezialentwicklung wie bei Line6.
Ich blicke jetzt nicht bei den Verfahren genau durch
Die Verfahren sind ziemlich leicht, Line6 sind da die einzigen mit einer "Speziallösung".
aber mit der original Hardware von Native Instruments hätte man doch dann den gleichen Effekt wie der ux2 zB mit Podfarm, oder nicht?
Nein, siehe oben.
Das ist ja dann auch "standalone" und nicht VST, nur ist der standalone Betrieb dann doch irgendwie anders, als der Standalone Betrieb den ich jetzt mit dem POD an GuitarRig benutze, weil der Pod nicht für Guitar Rig lizensiert ist..? Stimmt das so ungefähr?
Das alles hat mit Standalone oder VST zunächst mal überhaupt nichts zu tun. Und auch nichts mit Gitarrensimulationen. Das ist ganz generell und grundsätzliche Audiobearbeitung im PC, und eigentlich ganz einfach. Ich habe eine Audioanwendung. Dabei ist es zunächst mal völlig egal, um was für eine es sich handelt - das kann eine stand-alone laufende Ampsimulation sein, oder ein kompletets Aufnahmeprogramm, oder ein DJ-PRogramm, oder Skype, oder sonst was. Diese greifen mittels Treiber auf die Audiohardware zu. Sie bekomme also Eingangssignale, mit denen sie irgendwas machen könne (aufnehmen, bearbeiten, übers Netz streamen...). Und sie können Audiosignale wiederum an die Ausgänge der Audiohardware schicken. Wie in einem Beitrag weiter vorne von mir schon gesagt ist eine fehlerfreie Übertragung des digitalen Audiodatenstroms von der Hardware zur Software aber nicht möglich, sie müssen zwischengepuffert werden. Abhängig von der Größe des Zwischenpuffers entsteht dann eine mehr oder weniger große Latenz (plus eine gewisse hardwareabhänge Verzögerung, die sonst irgendwie auf dem Weg entsteht). Die kann einem bei reiner Aufnahme oder reiner Wiedergabe meistens auch egal sein, bekommt man ja nicht mit. Wenn im Mediaplayer der Song erst 100ms nach meinem Klick auf "Play" zu hören ist, dann ist das ziemlich egal. Daher hat Microsoft bis heute auch nicht sein Standard-Windows-Treibersystem auf kleine Puffergößten optimiert, das läuft fehlrerfrei erst mit recht großen Puffern. U.a. deshalb hat Steinberg mal ASIO entwickelt, mit dem man dann auch mit sehr kleinen Puffergößen und damit kleinen Latenzen noch arbeiten kann. Zum Problem wird die Latenz nun, wenn die Audiosoftware das eingehende Signal direkt wieder rausschicken soll. Denn dann bemerke ich ja die verzögerung, und zwar sogar die Summe aus dem Hinweg und dem Rückweg. Aber die ist zunächst mal einfach immer da, und hat nichts mit irgendwelchen zu berechnenden Effekten zu tun. Die meisten sind da auch drauf ausgelegt, dass sie selbst keine zusätzliche Latenz erzeugen (die Anzeige bei GuitarRig, die eine "Processing"-Anteil angibt, ist da in der Tat merkwürdig, irgendwie wird dafür einfach ein Anteil von EIn- oder Ausgangslatenz abgezogen). Das heißt also, ich habe die Latenz auch, wenn ich in einem Aufnahmeprogramm das Monitoring einer völlig leeren Spur aktiviere, ganz ohne Effekte drauf. Und wenn ich dann ein VST-PlugIn wie z.B. GuitarRig auf die Spur lege, dann habe ich da immer noch die gleiche Latenz. Und wenn ich GuitarRig Standalone benutze, habe ich auch die gleiche Latenz, solange ich in allen drei Situationen den gleichen Treiber mit den gleichen Einstellungen benutze.
Vor ein paar Jahren hat dann Line6 mal die Toneports rausgebracht. Zunächst hab ich auch nicht ganz verstanden, was da passiert, und manche erzählten auch erst, dass da was in Hardware berechnet wird. Das liegt daran, dass es aus Usersicht tatsächlich den Eindruck macht, als würde der Sound im gerät berechnet. Denn die Modellingsoftware Gearbox sitzt da quasi im Treiber und hängt direkt damit zusammen. Daher empfängt die audiosoftware auch ein schon berechnetes Signal, man nimmt also das bearbietet Signal schon auf. Und das bietet eben diese von Line6 genannte "Tone Direct Monitoring"-Möglichkeit, ein Software-Monitoring unabhänig vom klassischen Weg (ASIO-Treiber->Audiosoftware->ASIO-Treiber) zu nutzen, und diese dann wohl entsprechend auf Hardware und SOftware abzustimmen und auf niedrige Latenz zu optimieren.
Witzigerweise habe ich gerade mal nach Screenshots der Gearbox/Toneport/POD Studo/Was auch immer Einstellungsoberfläche gesucht, weil ich mich u erinnern glaube, dass es dort auch einen Latenzregler fürs Tone Direct Monitoring gab - und der würde keinen Sinn machen, wenn der Sound wirklich im Interface berechnet werden würde. Fündig geworden bin ich nicht, dafür bin ich auf ein Bild getoßen, was ich mal selber angefertigt habe und hier im Forum gepostet habe:
https://www.musiker-board.de/soundk...25748-ist-line-6-tone-direct.html#post3771412
---------- Post hinzugefügt um 17:24:47 ---------- Letzter Beitrag war um 17:15:01 ----------
Du kannst aber nicht den prozessierten Sound direKt in die DAW aufnehmen, weil Guitarrig das Signal dann direkt auf den Ausgang des Interface routet und nicht intern über einen send an die DAW. Das kannst du dann nur mit dem NI Interface für Guitar Rig.
Bitte? Ich möchte mich ja nicht zuweit aus dem Fenster lehnen, weil ich gar kein NI Interface besitze, aber das bezweifle ich doch stark. Weil GuitarRig standalone eben auch eine ganz normale Audio-Anwendung ist. Um von eine Audioanwendung in die andere Aufnzunehmen bietet Windows standardmäßig keine Möglichkeiten. Man kann sich virtuelle Soundkarten installieren, ist aber quatsch. ReWire ist eine propriätere Lösung, die sowas macht, aber das müssten dann beide Programme unterstützen. Und manche Soundkarten von ESI bieten die möglichkeit, von ASIO nach MME aufzunehmen, aber zwei ASIO-Anwendungen geht nie. "Jack" und Linux ist da auch eine Supersache, mit der das geht.
Aber das ist doch auch alles gar nicht nötig. Viele Modellingprogramme gibt es auch gar nicht als Standalone-version, sondern nur als Plugin. Reicht auch eigentlich völlig. Der normale Weg um in Reaper mit Modellingsoftware aufzunehmen ist, eine Spur anzulegen, dort das entsprechende PlugIn als FX draufzuacken und aufzunehmen. fertig. Natürlcih wird nur das cleane Signal aufgenommen, aber ich höre ja dennoch den Soun des Effekts schon beim Monitoring.