WIE VERGLEICHEN: Amplitube vrs. GuitarRig vrs. ReValver

  • Ersteller Burndown
  • Erstellt am
David: Du verstehst mich nicht, die Tools sind aus meiner persönlichen Sicht alle für die Katz solange nicht eine 4x12" dran hängt und Erdbeben macht :)

Und wie gesagt mache ich meine Aufnahmen überwiegend mit Rocktron Utopia direkt ins Mischpult (da ich zuhause keinen Lärm machen kann), also verschmähe ich die digitale Welt sicherlich nicht. Die ist "gut genug", aber mehr auch nicht (Utopia ist qualitativ drei klassen über Pod und co. angesiedelt und ca. 5 Klassen über die ganzen PC-Plugins und co., hat full range Effekte usw.)

Und wenn Du schon Begriffe wie Impulsantwort gebrauchst - weißt Du denn überhaupt was das ist, rein aus technischer Sicht? (Zur Info, ich habe Elektronik und Informatik studiert ;)). Einige Deiner Aussagen deuten darauf hin dass es nicht so ganz der Fall ist.
 
Leute, ich gebe euch Tipps wie ihr einen fetten Sound hinbekommt. Wenn ihr a.) nicht in der Lage seid Feinheiten wie den Eigenklang eines Tools wahrzunehmen oder b.) mich mit irgendwelchen basistheoretischen Schlaubi-Schlumpf Angelegenheiten nerven wollt, dann pöbelt euch selbst an und lasst es halt bleiben.
 
die Tools sind aus meiner persönlichen Sicht alle für die Katz solange nicht eine 4x12" dran hängt und Erdbeben macht

ja, aber...

diese ganzen Plugins sind doch nicht als Amp-Ersatz konzipiert, sondern in 1. Linie duzu gedacht, in einer Produktion einen Gitarren-Sound zu erzeugen, um den eher umständlichen Weg eines Reamping zu umgehen oder das nicht vorhandene Real-Equipment zu erstzen. Eine solche Produktion wird dann aber nicht auf der 4x12er Box gehört, sondern im extrem auf einem Handy.

Und selbst wenn man 2 Baugleiche Amps/Boxen direkt vergleicht, wird man geringfügige unterschiede feststellen können, die in Bauteiletoleranzen, Alterungs-Zustand der Röhren, Temperaturen usw. begründet sind. Es gibt also den XY-Sound eigentlich nicht.

Wie nah nun eine Simulation an die Wirklichkeit heran kommt ist sicher eine Frage der verwendeten Technologie und die damit verbundene Rechenleistung, also müssen die Hersteller solcher Plug's auf den vorhandenen Markt Rücksicht nehmen, denn wem nutzt ein Plug, wenn der Rechner das dann nicht schafft. Es wird also bei einer Simulation immer nicht das technisch machbare realisiert werden, sondern das bezahlbare. Schön wenn der NASA-Rechner das kann, aber den hat halt nicht jeder zu Hause - ergo wird der Programmierer die Funktionen einschränken müssen und damit auch von der theoretisch möglichen Genauigkeit abtriften.

Mal sehen was die Zukunft und so beschert.
 
Der Vergleich wird immer schwerer. Manchmal hört man es und manchmal nicht. Ich habe hier zum Beispiel gerade Cynics "Traced In Air" in der Rotation und versuche herauszufinden, was jetzt simuliert ist und was "echt". Obwohl es eigentlich genau weiß, kann ich es beim besten Willen nicht raushören.
 
Zuletzt bearbeitet:
Leute, ich gebe euch Tipps wie ihr einen fetten Sound hinbekommt. Wenn ihr a.) nicht in der Lage seid Feinheiten wie den Eigenklang eines Tools wahrzunehmen oder b.) mich mit irgendwelchen basistheoretischen Schlaubi-Schlumpf Angelegenheiten nerven wollt, dann pöbelt euch selbst an und lasst es halt bleiben.

Aber Deine Tips sind leider falsch und basieren lediglich auf Deinem Geschmack. Ganz abgesehen davon dass Du wie es ausschaut nicht mal genau weißt wovon Du redest und wie das ganze unter der Oberfläche funktioniert. Dann lieber gar keine Hilfe als solche.

Die Feinheiten nimmt man sehr wohl war und das was ich wahrnehme ist bei allen Tools/FX noch weit entfernt von der Realität.

Und nach einem viertel Jahrhundert als Gitarrist kannst Du mir kaum irgendeinen Tip geben den ich nicht schon 20 mal gehört habe ;) Und in dem Tonfall schon mal überhaupt nicht.
 
Zuletzt bearbeitet:
Ich habe die Kriterien genannt, nach denen ich meine Beurteilung ausrichte. Das sind Standards, die von den meisten Gitarristen gewünscht werden und haben somit eine gewisse Allgemeingültigkeit. Das sag ich dir als Gitarrist mit 15jähriger Spielerfahrung und als Tontechniker mit 5jähriger Praxiserfahrung.
Bis jetzt hat noch jeder den Gitarrensound von mir bekommen, den er wollte.
Von Theorie mögen andere mehr Ahnung haben - damit halte ich mich nicht auf, solange ich in der Praxis weiss was ich tue. Das ist eine amerikanische Philosophie und sie funktioniert. Ganz im Gegenteil zur zähen, deutschen Tonmeister-Mentalität, die alles zerredet und wenig leistet.
 
Ganz im Gegenteil zur zähen, deutschen Tonmeister-Mentalität, die alles zerredet und wenig leistet.

Oder der sehr oft anzutreffenden Überheblickeit eines Halbwissenden? ;)

Nicht böse sein, aber ich bin es nicht der hier alles zerredet. Ich sagte bereits dass die Tools alle mittlerweile recht gut klingen und brauchbar sind. Jedoch können sie das "richtige" Ding noch lange nicht ersetzen, das ist Fakt und lässt sich sowohl hören als auch messen.
 
Ich habe hier zum Beispiel gerade Cynics "Traced In Air" in der Rotation und versuche herauszufinden, was jetzt simuliert ist und was "echt". Obwohl es eigentlich genau weiß, kann ich es beim besten Willen nicht raushören.
Sind da auch "echte" Amps drauf? Ich habe die Scheibe nicht, aber Cynic im Dezember live gesehen. Da standen keine Amps auf der Bühne, sondern nur ein Rack mit einem AxeFX für jeden Gitarristen :) Irgendwie habe ich mir auch eingebildet das zu hören... Kann aber auch einfach daran liegen, dass die ja eh einen recht synthetischen Sound haben - also das AxeFX durchaus einen authentischeren Sound erzeugen kann, aber die ihn eben gar nicht so eingestellt haben.

Hat eigentlich mal jemand komplett per IR-Faltung simuliert? Wenn man eh nur eine Handvoll Gitarrensounds hat, dann könnte man da ja einmal im Studio das Setup aus Stack und Mikro sorgfältig aufbauen (also genauso, wie man es auch zum recorden machen würde). Und davon dann einen "akustischen Fingerabruck" machen, und nicht nur von Box/Mikro. Und dann kann man einfach immer Clean aufnehmen, admit Falten, und hat den Sound seines Amps. Wäre das zu einfach? Oder übersehe ich da was?
 
...ich bin es nicht der hier alles zerredet.

Richtig. Das ist die Gruppendynamik. Und zwar eine typisch deutsche.

Woanders läufts so ab:

"Dude, check my sound ... I think it needs to be tweaked"

"Sounds awesome, mate ... if you need some more cabs just download that 3GB File wich I've uploaded for you...!"

"Great! Thx!"

:rolleyes:;)

Und raus kommen dabei dann solche Dinger:
 
Hat eigentlich mal jemand komplett per IR-Faltung simuliert? Wenn man eh nur eine Handvoll Gitarrensounds hat, dann könnte man da ja einmal im Studio das Setup aus Stack und Mikro sorgfältig aufbauen (also genauso, wie man es auch zum recorden machen würde). Und davon dann einen "akustischen Fingerabruck" machen, und nicht nur von Box/Mikro. Und dann kann man einfach immer Clean aufnehmen, admit Falten, und hat den Sound seines Amps. Wäre das zu einfach? Oder übersehe ich da was?

Ja, man müsste die Momentaufnahme für jeden Anschlagj jede Lautstärke und jede Gitarrenbauart separat aufnehmen und unendlich viele Layer daraus machen. Bei Drum Sequenzern sieht man genau das, die guten haben teilweise zig Layer pro Trommel, daher hat z.B. BFD2 55 GB Samples für ca. 2000 Trommeln.
 
Sind da auch "echte" Amps drauf? Ich habe die Scheibe nicht, aber Cynic im Dezember live gesehen. Da standen keine Amps auf der Bühne, sondern nur ein Rack mit einem AxeFX für jeden Gitarristen :) Irgendwie habe ich mir auch eingebildet das zu hören... Kann aber auch einfach daran liegen, dass die ja eh einen recht synthetischen Sound haben - also das AxeFX durchaus einen authentischeren Sound erzeugen kann, aber die ihn eben gar nicht so eingestellt haben.

Das mit dem synthetischen Sound finde ich auch, obwohl man das eher als "überperfekt" bezeichnen könnte :) Es gibt sicher bessere Beispiele für "Röhrensound" - was auch immer das sein mag. Soweit ich weiß ist auf dem Album nur die Rhythmus-Gitarre von einem Krank. Der Rest (Leads, Clean, Ambience usw) kommt aus der Retorte.

Hat eigentlich mal jemand komplett per IR-Faltung simuliert? Wenn man eh nur eine Handvoll Gitarrensounds hat, dann könnte man da ja einmal im Studio das Setup aus Stack und Mikro sorgfältig aufbauen (also genauso, wie man es auch zum recorden machen würde). Und davon dann einen "akustischen Fingerabruck" machen, und nicht nur von Box/Mikro. Und dann kann man einfach immer Clean aufnehmen, admit Falten, und hat den Sound seines Amps. Wäre das zu einfach? Oder übersehe ich da was?

Ja, die Zeit :) Verzerrungen, wie sie bei Gitarren ja nicht unüblich sind, kann man nicht per Faltung reproduzieren weil diese Verzerrungen nicht linear sind. Das heißt vereinfacht gesagt, dass mit jeder kleinen Änderung am Eingang (Anschlag!) hinten etwas völlig anderes herauskommt. Ein akustischer Fingerabdruck kann nur einen starren Auschnitt aus der Realität liefern. Um den Frequenzgang einer Gitarrenbox oder den Hallcharakter eines Raumes abzubilden ist das aber mehr als genug.
 
Ja, hatte ich mir schon gedacht, ist auch logisch. Das System "Gitarrenamp" gibt ja eine andere Antwort, wenn ich mehr in die Saiten haue.
 
Also ich finde es hoch interessant, dass verschiedene Digitalprogramme ihren einen Grundsound haben, wie David behauptet... auch dass Revalver mit Impulsen arbeit finde ich sehr interessant.
 
Eigentlich arbeiten sie heute alle mit Impulsen für die Boxensimulation - einfache Tiefpassfilter findet man kaum noch. Es gibt trotzdem noch große Unterschiede in der Qualität denn nicht jeder Impuls ist gleich gut. Neben der Aufnahmequalität des Originalsignals spielen da auch noch Parameter wie Auflösung, Anzahl der Abtastpunkte, Sorgfalt/Rechenleistung beim Falten der Signale usw eine große Rolle.

Der Mikrofontyp läßt sich noch sehr gut mit einem Filter simulieren. Dafür nimmt man selten spezielle Impulse. Viel wichtiger ist die Mikroposition. Guitar Rig zum Beispiel verwendet verschiedene Impulse für verschiedene Positionen. Line6 und andere haben zwar einen Positionsregler, der ist aber zumeist nur ein einfacher Tiefpassfilter.

Dazu wird das ganze meist mit einem einfachen Room-Reverb garniert, der den Aufnahmeraum darstellen soll (Air, Distance usw).

Das alles klingt nicht so übel aber es wird eben viel mit EQs nachgeholfen, auch wenn man sie nicht direkt sieht. Wenn man wirklich wert auf authentische Resultate legt, muss man einen Impuls anfertigen, der genau an der perfekten Mikroposition mit genau dem gewünschten Mikro abgenommen wird. Jede nachträgliche Änderung kann man dann vergessen aber die Qualität ist bestechend. Diese Impulse kann man dann beispielsweise in Revalver, Axe-Fx und Konsorten einladen. Man muss aber nicht unbedingt selber Hand anlegen - es gibt mittlerweile tausende von IRs im Netz.

Reine IR-Plugins würden im Prinzip zwar auch funktionieren aber es fehlen noch zwei wichtige Punkte für die richtige Simulation der Signalkette. Zum einen ist das die Interaktion von Ausgangstrafo der Endstufe und Box - dafür braucht man eine richtig gute Endstufensimulation - und zum anderen hat auch eine Gitarrenbox einen nicht-linearen Anteil, sprich Verzerrungen bei hoher Belastung. Spezialisierte Gitarren-Plugins und moderne Hardware berücksichtigen auch noch diese Feinheiten.
 
Das Zauberwort sind also Impulse!

Wenn ich das richtig verstehe werden bei diesen Programmen nur die Boxen per Impuls simuliert, der Amp wird errechnet?

Und wenn man mal weiterdenkt, kommt man darauf, dass in einer konventionellen, also analogen Signalkette mit richtigen Amps ja auch viele digitale Signale verarbeitet werden: nämlich in vielen Fusstretern und Racks. Sogesehen kann sich ein Programm von einer echten Signalkette doch kaum noch 'wirklich' unterscheiden.
 
Das Zauberwort sind also Impulse!

jain - per IR lassen sich praktisch nur Geräte erfassen, die keine Einstellmöglichkeiten haben. Bei einem Amp z.B. müsste für jede Einstellung an den 'Knöpfen' des Amp's ein separater IR aufgenommen werden und da kann sich jeder selbst ausrechnen, dass dies zu einer endlosen Anzahl von IR's führen würde. Es wird also bei solchen, ich nenne sie mal aktive Geräten, immer mit Filtertechniken gearbeitet - ich bezeichne hier mal alles als Filter, was man so an 'analogen' Geräten und Schaltungen in einer Signalkette hat, also EQ, Reverb, jegliche Effekte etc. - ob dann nur diese Filter auf das Signal angewendet werden oder ob auch eine oder mehrere IR's mit einbezogen werden, wissen wohl nur die Programmierer.

Dank der steigenden Rechenleistung und der heute möglichen Flieskomma Rechenoperationen werden aber diese Filter immer präziser und können bei entsprechend sorgfältiger Programmierung die Wirklichkeit immer besser simulieren. Eigentlich wären dafür DSP's die beste Wahl, aber die sind noch nicht so weit verbreitet in der PC-Welt.
 
Eigentlich wären dafür DSP's die beste Wahl, aber die sind noch nicht so weit verbreitet in der PC-Welt.
Vielleicht kein wirklicher DSP, aber quasi in jedem PC sitzt ein Grafikchip, welcher theoretisch um ein vielfaches Leistungsfähiger ist als eine CPU. Und so langsam fängt man ja auch an, dass zu nutzen, bin mal gespannt, wie sich das entwickelt. Ich hatte hier ja schon mal den Link zu einem Faltungshall-VST-PlugIn genannt, welcher komplett von der Grafikkarte berechnet wird.

Wie aber oben schon erklärt sind nicht nur die unterschiedlichen Einstellungen ein Problem - damit könnte man leben, wenn man eh eine Simualtion des eigenen Amps mit bestimmten sound haben will. Bei Boxensimuation hat man ja auch immer nur ein System und kann nicht MIkroposition ändern etc. sondern braucht für alles eine eigne IR. Problem ist viel mehr, das die Impulsantwort eines Gitarrenamps vom Eingangspegel abhängig ist, eher verzerrt z.B. mehr, wenn man mehr in die Seiten haut.

Trotzdem wundert es mich auch etwas, dass bis auf Revalver keiner Standardmäßig mit IR-Boxensimulation arbeitet, weder bei Soft- noch bei Hardware. ODer macht es der AxeFX? Oder bekommt der das auch anders realistisch hin?
 
Das mit dem Grafikchip ist eine sehr gute Idee, könnte man bestimmt gut mit CUDA programmieren. CUDA ist sowieso für viele parallel laufende Berechnungen gedacht, das bietet sich an :great:

Das mit Layering ist mit Amps und co. durchaus machbar, man muss ja nicht endlos viele Schritte und Einstellungen aufnehmen sondern nur "genügend" viele und dann interpolieren. So machen es die guten Multi-FX.

Die Impulsantwort ist der beste und einfachste weg das Verhalten über alle Frequenzen zu erfassen. Da geht man mit einem Spektrometer ran und beobachtet wie sich die jeweilige Frequenz mit verschiedenen Einstellungen verhält, entsprechendes kann man dann als Funktion im z-Bereich darstellen und somit direkt in die Hardware gießen. Daher wäre ein DSP das beste, evtl. könnte man es auch mit einem frei programmierbaren machen mit kleineren Einschränkungen wegen der niedrigeren Rechengeschwindigkeit.
 
das mit den Grafikprozessoren klingt ja vom Ansatz her nicht schlecht, hab mich mit der Programmierung von diesen allerdings noch nie beschäftigt. Aber gäbe es denn eine dafür geeignete und vor allem universelle Schnittstelle, bei all den unterschiedlichen Chips und Architekturen? Nur mal so interessehalber :)
 
Ja, CUDA. Siehe nVidia Website. ATI haben auch was vergleichbares in HLSL, aber CUDA ist der Industriestandard. Es ist auch offen für andere Chips, nur wollen die ATI Jungs nicht mitmachen (klar, Konkurrenz). Werden sie aber bald müssen, denn etliche Unis und Firmen schaffen bereits mit CUDA. Ist auch sehr gelungen, daher kein Wunder.
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben