IR's sind tot, hoch lebe Quantum Speaker!

  • Ersteller Soultrash
  • Erstellt am
Status
Für weitere Antworten geschlossen.
Mess-System ... Ein Computer schickt eine Testdatei an einen Verstärker ( nicht ideal), der verstärkt das Testsignal. Dieses wird an den zu messenden Lautsprecher geschickt, dessen Mebran nun Luft bewegt. Die vewegte Luft wird dann von einem Detektor/Mikrofon (nicht ideal) detektiert. Dieses Signal wird dann in einem Computer aufgenommen und gespeichert. Leider beinhaltet dieses Signal zusätzlich zum Lautsprechersignal auch noch die Fehler, die aus dem nicht idealen Verstärker, dem nicht idealen Mikrofon und dem Fehlerschall aus der Umgebung des Messaufbaus entstehen. Wie werden diese Fehler entfernt?

Natürlich gibt es dieses Problem auch dann wenn dieser Messvorgang Capture, Profiling oder Nammen genannt wird.

Und ob die IR die Extension .waf, .mp3, .nam hat dürfte letztendlich gleich sein. Alle diese Dateien enthalten umgewandelt Daten, wie sich die vermessenen analogen Geräte unter bestimmten Bedingungen verhalten, und zwar in mehr oder weniger idealiesierter Form. Je weniger idealisiert, desto natürlicher ist das Verhalten des Abbildes.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
@NikiRaveolte
Ich hab es nicht so verstanden. Hab nur kurz in das Video, wie man ein NAM Capture erstellt, reingeschaut und im Grunde ist das System ähnlich dem der IRs.

Du hast ein Testsignal und den schickst du mit einem möglichst neutralen Amp in dein abzunehmendes Medium wie dein Cab. Das erzeugte Signal nimmst du in der Daw auf und sendest es an zB Google, die mit verschiedenen Berechnungen aus dem Signal die verschiedenen Parameter berechnen. Wie Lum schon geschrieben hat, liegt dem ganzen Konvulotionsformeln (Faltung, wie zB Fourier-Transformationen) gepaart mit einer großen Datenbank im Hintergrund (neuronales Netz/AI) zugrunde. Deshalb auch Google, statt dem Heim-PC.

Ich vermute, dass in der finalen Datei einfach mehr Informationen kodiert sind, als bei IRs, die dann wieder rausgerechnet werden können.

Muss mir das ganze mal in Ruhe anschauen.

@boisdelac
Genau.
 
  • Gefällt mir
Reaktionen: 3 Benutzer
Da sind wir doch sehr nahe bei Fletcher/Munson und der gehörrichtigen Lautstärke. Das Hörempfinden ändert sich subjektiv mit sich verändernden Schallpegel. Mit Änderung des Pegels ändert sich der Klang. Der Mensch ist das schwächste Glied in der perfekten Signalkette, am Anfang und am Ende. ;)
BDX.
Fletcher/Munson bezieht sich meines Wissens nach auf das menschliche Gehör, nicht auf Mikrofone, aber vielleicht liege ich da auch falsch!
 
So wie @Soultrash es schreibt, ist das Testsignal auch nicht einfach nur ein Sinus-Ton wie bei IRs, sondern komplexer. Vermutlich wie bei Kemper/Tonex oder so, wo die Algorithmen noch zusätzliche Informationen rausrechnen können, die dann im Capture hinterlegt werden.

Ist das jetzt eigentlich Open Source? Dann müsste man ja eigentlich rausfinden, was die Algorithmen da genau berechnen?
 
  • Gefällt mir
Reaktionen: 1 Benutzer
[...]Nehmen wir mal an es geht um den Hesu Demon Speaker. Der wird mit entweder allen möglichen Frequenzwellen oder einem direkten Verstärker (z. B. JVM410) gefüttert. Der Jvm wird mit z. B. Einer schecter Damian mit emg's 81 gespielt. Es sind alles bestimmte Frequenzwellen als Input für die Schwingung des Lautsprechers.
Das NAM wird damit gefüttert. Je länger man damit einspielt desto mehr lernt das NAM das Verhalten.
Aber sie lernt doch nur das Verhalten mit dem Jvm 410 mit schecter Damian mit emg oder der bestimmten Oscillator Wellen.

Wenn ich dann meinen Diezel durch diese NAM IR spiele, woher weiß das Programm wie[...]
Moin! :D

Die Testdatei enthält deswegen "ALLE" Frequenzen in allen Dynamikregistern, es wird später aber so berechnet das auch nur die Frequenzen quasi abgespielt werden die auch reinkommen,
bedeutet also, sebst wenn die Testdatei und die gereampte Datei beispielsweise 20 HZ enthalten wirden diese nur "abgespielt" wenn du auch 20 HZ rein gibst, das sit ziemlich tricky gemacht,
aber so hat es mir der Kollege der das Projekt NAM ins Leben gerufen hat erklärt. Das "Verhalten" ist universell und hängt nicht mit der Testdatei zusammen, diese dient lediglich zum Sammeln von Informationen
die dann eben durch das "Training" in ein Modell bzw. Capture umgewandelt werden.

Mess-System ... Ein Computer schickt eine Testdatei an einen Verstärker ( nicht ideal), der verstärkt das Testsignal. Dieses wird an den zu messenden Lautsprecher geschickt, dessen Mebran nun Luft bewegt. Die vewegte Luft wird dann von einem Detektor/Mikrofon (nicht ideal) detektiert. Dieses Signal wird dann in einem Computer aufgenommen und gespeichert. Leider beinhaltet dieses Signal zusätzlich zum Lautsprechersignal auch noch die Fehler, die aus dem nicht idealen Verstärker, dem nicht idealen Mikrofon und dem Fehlerschall aus der Umgebung des Messaufbaus entstehen[...]

Also ich verstehe nicht wieso du annimmst das diese Dinge "nicht ideal" sind. Wie macht man denn eine echte Aufnahme von einerm Gitarren Amp und einer Box?
Ich glaube du hast diesen typischen "amp in the room" Ansatz, aber daru geht es ja nicht, es geht darum wie der speaker unter einem Mikrofon klingt bzw wie die gesammte Signalkette klingt.
Mit IR's simulierst du ja auch nicht den Amp im Raum sondern wie der AMp durch die Box, durch das Mikro, mit der Mikro Position, im jeweiligen Raum mit dem jeweiligen Preamp etc klingt.

Durch das errechenen eines NAM captures (eine IR umzuwandeln dauert 1 Sekunde, die Testdatei für das NAM ist shcon über 3 Minuten lang und das Errechnen EINES captures dauert mir meinem High end PC mit guter GPU ca eine Stunde )

Die Endung ist eben icht gleich eine IR is eine WAV und enthält nur begrenzt informationen was deas Frequenzspektrum und den Raum angeht. Eine NAM enthält (sorry ich weis nicht exakt wie viele! ;)) aber deutlich m,ehr informationen, es ist ein KOMPLETT anderes System.
 
Grund: Vollzitate reduziert
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
  • Interessant
Reaktionen: 2 Benutzer
Gude:D

Die Testdatei enthält deswegen "ALLE" Frequenzen in allen Dynamikregistern, es wird später aber so berechnet das auch nur die Frequenzen quasi abgespielt werden die auch reinkommen
Ok, jetzt verstehe ich das. Danke dir für die Aufklärung.

Bin mal gespannt was es bald neues an Hardware kommt. Ich sehe schon axe fx 4 mit Nam Simulation statt IR :ROFLMAO:
Ich muss wohl bald Upgraden:embarrassed:
 
  • Gefällt mir
Reaktionen: 1 Benutzer
In dieser NAM Datei sind alle Informationen eingebacken
Muss man die Datei dann frosten, um die Informationen wieder raus zu bekommen? Sorry, ich komme mit diesem High-Tech-Sprech nicht mit…
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Naja ... jeder Amp und jedes Mikrofon (auch wenn es Messverstärker und Messmikrofone sind) haben einen Frequenzgang, der auch wenn das sehr hochwertige Geräte sind nicht 100 prozentig linear sind. Diese Fehler werden auch in das Captur übernommen.

Vielleicht kommt das so rüber, aber ich bin nicht gegen eine digitale Klangerzeugung. Im Gegenteil, ich spiele seit vielen Jahren nur über Modeller.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Ich spiele und mache meine Aufnahmen seit Jahren mit Hilfe einer Großmann Isolation Box. Das sollte ja dann wohl „the real Deal“ sein.

Ich habe aber auch ein Helix Stomp am Start. Da habe ich auch dann auch in „professionelle“ third Party IRs investiert, weil angeblich die Werks-IRs ja nicht annähernd das Mögliche aus den Modeling Kisten holen…
Abgesehen, dass man vom ganzen Durchhören und -probieren der zig IRs einfach nur gaga wird, sind die am Ende auch alle nur „anders“…

Ich kann kein „Spielgefühl“-Unterschied zwischen Isolation Box und Modeling/IR wahrnehmen und vermisse bei Letzterem auch nichts.
Aber ich höre auch nicht das Gras wachsen, oder den Unterschied zwischen Tremoloblock Materialien, Kondensator Typen, Cryo Tuning,…

Was für den einen „Welten“ und „Game Changer“ sind, ist für den anderen vielleicht nur eine Nuance anders…
 
Zuletzt bearbeitet:
  • Gefällt mir
  • Interessant
Reaktionen: 7 Benutzer
...Diese Fehler werden auch in das Captur übernommen...
Ich glaube du verstehst noch immer nicht ganz^^

Diese "Fehler" sind inwiefern Fehler?

Du bildest mit NAM eine Signalkette (eine Signalkete ist IMMER gefärbt) nach, zum Zeitpunkt des captures,
um linearität von Geräten geht es hier nicht, sonst wäre ja auch jede klassiche Aufnahme fehlerhaft! ;)

Das man natürlich kein 100% 1:1 capture machen kann ist klar, man kommt aber sehr nah dran, näher als alles andere.
Dafür gibt es den ESR (Error to signal ratio) Wert, dieser zeigt quasi an wie nah man dem Original ist.

Wie gut das Ergebnmis ist hängt natürlich auch von der Qualität der Signalkette ab, aber inwiefern ist das schlecht oder nicht real?
Eine richtige Aufnahme wäre mit der exakten Signalkete dann auch schlecht. Scheisse rein, Scheisse raus.

Ich verstehe tatsächlich nicht was du mit all dem meinst, aber es könnte echt sein das du irgendwie denkst das man nur den
Speaker capturet, also nur den Lautsprecher un das auch noch ohne jeglichen Einfluss von außen, aber das ist logischerweis unmöglich...

@glombi
Nein, das NAM Plugin verarbeitet bzw "spielt" diese Datei ab, stell es dir vor als ein Plugi indas du Presets reinläädst und diese Presets sind eben die
captures. Das Capture kann ein komplettes rigg sien, also Amp+Cab+Mikro+Preamp und ja die Kabel werden auch mit gecaptured! ;)
Es kann aber auch nur ein Pedal sein, oder nur ein Amp ohne Cab (Mit Hilfe einer Load box oder einer THRU Box) der eben nur den Lautsprecher, bze diesen Teil der Signalkette,
also Lautsprecherbox, Mikro, Raum, Kabel, Preamp etc.

@NikiRaveolte
Naja, sagen wir mal so, aktuell wird an allen fronten gegen NAM gekämpft weil es eben etwas richtig macht was andere seit 30 Jahren nicht hinbekommen,
das ist natülich für viele sehr bitter, aber mE auch zurecht! :D

....Was für den einen „Welten“ und „Game Changer“ sind, ist für den anderen vielleicht eine Nuance anders…

Bedeutet aber nicht das diese Untershciede nicht existieren, ich kann auch Unterschiede zwischen Kabeln hören, andere nicht wenn Sie Ihr Leben lang mit verstimmter Gitarre spielen, teilweise auch die ganz großen! ;)

Die SG Box hatte ich auch, aber so ne kleine Kiste (ist ein Resonanzmonster und das nicht im guten Sinne) kann echt mit einer voll angefahrenen 4x12 in einem Aufnahmestudio mithalten :)

...Ist das jetzt eigentlich Open Source?...
Jop ist open source alles, aber ich bin Tonmensch mit Software kenne ich mich nicht wirklich aus, habe aber ein relativ gutes Gehör! ;) :D
 
Grund: Vollzitate reduziert
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: 1 Benutzer
In diesem Thread geht es aber eigentlich nicht um komplette Rigs, sondern nur um Quantum Speaker ... also Captures von Lautsprechern. Wie werden da die Fehler der Capture Hardware erfasst?
 
Fletcher/Munson bezieht sich meines Wissens nach auf das menschliche Gehör, nicht auf Mikrofone, aber vielleicht liege ich da auch falsch!
Wo endet denn letztendlich die ganze Signalkette von Aufnahme/Mastering/Wiedergabe. In meinem Ohr und meiner subjektiv kognitiven Wahrnehmung.
Das NAM ist doch am Ende nur das Hinzufügen eine neuen Algorithmus in ein System, eine Weiterentwicklung. So ein evolutionärer Quantensprung ist auch das nicht. Als nächstes sind Gitarrensaiten und Plektren an der Reihe gemodelt, gecaptured und sonst was zu werden. Und noch mehr Möglichkeiten der digitalen Soundformung mögen ja toll sein, lenken mich persönlich aber vom musizieren ab. Ich habe keine Zeit und Lust mich in tausenden Einstellparametern zu verlieren. Ich bin vom Modeling wieder zurück zum Ursprung - Gitarre-->Amp-->Box.
Für die reine Studioarbeit mag es ja eine Erleichterung sein.
Die analoge Welt bei Musikequipment ist noch nicht ausgestorben.
Ich nehme deinen Beitrag zur Kenntnis. :whistle:
BDX.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Nur, damit ich das auch verstehe.
Es geht prinzipiell um Analoge-Digitale Wandlung.
Die Endung ist eben icht gleich eine IR is eine WAV und enthält nur begrenzt informationen was deas Frequenzspektrum und den Raum angeht
Mit IR's simulierst du ja auch nicht den Amp im Raum sondern wie der AMp durch die Box, durch das Mikro, mit der Mikro Position, im jeweiligen Raum mit dem jeweiligen Preamp etc klingt.
ist für mein Verständnis etwas widersprüchlich. Denn, das genau wird mit IR simuliert. Was du ja auch sagst.
Eine NAM enthält (sorry ich weis nicht exakt wie viele! ;)) aber deutlich m,ehr informationen, es ist ein KOMPLETT anderes System.
Macht das NAM jetzt nicht so? Amp-Speaker-Mikro-Raumanteil? Wird nicht von Analog auf Digital gewandelt?
Wenn NAM mehr Information enthält, bedeutet das, dass man mit IR nicht in der Lage ist, dieses Mehr an Information zu erhalten. Warum? Macht IR nach Sekunden dicht?
Wenn ja, ist NAM in der Lage, die Information eines IR (das womöglich frühzeitig zu macht), zeitlich weiter zu capturen?
ein KOMPLETT anderes System kann es ja nicht sein, dazu hätte man die Computertechnologie neu erfinden müssen, bzw, das Rad.
Wurde die Simulation von 24 Bit auf 32 Bit analysiert?

Was ist das komplett andere System? Ich habe die 3 Seiten durch gelesen, habe keine passende Antwort gefunden. Bleibt noch das NAM-Video.
 
Bedeutet aber nicht das diese Untershciede nicht existieren, ich kann auch Unterschiede zwischen Kabeln hören, andere nicht wenn Sie Ihr Leben lang mit verstimmter Gitarre spielen, teilweise auch die ganz großen! ;)
Wenn man out off tune nicht raushört, ist das IMO schon problematisch. Ob aber Soundunterschiede, die ein Kabel ausmacht, am Ende für ein musikalisches Ergebnis tatsächlich relevant ist, kann man IMO durchaus unterschiedlich sehen.
Da können doch auch unterschiedliche Wahrnehmungswirklichkeiten nebeneinander existieren, ohne das der eine oder andere „Recht“ hat.
Das sollte dann auch die Schärfe bzw. den Absolutheitsanspruch aus der Diskussion nehmen.

Daher: Sind IRs tot/überholt? Ich denke nicht. Das ist eine gut funktionierende Technologie, die weit verbreitet und bewährt ist. Ob das Quantum Zeug sich durchsetzen wird, wird die Zukunft zeigen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 2 Benutzer
Wie macht man das ohne die Schmutzeffekte des Amps, Mikrofons, Raums, so dass nur der reine messtechnische erfasste Lautsprecher dargestellt wird.
Kann mir nicht vorstellen, wie das authentisch funktionieren soll. Ein Amp ist etwas dreidimensionales und Mikros fassen alles erdenkliche auf, wobei es auf die Aufstellung ankommt. Das abzubilden ist ein Ausschnitt aus der Realität und das sinnvoll zu rechnen ist kaum möglich. Von unseren FEM Simulationen kenne ich etwa den Aufwand, Mechnik zu simulieren. Da geht nicht viel in Echtzeit. Schon gar nicht mit den kleinen Prozessorkernen in der Musikhardware. Vieles von dem, was die Industrie uns probiert, unterzujubeln ist einfach ein Schmarrn.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
@boisdelac
Ein speaker capture ist mindestens ein "halbes Rig", Lautsprecher/Box, Mikrofon, Raum, Kabel Preamp, anders kann man das auch nicht capturen (aufnehmen!) eigentlich logisch oder?
Was wäre denn da in deiner Hinsicht die "capture Hardware" und inwiefern würden da Fehler entstehen? Ich verstehte wirklich icht woran du denkst und worauf du hinaus willst...

@BDX.
"Für die reine Studioarbeit mag es ja eine Erleichterung sein"...JA, natürlich, DAFÜR ist das auch gedacht,
es ist aber nicht nur eine Erleichterung sondern eine extreme Verbesserung, man muss es halt nur erkennen.
Sag jetzt nicht, falsches Unterforum! Es hat noch immer sehr viel mit Gitarren, Software und Modeling zu tun! :D

@Person
IR's können keine Amps simuilieren da IR's keine Dynamik und Kompression simulieren können (das sit nicht meine Meinung das ist so und kann auch so nachgelesen werden),
NAM schon und das verdammt gut!

Speaker (Also ich meine damit das gesamte Konstrukt, also Lautsprecher Gehäuse und Lautsprecher ;)) haben viel Dynamik und ab bestimmten Belastungen auch Kompression.

IR's werden hauptsächlich zum simulieren von Rumen und Speakern verwendet.

Was kann Speaker besser simulieren IR's oder NAM? ;)

Ist schon krass das man sich für jedes Wort rechtfertigen muss...
Beitrag automatisch zusammengefügt:

@InTune
Ich finde tatsächlich schon, IR's haben lange Zeit die ganzen digitalen Geräte zurückgehalten, klar funktioniert es,
man kann auch mit einem Bodentreter nen Gig spielen aber ist das optimal, fraglich.
Es geht hier auch nicht darum was funktioniert sondern was technisch möglich ist und was die besten Ergebise liefert,
da ist eine echte Aufnahme noch immer am bestern und NAM kommt nah dahinter...

@Reinhard
?
 
Zuletzt bearbeitet:
und ja die Kabel werden auch mit gecaptured!
oha, da fängt es an, interessant zu werden. Das wird die HIFI-FRanktion erfreuen!

Grundsätzlich geht das natürlich alles irgendwie zu modellieren, nur frage ich mich, wo man da anfangen und aufhören will. Der Klang der so zusammengesetzt wird, muss am Ende auf einen Lautsprecher, wenn man es live nutzen will, ansonsten bleibt es nur bei einer Abbildung für Produzenten, die ein eingespieltes Signal direkt vom Z-Eingang auf live trimmen wollen - gfs austauschbar.

Zu den IR: Die IR-Reflektionen korellieren direkt mit den Koeffizienten von FIR-Filtern, wie sie überall in der Technik eingesetzt werden, z.B. in Regelungen. Die können keine Kompression abbilden - das wäre dann eine andere Stufe, die extra zu simulieren / zu rechnen wäre. Gleiches gilt für jedes andere weitere Teil.

Solche Berechnungen führen wir für Schwingungen an Motoren, Getrieben und Wellen durch, wenn Drehmoment eingespeist wird und berechnen die sich ergebende Drehzahl. Die Rechnungen sind sehr ähnlich, erfordern aber zunehmend mehr Rechenzeit. Die Echtzeitfähigkeit für ein plugin oder als Software für eine Elektronikhardware ist da stark limitiert. Für Motoren reichen uns in der Regel Abbildungen im Bereich 100Hz - 500Hz für die Drehzahlupdates, um die Regelung nachzuführen. Audio braucht das 100fache wegen 48kHz.
 
Grundsätzlich geht das natürlich alles irgendwie zu modellieren, nur frage ich mich, wo man da anfangen und aufhören will.
Wie willst du einen Lautsprecher modellieren der nicht an einem Kabel angeschlossen ist? Es geht doch hier nicht darum die Soundeigenschaften spezieller Kabel einzufangen sondern um eine Signalkette die logischerweise untereinander mit irgendein Kabel verbunden sein muss, außer es ist ein Mikro das gerade abnimmt.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
*edit*
EXAKT, danke mein Lieber! :)
 
Grund: edit by C_Lenny -> Vollzitat Vorpost
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: 1 Benutzer
Der Thread Titel ist zum aktuellen Zeitpunkt falsch.

Für so eine drastische Aussage muss sich eine Sache erst mal bewähren.
 
  • Gefällt mir
Reaktionen: 3 Benutzer
Status
Für weitere Antworten geschlossen.

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben