Eigentlich hast du dir die Antwort fast selber gegeben. Ein Modeler hat vorgefertigte Sounds die z.b. Klingen wie ein Vox AC 30. Der Musiker / Star spielt seinen VOX AC 30 ein! Mit seiner Röhrenkombination , seinen Speaker und durch sein Spiel seine typischen Parameter. Er erhält ein Digitales Abbild seines Verstärkers. Das kann ein Modeler nicht leisten! Und deshalb auch eigentlich nicht als Modeler zu bezeichnen und zu vergleichen. Deshalb klingt Mark Knopfler bei Titel x eben auch so.
Okay, danke. Aber ist es nicht trotzdem innerhalb des Systems das gleiche?
@tylerhb erwähnte 60 Parameter innerhalb des Kempers, die (lassen wir das manuelle Nachbearbeiten mal ausser Acht) beim Profilen festgelegt werden. Das Mic nimmt also den Sound im Raum auf und sagt dem Kemper z.B.: Parameter 1 = 56, Parameter 2 = 18 usw.. Der Chip im Kemper weiß dadurch, wie er mit dem Gitarrensignal umzugehen hat. Wenn man auf all diese Parameter manuellen Zugriff hätte, könnte man die ja aber mit Potis oder ner App genau so einstellen, dem Chip ist doch egal, wie er die Werte bekommt, der rechnet immer gleich. Dass der Mensch wahrscheinlich schwer bis gar nichr begreifen kann, wie diese 60 Parameter die Nuancen seines Amp-Sounds umsetzen, steht auf nem anderen Blatt, aber das hat ja nichts mit der Architektur des Chips oder der Software zu tun.
Verstehst Du, was ich denke? Ich kann auch Quatsch denken, ich frag ja, weil ich das verstehen will. Und dass z.B. Line 6 sagt: Wir moddeln nen AC30, bedeutet ja: Wir haben nen Chip mit Rechenkraft x, die teilen wir in Parameter auf, damit es nach AC30 klingt müssen wir die so und so einstellen. Bei nem Plexi werden die Parameter halt manuell anders eingestellt. Beim Kemper übernimmt diese Aufgabe halt ein durch das Profiling-Signal gefüttertes Programm. Wenn die Chips in Modeler und Profiler ihre Werte bekommen haben, tun sie aber doch das selbe, oder nicht?
Dass eine schlaue Software wie im Kemper wahrscheinlich zu genaueren Ergebnissen kommt, verglichen mit dem zu profilenden Amp, ist mir klar. Darum wurde das ja erfunden. Wenn Kemper sich die Profiling-Funktion sparen würde und ich theoretisch den Chip und die Software bis zur letzten Zeile des Programmcodes begriffen hätte, wär der Kemper nur ein Modeller, der aber trotzdem genau so klingt.
Profiler und Modeler unterscheiden sich also nicht in der Art der Soundformung, sondern nur durch die vorherige Bestimmung der Parameter, die dafür nötig sind. Ob ich bei google was eintippe oder mit "hallo google..." - die Spracheingabe benutz, ist ja auch egal. Die Algorithmen geben halt innerhalb der vorher bestimmten Parameter das gleiche Ergebnis aus.
Wo ist mein Denkfehler?