Hat sich ja einiges getan seit meinem letzten Post ...
Ich blicke bei euren Spekulationen, wer von wem was abgekupfert hat nicht 100% durch, würde aber die Diskussion nochmal auf das Technische bringen:
a) Es gibt 1000 Möglichkeiten, Leslie und andere Lautsprecherbewegungen zu simulieren und wenigstens 100 davon finden sich in Plugins und Software realisiert. Es ist - auch wenn das umseitig ansatzweise bestritten wurde - dabei auch voll kommen egal, ob das in einem FPGA passiert oder in einem DSP bzw einer CPU wie z.B. auf Intels/AMDs in den PCs. Es sind letztlich Modelle, die gerechnet werden. Wirklich echt "schwingen" lassen kann man in FPGAs nur PLLs und händisch aufgebaute rückgekoppelte LUTs, wie man sie für die Takterzeugung ohne PLLs einsetzt. Wenn diese Ketten kurz sind, schwingen sie sogar ungefähr sinusförmig, alllerdings kann man das praktisch nicht nutzen. Solche Ketten macht man daher lang genug, dass die Inverter in Sättigung gehen und man einen voll ausgesteuerten Takt hat. Intuiitive Rauschgeneratoren kann man so bauen, die echte Zufallszahlen produzieren:
https://www.mikrocontroller.net/articles/Digitaler_Rauschgenerator_im_FPGA
Alles, was in FPGAs gerechnet wird, schaltet oder schwingt, ist Ergebnis mathematischer Modelle.
Dazu wäre nun die Frage zu stellen, wie das Modell genau aussieht, das in den Hammond-Clonens läuft, also z.B. dem hiesigen HOAX oder eben alternativ einem B3 als plugin. Es ist kaum anzunehmen, dass alle Hersteller Dasselbe haben werden.
Was man hingegen sicher anehmen kann, ist, dass es allesamt massive Vereinfachungen der Physik sind, weil es technisch nicht möglich ist, ein 3D-Wellenfeld abzusetzen, wie es in der Physik passiert und dann den Schall in 2D einzusammeln, wie es im Mikrofon passiert und auf eine elektrische Leitung umzusetzen. Solche Simulationen gibt freilich - Mikrofone und Lautsprecherhersteller nutzen das, sie dauern aber Stunden und gehen mit etlichen Zehnerpotenzen nicht in Echtzeit. Meistens beschränken sich die Modelle auf den Abgriff eines virtuellen Punktes im Raum (das dann direkt zum Sample wird) und modellieren die Funktion des Vorbeikommens eines Schalltrichters, also faktisch dessen Spektralverlauf. Wenn - wie beim Leslie - bekannte Abstands- und Winkeländerungen auftreten, kann man das sehr einfach durch Spektralverschiebung im Frequenzbereich machen und zwar exakt und perfekt winkel- und geschwindigkeitstreu, so wie man das beim Doppler-Filter im Bereich Radar zur Analyse macht oder suspektiv um Reflektionen von Windkrafträdern zu antizipieren und rauszurechnen. Dazu muss man keine Box und Holzwände simulieren, wobei auch das geht und auch da muss man sich auf wenige Punkte (FEM-Modell) oder vereinfachte analystische Gleichungen stützen. Reflektionen an den Wänden sind in vielen Hallmodellen enthalten, werden aber meist als geradlinige ebene Wellen gerechnet und damit ein ge-equaliztes, verzögertes Originalsignal beigemischt.
b) Damit ist auch klar, dass es nicht DIE Modellierung einer Hammond-Orgel gibt, sondern 100 unterschiedliche Ansätze und auch hier immer Vereinfachungen vorliegen. Laut dem, was C.M. mir mal geschrieben hat, sind es bei ihm DDS-Generatoren, also dedizierte Sinuserzeuger, die den Sinuswert anhand einer Phase aus der Tabelle lesen und nicht etwa selbst schwingende Oszillatoren, wobei ja auch diese virtuell wären. Gfs. wurde das ja inzwischen geändert - keine Ahnung.
Als Kommentar dazu kann ich nur sagen, dass das letzlich auch egal ist, weil es bei den Abtastraten, die ein FPGA ermöglicht, gar kein Problem ist, alle für mehrere Manuale nötigen Signale (z.B.61x2) quasiparallel im Multiplex zu erzeugen: Ein für heutige Verhältnisse mit 100MHz "langsam" getaktetes FPGA produziert immerhin noch eine Abtastfrequenz von 96kHz je Kanal mit 8-fach oversampling und das reicht locker, um:
a) bei Nutzung der Zeitbereichssynthese eine genaue DDS zu machen, Tabellenwerte zu interpolieren und rekursiv zu filtern und eine Bandbegrenzung dergestalt zu haben, dass sie sogar Ultraschall abbilden könnte
b) bei Nutzung eines virtuellen selbstschwingenden Oszillators (ebenfalls im Zeitbereich) den von mir beschriebenen loop zu berechnen, den ein rückgepoppelter OSC hat und einen defact Sinus rauszubekommen, der so genau ist, dass er keine Alias-Oberwellen hat (siehe
https://www.musiker-board.de/thread...mit-fremden-federn.685865/page-5#post-9279015)
c) eine Synthese im Frequenzbereich zu machen, weil der Faktor 8 für immerhin eben 8 Oberwellen des Sinus ausreicht, welche infolge von Schwingungen der Scheibe, eines "Mikrofons" oder von eben den beschriebenen Leslie-Box-Wänden auftreten könnten
d) eine vollanalytische BLEP-basierte Wellensysnthese zu fahren, was man sogar mit noch geringeren Abtastraten könnte, die nur kurz über Nyquist liegen, also z.B. 48kHz
e) ein rekursives Modell nach z.B. forward-Newton ausreichend gut zu lösen, wobei es von der Modellkomplexität abhinge.
Um es also auf den Punkt zu bringen, ist es nicht nötig, einen Oszillator mit voller FPGA-Taktfrequenz laufen zu lassen, damit er fein genug läuft und davon dann 128 Stück parallel aufzubauen. Man kann das vollständig multiplexen und hat trotzdem noch 768kHz Abtastrate. Es lässt sich mathematisch sogar zeigen, dass die auch zur vollständigen und alias-freien Darstellung (>100 dB SFDR) von hochfrequenten Rechtecksignalen taugen, wie sie in den Komparatoren in analogen Synthesizern entstehen.