Gut erklärt - vor allem das Thema Wavetable. Inzwischen ist es allerdings möglich, die Wellen virtuell - also generisch - in Echtzeit zu bilden und in beschriebener Weise auch in Echtzeit zu mischen, zu morphen zu falten und vieles mehr. Dabei sind dann die Parameter der Wellen auch zur Laufzeit einstellbar. Die Wellen ändern sich also bei Bedarf. Man kann natürlich nicht jede beliebige Wellenform analytisch abbilden und nicht alles, was geht, klingt auch.
Zumal die Akzeptanz neuer Technologien in der Synthesizerwelt nicht die ist, mit der man eigentlich rechnen müßte. Stell den Leuten einen Wavetable-Synth mit aberwitzigen neuen Fähigkeiten hin, und kaum einer wird drauf anspringen. Stell ihnen ein Reissue des PPG Wave 2.3 hin, und sie freuen sich ein Loch in den Bauch.
Die "Dasselbe wie immer, aber mehr davon"-Attitüde bemerkte man noch am meisten in den 90ern. Da haben Korg und Yamaha die Synthesizerwelt mit immer neuen ausgefuchsten Synthese-Engines aufgemischt. Was wollten die Leute? Was mit Knöpfen, was "analog kann" (oder was "Moog und 303 kann"). Korg Prophecy, Z1 und eine entsprechend aufgerüstete Trinity konnten tatsächlich VA. Weil Korg damit aber nicht hausieren ging und die Kisten auch nicht danach aussahen, ging das Geld der User eher nach Schweden – denn Clavia hatte verstanden.
Oder die Granularsynthese, die in den Nullern richtig groß rauskommen sollte. Roland Variphrase in zugänglich. An sich brachte die irre Möglichkeiten mit sich, wo das, was hinten rauskam, nicht mal zwingend so exotisch gewesen wäre (Timestretching 2.0). Aber selbst als bezahlbare Granularmaschinen in Hardware angekündigt wurden, krähte da kaum einer nach.
Was das Filtern angeht, kann man getrost sagen, dass es nach wie vor einige analoge Filterstrukturen gibt, die man nicht digital nachbilden kann. Nachzubilden ist nur deren mathematische Funktion, allerdings fehlt dann die Beeinflussung der vielen realen physikalischen Effekte, wie sie eben bei den analogen Synths oft verwednet werden.
Sagen wir mal so: Es gab und gibt immer wieder Versuche, aber je näher man da rankommen will, desto mehr Rechenleistung frißt das. Teilweise wird ja schon das Verhalten jedes einzelnen Bausteins einer diskreten Schaltung berechnet – Roland macht das –, aber daß auch die Leitungen zwischen den Bausteinen ihren Beitrag zum Klangcharakter leisten, hat entweder kaum einer auf dem Zettel, oder das wäre noch aufwendiger zu berechnen.
Dazu kommt dann auch noch, daß das goldene Zeitalter der DSP-Karten vorbei ist. Vor Jahren war Creamware da groß drin; der Minimax, der auf Karten mit WIMRE bis zu 15 SHARC-DSPs lief, gilt heute noch als eine der besten Minimoog-Emulationen, und man hatte sogar bei mehreren Stimmen noch Luft nach oben. Die Zeit von Pulsar und Scope war vorbei, als es hieß, jetzt sind CPUs stark genug dafür. Heutzutage läuft das Numbercrunching für die Emulationen auf denselben x86- oder ARM-Cortex-CPUs, die auch noch die Rechenlast für das ganze Drumherum bis hin zu Betriebssystem und GUI wuchten müssen. Audiohardware stellt nicht viel mehr als Wandler. U-he Diva auf höchster Detaileinstellung bringt selbst heute noch gestandene Rechner zum Schwitzen. (Hat eigentlich je einer mal versucht, das auf eine GPU auszulagern?)
Martman