Waldorf Kyra (ehem. Exodus Digital Valkyrie): Der Virenkiller?

Ich hätte jetzt etwas zu dem Vorbeitrag CASIO / PCM sagen wollen, mache aber lieber einen neuen Thread auf.

Hat der Walkürensynthesizer eigentlich eine HP? Ich finde dazu nichts. Ich hätte gerne einige echte Samples angehört. Per MPG ist das ja schwierig.

Das täte mich auch interessieren.
 
Zuletzt bearbeitet:
...zur Musikmesse gab es noch eine Seite Digital Exodus, wahrscheinlich Rückzug aufgrund Kooperation mit Waldorf...
 
Oh, das ist aber schade. Ich täte gerne noch etwas gehört haben.

Wie schaut es eigentlich mit dem hier aus:



Warum hat Waldorf sich nicht den hier gekrallt? Laut den Aussagen von Entwickler Paul(a) Maddox arbeitet er/sie ja auch mit FPGAs. Gibt es den eigentlich (noch / schon) zu erwerben? Ich finde hier im Forum gar nichts über das Gerät und auch der Music Store, der als dealer angegeben ist, hat ihn nicht (mehr) im Programm.

Die Klänge sind aber schon irgendwie cool!
 
genau das macht 'Wavetable' nicht - es geht um das Durchlaufen einer Wellensequenz, was dem permanten Wechsel der Oszillator-Wellenform entspricht. Der Durchlauf kann zeitlich und mit Überblendung moduliert werden.
Richtig. Die Verwendung des Begriffs "Wavetable" für PCM bzw. Rompler-Technik stammt aus der Welt des Computers bzw. der Soundkarten.

Tatsächlich geht Wavetable-Synthese, wie sie von Wolfgang Palm (PPG) damals aufgebracht wurde, so:

Du hast eine Digitalwelle. Dann hast du noch eine gleich lange Digitalwelle mit einer anderen Wellenform. Dann errechnest du eine Reihe von 62 Digitalwellenformen, die einen allmählichen Übergang von der einen zur anderen Digitalwelle darstellen, also immer noch einen Tick weiter weg von der einen und näher ran an die andere. Diese 64 Wellenformen sind dann eine Wavetable.

Die eigentliche Wavetable-Synthese arbeitet aber nicht einfach so, daß du eine der 64 Wellen auswählst und die abspielst. Statt dessen hat man einen LFO oder eine Hüllkurve oder meinetwegen auch einen Handregler, mit dem man in der Wavetable herumfährt. Eine ADSR-Hüllkurve bewirkt z. B., daß du anfängst bei Welle 1, nach der Attack-Phase bist du bei Welle 64, gehst dann in der Decay-Phase auf die als Sustain-Level eingestellte Welle 41 zurück, und nach Loslassen der Taste geht die Release-Phase zurück auf Welle 1. Oder man hat einen LFO, der ständig zwischen Welle 9 und Welle 46 hin- und herfährt.

VA Synthese ist ein allgemeiner Begriff, der lediglich das Nachbilden von analogen Ereignissen mit Digitaltechnik bezeichnet.
Eine "VA-Synthese" in dem Sinne gibt es überhaupt nicht. Auch keine "analoge Synthese". Das ist ganz normale subtraktive Synthese, wie sie von allen möglichen Klangerzeugern durchgeführt wird – im Prinzip von allem, was irgendwo im Signalweg mindestens ein Filter hat.

VA = virtuell-analog = Funktionsweise und Klangcharakter eines Analogsynthesizers werden auf volldigitalem Wege emuliert. Das Filter beispielsweise schneidet nicht, wie man es von Digitaltechnik erwarten würde (und wie reine Rompler es gern tun), auf mathematisch perfekte Art allmählich die Frequenzen ab, sondern es verhält sich wie ein spannungsgesteuertes Analogfilter (VCF). Lange Zeit war es ja bei virtuell-analogen Hardwaresynthesizern üblich, daß das Filter im Modus "Tiefpaß 24 dB/Oktave" ein vierpoliges Moog-Kaskadenfilter emulierte und in den Modi mit 12 dB/Oktave das State-Variable-Filter eines Oberheim SEM in Tiefpaßstellung, in Hochpaßstellung und mit aktivem Bandpaßschalter.


Martman
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Gut erklärt - vor allem das Thema Wavetable. Inzwischen ist es allerdings möglich, die Wellen virtuell - also generisch - in Echtzeit zu bilden und in beschriebener Weise auch in Echtzeit zu mischen, zu morphen zu falten und vieles mehr. Dabei sind dann die Parameter der Wellen auch zur Laufzeit einstellbar. Die Wellen ändern sich also bei Bedarf. Man kann natürlich nicht jede beliebige Wellenform analytisch abbilden und nicht alles, was geht, klingt auch.

Was das Filtern angeht, kann man getrost sagen, dass es nach wie vor einige analoge Filterstrukturen gibt, die man nicht digital nachbilden kann. Nachzubilden ist nur deren mathematische Funktion, allerdings fehlt dann die Beeinflussung der vielen realen physikalischen Effekte, wie sie eben bei den analogen Synths oft verwednet werden.
 
Gut erklärt - vor allem das Thema Wavetable. Inzwischen ist es allerdings möglich, die Wellen virtuell - also generisch - in Echtzeit zu bilden und in beschriebener Weise auch in Echtzeit zu mischen, zu morphen zu falten und vieles mehr. Dabei sind dann die Parameter der Wellen auch zur Laufzeit einstellbar. Die Wellen ändern sich also bei Bedarf. Man kann natürlich nicht jede beliebige Wellenform analytisch abbilden und nicht alles, was geht, klingt auch.
Zumal die Akzeptanz neuer Technologien in der Synthesizerwelt nicht die ist, mit der man eigentlich rechnen müßte. Stell den Leuten einen Wavetable-Synth mit aberwitzigen neuen Fähigkeiten hin, und kaum einer wird drauf anspringen. Stell ihnen ein Reissue des PPG Wave 2.3 hin, und sie freuen sich ein Loch in den Bauch.

Die "Dasselbe wie immer, aber mehr davon"-Attitüde bemerkte man noch am meisten in den 90ern. Da haben Korg und Yamaha die Synthesizerwelt mit immer neuen ausgefuchsten Synthese-Engines aufgemischt. Was wollten die Leute? Was mit Knöpfen, was "analog kann" (oder was "Moog und 303 kann"). Korg Prophecy, Z1 und eine entsprechend aufgerüstete Trinity konnten tatsächlich VA. Weil Korg damit aber nicht hausieren ging und die Kisten auch nicht danach aussahen, ging das Geld der User eher nach Schweden – denn Clavia hatte verstanden.

Oder die Granularsynthese, die in den Nullern richtig groß rauskommen sollte. Roland Variphrase in zugänglich. An sich brachte die irre Möglichkeiten mit sich, wo das, was hinten rauskam, nicht mal zwingend so exotisch gewesen wäre (Timestretching 2.0). Aber selbst als bezahlbare Granularmaschinen in Hardware angekündigt wurden, krähte da kaum einer nach.

Was das Filtern angeht, kann man getrost sagen, dass es nach wie vor einige analoge Filterstrukturen gibt, die man nicht digital nachbilden kann. Nachzubilden ist nur deren mathematische Funktion, allerdings fehlt dann die Beeinflussung der vielen realen physikalischen Effekte, wie sie eben bei den analogen Synths oft verwednet werden.
Sagen wir mal so: Es gab und gibt immer wieder Versuche, aber je näher man da rankommen will, desto mehr Rechenleistung frißt das. Teilweise wird ja schon das Verhalten jedes einzelnen Bausteins einer diskreten Schaltung berechnet – Roland macht das –, aber daß auch die Leitungen zwischen den Bausteinen ihren Beitrag zum Klangcharakter leisten, hat entweder kaum einer auf dem Zettel, oder das wäre noch aufwendiger zu berechnen.

Dazu kommt dann auch noch, daß das goldene Zeitalter der DSP-Karten vorbei ist. Vor Jahren war Creamware da groß drin; der Minimax, der auf Karten mit WIMRE bis zu 15 SHARC-DSPs lief, gilt heute noch als eine der besten Minimoog-Emulationen, und man hatte sogar bei mehreren Stimmen noch Luft nach oben. Die Zeit von Pulsar und Scope war vorbei, als es hieß, jetzt sind CPUs stark genug dafür. Heutzutage läuft das Numbercrunching für die Emulationen auf denselben x86- oder ARM-Cortex-CPUs, die auch noch die Rechenlast für das ganze Drumherum bis hin zu Betriebssystem und GUI wuchten müssen. Audiohardware stellt nicht viel mehr als Wandler. U-he Diva auf höchster Detaileinstellung bringt selbst heute noch gestandene Rechner zum Schwitzen. (Hat eigentlich je einer mal versucht, das auf eine GPU auszulagern?)


Martman
 
Die Zeit von Pulsar und Scope war vorbei, als es hieß, jetzt sind CPUs stark genug dafür.
da hast du die Zeichen der Zeit falsch gedeutet... ;)
UAD hat sich mit der gleichen DSP Familie fast zu einem Standard entwickelt - speziell das quasi 'no latency' monitoring vor dem Asio Treiber schlägt enorme Wellen - ging in Scope schon vor 20 Jahren.
Creamware hatte 3 Probleme:
1. der Hardware Kopierschutz, 2. keine grossen Namen, 3. Front gegen Pro Tools ohne eigene DAW

Ich nutze das System heute noch und es bietet praktisch alles, was man für quasi-Echtzeit Verarbeitung braucht.
Was es (architekturbedingt) schlecht kann, ist die Verarbeitung von Speicher-basierten Daten, zumindest wenn es auf einer PCI Karte läuft.
Der Minimoog/Minimax ist natürlich ein Klassiker, aber benutzt habe ich den tatsächlich so gut wie nie.
Da gab's reichlich interessanteres Futter, was klanglich mindestens auf demselben Level spielte.
Nur verkauft worden ist davon so gut wie nichts - geschätzt 90% der Anwender haben auschliesslich das mitgelieferte (sehr gute) Bundle genutzt. Ich kenne ua die Verkaufszahlen vom Software Solaris...
 
Ja, UAD1 hatte ich auch mal. Die hatte die 563xx DSPs, die damals praktisch überall drin waren, z.B. auch in Sydec's Sound Scape Mitreme. Für die habe Ich mal Algos gemacht und später in der Chameleon eingesetzt:
http://www.96khz.org/htm/chameleonsynth.htm

Die sind dann aber alle irgendwie vom Markt verschwunden.
 
mir ist die UAD-1 nur als mit einer GPU bestückt bekannt :gruebel:
andererseits würde eine Motorola Version Sinn machen, da UAD unter dem Label 'Kind of Loud' mal ein Reverb veröffentlicht haben, das es auch für Pro Tools gab (Realverb).
 
Stimmt, verwechselt! Allerdings hat die UAD-2 ja später DSPs drauf, was mich sofort zu der Frage bringt, warum man das aufgegeben hat.
 
vermutlich weil die seinerzeit verwendete Hardware keine Zukunft hatte - die Chips wurden in hohen Stückzahlen als dedizierte Grafikbeschleuniger (hauptsächlich für Spiele) eingesetzt, was für UAD als Trittbrettfahrer von der Kostenseite her sehr interessant gewesen sein dürfte.
GPUs im heutigen Sinne waren das natürlich nicht, die Karten wurden schnell überflüssig.
 
Die Frage wäre, was man mit GPUs diesbezüglich machen könnte. Ich habe es ein wenig im Überblick was da mit Video geht (und vornehmlich dafür sind die ja gemacht). Man kann aber auch ganz generelle Algorithmen so klassifizieren und modularisieren, dass sie von den parallelen Recheneinheiten profitieren. NVIDIA puscht das derzeit stark mit Bibliotheken und Entwicklungsunterstützung. Wahrscheinlich laufen Firmen aber in dieselbe Problematik hinein, wie die plugin-Entwickler für CPU: Die SW wird kopiert.
 
... Wahrscheinlich laufen Firmen aber in dieselbe Problematik hinein, wie die plugin-Entwickler für CPU: Die SW wird kopiert.
das dürfte auch ein wesentlicher Grund für den FPGA Einsatz sein - neben dem neu und exklusiv Attribut.
(um sich dem ursprünglichen Thema wieder anzunähern)
Im Prinzip ist das zwar unsinnig (solange die Sachen nicht tatsächlich 'fest verdrahtet' sind, aber entsprechende Kenntnisse sind deutlich weniger verbreitet.

Bei UAD funktioniert der Weg aus kombinierter Hardware/Software anscheinend relativ gut, weil einfach die Macht der Marken von 'Klassikern' dahintersteht, neben einem stark auf Produktionsalltag ausgerichteten System.
Exotische Klangerzeuger/Verbieger wären nach meiner Einschätzung keine kommerzielle Grundlage.
Beim Valkyrie wird der Name Waldorf seine Wirkung sicher nicht verfehlen. ;)
 
Mit FPGAs lässt sich der Code aber nicht besser gegen Klau schützen, als bei DSPs. Entscheidend ist, dass eine eigene Hardware vertrieben wird. Das geht mit DSP-Karten genau so. Theoretisch kann man das FPGA-image wie das DSP-firmware-image jeweils kopieren (auch bei kopiergeschützten Systemen :)) aber man muss die HW nachbauen. Das wäre bei GPU-Systemen gfs schon anders.
 
Kyra hat Gestalt angenommen!

Amazona und Sequencer.de wissen mehr, unter anderem den Preis (1899 € UVP) und die Einzelausgänge (sechs Stereopaare, also 12 Einzelausgänge). Allerdings wird zumindest das Pultgerät etwas sehr raumgreifend (und trotzdem wird es für die Hüllkurven keine zwölf Knobs geben, hat sich also was mit OKOF).


Martman
 
Nachdem ich mir einige aktuellere YT-Videos angeschaut habe, finde ich, dass Kyra m.E. kein Virenkiller wird.

Er geht klanglich ziemlich in die Breite, ihm fehlt es jedoch etwas an Biss. Auch Eigen-Charakter fehlt ihm ein wenig, keine Ecken oder Kanten.

So empfinde ich ihn zumindest. Muss aber nichts Negatives heißen. Was ich als unattraktiv finde, sind hohe Sampling-Raten mit 96khz, 32-faches Oversampling
18- und 32-Bit-Wandlung und was weiß ich noch. Zumindest gedanklich kommen mir die neuen Geräte immer hochauflösender, cleaner und kälter vor.

Virus dagegen ist und bleibt wahrscheinlich ein Alleskönner mit Rotz und Charakter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 3 Benutzer
Was mußte ich im SynMag lesen? Velocity auf Amp kann man immer noch nicht rausregeln? Oder ist der Bug inzwischen wie angekündigt beseitigt?

Ich dachte eigentlich, nachdem ich das 2019 auf der Superbooth bemerkt und angekreidet hab und die Herren am Stand gesagt haben, sie würden das melden, daß da was passieren würde.

Zumindest hat Waldorf es eingesehen und angekündigt, das regelbar zu machen und nicht zu sagen: "Ja nee, das gehört so, ist doch auch geil. Wenn euch das stört, dann schaltet doch einfach Velocity an eurem Masterkeyboard ab." Spätestens wenn sie auf die Idee kommen, eine Tasten-Kyra zu bauen, wär das lästig.


Martman
 
Das ?

"Kyra Firmware ver 1.78 changes (compared to 1.74 )
....
-Added the ability to adjust velocity scaling in the range 0 (no scaling, all notes played play
at maximum level) to 127 (full velocity scaling). You can use the Amp EG Decay knob in
Shift Mode to adjust the scaling.

....."

Es gibt übrigens nicht nur Virus-Killer sondern auch Kyra-Killer, diese sogar aus dem Hause Waldorf. Meiner mußte dann doch dem Iridium weichen. Sicher nicht direkt vergleichbar, aber auf jeden Fall bin ich damit deutlich glücklicher.
 
Den Iridium hatte ich mir auch schon antun wollen, denke aber momentan über den Quantum nach. Sind dort eigentlich auch FPGAs verbaut? Ich habe mich zwischenzeitlich mit der Technologie näher befasst. Was mich wundert, ist, dass Waldorf behauptet den ersten FPGA-powerer Synth zu haben, obwohl der offenbar mit einem Zynq läuft, also einem SOC. Dort sind noch Prozessoren drin, die mitwirken. Wäre die Frage, was der FPGA jetzt genau tut. Prozessor-Systeme mit FPGAs gibt es wiederum ja schon länger. z.B. meinte ich gelesen zu haben, dass Novation Peak und auch die Roland AIRAs mit FPGAs laufen.
--- Beiträge wurden zusammengefasst ---
Was ich als unattraktiv finde, sind hohe Sampling-Raten mit 96khz, 32-faches Oversampling
18- und 32-Bit-Wandlung und was weiß ich noch. Zumindest gedanklich kommen mir die neuen Geräte immer hochauflösender, cleaner und kälter vor.

Wieso sollte eine höhere Abtastrate schlechter sein? Die digitalen Fehler sind bekanntlich zufälliger Natur und sorgen nur für Fehler im System. Ich habe beruflich mit Schwingungsanalyse zu tun, die wir mit FEM machen und dort bringt eine Verdopplung der Genauigkeit durch mehr Stützen (mehr Punkte pro Sample) um eine Werkstück zu modellieren wie auch eine Halbierung der Zeitspanne in der Simulation (verdopplung der Abtastfrequenz) enorme Vorteile bei der Genauigkeit. Rechnet man zu ungenau, dann produziert das Werkstück lauter Artefakte statt dass man echte Oberwellen und Spannungsstöße sieht. Die Rechnung wird erst ab einer gewissen Auflösung genau genug.

Laut der Entwickler von Novation ist das auch der Grund, warum man den Oszillator im FPGA macht: Er schwingt genauer.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Na ja, es soll Leute geben, die auf den 16-Bit-Grit der 90er stehen.

Viele ziehen ja auch den 10bittigen Yamaha DX7 dem 16bittigen DX7II vor, weil mehr digitaler Grit und Schmutz.

Aktuell scheint ja der räudige 90er-Jahre-Romplersound auch wieder zurückzukommen.


Martman
 

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben