Synths gezielt programmieren

L
Lando2
Registrierter Benutzer
Zuletzt hier
13.03.14
Registriert
10.06.13
Beiträge
18
Kekse
0
Hi,

ich beschäftige mich schon eine ganze Weile mit Soundprogrammierung (subtraktiver, virtuell anologer). Ich programmiere Sounds, die mir auch durchaus gefallen. Woran ich aber regelmäßig scheitere ist, einen Sound gezielt zu programmieren.

Ich meine damit nicht, z.B. einen Bass, eine Fläche oder einen perkussiven Arp-Sound zu programmieren. Es geht darum innerhalb so einer Kategorie eine Klangcharakteristik gezielt zu erreichen. Wie lasse ich den Arp hölzern oder metallisch klingen? Wie klingt die Fläche luftig oder seidig oder eisig oder warm? Warum klingt der eine Leadsound schneidend der andere aber cremig oder fett?

Mir würde helfen (so hoffe ich), könnte ich solchen Charakteristika bestimmte Parameter bzw. Parameterkombinationen zuordnen.

Kann man bzw. könnt ihr allgemein formulieren, wie ihr gezielt Klangfarben erreicht?

Ich bin für jeden Tip dankbar, der mich da ein Stück weiterbringt.

Prinzipiell ist es wohl egal, aber an VA Synths stehen mir der KingKorg und der Yamaha AN1x zur Verfügung.

Lando
 
Eigenschaft
 
Es gab tatsächlich mal ein Instrument namens "Hartmann Neuron", welches Multisamples analysiert hat und dann bestimmten Attributen wie metallisch oder glasig bestimmte Klangveränderungen zugewiesen hat, die man verändern konnte. Das ganze wurde dann aus verschiedenen Gründen wie hohem Preis, schlechter Verarbeitung und unfertiger Software ein Riesenflopp, der Sound selbst war jedoch sehr spannend. Es gab dann auch eine Software-Version, deren Mac-Variante man sich inzwischen kostenlos herunterladen kann (siehe hier).

Abgesehen davon ist es sehr schwierig, Gesetzmäßigkeiten aufzustellen im Sinne von "wenn du diesen und diesen Parameter veränderst, wird es metallischer". Ich würde dir empfehlen, viel auszuprobieren, viele Sounds zu erstellen und genau darauf zu achten was welche Parameterveränderung mit dem Sound anstellt so dass du ein Gespür dafür bekommst.
Manchen Leuten hilft es, sich theoretisches Wissen darüber anzueignen, was die einzelnen Klangkomponenten wie Filter, LFOs usw. eigentlich tun, andere finden das eher hinderlich oder nutzlos.
 
Hallo Lando2,

kennst Du das Sculpture-Plug-In von Logic (Software-Synth)?
Da hat man die Möglichkeit das Material nach dem es klingen soll, zu beeinflussen.
Die Auswahlmöglichkeiten sind: nylon-wood-steel-glass, das ganze geht statisch oder automatisiert als morphing.

Es grüßt
das Tonkind
 
Mhmm…nach Eigenschaften zu basteln ist alleine schon deshalb schwer, weil diese Bezeichnungen höchst subjektiv sind. Das klingt für jeden Hörer anders. Zudem kann das von Synthesizer zu Synthesizer recht stark variieren.

Mal ein paar Zuordnungen, die meinem Empfinden mit meinem Equipment entsprechen:
Metallisch: Sync- und Ringmod-Sounds. Die Klangfarbe geht durch die vielen Obertöne in Richtung Glocke und Ähnliches.
Warme Flächen: Mehrere Sägezähn-Oszillatoren (oder ähnliche Wellenformen) leicht gegeneinander verstimmt und mit einem LP-Filter auf höchstens 75%.
Kühle Flächen: Ähnlich wie die warmen Flächen darüber, bloß mit Dreiecken oder Rechtecken. Digitale Wellenformen eigenen sich oft auch ganz gut. Es darf auch mal etwas mehr Verstimmung oder gar Chorus sein, dann noch eine gute Portion Hall, lange Attack und Release.
Luftig: Ähnlich wie die vorherigen Flächen, bloß würde ich die Bässe mit einem HP-Filter oder EQ etwas rausdrehen, so dass es weniger wuchtig klingt.

Letzten Endes sind Wellenform der Oszillatoren und der Filter wohl die beiden wichtigsten Elemente, wenn es um die Klangfarbe eines Synthpatches geht. Höre dich einfach mal durch die Werkpresets deiner Synths durch, merke dir, wie welcher Sound auf dich wirkt und siehe dir dann an, wie er aufgebaut ist, dadurch lernst du wohl am meisten. :)
 
Hallo,

Erstmal danke für eure Antworten.

@ Illidian

Den Hartmann kenne ich von Tests und Beispielsounds, sicherlich ne sehr interessante Kiste, basiert ja aber meines Wissens auf Resynthese von Samples. Mein Ehrgeiz geht mehr in die Richtung, aus nem schnöden Sägezahn oder Puls meinen Traumsound rauszumeißeln-:)

Ich denke ich weiß schon, was es bewirkt, wenn ich an Hüllkurven schraube, oder am LFO drehe. Was mir fehlt ist glaube ich die Kombination mehrerer Parameter, die dann ans Ziel führen.

@ Tonkind

Danke für den Tip. Ich nutze Logic9, habe mir den Sculpture aber nie näher angesehen. Ehrlich gesagt habe ich bei den Logicsynths immer den Eindruck, das GUI ist so designed, dass sie möglichst abschreckend wirken:) Überhaupt nicht mein Fall, ich werde mir den Sculpture aber mal näher anschauen.

@ egoldstein

Das sind ja schon mal einige Anregungen, danke.

Zitat: Letzten Endes sind Wellenform der Oszillatoren und der Filter wohl die beiden wichtigsten Elemente, wenn es um die Klangfarbe eines Synthpatches geht. Höre dich einfach mal durch die Werkpresets deiner Synths durch, merke dir, wie welcher Sound auf dich wirkt und siehe dir dann an, wie er aufgebaut ist, dadurch lernst du wohl am meisten.

Hmm ja, mache ich, nur 90% der Patches bestehen aus Sägezähnen und Tiefpassfilter, da muss also noch mehr sein, weil sie sehr verschieden klingen:).

Aber auch auf Oszillatorebene fehlt mir oft der Plan, gut ein sägezahn kann schärfer klingen als ein Sinus, oder ein Rechteck etwas "plastikmäßiger", so weit bin ich auch schon. Aber es gab mal in dem Thread Zeigt her eure Sounds einen von Strogon vorgestellten Cellosound, der auf zwei unverstimmten Pulswellen mit jeweils einer ganz bestimmten statischen Pulsbreite basierte. Und schon klang es überhaupt nicht mehr nach Plastikrechteck:)

Oder wenn ich mir die Sounds von Richi aus dem gleichen Thread für den AN1x anhöre. Was der für ein Piano aus den einfachen Sägezähnen geschraubt hat, wenn ich sie nicht selbst am Instrument gespielt hätte, hätte ich die virtuell-analoge Herkunft nichz für möglich gehalten.

Ist sowas nur durch stundenlanges Trial and Error möglich? Oder gibt es da vlt. Doch ein paar Regeln oder zumindest Anhaltspunkte, mit denen man starten kann?
 
Oder gibt es da vlt. Doch ein paar Regeln oder zumindest Anhaltspunkte, mit denen man starten kann?

Nun ja. Die Wellenform bestimmt, wie viele Obertöne das vom Oszillator erzeugte Signal hat. Ich zitiere mal aus dem Handbuch meines Synths:

Novation Ultranova Handbuch schrieb:
  • Sinus: Diese Wellenform besitzt nur eine einzige Frequenz. Ein Sinus erzeugt den „reinsten“ Klang, weil er eben aus nur einer Tonhöhe (Frequenz) besteht.
  • Dreieck: Diese Wellenform besitzt nur ungeradzahlige Obertöne (Harmonics). Deren Lautstärken nehmen im Quadrat im Verhältnis zu ihrer Ordnungszahl ab. So beträgt zum Beispiel die Lautstärke des 5. Obertons ein 1/25. der Lautstärke der Grundtonhöhe.
  • Sägezahn:Diese Wellenform besitzt sehr viele gradzahlige und ungeradzahlige Obertöne (Harmonics). Deren Lautstärken verhalten sich umgekehrt proportional zu ihrer Ordnungszahl.
  • Rechteck: Diese Wellenform besitzt nur ungeradzahlige Obertöne (Harmonics), deren Lautstärken den ungeradzahligen Obertönen der Sägezahn-Wellenform entsprechen.
  • Pulswelle: Bei der Rechteck-Wellenform sind die Abstände zwischen „Wellenberg“ und „Wellental“ gleich, das Verhältnis zwischen diesen beiden Zuständen, die einen vollständigen Zyklus ergeben, beträgt 50 %. [Es gibt] die Möglichkeit dieses Verhältnis in der Basiswellenform, sozusagen die „rechteckige Darstellung“, zu verschieben. Solche Wellenformen werden oft als Puls-Wellenform bezeichnet. Umso weiter das Rechteck verschoben wird, desto mehr gradzahlige Obertöne (Harmonics) kommen hinzu und ändern den Charakter, der Klang wird mehr „nasal“.

Abhängig von der Wellenform hat ein Oszillator also mehr oder weniger Obertöne, die letzten Endes für die Klangfarbe des Oszillators hauptverantwortlich sind. Für die oben erwähnten Standard-Wellenformen sind diese Verhältnisse recht gut bekannt. Bei digitalen Wellenformen oder Mischungen wird das Ganze allerdings schon wesentlich schwieriger. Aber wenn du die Wellenform siehst, kannst du durch Vergleichen mit den Standard-Wellenformen grob erahnen, wie sie klingen wird.

…

Naja, mit Trial&Error-Rumschrauben bist du vielleicht besser bedient, als dir Gedanken über die Verhältnisse der Obertöne zu machen.:)
 
Hallo,

Ehrlich gesagt habe ich bei den Logicsynths immer den Eindruck, das GUI ist so designed, dass sie möglichst abschreckend wirken

Da ist was dran, ich weiß was Du meinst :)
 
Der Ansatz, Synth-Programmierung nicht nur über die Parameter anzugehen, sondern nach den gewünschten Klangeigenschaften, wird auch von dem Buch "Synthesizer Programming" von Peter Gorges verfolgt. Vielleicht wäre das für dich mal eine interessante Lektüre. Ich würde das Buch nicht als alleinige Quelle empfehlen, um die Synthesizerprogrammierung zu lernen, aber es gibt auf jeden Fall gute Denkanstöße und betont auch zwei Aspekte, die m.E. die wichtigsten sind: viel Praxis und Schulung des Gehörs.
 
Der Ansatz, Synth-Programmierung nicht nur über die Parameter anzugehen, sondern nach den gewünschten Klangeigenschaften, wird auch von dem Buch "Synthesizer Programming" von Peter Gorges verfolgt. Vielleicht wäre das für dich mal eine interessante Lektüre. Ich würde das Buch nicht als alleinige Quelle empfehlen, um die Synthesizerprogrammierung zu lernen, aber es gibt auf jeden Fall gute Denkanstöße und betont auch zwei Aspekte, die m.E. die wichtigsten sind: viel Praxis und Schulung des Gehörs.

Ich hatte damals einige von Peter Gorges Soundforum-Artikeln in der Keyboards gelesen, mich damals aber mehr fürs Spielen als fürs Soundschrauben interessiert. Vor einiger Zeit hatte ich dann im Netz Teile davon wiederentdeckt, die ich aber nicht mehr finden kann. Ich meine es war bei amazona oder Musikmachen oder recording.de.

Hat da vlt. noch jemand einen Link? Das Buch ist bei Amazon zumindest nicht lieferbar.

Nebenbei geht diese Synthlernsoftware, die weiter oben verlinkt ist, extrem in die Richtung Gehörbildung, ist agnz interessant gemcht, aber mit 100$ Einführungspreis auch nicht grad ein Schnäppchen.
 
Ich habe nur ein paar Coverband-Sounds zusammengeschraubt, ein paar wenige E-Pianos oder so Zeug neu programmiert bzw. nachprogrammiert...aber ich habe nach wie vor Hochachtung vor den Leuten, die's beherrschen. Schon damals hatte ich den Eindruck, dass mein musikertypisch gebildetes Gehör trotz Musikstudium nicht ausreicht bzw. nicht optimal ausgebildet ist, um vernünftig Sounds zu programmieren. Daher mal so die grundsätzliche Frage: braucht es ein spezielle Gehörbildung für Soundprogrammierung? Haben erfolgreiche Soundprogrammierer einen anderen Zugang zu Klängen als der Otto-Normal-Hörer? Kann man so einen Zugang beschreiben und ist eine Soundprogrammierungs-Gehörbildung in Worte fassbar und erlernbar?

Wenn mehrere Antworten kommen sollten, mache ich daraus evtl. einen neuen Thread im Gehörbildungsforum.

Harald
 
Daher mal so die grundsätzliche Frage: braucht es ein spezielle Gehörbildung für Soundprogrammierung? Haben erfolgreiche Soundprogrammierer einen anderen Zugang zu Klängen als der Otto-Normal-Hörer? Kann man so einen Zugang beschreiben und ist eine Soundprogrammierungs-Gehörbildung in Worte fassbar und erlernbar

Interessante Fragen! :)

Ich würde schon sagen, dass Synthprogrammierer ihr Gehör anders nutzen. Während bei der klassischen Gehörbildung eher Tonhöhe, Intervalle und Rhythmen im Vordergrund stehen, ist das bei der Synthprogrammierung erst einmal vernachlässigbar. Damit kann man sich immer noch beschäftigen, wenn der Sound erst einmal fertig ist und man das Stück nachspielen möchte.
Sehr viel wichtiger beim Programmieren ist die Klangfarbe, die man haben möchte, denn die gestaltet man ja beim Schrauben am Synthesizer.

Spielt man einer mit klassischem Gehör geschulten Person und einem erfahrenen Synth-Programmierer die selbe Synthesizer-Melodie vor, würde erstere Person wohl erst daran denken, in welcher Tonart die Melodie ist, was für Intervallsprünge vorkommen, etc.
Der Synth-Programmierer hört dagegen wohl erst, was für eine Wellenform verwendet wird, wie stark der Filter zugedreht ist, wie schnell oder langsam die Hüllkurven sind, was der LFO moduliert, welche Effekte verwendet werden etc., bevor es an die eigentliche Musiktheorie geht.

Ich schätze mal, das hat damit zu tun, dass Synthesizer-Spieler einfach eine Alleinstellung haben, was die Vielfalt der Klänge und deren Bearbeitung während dem Spielen angeht.
Weit danach kommen vielleicht Gitarristen mit Effektpedalen, Organisten mit Zugreglern und in seltenen Fällen vielleicht noch sehr begabte Sänger. Diese Musiker können die Klangfarbe ihres Instruments noch deutlich verändern, wenn auch nicht ganz so grundlegend wie bei Synthesizern.
Dann kommt wohl lange Zeit nichts, bevor der Großteil der akustischen Instrumente folgt. Flöten, Violinen, Posaunen, akustische Gitarren, Klaviere etc. …bei diesen Instrumenten lässt sich die Klangfarbe (wenn überhaupt) meist nur durch die Spieltechnik variieren, der Grundklang bleibt dennoch größtenteils gleich.

Kann man diese "Gehörbildung" erlernen? Ich würde sagen: durchaus. Das weiter oben verlinkte Programm scheint mir schon recht gut in diese Richtung zu gehen. Ansonsten hilft es natürlich sehr, wenn man sich bewusst wird, wie welcher Parameter eines Synthesizers den Klang des Sounds beeinflusst, und sich selbst daran macht, Klänge nachzubauen. Das kann und wird natürlich - wie bei der klassischen Gehörbildung auch - eine Weile dauern, bis man es beherrscht.

Braucht man diese spezielle "Gehörbildung"? Kommt drauf an, was man machen möchte. Es gibt auch genug Klangtüftler, die sich nie an anderen Synth-Sounds orientieren und stattdessen einfach so lange experimentieren, bis sie einen eigenen Sound haben, der ihnen gefällt. Einige Software-Synths haben sogar eine Zufalls-Funktion. Oder man orientiert sich an Presets (sofern es denn brauchbare gibt) und gestaltet diese ein wenig nach persönlichen Vorlieben um. Fällt immerhin auch unter Programmierung. Am Ende ist es ja egal, wie lange oder kurz man an einem Sound gesessen hat. Hauptsache, es klingt gut. ;)
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Ich glaube, da kommt einiges zusammen, was man allerdings mitnichten durch eine Ausbildung oder ein Studium so lernen kann.

Es ist gewissermaßen learning by doing. Man fängt irgendwann an, sich für Synthesizer zu interessieren, fängt an, selbst zu schrauben. Die Basics der subtraktiven Synthese lernt man vielleicht online, vielleicht aus einem Buch, vielleicht auch aus einer der diversen entsprechend gut geschriebenen VA-Synth-Bedienungsanleitungen.

Darauf aufbauend geht dann das Experimentieren los, weg von den klischeehaften zwei leicht gegeneinander verstimmten, tiefpaßgefilterten Sägezähnen. Dann nimmt man mal andere Waveforms, spielt mal mit Pulswellen rum (mit Puls hat man ja schon jede Menge neues Ausgangsmaterial) oder mit Noise, filtert mal etwas ungewöhnlicher, nimmt die Filterresonanz als "zusätzlichen Oszillator". Man wendet sich Tricks mit Hüllkurven und LFOs zu. Dann kommen so Sachen wie FM, Ringmodulation, Sync, vielleicht hat man da schon Regler oder Schalter für am Synth und probiert die einfach mal aus, um dann festzustellen, daß man das, was dabei rauskommt, eigentlich gar nicht mehr filtern will.

Dann weiß man zumindest schon mal von hands-on, wie sich was anhört, hört irgendwo so einen spacigen EMS-Effektsound und hat vor seinem geistigen Auge ein Bild eines fallenden Sägezahn-LFO, der die Oszillatorfrequenz moduliert. Der Zauber elektronischer "Sphärenmusik" geht verloren, wird aber ersetzt durch den "Nachbauen-will"-Faktor.

Das nächste, was man lernt, ist, daß nicht alle Synths gleich klingen. Beispielsweise, weil man den Sound, den man gehört hat und nachbauen will, einfach nicht authentisch werden will. Irgendwas ist da immer. Nicht fett genug, zu fett, verkorkstes Obertonspektrum, die Hüllkurven verhalten sich komisch. Man verinnerlicht noch einmal die Unterschiede zwischen Filterflankensteilheiten, zwischen Hüllkurvenformen (linear, logarithmisch, parabolisch/umgekehrt logarithmisch), aber das ist es auch nicht.

Dann fängt man an, sich dafür zu interessieren und auch rauszufinden, was im Original womit gemacht wurde. Entdeckt die Welt der Analogsynthesizer, die kein Minimoog sind. Aha, das ist also ein Prophet-5, ein Jupiter-8, ein OB-X, ein ARP Odyssey Mk I, Mk II, Mk III, ein Polysix, ein Two-Voice, eine 303, ein MS-20, ein VCS3 etc. Wenn man das Spielchen lange genug spielt, kann man Synthesizer am Sound, zumindest an markanten Sounds, unterscheiden. Dazu gehört natürlich eine Portion Nerd, damit man sich überhaupt erst für so etwas interessiert und auch weiß, worauf man achten muß.

Der angenehme Nebeneffekt ist: Wenn man weiß, was wo für ein Synth zum Einsatz kam, weiß man auch, was der kann und was nicht, und kann sich entsprechend beim Nachschrauben darauf einstellen. Beim Synthex muß man damit rechnen, daß der im Dual-Modus jeweils zwei Oszillatoren links und rechts ins Panorama packt. Umgekehrt hat ein Juno-60 nur einen Oszillator pro Stimme. Analoge Yamahas und viele Modularsynthesizer können aus einem Oszillator mehrere Wellenformen gleichzeitig holen, die dann nicht nur synchron sind, sondern phasengleich. Polymoog und Poly-800 haben paraphonische Filter, also nur eins für alle Stimmen zusammen. Das SEM kann zwischen Tiefpaß, Bandpaß und Hochpaß überblenden, und darauf basierende Polysynths klingen nie auf allen Stimmen genau gleich, weil jede Stimme ein komplettes SEM mit komplettem Satz Bedienelementen ist. Beim Nachbau von Klängen kann man sich auf all solche Sachen einstellen.

Tja, und dann kommt die Welt der Digitalsynthesizer mit schon wieder ganz anderen Syntheseformen. Wavetable (PPG Wave), additiv (RMI Harmonic, K5000), FM (Synclavier, GS1), VPM (DX7), Rompler (M1, JV-1080), irgendwo dazwischen (D-50)...


Martman
 

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben