Hallo zusammen, wenn ich mich mal einklinken darf.
Klaus spricht immer von Transposition und erweitertem Tonvorrat. Wie Jens auch, wird mir nicht klar, was damit genau gemeint ist. Also hier mal meine Sicht der Dinge.
Eine Begleitautomatik verwendet ja ein Datenmaterial (Style), das mit Hilfe einer Software (Notenprozessor) in Echtzeit gegriffene Akkorde (Harmonien) musikalisch umsetzt. Dabei würde ich zwei Dinge klar trennen:
A.
Harmonische Umsetzung: Welche Töne werden generiert, wenn ich ein C greife, welche wenn ich ein C7, welche wenn ich ein Cm greife usw.
B.
Transponierung: Wie wird der Tonvorrat umgesetzt, wenn ein bestimmter Grundton gegriffen wird, z.B welche Umkehrungen eines Akkordes werden generiert.
Warum trenne ich diese beiden Punkte? Für mich macht das gerade den Unterschied zwischen MIDI File und Style aus.
Bei einem
MIDI File, das tel quel abgespielt werden soll, habe ich nur das Problem B, denn eine harmonische Umsetzung ist nicht nötig, da das File Note für Note ein gegebenes Musikstück repräsentiert. Irgendwelche Skalen und Notenvorräte spielen keine Rolle, die sind im File gegeben. Will ich ein solches File musikalisch transponieren, bleibt lediglich die Aufgabe zu analysieren, wie ich eine bestimmte Begleitfigur (bzw. -Instrument) in die neue Tonart transponiere. Hier kann ich nicht einfach x Halbtöne nach oben oder unten transponieren, sondern muss beachten, welcher Tonumfang das gegebene Instrument wiedergeben kann oder - bei polyphonen Instrumenten - welche Umkehrungen benutzt werden, damit die Akkordprogression auch gut (also musikalisch) klingt.
Bei einem
Style ist natürlich auch Punkt B zu beachten, aber schwieriger ist der Punkt A. Ich illustriere das mal an einem einfachen Beispiel, das aus dem schon erwähnten Buch vom Pöhnl stammt.
Der Style soll eine Basslinie liefern, die beim reinen Dur-Akkord nicht nur Grundton, Terz und Quinte liefert, sondern noch einen weiteren Skalenton. Für F-Dur soll die Basslinie auch die Sexte dazu nehmen, also z.B. f - a - c - d - f - d - c - a. Die Frage ist nun was passiert, wenn ein Fm gegriffen wird. Es ist ja völlig unklar, welche Skala der Spieler verwendet, statt "d" könnte nämlich durchaus ein "des" richtig sein. Was nicht passieren darf, ist hier das d einfach zu einem c abzuändern, denn dadurch entsteht eine unschöne Tondopplung (zwei Mal c hintereinander). Da keine Begeleitautomatik der Welt in die Zukunft schauen kann, also gar nicht wissen kann, welche Skala der Spieler verwendet, löst die
Yamaha Begeleitautomatik die Problematik mit Chord-Switching. Das bedeutet, dass für einen Moll Akkord eine andere Basslinie im Style programmiert ist als für einen Dur Akkord, nämlich eine solche, die die Sexte vermeidet, sodass der Spieler unterschiedliche Mollskalen spielen kann, ohne dass es zu unschönen Dissonanzen kommt. Denn ein Style muss
universal einsetzbar sein.
Um bei einem Style den Punkt B in den Griff zu kriegen, enthält der Style pro Begleitinstrument verschiedene Paramter (Transponierungsregeln), wie konkret transponiert werden soll, ich gehe darauf nicht näher ein, weil sie an der verwendeten Skala ja nichts ändert.
Fragen an Klaus:
Nimbu kann
yamaha Styles nutzen. Werden dabei die CASM Paramater (also das erwähnte Chord-Switching und die Transponierungsregeln) beachtet oder nicht? Kann die Yamaha AI-Griffweise verwendet werden? Letztendlich, kann Nimbu aus einem Yamaha-Style die gleiche Begleitung generieren wie ein Yamaha Keyboard? Das wäre mal eine notwendige Vorraussetzung, dass Nimbu zumindest auf Augenhöhe mit der Yamaha Begleitautomatik ist.
Du behauptest immer wieder, dass Nimbu einen erweiterten Tonvorrat nutzt. Wie in der Welt macht Nimbu das auf Basis eines Yamaha Styles? Nimbu kann eben auch nicht wissen, welches Lied der Spieler zu Gehör bringt und welche Skalen er verwendet. Ich denke, Nimbu kann das eben nicht, wenn ein Style im klassischen Sinne verwendet wird. Fazit: Nimbu muss mindestens das abliefern, was die Yamaha Begleitung auch kann. Kann es das?
Nun kommen wir zum Fall, wo Nimbu aus einem gegebenen MIDI File ein "Style" erstellt. Dies ist nun eine gänzlich andere Welt, denn was eine klassische Style Engine eben nicht kann, nämlich in die Zukunft schauen, das weiß Nimbu natürlich, denn das gesamte Stück liegt Nimbu zur Analyse vor. Ich denke, hier liegt der Hase im Pfeffer. Nimbu kann die Skalen bestimmen und so bei der Generierung der Begleitung auch gewisse Skalentöne verwenden, die eine klassische Begleitung zum Ziele der universellen Verwendbarkeit nicht verwendet. Dies scheint mir das Geheimnis der von dir immer angeführten "mehr Töne" zu sein. Dadurch ist es möglich, dass das Stück genauso erklingt wie das Original, wenn es mit Nimbu "Style" gespielt wird und man dabei die Akkorde greift, wie sie von Nimbu analysiert wurden.
Die Frage ist jetzt nur: was passiert, wenn ich mit einem Nimbu Style, der aus Song X generiert wurde, eine gänzlich anderes Lied Y spiele? Hier steht doch Nimbu vor der gleichen Problematik, wie eine klassische Begleitautomatik: welche Skalen werden denn im Lied Y verwendet?
Fazit: so wie ich das sehe, kommt der von dir behauptete erweiterte Tonvorrat nur dann zum Tragen, wenn du das zuvor analysierte Lied auch wieder genauso aufführst. Wozu das gut sein soll, erschließt sich mir nicht, dann spiele ich das MIDI File so wie es ist ab und schalte Spuren stumm, die ich spielen will. Allenfalls könnte ich mir vorstellen, dass leichte Reharmonisierungen (z.B. Zwischendominanten), also leichte Abwandlungen in der Akkordprogression funktionieren. Das wäre wenigstens ein Pluspunkt gegenüber dem simplen Abfeuern eines MIDI Files.