So ist es. Richtigerweise müsste der pitch und the expression an die Note gekoppelt sein, weil nach Synthesizertheorie jede Note individuell ist. Man kann darüber streiten, ob es dem Patch zugeordnet werden kann, weil Klangfarbenveränderungen auf alle Noten eines Instrumentes wirken. Eine Grundstimmung muss für alle Noten gelten, die ein Instrument / ein Kanal abspielt und auch Velocity und andere ADSR-Parameter.
Da aber pitching oft dafür verwendet wird, eine Modulation einer Tonhöhe vorzunehmen, um ein Vibrato zu erzeugen, das den Ton von seiner Normtonhöhe = Midi-Note abweichen lässt, ist es sinnvoller, das dem Ton mitzugeben. Das gleiche gilt für den Ausdruck. Diesen Sachverhalt habe ich der MIDI.org so vorgetragen und weiter ausgeführt, dass man Noten, Stimme und Instument voneinander trennen muss. Hat man aber nicht gemacht. Faktisch haben wir jetzt einen Mischmasch, weil der Part in einem Synth aus Erzeugerrichtung quasi ein Instrument ist, das alle seine Töne gleich abspielt, während die Noteninformation eine funktionelle Stimme darstellt, die aber nur dann individuell gespielt wird, wenn man den Part als Stimme nimmt. D.h. die MIDI Spec kennt nur 2 Ebenen, statt 3 und man muss sich entscheiden, wie man Stimme und Part nutzen will. Faktisch sind die 16 Parts, die man mit den MIDI-Kanälen ansteuern kann, ein Limiter der heute verfügbaren Polyphonie und oft sogar Multitimbralität.
Eine Gitarre bräuchte damit z.B. 6 MIDI-Kanäle. Das wäre an sich kein Problem, wenn man sich damals wenigstens dazu hätte durchringen können, die Anzahl der MIDI-Kanäle hochzuziehen. Weil man aber unbedingt mit aller Gewalt das Protokoll beibehalten wollte, statt ein neues zu generieren, auf das man hätte umsteigen können, blieb es bei den 4 resevierten Bits und damit 16 Kanälen. MIDI ist also qualitativ in der Stutkur eingeschränkt und man kann es wegen der quantitativen Beschränkung nicht umgehen. Folgerichtig braucht man für jedes physikalische Instrument einen eigenen MIDI-Anschluss und die vielen multitimbralen und polyphonen Instrumente, die möglich sind, liegen dann brach.
Bei meinem MIDI gibt es da Problem nicht. Ich habe 64 MIDI-Kanäle und trenne Noten von Stimmen und Parts. So kann ich mir aussuchen, ob ich die einem Instrument zuordne, also einer Orgel oder Klavier, oder 64 einzelne Töne / Tasten / Instrumente fahre. Es gibt dazu eine weitere Zuordnungsebene, die die Noten zur Stimme und diese zum Instrument zuordnet, also insgesamt 3 Ebenen. Der große Unterschied dabei ist, dass man z.B. am Modulationsrad ein Portamento für eine Note einspielen kann, die dann auch nur für diese Note und Stimme genutzt wird. Die Synthesizer können das in der Regel trennen, nur das Protokoll sieht das eben nicht vor. So kann man das nur in der SW lösen, z.B. werden Modulationen teilweise nur für die gerade gespielten Noten übernommen und z.B. beim Arpeggio ignoriert.
Kurzerhand habe ich dann auch die anderen Parameter auf die Stimme bezogen, d.h. wenn man irgendwas verdreht, wird es nur den neu generierten Noten zugeordnet, auch wenn das z.b. beim globalen pitch unnötig ist, weil man den während des live spielens nicht ändert (was aber ginge !). Von daher habe ich keine Limitierung auf 16 Kanäle mit MPE und auch sonst sind Informationen notenorientiert, wie z.B. die Stereoposition: Die kann Note für Note neu pendeln und funktioniert damit wie mehrere verschiedene Saiten, Instrumente, Personen an unterschiedlichen Positionen im Raum, die sich auch noch ändern können, was mit dem derzeitigen MIDI überhaupt nicht geht, weil Stereo eine Information für eine Mischpultposition ist.
Das Mehr an Daten erzeugt natürlich wieder mehr traffic, was man auch leicht hätte lösen können, wenn man sich mal von lumpigen 31kHz gelöst hätte. Schon um die Jahrtausendwende hatten wir COM-Ports mit 230k. Damit kann man dann auch 2 komplette Akkorde mit 2 Händen in akzeptabler Zeit übertragen.
MIDI speed is increased to ensure propper and simultaneous chord play with musical instruments
www.96khz.org