JohannesD
Registrierter Benutzer
- Zuletzt hier
- 02.04.24
- Registriert
- 07.07.04
- Beiträge
- 366
- Kekse
- 398
Hallo Leute,
die rege Beteiligung im iPad-Thread hat mich dazu motiviert, hier einmal zu posten, woran ich gerade arbeite. (Eigentlich habe ich dies schon getan, leider hat sich wider meiner Erwartungen keiner mehr gemeldet. Ich hatte allerdings auch recht wenige Informationen preisgegeben bzw. diverse Ideen sind mir erst später gekommen, deshalb starte ich hier nun einen neuen Versuch.)
Wie bei einigen anderen hier besteht mein Setup aus mehreren Tastaturen und Klangerzeugern. Da ich in meiner einen Band recht viele Sounds gleichzeitig spielen muss, ist für mich Layern und Splitten essentiell. Ich setze hierfür hauptsächlich mein Motif-Rack ES ein, allerdings kommen Orgel und Klavier von anderen Geräten, die selbst nicht splitten können. Hinzu kommt, dass die Bedienung eines Rack-Gerätes recht umständlich ist, weshalb ich dafür zu Hause einen Editor verwende. Ich wäre allerdings gerne in der Lage, auch in der Probe schnell etwas zusammenzubauen, also beispielsweise Keys mit Strings oder Orgel layern, wobei sich das Expression-Pedal nicht auf das Piano auswirken soll.
Ich habe zeitweise auch einen PC eingesetzt, weil mir hier die MIDI-Möglichkeiten gut gefallen haben, allerdings war auch das in der Probe für mich schlecht zu handhaben und auch von den Abmessungen unhandlich.
Seit längerem schwebt mir also eine Lösung für das iPad und auch andere iOS Geräte vor, bei dem man endlich den ganzen Kram intuitiv und schnell regeln kann. Ich weiß nicht, warum es das nicht schon längst gibt nun reichts, ich mach's selbst. Hierfür habe ich sowohl ein Nah- sowie ein Fernziel, die ich über Weihnachten konkreter ausgearbeitet habe.
Zunächst möchte ich ein MIDI-Patchbay entwickeln, das sowohl die Eingabegeräte, nämlich Tastaturen, Pedale und Controller, sowie die Klangerzeuger anzeigt. Es können dann sehr einfach Zones erstellt und den Klangerzeugern zugeordnet werden. Über Modifikationen sind dann Sachen möglich wie Transponieren oder Umwandeln von Controller-Daten in Sys-EX. Alles wird vernünftig und übersichtlich dargestellt, damit man sofort weiß, welche Zone und welche Controller womit verbunden sind.
Hier einmal ein Screenshot:
Die Connections werden übrigens nicht erstellt durch Verbinden mit dem Finger, was zu viel Friemelkram wäre. Stattdessen wird ein Fenster eingeblendet, wenn man auf Insert Sound drückt. Bei den Klangerzeugern wird noch angegeben, auf welchen Speicherplatz sie beim Aufruf eingestellt werden müssen. Das Ganze kann dann als Song abgespeichert und in einer Setlist verwaltet werden.
Soviel zum Routing und Setlists. Das zweite Hauptproblem, das ich sehe, ist das Ändern von Parametern, vor allem die Lautstärke der einzelnen Sounds. Hierbei ist es mir weitgehend egal, von welchem Klangerzeuger die jeweiligen Sounds kommen, wenn das Piano zu leise ist, muss es lauter Deshalb gibt es den Mixer-View, bei dem alle Sounds nebeneinander als Mixer-Strip dargestellt werden. Damit man weiß, wo der jeweilige Sound gespielt wird, ist unten wieder die Zuordnung zu den Tastaturen zu sehen:
Ok, soviel zur grafischen Darstellung. Kommen wir zu Bedienung. Ich möchte ein Hauptaugenmerk auf die schnelle Benutzung legen, da ich viel spontan an den Keyboards mache. Generell sollen zwar alle Regler per Touch verwendet werden können, es soll aber auch möglich sein, Hardware-Controller zuzuordnen. Und da stelle ich mir zwei Sachen vor: Man wird wahrscheinlich nicht so viele Regler haben, wie im Mixer-View angezeigt werden. Deshalb soll es zum einen so laufen, dass man den Regler in der App nur gedrückt hält bzw. auswählt, und dann an einem definierten Hardware-Regler dreht. Der Software-Regler wird dann auf den Wert des Hardware-Reglers gesetzt, aber erst, wenn dieser den Wert des Software-Reglers erreicht hat. Damit entstehen keine Sprünge, das Verhalten kennt man von Yamaha.
Eine andere Möglichkeit soll sein, dass man sich ein paar Hardware-Regler für sagen wir Lautstärke und EQ reserviert, diese aber immer nur Auswirkung auf die Sounds haben, die gerade gespielt werden. Wenn ich die Lautstärke von einem Sound anpasse, dann spiele ich ihn ja in der Regel auch gerade, weshalb ich ein erneutes Heraussuchen des richtigen Reglers eigentlich überflüssig finde von der Usability her gesehen. Bei gelayerten Sounds werden diese gleichzeitig, aber bei Erhalt des Verhältnisses geregelt. Um das Verhältnis hingegen zu manipulieren, greift man auf die erste Methode zurück.
Das Erstellen von Zones funktioniert natürlich auch über Drücken der obersten und untersten Taste.
Das ist das Nahziel.
Beim Fernziel würde ich mich gerne damit befassen, wie man alle Sounds, die im ganzen Setup auf den verschiedenen Geräten vorhanden sind, zentral auswählen kann. Wenn ich also Strings brauche und mehrere Geräte das anbieten, dann möchte ich in der Kategorie "Strings" alle zusammen aufgelistet bekommen und durchprobieren können. Ich möchte mir dann auch keine Gedanken mehr machen, auf den Geräten ein Program (beim Motif heißt es Multi) zu erstellen, das den richtigen Sound auf dem richtigen MIDI Channel spielt. Das soll automatisch gehen, erfordert aber, dass in die App entsprechende Dateien geladen werden, die die nötigen Informationen zur Verfügung stellen. Ist also mit mehr Aufwand verbunden.
Im Moment bin ich mit ein paar technischen Tests beschäftigt, die die Latenz beim Routing betreffen. Damit das ganze funktioniert, muss man ja bei Keyboards, die sozusagen Tastatur und Klangerzeuger zugleich sind, Local Control auf Off setzten. Die MIDI Daten gehen dann zur App und wieder zurück ins Key. Da mir Latenz immer sofort störend auffällt, ist mir das Thema sehr wichtig. Momentan bin ich bei 6ms bei einem einfachen Routing und bei ca. bei 10ms, wenn ich aus jeder Note einen 7-Klang erzeuge. Ich habe aber noch eine Idee, mit der sich das wahrscheinlich noch verkürzen lässt, unter 4ms wird es aber wohl nicht gehen. Ich teste übrigens mit iConnectMIDI, welches mehrere Ein- und Ausgänge hat und für das Managen von größeren Gears gut geeignet scheint.
Ok. Mich würde interessieren, was ihr so davon haltet. Ich weiß, dass es für mich genau das ist, was mir fehlt. Bevor ich mir allerdings zusätzlich den Aufwand mache, es in den App Store zu stellen, würde ich gerne vorab herausfinden, ob es einigen von euch auch so geht wie mir und die App Abnehmer finden würde. Genauso wäre ich auch an weiteren Ideen interessiert, z.B. lese ich im iPad-Thread die ganze Zeit, dass ihr gerne eure Leadsheets mit dem iPad verwaltet. Das ließe sich natürlich auch wunderbar integrieren.
Also lasst hören, was ihr denkt.
Viele Grüße und danke fürs Lesen,
Johannes
P.S. Manche von euch haben vielleicht schon die Website zu dem Projekt gefunden (iMIDIPatchbay.com).
die rege Beteiligung im iPad-Thread hat mich dazu motiviert, hier einmal zu posten, woran ich gerade arbeite. (Eigentlich habe ich dies schon getan, leider hat sich wider meiner Erwartungen keiner mehr gemeldet. Ich hatte allerdings auch recht wenige Informationen preisgegeben bzw. diverse Ideen sind mir erst später gekommen, deshalb starte ich hier nun einen neuen Versuch.)
Wie bei einigen anderen hier besteht mein Setup aus mehreren Tastaturen und Klangerzeugern. Da ich in meiner einen Band recht viele Sounds gleichzeitig spielen muss, ist für mich Layern und Splitten essentiell. Ich setze hierfür hauptsächlich mein Motif-Rack ES ein, allerdings kommen Orgel und Klavier von anderen Geräten, die selbst nicht splitten können. Hinzu kommt, dass die Bedienung eines Rack-Gerätes recht umständlich ist, weshalb ich dafür zu Hause einen Editor verwende. Ich wäre allerdings gerne in der Lage, auch in der Probe schnell etwas zusammenzubauen, also beispielsweise Keys mit Strings oder Orgel layern, wobei sich das Expression-Pedal nicht auf das Piano auswirken soll.
Ich habe zeitweise auch einen PC eingesetzt, weil mir hier die MIDI-Möglichkeiten gut gefallen haben, allerdings war auch das in der Probe für mich schlecht zu handhaben und auch von den Abmessungen unhandlich.
Seit längerem schwebt mir also eine Lösung für das iPad und auch andere iOS Geräte vor, bei dem man endlich den ganzen Kram intuitiv und schnell regeln kann. Ich weiß nicht, warum es das nicht schon längst gibt nun reichts, ich mach's selbst. Hierfür habe ich sowohl ein Nah- sowie ein Fernziel, die ich über Weihnachten konkreter ausgearbeitet habe.
Zunächst möchte ich ein MIDI-Patchbay entwickeln, das sowohl die Eingabegeräte, nämlich Tastaturen, Pedale und Controller, sowie die Klangerzeuger anzeigt. Es können dann sehr einfach Zones erstellt und den Klangerzeugern zugeordnet werden. Über Modifikationen sind dann Sachen möglich wie Transponieren oder Umwandeln von Controller-Daten in Sys-EX. Alles wird vernünftig und übersichtlich dargestellt, damit man sofort weiß, welche Zone und welche Controller womit verbunden sind.
Hier einmal ein Screenshot:
Die Connections werden übrigens nicht erstellt durch Verbinden mit dem Finger, was zu viel Friemelkram wäre. Stattdessen wird ein Fenster eingeblendet, wenn man auf Insert Sound drückt. Bei den Klangerzeugern wird noch angegeben, auf welchen Speicherplatz sie beim Aufruf eingestellt werden müssen. Das Ganze kann dann als Song abgespeichert und in einer Setlist verwaltet werden.
Soviel zum Routing und Setlists. Das zweite Hauptproblem, das ich sehe, ist das Ändern von Parametern, vor allem die Lautstärke der einzelnen Sounds. Hierbei ist es mir weitgehend egal, von welchem Klangerzeuger die jeweiligen Sounds kommen, wenn das Piano zu leise ist, muss es lauter Deshalb gibt es den Mixer-View, bei dem alle Sounds nebeneinander als Mixer-Strip dargestellt werden. Damit man weiß, wo der jeweilige Sound gespielt wird, ist unten wieder die Zuordnung zu den Tastaturen zu sehen:
Ok, soviel zur grafischen Darstellung. Kommen wir zu Bedienung. Ich möchte ein Hauptaugenmerk auf die schnelle Benutzung legen, da ich viel spontan an den Keyboards mache. Generell sollen zwar alle Regler per Touch verwendet werden können, es soll aber auch möglich sein, Hardware-Controller zuzuordnen. Und da stelle ich mir zwei Sachen vor: Man wird wahrscheinlich nicht so viele Regler haben, wie im Mixer-View angezeigt werden. Deshalb soll es zum einen so laufen, dass man den Regler in der App nur gedrückt hält bzw. auswählt, und dann an einem definierten Hardware-Regler dreht. Der Software-Regler wird dann auf den Wert des Hardware-Reglers gesetzt, aber erst, wenn dieser den Wert des Software-Reglers erreicht hat. Damit entstehen keine Sprünge, das Verhalten kennt man von Yamaha.
Eine andere Möglichkeit soll sein, dass man sich ein paar Hardware-Regler für sagen wir Lautstärke und EQ reserviert, diese aber immer nur Auswirkung auf die Sounds haben, die gerade gespielt werden. Wenn ich die Lautstärke von einem Sound anpasse, dann spiele ich ihn ja in der Regel auch gerade, weshalb ich ein erneutes Heraussuchen des richtigen Reglers eigentlich überflüssig finde von der Usability her gesehen. Bei gelayerten Sounds werden diese gleichzeitig, aber bei Erhalt des Verhältnisses geregelt. Um das Verhältnis hingegen zu manipulieren, greift man auf die erste Methode zurück.
Das Erstellen von Zones funktioniert natürlich auch über Drücken der obersten und untersten Taste.
Das ist das Nahziel.
Beim Fernziel würde ich mich gerne damit befassen, wie man alle Sounds, die im ganzen Setup auf den verschiedenen Geräten vorhanden sind, zentral auswählen kann. Wenn ich also Strings brauche und mehrere Geräte das anbieten, dann möchte ich in der Kategorie "Strings" alle zusammen aufgelistet bekommen und durchprobieren können. Ich möchte mir dann auch keine Gedanken mehr machen, auf den Geräten ein Program (beim Motif heißt es Multi) zu erstellen, das den richtigen Sound auf dem richtigen MIDI Channel spielt. Das soll automatisch gehen, erfordert aber, dass in die App entsprechende Dateien geladen werden, die die nötigen Informationen zur Verfügung stellen. Ist also mit mehr Aufwand verbunden.
Im Moment bin ich mit ein paar technischen Tests beschäftigt, die die Latenz beim Routing betreffen. Damit das ganze funktioniert, muss man ja bei Keyboards, die sozusagen Tastatur und Klangerzeuger zugleich sind, Local Control auf Off setzten. Die MIDI Daten gehen dann zur App und wieder zurück ins Key. Da mir Latenz immer sofort störend auffällt, ist mir das Thema sehr wichtig. Momentan bin ich bei 6ms bei einem einfachen Routing und bei ca. bei 10ms, wenn ich aus jeder Note einen 7-Klang erzeuge. Ich habe aber noch eine Idee, mit der sich das wahrscheinlich noch verkürzen lässt, unter 4ms wird es aber wohl nicht gehen. Ich teste übrigens mit iConnectMIDI, welches mehrere Ein- und Ausgänge hat und für das Managen von größeren Gears gut geeignet scheint.
Ok. Mich würde interessieren, was ihr so davon haltet. Ich weiß, dass es für mich genau das ist, was mir fehlt. Bevor ich mir allerdings zusätzlich den Aufwand mache, es in den App Store zu stellen, würde ich gerne vorab herausfinden, ob es einigen von euch auch so geht wie mir und die App Abnehmer finden würde. Genauso wäre ich auch an weiteren Ideen interessiert, z.B. lese ich im iPad-Thread die ganze Zeit, dass ihr gerne eure Leadsheets mit dem iPad verwaltet. Das ließe sich natürlich auch wunderbar integrieren.
Also lasst hören, was ihr denkt.
Viele Grüße und danke fürs Lesen,
Johannes
P.S. Manche von euch haben vielleicht schon die Website zu dem Projekt gefunden (iMIDIPatchbay.com).
- Eigenschaft