dr_rollo
Mod Keyboards und Musik-Praxis
Ich hab gestern mal wieder einige Zeit mit dem iPad im Proberaum verbracht. Dort wollte ich ein paar Dinge testen, u.a. die Einbindung einiger Software-Synthesizer über MIDI, sowie die Ansteuerung über Mikro z.B. für Voice Synth und VocaLive. Letzteres ist von iRig, also IK Multimedia und für den iRig Adapter konzipiert. Daher die Frage, in irgendeinem thread hier - ich weiß nicht mal mehr von wem (HD?) - ob man das auch über andere Devices wie dem Alesis iDock nutzen kann.
Also ich nutze das Alesis iDock, weil ich das Teil zum einen aufgrund seiner Vielzahl bühnentauglicher Anschlüsse für Ein- und Ausgänge, zum anderen, weil das iPad da drin sicher steht, gut bedient werden kann, und nebenbei auch noch geladen wird.
Folgende Feststellungen konte ich machen:
Den Voice Synth konnte ich über ein am iDock angeschlossenes Mikro ansteuern, allerdings nicht über input 1, sondern nur über input 2. Funktionierte hervorragend, allerdings mit leichter Latenz. Insofern für Vocoder Effekte nutzbar, aber für Live-Gesang, wenn man die Stimme darüber doppeln oder Chorgesang fett machen will, halte ich es für weniger geeignet. Zu den Qualitäten und Möglichkeiten des Vocoders kann ich nicht viel sagen, bin da noch zu unerfahren mit der Materie. Aber eben mal kurz eine Roboterstimme oder ein Megaphone ist kein Problem. Eine Ansteuerung via MIDI auch problemlos. Man wählt den entsprechenden Kanal oder auch All und könnte für die Stimme die gespielten Töne auf dem Keyboard vorgeben, oder Autopitch über eine intelligente Chord-Erkennung.
Dem VocaLive konnte ich über das iDock kein Mikro Signal schicken. Vermutlich funktioniert das nur mit dem iRig Adapter, wobei man auch das interne Mikro aktivieren kann, was einem aber live nichts bringt. Zu Hause hab ich damit mal kurze Phrasen aufgenommen, die ich dann durch die Effekte gejagt hab. Klingt nett, nur sehe ich keinen wirklichen Nutzen.
Ich hab dann mal verschiedene software Syntehsizer probiert, wie u.a. Animoog, Cassini, Sunrizer - alles ganz nett und easy vom Handling. Ob ich allerdings davon irgendetwas live einsetzen würde, wage ich im Moment noch zu bezweifeln, da meine Workstations vom Sound her das auch liefern, und dabei deutlich lebendiger und auch fetter klingen. Latenz via MIDI ist vom Gefühl her fast Null.
Was mir dann allerdings aufgefallen ist - und vielleicht kann mir da jemand weiterhelfen - als ich Instrumente in Garageband anspielen wollte, war dies auch kein Problem, aber hier hab ich nirgendwo gefunden, wo ich MIDI Settings einstellen kann, z.B. dass das iPad nur auf MIDI Ch 1 empfangen soll. Das ist bei allen o.g. Synths kein Thema gewesen. Sunrizer hat sogar eine MIDI Learn Funktion, mit der ich intuitiv für beliebige Parameter Controller auf dem Keyboard definieren kann. Aber wo bitte ist bei Garage Band die Möglichkeit, MIDI Settings zu definieren? Solange es auf allen Kanälen empfängt, ist eine MIDI Einbindung von vorneherein nicht möglich, wenn ich nicht umständlich ein MIDITEMP dazwischen hänge, dass ungewünschte Signale bzw. Kanäle ausfiltert.
Also ich nutze das Alesis iDock, weil ich das Teil zum einen aufgrund seiner Vielzahl bühnentauglicher Anschlüsse für Ein- und Ausgänge, zum anderen, weil das iPad da drin sicher steht, gut bedient werden kann, und nebenbei auch noch geladen wird.
Folgende Feststellungen konte ich machen:
Den Voice Synth konnte ich über ein am iDock angeschlossenes Mikro ansteuern, allerdings nicht über input 1, sondern nur über input 2. Funktionierte hervorragend, allerdings mit leichter Latenz. Insofern für Vocoder Effekte nutzbar, aber für Live-Gesang, wenn man die Stimme darüber doppeln oder Chorgesang fett machen will, halte ich es für weniger geeignet. Zu den Qualitäten und Möglichkeiten des Vocoders kann ich nicht viel sagen, bin da noch zu unerfahren mit der Materie. Aber eben mal kurz eine Roboterstimme oder ein Megaphone ist kein Problem. Eine Ansteuerung via MIDI auch problemlos. Man wählt den entsprechenden Kanal oder auch All und könnte für die Stimme die gespielten Töne auf dem Keyboard vorgeben, oder Autopitch über eine intelligente Chord-Erkennung.
Dem VocaLive konnte ich über das iDock kein Mikro Signal schicken. Vermutlich funktioniert das nur mit dem iRig Adapter, wobei man auch das interne Mikro aktivieren kann, was einem aber live nichts bringt. Zu Hause hab ich damit mal kurze Phrasen aufgenommen, die ich dann durch die Effekte gejagt hab. Klingt nett, nur sehe ich keinen wirklichen Nutzen.
Ich hab dann mal verschiedene software Syntehsizer probiert, wie u.a. Animoog, Cassini, Sunrizer - alles ganz nett und easy vom Handling. Ob ich allerdings davon irgendetwas live einsetzen würde, wage ich im Moment noch zu bezweifeln, da meine Workstations vom Sound her das auch liefern, und dabei deutlich lebendiger und auch fetter klingen. Latenz via MIDI ist vom Gefühl her fast Null.
Was mir dann allerdings aufgefallen ist - und vielleicht kann mir da jemand weiterhelfen - als ich Instrumente in Garageband anspielen wollte, war dies auch kein Problem, aber hier hab ich nirgendwo gefunden, wo ich MIDI Settings einstellen kann, z.B. dass das iPad nur auf MIDI Ch 1 empfangen soll. Das ist bei allen o.g. Synths kein Thema gewesen. Sunrizer hat sogar eine MIDI Learn Funktion, mit der ich intuitiv für beliebige Parameter Controller auf dem Keyboard definieren kann. Aber wo bitte ist bei Garage Band die Möglichkeit, MIDI Settings zu definieren? Solange es auf allen Kanälen empfängt, ist eine MIDI Einbindung von vorneherein nicht möglich, wenn ich nicht umständlich ein MIDITEMP dazwischen hänge, dass ungewünschte Signale bzw. Kanäle ausfiltert.
- Eigenschaft