... erst jetzt gesehen.
Wieso gibt es da unter den Major Playern keine technologie-Konferenzen (oder gibt es die?), um neue Standards zu setzen?
Es gibt ja neuere Standards, aber die kranken daran, daß es "Kommittee-Schnittstellen" sind. Da will jeder seine Partikularinteressen durchsetzen und dann kommt sowas wie MIDI 2.0 (IMHO ein Papiertiger) bei raus.
Ist das gleiche wie bei von Kommittees erstellten Programmiersprachen - die ITler unter uns wissen, was ich meine. Regelrechte Monster.
MIDI ist das Werk eines Einzelnen, Dave Smith. Wesentliche Ergänzungen dazu kamen von 2 ARP-Angestellten: Philipp Dodds (Velocity) und Paul DeRocco (Optokoppler). Das merkt man auch deutlich. Leider hat man bei MIDI Sysex den Herstellern zuviel Freiheit gelassen, weil nur Rahmenformat festgelegt, und als jemand, der in der Vergangenheit etliche Adaptionen für Sounddiver gebaut hat, kann ich ein Lied davon singen, was Format-Wirrwarr und Fehler angeht.
MIDI 1.0 wurde zum Verbinden der Geräte untereinander entwickelt, Computer waren zuerst noch kein Thema. Einfach zu implementieren, sowohl von der Hardware als auch von der Software her. Dave Smith hat ganz bewußt auf ein Lizenzmodell verzichtet. Damals für die Verbreitung ideal, Angesichts der Verhunzungen neuerer Zeit (TRS-MIDI, weggelassene Optokoppler) leider eher nachteilig.
MIDI 2.0 dagegen ist ein Computer-Computer-Protokoll und daher deutlich aufwendiger zu implementieren, ohne daß es bei dern meisten Geräten einen wirklichen Nutzen hätte - daher wird sich das auch nicht durchsetzen. Wenn man mal den Zeitraum zwischen Vorstellung und ersten Geräten zwischen MIDI 1.0 und MIDI 2.0 vergleicht, spricht das Bände.
Also, warum gibt es noch MIDI????????
Weil es, wie schon im Thread mehrfach geschrieben wurde, funktioniert, vor allem fast immer ohne daß man tiefer einsteigen muß, zumindest für die Basics.
MIDI hatte damals den Vorteil, daß Dave Smith sich rechtzeitig Gedanken machte, über die eigenen Bedürfnisse hinausdachte und es rechtzeitig in die Tat umsetzte, denn es gab ja neben seiner eigenen Schnittstelle, um seine Geräte miteinander zu verbinden, auch die von Oberheim (37polige Brummschleife in Form einer Sub D Buchse), Rolands DCB und auch PPG hatte was Eigenes. Die zuerst angesprochenen Mitbewerber Oberheim, Moog und Arp wollten davon nichts wissen ("not invented here"), Roland dagegen zeigte sich offen und baute es direkt in den Jupiter-6 ein, der Rest ist Geschichte. Sehr lustig finde ich in dem Zusammenhang immer wieder, daß Tom Oberheim das in neueren Interviews so darstellt, daß ihn erst der Optokoppler dazu brachte, seine Meinung über MIDI zu ändern ...
Viele Probleme rund um MIDI kranken an mieser Implementation in den Geräten (hat selbst Dave Smith mal in diversen Interviews deutlich gesagt), und ironischerweise sind oft Geräte von Roland ganz vorne mit dabei, berühmtestes Beispiel sind alle U-20 Derivate wie D-70 und Rhodes Model 660/760, die auf der gleichen Architektur basieren und auch die gleiche Basisfirmware nutzen.
Alleine schon MIDI Clock wurde und wird oft fehlerhaft implementiert, und - jetzt bin ich mal böse - Hersteller wie Ableton haben das nie richtig hinbekommen, stattdessen baut man lieber was Eigenes (Ableton Link).
Dann kamen schon damals Hersteller wie Anatek auf die Idee, die eigentlich nur für die Speisung der LED zulässigen Strom für die Versorgung kompletter Geräte zu nutzen. Das verletzte nicht nur die Spec, sondern funktionierte auch nicht zuverlässig überall, und heute kann man aufgrund der vielfach eingesetzten 3V-Technik diese alten Dinger eh nimmer nutzen, da sie noch auf der 5V-Technik basieren.
Bis etwa in die 2000er Jahre hin hatten die meisten MIDI Geräte auch noch am Ausgang "dicke" Treiberchips sitzen, die einerseits mehr als nur eine LED versorgen konnten und nebenbei auch zum Schutz der Schnittstellenchips dienten, ähnlich wie bei RS-232. Im Zuge der immer leistungsfähigeren MCUs (CPUs mit eingebauter Peripherie) und der damit einhergehenden Einsparung externer Bausteine (was ja auch Kosten senkt) und Umstellung auf SMD-Komponenten sind solche Treiberchips inzwischen nirgends mehr vorhanden, die MIDI Ausgänge hängen also direkt am Prozessor, was durchaus gewisse Gefahren birgt und im Zweifel eine teurere Reparatur nach sich zieht.
Das führt aber auch dazu, daß da weniger "Überschuß" an der Ausgangsleitung vorhanden ist, und daher funktionieren Geräte, die sich "illegalerweise" über MIDI mit Spannung versorgen, wie zB die Aktuellen von MIDI Solutions, auch entweder erst garnicht oder nicht zuverlässig, weswegen es bei diesem Hersteller eine Kompatibiliätsliste gibt, anstatt daß man einfach den Standard einhalten würde ...
MIDI wäre so heute garnicht mehr möglich, daher können wir froh drum sein, daß Dave Smith damals die Zeichen der Zeit erkannte und entsprechend handelte.
Nun, es gibt ja USB. Ich lese immer wieder, u.A. auch bei Amazona, daß Leute ihre Geräte vom "altmodischen" DIN-MIDI auf USB umstellen, weil ja alles viel besser. Diese werden recht schnell eines Besseren belehrt (wenn sie es denn zulassen), denn DIN-MIDI hat einfach nach wie vor seine Vorteile. Leider erscheinen in letzter Zeit immer mehr Geräte ohne MIDI (zB Korg KR-55 Pro), und das, wo zu den besten Zeiten jedes Rack-Gitarren-Effektgerät eine MIDI Schnittstelle hatte ...
USB ist das schlimmste, was MIDI jemals passieren konnte, denn es macht alle Vorteile des klassischen MIDI kaputt:
- keine CPU Last
- geht auch ohne Rechner
- braucht keine Treiber
- jedes Byte wird sofort gesendet
- galvanische Trennung
- einfach in jede Umgebung zu integrieren
USB-MIDI wurde asynchron implementiert und nicht als Stream wie USB Audio, dazu noch die Blockstruktur beim Senden, die dazu führt, daß MIDI Clock über USB niemals "tight" sein kann, weil erst dann gesendet wird, wenn der Sendepuffer voll ist (flush), während MIDI jedes Byte sofort sendet (Clock ist ein 1Byte Befehl). Hinzu kommen, zumindest bei den üblichen Desktop-OS, die Strukuren mit Layern und Hintergrunddiensten, die man nicht in der Priorität ändern kann (bei Embedded Hardware wie Maschine plus und den aktuellen MPCs dagegen geht das sehr wohl, wenn man das dort genutzte Linux entsprechend konfiguriert). So Sachen wie zu Atari-Zeiten, wo man problemlos seine Expander durch die Sequenzersoftware spielen konnte, sollte man heute tunlichst vermeiden, denn da müssen die Daten gleich 2x durch die USB-Hölle durch. Beim Atari ST griffen ja aufgrund der miesen BIOS-Implementation fast alle Softwaresequenzer direkt auf die Schnittstellen zu und sebst die "Treiber"-ACCs, die für das Ansteuern der Schnittstellen am ROM-Port zuständig waren (aufgrund der fehlenden Schreibleitung mußte man da mit einer Trickschaltung arbeiten, die durch Lesebefehle an bestimmten Adressen Ausgaben erzeugte) erzeugten keine wirklich hörbaren Verzögerungen (und da hab ich meine Kisten schon ordentlich ausgelastet)
Alle seine Geräte über USB-MIDI anzuschließen vergleiche ich gerne mit einer vollen Säuglingsstation, auf der nur eine Pflegekraft vorhanden ist, die alle gleichzeitig füttern, bespaßen und neu windeln muß - so siehts dann jedenfalls im Rechner aus.
Zudem gibts immer wieder Helden, die ihr Audiointerface, an dem auch MIDI-Ports sind, auf 192 KHz einstellen, weil ein anderer Held denen erzählt hat, daß das unbedingt sein muß, und dann rummaulen, daß MIDI ja besch*** wäre, weil es dann Aussetzer gibt - kein Wunder, denn ein Stream hat da einfach den Vorrang.
Ich nutze USB ganz gezielt für bestimmte Bereiche, zB wenn ich an meine MPCs oder den Fantom-0 eine zweite Tastatur anschließen will, da ist das aufgrund der von USB bereitgestellten Versorgungsspannung für solche Controllerkeyboards schon deutlich praktischer als das per DIN MIDI zu lösen, was 1 Kabel und ein Netzteil mehr braucht. In diesem Fall hab ich aber auch keinen Ärger mit USB-Noise, weil diese Geräte keine Klangerzeuger sind. Für alles Andere nutze ich klassisches DIN-MIDI und sogar noch eine MIDI-Patchbay (die es in dieser Form heute nach wie vor nicht mehr gibt).
Ok, das war jetzt sehr lang, aber das mußte ich einfach mal loswerden