Latenzen... und mit welchem Interface kriege ich sie niedriger?

  • Ersteller Charvelniklas
  • Erstellt am
Charvelniklas
Charvelniklas
Registrierter Benutzer
Zuletzt hier
30.08.24
Registriert
29.06.07
Beiträge
1.964
Kekse
5.551
Ort
Braunschweig
Moin Freunde.

Ich könnte mal ein bisschen Schwarmintelligenz brauchen. Ich habe folgende Anwendungsbereiche für USB-Interfaces:
– Aufnehmen von bis zu 4 Signalen gleichzeitig (aber selten mehr als 2)
– Spielen mit VST-Instrumenten und Helix Native (-> geringe Round-Trip-Latency nötig mit Priorität auf Output-Latenz)
– Live Abspielen von Click und Backingtracks (-> mindestens 4 Line-Ausgänge)
– Mixing und Produktion
(– Optional auch Mischpultersatz bei minimalen Setups, aber ich überlege, mir für so was ein Flow 8 zu kaufen)

Bisher nutze ich ein Behringer UMC404HD an einem Windows-Laptop mit einem Ryzen 9 5900HX und 16GB RAM. Der Hauptgrund, warum ich upgraden möchte, ist, dass ich selbst bei gemütlicher CPU-Auslastung von kaum mal mehr als 30% nicht unter eine RTL von 13ms komme (gemessen mit RTL Utility von Oblique Audio). Kurz zu dem, was ich probiert habe: Interface ohne Hub anschließen, WLAN ausstellen, alle Stromsparoptionen deaktivieren, alle Anwendungen außer DAW schließen, Safe Mode deaktivieren, alle möglichen Kombinationen von Puffergrößen und Abtastraten testen. Immer das gleiche Ergebnis. Deswegen vermute ich, dass es nicht an meinem PC liegt, sondern das Interface einfach nicht mehr hergibt.
Ein Interface, das alle diese Anforderungen abdeckt, kostet richtig viel Geld. Ein gebrauchtes Fireface UC könnte eine Option sein, auch wenn ich da Abstriche bei den Mic-Eingängen machen würde. Aber das könnte ich verschmerzen. Wenn ich auf DSP und interne Effekte verzichte, ist die Auswahl kaum überschaubar und die Preise gehen für mich in Ordnung. Nehmen wir mal verbreitete Interfaces wie das Motu M4 oder Focusrite Scarlett 8i6: nach dem, was ich so gelesen habe, weisen die bei gleichen Puffergrößen am gleichen Rechner fast identische RTL auf und sind in der Hinsicht nicht besser als mein Behringer-Interface. Meine Hauptfrage ist: kann ich mit einem besseren Interface geringere Puffergrößen fahren, ohne dass es Aussetzer gibt? Und finde ich irgendwo verlässliche Benchmark-Tests? Trial & Error fände ich bei dem Thema eine doofe Vorgehensweise. :/

Um die Verwirrung zu vervollständigen, ist mir bisher nicht so richtig klar geworden, welche Rolle das Betriebssystem dabei spielt. Der Internet-Konsens lautet ja: Windows-Audio-Treiber sind Mist, Apples Core-Audio-Treiber so gut, dass man allgemein eben keine dedizierten Treiber für USB-Audio-Interfaces braucht und bei Linux scheint es wohl auch ganz gut auszusehen. RME schreibt aber auch für Mac OS eigene Treiber... sprich: Wenn es am Ende doch vom Treiber abhängt, kann man dann verallgemeinern, welchen Einfluss das Betriebssystem hat?

Außedem habe ich schon überlegt, ob ich am Ende vielleicht einfach zwei Interfaces für unterschiedliche Anwendungen nutzen sollte: Eins, das gar keine physischen Audio-Eingänge hat, dafür aber die nötigen Ausgänge und sehr niedrige Latenzen erlaubt, und eins, mit dem ich aufnehmen kann. Falls da jemand konkrete Empfehlungen aussprechen kann, würde ich nochmal darüber nachdenken, aber eigentlich finde ich das blöd, weil ich sowohl zuhause als auch unterwegs teilweise die gleichen Anforderungen habe, sodass das nur bedingt Sinn macht.

Ich weiß, das sind mehrere ausufernde, allgemeine Fragen. Über konkrete Empfehlungen würde ich mich aber trotzdem freuen. 🙃 Und jetzt bin ich mal auf eureAntworten gespannt. :giggle:
 
Zuletzt bearbeitet:
Meine Hauptfrage ist: kann ich mit einem besseren Interface geringere Puffergrößen fahren, ohne dass es Aussetzer gibt?

Mit dem Prozessor eher nicht. Das ist eine Mobile CPU. Die sind optimiert auf geringen Energieverbrauch. Mit allen Tricks und Nachteilen.

ASIO vs Core Audio, also Pro Audio System auf Win und das Äquivalent auf Apple Rechnern macht theoretisch auch nicht den grossen Unterschied. Allerdings ist Core Audio im Betriebssystem integriert und hat grundsätzlich Priorität bei der Prozess Vergabe. Das ist bei Windows und ASIO nicht der Fall. Zudem ist der Steinberg Standard Uralt und dementsprechend betagt. Core Audio wird dagegen ständig weiterentwickelt.

Latenz hat mich auch immer genervt. Und ich hatte verschiedene Prozessoren und auch Betriebssysteme ausprobiert. Nah dran war ich mit meiner letzen Win Konfiguration eines Desktop. Allerdings mit Hackintos OS. Also Apple Betriebssystem.

Kein Thema ist das mehr, seit ich einen Laptop mit Apple M1 Chip verwende.

Da stelle ich den Puffer auf Min und das spielt auch schwergewichtige Projekte ohne Dropouts ab.

RTL Utility von Oblique Audio

Das ist nur bedingt brauchbar. Das misst zwar den Roundtrip, aber gibt keine Auskunft darüber, wie das dann hinterher mit echten Projekten spielt. Und das ist ja das entscheidende.

Meiner Erfahrung nach ist die Leistungsfähigkeit des Rechner das Element mit dem grössten Einfluss auf die erreichbare Performance. Interfaces als solche tun sich nicht viel, wenn es um Latenz geht.

OS ja. Windows nimmt keinerlei Rücksicht darauf, dass ein Anwender eine Anwendung laufen lassen will, die geringe Latenz bedingt. Apple OS schon. Dabei spielt es keine Rolle, ob der Hersteller einen eigenen Treiber mitbringt. Das landet immer im Core Audio System und das ist so ausgelegte dass es automatisch priorisiert wird.

Soweit meine Erfahrungen.......
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 2 Benutzer
+1 für meinen MacBook Air mit M1 Chip (oder halt drüber).

Vielleicht in Verbindung mit einem Audient ID44 MK2 ein.
https://www.thomann.de/de/audient_id44_mkii.htm

Weil USB-C statt USB, 4 Top-Eingänge, 4 Line-Ausgänge, Stand Alone Funktion mit speicherbaren Einstellungen und Top-Hi-Z-Eingang der dem Helix Nativ etwas mehr Leben einhaucht.
 
Danke schon mal für eure Antworten. Adrachin, bist du sicher, dass man mit mobilen CPUs von dem Kaliber Probleme hat??? Ich kann damit bei Batteriebetrieb aktuelle Spiele spielen und hab dabei keinerlei Performanceprobleme :nix: Ich hab gerade nochmal nachgeschaut und festgestellt, dass meine CPU-Auslastung sogar doch viel niedriger ist als im Eingangspost geschätzt. Sowohl Reaper als auch der Taskmanager melden konstant um die 3% Gesamtauslastung und dann manchmal kurze Spitzen von 10%. Das war mit Native Instruments Una Corda, Replika Delay und Valhalla Room mit 7 Sekunden Decay. Vielleicht kennst du dich ja wirklich gut mit CPUs aus (ich nicht ^^), aber weil ich das nicht weiß, frag ich lieber zweimal nach, um sicher zu gehen. 🙃 Bislang fällts mir eben schwer zu glauben, dass die CPU hier wirklich der Flaschenhals ist.

Meiner Erfahrung nach ist die Leistungsfähigkeit des Rechner das Element mit dem grössten Einfluss auf die erreichbare Performance. Interfaces als solche tun sich nicht viel, wenn es um Latenz geht.
Das dachte ich halt auch, bis ich meinen jetzigen leistungsfähigen Rechner in Betrieb genommen hab. Der Sprung von meinem vorigen Rechner war riesig, aber die Diskrepanz aus CPU-Auslastung und erreichbarer Latenz hat mich dann stutzig gemacht und ich bin bei meinen Recherchen zum Beispiel auf so was gestoßen:
With my biggest project (34 tracks, 16 of which are East West Symphonic Orchestra with multiple plugins) - with my old interface (M-Audio Profire 610) I used to have to set the sample buffer at 2048 samples, when playing the Cubase ASIO meter averaged around 95% load but more often than not would cut out and the playback would stutter and fail. Same project with the RME - I'm currently set at 256 sample buffer and I haven't even seen a reading at all on the ASIO meter (can normally see from about 5% upwards), playback is smooth with no hint of dropouts. Cubase is giving a ~14ms latency (combined input + output).
Quelle: https://www.kvraudio.com/forum/viewtopic.php?t=495919&sid=03c577826026b8540e0541e32df5172e&start=30

Deswegen frage ich nach, ob mir jemand verlässlichere Infos geben kann, welchen Einfluss das Interface selbst hat.

MacBooks sind für mich aus mehreren Gründen keine Option, auch wenn ich mich schon gefragt hab, ob das nicht für dieses konkrete Problem die einfachste Lösung wäre. ;) Die Vorteile sind mir klar, aber für mich persönlich gibts ein paar indiskutable Nachteile.

Das Audient id44 hab ich mir schon angeschaut. Ich hätte am liebsten etwas mit Bedienelementen an einem Frontpanel, aber daran soll es nicht scheitern.
 
Danke schon mal für eure Antworten. Adrachin, bist du sicher, dass man mit mobilen CPUs von dem Kaliber Probleme hat??? Ich kann damit bei Batteriebetrieb aktuelle Spiele spielen und hab dabei keinerlei Performanceprobleme

Das ist auch keine Echtzeitanwendung. Ein Sample nicht rechtzeitig abgeliefert und schon hat man einen Dropout. Bei Video spielt das überhaupt keine Rolle. Fehlende Pixel werden Interpoliert oder die Framerate was runtergesetzt, Error Korrektur, die unbemerkt im Hintergrund werkelt. Windows trägt auch noch einen Teil mit dazu bei. Das ist dann wiederum für sowas optimiert. Einschliesslich der Hardware, welche die von Windows bereitgestellten Funktionen nutzt.

Die Audio Leute haben halt Pech. Die hat MS noch nie interessiert.
Deswegen frage ich nach, ob mir jemand verlässlichere Infos geben kann, welchen Einfluss das Interface selbst hat.

RME ist tatsächlich vorbildlich. Die haben immer aktuelle Treiber, bei Windows ein must have. Sonst ist das ein Roulettspiel. Nächstes Update und dann geht es nicht mehr.

Also würde ich bei der Interface Auswahl nachsehen, ob es schon Windows 11 Treiber gibt. Wenn ja, ist das ein Indiz, dass der Hersteller es ernst meint mit seinem Produkt und dafür sorgen will, dass es auch mit OS updates funktioniert.

Wobei das M-Audio Profire 610 auch ein schlechtes Beispiel ist. Das ist in die Jahre gekommen. Welches OS der Mensch in dem Zitat verwendet hat ist auch unklar. Windows jedenfalls hat Support für Firewire eingestellt.

Wie auch immer, ich würde mir ein aktuelle Interface suchen, das Deinen Anforderungen entspricht. So dicke ist das nun auch wieder nicht, was Du machen willst. Und das UMC404HD ist nun wirklich keine Referenz. Oder besser gesagt, eine Referenz für null Treiber Support. Soviel ich weiss, haben die überhaupt keine eigenen Treiber.

Vielleicht gibt es jemand in Deinem Bekanntenkreis der eins ausleihen kann? Es gibt soviel unterschiedliche Parameter im Verbund Rechner, Treiber, Interface, dass man um eigene Versuche nicht rumkommt.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Das dachte ich halt auch, bis ich meinen jetzigen leistungsfähigen Rechner in Betrieb genommen hab. Der Sprung von meinem vorigen Rechner war riesig, aber die Diskrepanz aus CPU-Auslastung und erreichbarer Latenz hat mich dann stutzig gemacht...
Die CPU Auslastung hat mit der Latenz wenig zu tun.

Entscheidend (für den Rechner) ist der maximal konstant mögliche Datendurchsatz zwischen CPU und Speicher.
(dh es hängt vom Design des Chipsatzes ab)

Entscheidend für die Software die Anzahl und „Intensität“ der (Hintergrund) Dienste.
Das freie Tool DPC Latency Checker liefert Hinweise auf Schwachstellen im System.
 
  • Gefällt mir
Reaktionen: 3 Benutzer
Danke für die Erklärungen! :great:
Und das UMC404HD ist nun wirklich keine Referenz. Oder besser gesagt, eine Referenz für null Treiber Support. Soviel ich weiss, haben die überhaupt keine eigenen Treiber.
Für die UMC-Dinger gibts schon nen eigenen ASIO-Treiber, aber die letzte Version ist mehrere Jahre alt. ^^

Wirklich hochwertige Interfaces hat in meinem Umfeld keiner – alles eher so in der Einsteigerklasse. Aus der möchte ich ja definitiv raus.

Das freie Tool DPC Latency Checker liefert Hinweise auf Schwachstellen im System.
Nehm ich gleich mal in Angriff, danke!
 
Es kamen ja schon recht informative Tips.
Was ich dazu sagen kann:
Ist der Ryzen 9 gegenüber den Intel Chips ein Vorteil?
Mir wurde immer ein Intel Chip empfohlen, von IT Spezialisten, das war aber vor ca 10 Jahren, kann sich geändert haben.
Die andere Sache, wenn du viel VSt während der Aufnahme verwendest, braucht es großzügige RAM, vllt kommst du mit deinen 16 RAM an Grenzen.
Auch muss die Festplatte schnell sein, mit einer SSD ist man heute gut bedient, aber auch da soll es Unterschiede geben.
Wenn du HDD hast, sollte sie min. 7200RPM haben.
Wenn dein Musik Rechner am Lan hängt, ist das auch nicht gut, oder ein Virenscanner läuft, da werden die sogenannten Hintergrundprozesse ausgeführt, die Latenzen begünstigen.

Ein Musikrechner, der gefordert wird, sollte keine weiteren Programme laufen lassen, außer, die benötigt werden für die Musikproduktion.

Interface haben eigene Treiber, manche Interface sind im unteren Preissegment oft nicht die Treiberwunder, all das spielt zusammen, darauf sollte man achten.
 
Zu Intel: die waren mal Platzhirsch, sind aber seit einiger Zeit etwas angehängt worden. AMD sind im Moment vorne dran, was CPUs angeht.

Zu mobile CPU: strukturell gibt es da keine relevanten Unterschiede, man kann sämtliche Energieoptionen OS-seitig konfigurieren. Wenn man möchte deaktiviert man alle Sparoptionen und schaut dann, ob es was bringt. Wie aber schon gesagt, würde ich da eher wenig Einfluss auf die Latenz erwarten.

Das schwierigste ist, herauszufinden, wo genau dein Flaschenhals liegt. Telefunky hat mMn genau den richtigen Tip gegeben, prüfe das Mal. Ich würde Apple hier keinen generellen Vorsprung zuschreiben, wenn ich 2800€ für ein Windows/Linux-System ausgebe, dann ist das in der gleichen Leistungsklasse wie ein MacBook Pro.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Wie @adrachin oben schon erwähnte... das hat nichts mit Vorsprung zu tun.
Es ist ein grundsätzlicher Unterschied der Priorität von Audio-Tasks: System- versus Anwendungsebene.

Auch die „klassischen“ Intel Empfehlungen bezogen sich nicht auf die CPU, sondern auf die Chipsätze, speziell in der Zeit als PCI ein quasi-Standard war.
Das ist zwar mit der USB Dominanz inzwischen Schnee von gestern, aber das Prinzip der Regeln gilt sinngemäss auch bei USB.
Ist nur heute noch undurchschaubarer, wenn man der Sache auf den Grund gehen will.
 
Zu Intel: die waren mal Platzhirsch, sind aber seit einiger Zeit etwas angehängt worden. AMD sind im Moment vorne dran, was CPUs angeht.
Das ist so unscharf gesprochen nicht richtig. Worauf bezieht sich Deine Aussage? Single Core Performance, parallele Performance, Eignung für Echtzeitsysteme (=deterministische Antwortzeiten)?
Meine Kollegen von der Software nehmen jeden neuen Prozessor hinsichtlich der Eignung für unsere Echtzeitsysteme ausgiebig in die Mangel. So gerne wir AMD einsetzen würden, weisen die Systeme damit leider bisher einen für uns nicht akzeptablen Jitter auf, sodass es hier bis auf Weiteres bei Intel bleibt....
 
Zuletzt bearbeitet:
Zu mobile CPU: strukturell gibt es da keine relevanten Unterschiede

Den gibt es sehr wohl. Die werden hauptsächlich in Geräten verbaut, die nur eine beschränkte Kühlkapazität haben. Die können nicht dauerhaft auf voller Leistung betrieben werden, da die Kiste sonst verbrennt. Daher ist die maximale Leistung der CPU Makulatur. Die muss gedrosselt werden. Und das verursacht dann Probleme.

Ich würde Apple hier keinen generellen Vorsprung zuschreiben, wenn ich 2800€ für ein Windows/Linux-System ausgebe, dann ist das in der gleichen Leistungsklasse wie ein MacBook Pro.

Das stimmt. Aber sowohl Intel, als auch AMD werden heiss. Das bedeutet Aufwand für Kühlung. Je mehr Leistung, desto mehr Kühlung.

Das Problem haben die neuen Mx basierten Systeme von Apple nicht. Mal von der enormen Leistung abgesehen,, die sie liefern können.
 
Das ist so unscharf gesprochen nicht richtig. Worauf bezieht sich Deine Aussage? Single Core Performance, parallele Performance, Eignung für Echtzeitsysteme (=deterministische Antwortzeiten)?
Meine Kollegen von der Software nehmen jeden neuen Prozessor hinsichtlich der Eignung für unsere Echtzeitsysteme ausgiebig in die Mangel. So gerne wir AMD einsetzen würden, weisen die Systeme damit leider bisher einen für uns nicht akzeptablen Jitter auf, sodass es hier bis auf Weiteres bei Intel bleibt....
In dem Fall auf die Prozessorarchitektur. Wenn man sich alleine mal anschaut, wieviele Microcode-Updates Intel in den letzten Jahren liefern musste (Spectre, Meltdown, etc.) und wie oft bei Intel nachgebessert werden musste (und wie mies, langsam und intransparent teilweise der Prozess lief) dann kann man da durchaus eine gewisse Verschiebung sehen. Versteht mich nicht falsch, ich bin nicht explizit Fan von AMD, tatsächlich habe ich seit meinem Athlon keinen AMD Prozessor mehr gehabt. Aber die letzten Jahre hat AMD auch außerhalb des reinen Leistungs-/Taktbereich mehr als nur Achtungserfolge gezeigt, sondern meiner Meinung nach technologisch Führung. Allein dass Intel in Panik ihre Generationsplanung bzw. die Releases angepasst hat zeigt, dass die es auch so sehen. Ja, Intel hat mit der letzten Generation wieder aufgeschlossen. Aber ich würde zur Zeit die ausgereiften x570 Chipsets und die AM4 Plattform aufgrund der Stabilität gerade bei der CPU Anbindung über PCIe 4.0 lanes vorziehen.
Den gibt es sehr wohl. Die werden hauptsächlich in Geräten verbaut, die nur eine beschränkte Kühlkapazität haben. Die können nicht dauerhaft auf voller Leistung betrieben werden, da die Kiste sonst verbrennt. Daher ist die maximale Leistung der CPU Makulatur. Die muss gedrosselt werden. Und das verursacht dann Probleme.



Das stimmt. Aber sowohl Intel, als auch AMD werden heiss. Das bedeutet Aufwand für Kühlung. Je mehr Leistung, desto mehr Kühlung.

Das Problem haben die neuen Mx basierten Systeme von Apple nicht. Mal von der enormen Leistung abgesehen,, die sie liefern können.
Ja, das Thermobudget ist aber unabhängig von der Plattform ein limitierender Faktor. Mx basierte Systeme sind eine hervorragende Plattform, wenn man bereit ist den Lock-In und die Preise bei Apple zu akzeptieren, die Kühllösungen sind bei Apple aufgrund der relativen Einheitlichkeit der Systeme (und anderer Faktoren wie Metallgehäuse, die teils integriert werden) fast immer gut designt.
 
Bevor hier weiter über CPU Architekturen gefachsimpelt wird: welche Buffergröße kannst du denn einstellen?

Ich hatte mal ein Behringer getestet (allerdings war das ASIO4All) und da konnte ich nicht unter 128 samples. Rein beim Aufnehmen. Mit dem Focusrite Clarett und dem Antelope kann ich ohne Probleme 32 Samples zum Aufnehmen einstellen. Also der Treiber kann da schon einiges ausmachen.
 
Also der Treiber kann da schon einiges ausmachen.
Kann er... aber nicht unabhängig von Chipsatz und Interrupt-Verwaltung.
Und ab da wird die Sache schwer durchschaubar, weil die relevanten Daten kompliziert zu recherchieren sind und IRQs heute exklusiv vom Betriebssystem verwaltet werden.
(sehr stark vereinfachte Formulierung)
 
Da hilft dann wohl nur Ausprobieren ;)
 
Oder anders formuliert: es hat einen Grund, dass sich Anbieter auf das Konfigurieren von DAW Rechnern spezialisiert haben und sich das bezahlen lassen...
Am besten kennt man jemanden mit gut funktionierendem System und kopiert das quasi.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Bevor hier weiter über CPU Architekturen gefachsimpelt wird: welche Buffergröße kannst du denn einstellen?

Ich hatte mal ein Behringer getestet (allerdings war das ASIO4All) und da konnte ich nicht unter 128 samples. Rein beim Aufnehmen. Mit dem Focusrite Clarett und dem Antelope kann ich ohne Probleme 32 Samples zum Aufnehmen einstellen. Also der Treiber kann da schon einiges ausmachen.
Ich habe alle möglichen Kombinationen von Abtastraten ab 44,1 kHz, Puffergrößen und Safe-Mode an/aus probiert und lande immer im Bereich von etwa 5ms Ausgangslatenz. Wobei ich mit RTL Utility auch schon RTLs von bis zu geschlagenen 15ms gemessen habe, wo mir Reaper und Ableton Ein- und Ausgsangslatenzen gemeldet haben, die in Summe auch nur um die 9ms ergeben.

Das freie Tool DPC Latency Checker liefert Hinweise auf Schwachstellen im System.
Nachdem ich auch da verschiedene Kombinationen an Puffergrößen und Abtastraten probiert habe, bekomme ich immer das gleiche Ergebnis von ziemlich konstant 1ms mit (für meine Augen) sehr geringen Ausreißern nach oben und unten. Hier sind ein paar Ergebnisse mit LatencyMon:
128 Samples @48 kHz, Safe Mode an => Highest measured interrupt to process latency (μs): 345,0; nach 10 Minuten habe ich den Test beendet.
128 Samples @48 kHz, Safe Mode aus => Highest measured interrupt to process latency (μs): 1494,10; das war ein kurzer Spike nach ca. 4 Minuten. Auf die Empfehlung des Programms hin habe ich nachgeschaut, ob irgendwo Power Throttling aktiviert ist – tatsächlich war das schon bei allen Prozessen deaktiviert. Als nächstes schaue ich mal im BIOS nach, ob da irgendwelche Stromsparmaßnahmen versteckt sind.

Einer meiner Bandkollegen hat auch ein UMC404HD und seit Neustem ein MacBook Pro (M1 oder M1 Max, jedenfalls schnell ^^). Den wollte ich eigentlich schon mal fragen, was für Puffergrößen und Latenzen bei ihm drin sind. Aber der ist gerade im Urlaub.
 
Zuletzt bearbeitet:
Nehmen wir mal verbreitete Interfaces wie das Motu M4 oder Focusrite Scarlett 8i6:

Das Motu M4 ist besser, würde aber in der Serie nochmal ne Stufe höher gehen, weil da dann
nochmal bessere Komponenten verbaut sind, obwohl es so schon besser als Scarlett klingt.

Ultralite Mk5 ist auch gut, kost aber auch etwas mehr.

Fireface UC würde ich heute nicht mehr nehmen. Klar, bewehrte, aber alte Technik
mit extrem kühlen Wandlern. manche beschreiben sie als neutral, ich persönlich
finde hier, dass die neuen Motus besser klingen. Nicht so färbend, wie bspw Focusrite,
sondern ehrlich
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben