Was genau macht der "Soundkarten-Teil" des Interfaces?

  • Ersteller Stephan1980
  • Erstellt am
Stephan1980
Stephan1980
Registrierter Benutzer
Zuletzt hier
22.02.21
Registriert
06.04.04
Beiträge
832
Kekse
10.493
Ort
Göppingen
Hallo alle zusammen!

Mich selber interessiert es sehr und das Thema wird auch immer mal wieder in Threads am Rande angeschnitten.

Und zwar weiß ich mittlerweile ziemlich genau, was die Teile eines Interfaces machen. Also Preamps, Phantomspeisung, Adat-Eingänge, sonstige Eingäne, Wandler, Monitorregler usw. Was halt so alles beim Interface dabei ist.

Aber was genau macht der "Soundkarten-Part" des Interfaces? Er berechnet nix, er wandelt nix um...

Die einzigen Sachen, die ich bis jetzt kenne, sind irgendwas mit Synchronisieren mit Outboardequipment (was ich selber nicht brauche), Jitter-Unterdrückung (was ich, glaube ich, verstanden habe, was es ist) und DSP Mixer in der Soundkarte. Wobei ich ehrlich gesagt mir unter letzterem gar nichts vorstellen kann. Also ich kann mir nicht vorstellen, dass man, nachdem die Eingangssignale mal gewandelt sind und quasi "in den Rechner" laufen, dass man da noch einen hardwaremäßigen Mixer braucht. Wahrscheinlich ist da meine Vorstellung einfach falsch.

Würde mich sehr freuen, wenn jemand erklären könnte, was die Soundkarte denn so alles macht.

Mich interessiert es vor allem deshalb, weil die Kaufentscheidung für viele Leute wohl von den Preamps und Wandlern abhängen und dabei die Soundkarte an sich völlig vergessen wird.

Beste Grüße
Stephan
 
Eigenschaft
 
Mich interessiert es vor allem deshalb, weil die Kaufentscheidung für viele Leute wohl von den Preamps und Wandlern abhängen und dabei die Soundkarte an sich völlig vergessen wird.
:gruebel:
Also gute Treiber, Stabilität, Latenz ist doch durchaus ein Kriterium - in der Praxis vielleicht sogar das wichtigste, und wird hier ja auch durchaus betont. Eigentlich hast du doch schon etwas Erfahrung mit divesen Interfaces, mich wundert da jetzt etwas, dass du einen "Soundkarten-Teil" im Interface definieren willst. Ich weiß nicht, was du damit meinst. "Soundkarte" und "Interface" sind das gleiche. Du hast doch ein Tascam us-144 besessen und jetzt eine Audiophile2496, oder? Die M-Audio Karte ist genauso ein Interface wie das Tascam, wird halt nur per PCI angeschlossen und nicht per USB. Und die Austattung ist unterschiedlich. Vielleicht meinst du ja mit "Soundkarten-Teil" das, was ich in so Komponentendiagramme meist als "Computeranbindung" bezeichne. Also einfach der Teil, der mithilfe eines Treibers dafür sorgt, dass der vorliegende digitale Audiostrom in den Rechner gelangt und dort von einer Software aufgezeichnet werden kann.

Zum DSP-Mixer: Das ist der Monitormixer. Deine Audiophile hat doch auch einen solchen:
http://www.ixbt.com/multimedia/m-audio-audiophile/cp1.png
bzw. sieht der bei neueren Treiber so aus:
http://i1208.photobucket.com/albums/cc364/SweetLooper/M-Audio Screenshots/screenshots_01.jpg
Das ist quasi ein digitales Mischpult, dessen Kanäle sowohl alle Eingangssignale, wie auch alle vom Rechner kommenden Signale sind. Aus denen kann man sich dann einen beliebigen Mix erstellen und an den Ausgang schicken. Das ist halt dann das "Hardware Monitoring", "Direct Monitoring" oder "Zero Latency Monitoring". Also das, was beim Tascam us-144 (und den meisten USB-Interfaces in der Klasse) auf sehr einfache analoge Art mit dem MON MIX Regler gemacht wird. So ein DSP-Mixer ist da natürlich viel ausgefeiltelter und bei Interfaces mit mehreren Eingängen auch schon sehr angebracht - und ja auch fast überall standard. Wobei die Austattung unterscheidlich ist: der DSP-Mixer bei den M-Audio Delta Karten bietet nur die Möglichkeit, Lautstärke und Panorama der einzelnen Kanäle einzustellen. Manche teurere Interfaces dagegen haben z.B. auch noch Effekte integriert.
 
Der Soundkarten-Part ist einfach, dass Du was hören oder was aufnehmen kannst. Denn das ist der ursprüngliche Sinn einer Soundkarte. Das Wort Soundkarte wird auch nur von jenen Nutzer benutzt, die das Wort Interface nicht kennen bzw. das interne Teil Ihres PCs meinen.
 
Hm ,keine Ahnung, warum Ihr mich nicht versteht. Echt nicht. Dass Interface synonym mit Soundkarte verwendet wird, weiß ich natürlich. Trotzdem denke ich, dass man verstehen müsste, was ich damit meine.

Und ja, ich habe schon einige Erfahrung mit Interfaces, deshalb stelle ich ja auch keine doofen 08/15 Fragen, sondern welche, die ich für entscheidend halte und die auch eher schwierig zu beantworten sind.

Vielleicht wenn ichs anders beschreiben soll.

Ars, Du schreibst: "Also gute Treiber, Stabilität, Latenz ist doch durchaus ein Kriterium - in der Praxis vielleicht sogar das wichtigste, und wird hier ja auch durchaus betont."

Eben, und das hat alles nichts mit Preamps, Wandlern oder sonstigem zu tun! Sondern mit dem "SoundkartenANteil" des Interfaces. Aber wenn der "Soundkartenteil" eh nichts macht, warum ist das dann so krass schwierig für die ganzen Hersteller, so ein Teil stabil hinzubekommen, ordentliche Treiber zu bieten und die Latenz niedrig zu halten. Wo doch letztere sowieso nach allem was hier geschrieben wird zum größten Teil einfach nur von der Buffergröße abhängt und nur noch zusätzliche kleine Latenzen vom Interface erzeugt werden.
Anfängern wird doch hier auch immer wieder gesagt, dass die Latenz vom Rechner abhängt und sogar mit einer Onboardsoundkarte gut sein kann.
Aber bei meiner Frage jetzt, ist doch wieder plötzlich Latenz ein entscheidendes Interfacekriterium?

Oder noch anders gefragt, dass man mich doch nicht für völlig minderbemittelt hält:

Irgendwas muss doch eine RME HDSP 9653, die keinen einzigen Preamp drinnen hat und keinen einzigen Eingangswandler tatsächlich MACHEN, damit sie die über 500Eur wert ist. Also wenn das Rumleiten von ein paar Signalen und das fertige Signal zu den Monitoren wandeln, das Einzige ist, was die macht, dann würde ich mich schon sehr wundern.

Oder zahlt man da 200Eur für die Karte und 300Eur für die stabilen Treiber?
 
Eben, und das hat alles nichts mit Preamps, Wandlern oder sonstigem zu tun! Sondern mit dem "SoundkartenANteil" des Interfaces
Ok, nur sagtest du, dass das angeblich nicht berücksichtig wird bei der Suche/Kaufberatung/Entscheidungsfindung, während ich eben sagen wollt, dass diese Aspekte durchaus Thema sind.

Wo doch letztere sowieso nach allem was hier geschrieben wird zum größten Teil einfach nur von der Buffergröße abhängt und nur noch zusätzliche kleine Latenzen vom Interface erzeugt werden.
Moment - der direkte Zusammenhang zwischen Puffergröße und Latenz ist klar. Aber es geht ja darum, welche Latenz man in der Praxis erreichen kann (hab ich glaube ich auch so in meinen Latenz-Artikel geschrieben). Also es geht halt um die Frage, ob ich mit 32 Samples Puffergröße fehlerfrei arbeiten kann, oder erst mit 1024. Das mit den "zusätzlichen kleinen Latenzen vom Interface" hatte ich ja aufgrund von meiner Erfahrung mir Onboard-Sound und PCI-Karte in dem Artikel so geschrieben, aber du hattest mich dann auch noch drauf aufmerksam gemacht, dass diese vom ASIO-Puffer unabhängige Latenz des Interfaces bei USB-Interfaces durchaus noch einen recht großen Anteil an der Gesamtlatenz haben kann.

Anfängern wird doch hier auch immer wieder gesagt, dass die Latenz vom Rechner abhängt und sogar mit einer Onboardsoundkarte gut sein kann. Aber bei meiner Frage jetzt, ist doch wieder plötzlich Latenz ein entscheidendes Interfacekriterium?
Also direkt vom Rechner (im Sinn von Leistung) wird eigentlich nirgendswo behaupet, und wenn versuche ich das dann oft zu korrigieren. Und Latenz ist durchaus ein Entscheidungskritierum beim Interface, also das Gegenteil habe ich eigentlich auch nie behauptet. Aber die Tatsache, dass da Onboard-Soundkarten teils gut abschneidet, sollte nicht als "Sogar mit Onboard-Soundkarten lassen sich kleine Latenzen nutzen, mit Recordinginterfaces dann natürlich erst recht" interpretiert werden. Stattdessen sehe ich Onboard-Soundkarten bezüglich der "zusätzlichen Latenz" tatsächlich gegenüber USB-Interfaces im Vorteil.

Irgendwas muss doch eine RME HDSP 9653, die keinen einzigen Preamp drinnen hat und keinen einzigen Eingangswandler tatsächlich MACHEN, damit sie die über 500Eur wert ist.
Ein Produkt ist immer soviel wert wie Leute dafür bereit sind zu zahlen ;)

Oder zahlt man da 200Eur für die Karte und 300Eur für die stabilen Treiber?
Nur für die Treiber vielleicht nicht. Ich weiß auch nicht genau, was RME da nun macht. Es macht wohl einfach auch viel aus, dass da ordentlich optimiert wird. Die Bauteile die in einem Interfaces stecken sind an sich Massenware, und diese ganz billigen Interfaces bedienen sich da wahrscheinlich einfach im Regal, klatschen das zusammen, kümmern sich nicht groß um Treiber (weil auch standardisiert), und verkaufen das dann. RME dagegen wird bewusst Teile auswählen, optimieren, anpassen, Treiber entsprechend programmieren usw. Irgendwo stand bei den mal im Werbetext "ASIO in Hardware gegossen - 0% CPU Belastung". Kann ich mir jetzt auch nicht viel drunter vorstellen. Und zumindest bei den neueren externen Interfaces stecken wohl jeweils getrennte Firmwares für Windows und OS X - also auch da optimiert.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
ich glaub, hier herrscht ziemliches Sprachwirrwarr bzw. Ausdrücke werden vermischt und falsch interpretiert.

Soundkarte ist das ganze Ding, ob intern oder extern, das für Sound-Ein und Ausgabe zuständig ist, der Begriff Interface ist eher ein Oberbegriff für das ganze. Interface heißt nichts anderes als Schnittstelle, das kann für alle Arten von Signalen gelten, die USB-Schnittstelle ist also auch ein Interface. Richtig müsste das also Audio-Interface heißen.

Ein Audio-Interface besteht im Grunde immer aus den folgenden Baugruppen:

- Schnittstelle für die Kommunikation mit dem Computer, also USB-, Fire-Wire-, PCI(e)- oder was auch immer

Der Treiber stellt die Kommunikation zwischen dieser Schnittstelle und der Software im Rechner her.

danach kommt dann je nach Ausstattung

- Analog-Digital-Wandler für die Aufnahme von Signalen
- Digital-Analog-Wandler für die Wiedergabe von Signalen
- Digitale-Schnittstelle für SP/DIF Ein-/Ausgabe
- Digitale-Schnittstelle für ADAT
- MIDI-Schnittstelle
- Clock-Generator für AD/DA-Wandler und Synchronisier-Logik für ADAT

und es können noch folgende Baugruppen hinzu kommen

- Vorverstärker für Mikro
- Impedanzwandler für HighZ-Gitarreneingang
- Kopfhörerverstärker
- Spannungswandler für Phantomspeisung
- Kreuzschienen Logik (Matrix) für die Zuordnung von Ein- und Ausgangs-Kanälen
- DSP-Prozessor für Funktionen ohne PC und für Effekte
- sonstige Spielereien, die den Herstellern so eingefallen sind

In jeder dieser Gruppen können nun unterschiedlich hochwertige Bausteine verwendet werden, was sich dann letztlich neben der Qualität auch im Preis niederschlägt.

Die RME HDSP 9652 ist halt 'nur' eine sehr leistungsfähige Schnittstelle mit ADAT, Clock und MIDI. Ob der Preis nun gerechtfertigt ist oder nicht, muß jeder für sich selbst entscheiden, da steckt halt eine Menge Entwicklungsarbeit drin und es ist kein Massenprodukt, so dass diese Entwicklungskosten auf eine kleinere Stückzahl umgelegt werden müssen. Der Baustein für die Schnittstelle ist zB eine Eigenentwicklung von RME, der ist sehr auf optimale Leistung getrimmt, was ihn teurer macht, als irgendein 0815 Standard-Chip. Auch die Treiber sind exakt darauf abgestimmt und optimiert - das hat alles auch seinen Preis...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 4 Benutzer
Irgendwo stand bei den mal im Werbetext "ASIO in Hardware gegossen - 0% CPU Belastung". Kann ich mir jetzt auch nicht viel drunter vorstellen.

Jo, genau dieser eine Satz ist so interessant! Denn unter dem kann ich mir sogar rein GAR NICHTS vorstellen. Der Satz war sogar einer der Hauptgründe, wie ich zu der Fragestellung "was macht die Soundkarte eigentlich" gekommen bin.

Muss ich mich wohl damit begnügen, dass ein Interface, außer Zeugs wie Preamps und Wandler bieten, nichts anderes macht als Signale hin und herzuschicken und dann halt noch eine Software liefert, wo man diese Signale lauter und leiser machen kann.

Dann liegt der Riesenklangunterschied vom Tascam zur Audiophile wahrscheinlich doch an den Ausgangswandlern. :D

Und Jitterausgleich ist wahrscheinlich eine Urbane Legende für Freaks, die sich tatsächlich so sehr eingelesen haben, dass sie wissen, dass die absolute Latenz weniger ausschlagebend ist als die Latenz-Schwankungen.

Zu dem, was Du noch schreibst:

Ich: "Eben, und das hat alles nichts mit Preamps, Wandlern oder sonstigem zu tun! Sondern mit dem "SoundkartenANteil" des Interfaces"
Du: "Ok, nur sagtest du, dass das angeblich nicht berücksichtig wird bei der Suche/Kaufberatung/Entscheidungsfindung, während ich eben sagen wollt, dass diese Aspekte durchaus Thema sind."

Ja ich weiß ja was Du meinst. Aber die Stabilität und die Treiber, das sind ja alles SOFTWARE-Sachen, welche die Soundkarte ansprechen. Eben nicht die Soundkarte selber. Und JA, die Leute checkens immer mehr, dass diese Themen wichtig sind, was ich auch toll finde. Aber wenn die Treiber so entscheidend sind, dann müssen die doch mehr machen als nur eine simple Hardware ansprechen, die ein paar Signale hin und herschickt. Da muss doch noch mehr in der Soundkarte passieren, dass das so ne riesen aufwendige Geschichte ist, einen gescheiten Treiber zu programmieren.

Du: "Moment - der direkte Zusammenhang zwischen Puffergröße und Latenz ist klar. Aber es geht ja darum, welche Latenz man in der Praxis erreichen kann (hab ich glaube ich auch so in meinen Latenz-Artikel geschrieben). Also es geht halt um die Frage, ob ich mit 32 Samples Puffergröße fehlerfrei arbeiten kann, oder erst mit 1024"

Ja das klar, das ist ja einer der ersten Meilensteine, die man blicken muss auf dem Weg zum Verständnis der Latenz. Eigentlich kann man ja egal mit welchem System (fast) immer eine mega niedrige Latenz einstellen. Nur kann es dann halt sein, dass es Aussetzer gibt. ABER nach tausend Jahren Musikerboard, weiß ich, dass es eben dann eher nicht am Interface liegt, sondern daran, ob die CPU diese niedrig eingestellte Buffersize ohne Aussetzer verarbeiten kann. Der Soundkarte ist es doch schnurzpiepegal, ob das aufwendigste East West Quantum Leap VSTi auf einer Cubasespur liegt.

Du: "aber du hattest mich dann auch noch drauf aufmerksam gemacht, dass diese vom ASIO-Puffer unabhängige Latenz des Interfaces bei USB-Interfaces durchaus noch einen recht großen Anteil an der Gesamtlatenz haben kann."

Tja, ja das war eine krasse Geschichte. Du hast Dich ja auch damals immer wieder über meine Fragen "gewundert" , obwohl ich doch schon irgendwas weiß. Ich versteh das echt nicht. Mir erscheinen alle meine Fragen total durchdacht und intelligent und super formuliert und vor schmerzlicher Erfahrung sprühend und entscheidend und so weiter.

Das Ding ist halt, dass die extremen Latenzen, die ich mit Toneport und Tascam hatte, auch wenn es mir niemand glaubt, an einem fiesen IRQ Sharing Problem lagen. Nachdem ich das behoben hatte, (und schon deshalb betrachte ich mich nicht mehr als Noob. ich will mal jemanden sehen, der wie ich null Ahnung von PCs hatte und dann selber das Problem erkennt OHNE Vergleichsmöglichkeiten/Erfahrungswerte zu haben und es dann auch noch zu lösen) waren die Latenzen gefühlt um den Faktor 5000 besser.
Allerdings haben die Treiber weiterhin diese unglaublich hohen Latenzen angezeigt, während ich mit der Methode "Ausgang und Eingang verbinden und mit Programm die Latenz messen" ja eine viel niedrigere Latenz angezeigt bekam. Aber Du meintest ja, das ist egal, was da angezeigt wird.

Im Endeffekt kann ich so nicht mal wirklich was zu den Latenzen der beiden USB Interfaces sagen, weil die Treiberwerte 100% falsch sind und ich mit dem Tascam eh nichts mehr machen konnte, weil das Drecksding immer den Stereomix wiederaufgenommen hat.

Du: "Stattdessen sehe ich Onboard-Soundkarten bezüglich der "zusätzlichen Latenz" tatsächlich gegenüber USB-Interfaces im Vorteil."

Ja, sehe ich ja ein. Wundere mich, dass das so rüberkam als sehe ich das nicht selbst so. Ich meine, mir ist das klar, weil ja OnboardSound und CPU viel besser miteinander kommunizieren können als ein USB Interface und CPU.

Aber eigentlich sollte es dann ja z.B für jemanden, der ausschließlich mit VST Instrumenten arbeitet, nicht einen einzigen Grund geben, sich z.B. ein Tascam US144 oder Toneport oder vergleichbares zu kaufen. Die klingen schließlich haargenau gleich wie der Onboard-Müll.

Edit: gepostet bevor ich picos Beitrag gelesen habe.
 
Dann liegt der Riesenklangunterschied vom Tascam zur Audiophile wahrscheinlich doch an den Ausgangswandlern.
Ja, wahrscheinlich :)

Aber die Stabilität und die Treiber, das sind ja alles SOFTWARE-Sachen, welche die Soundkarte ansprechen. Eben nicht die Soundkarte selber.
Es geht aber ja auch immer um das zusammenspiel von Treibern und Hardware.

ABER nach tausend Jahren Musikerboard, weiß ich, dass es eben dann eher nicht am Interface liegt, sondern daran, ob die CPU diese niedrig eingestellte Buffersize ohne Aussetzer verarbeiten kann. Der Soundkarte ist es doch schnurzpiepegal, ob das aufwendigste East West Quantum Leap VSTi auf einer Cubasespur liegt.
Das Problem mit Latenz und den Knacksern bei zu niedrigen puffern hat man aber auch, wenn man überhaupt kein Effekt nutzt. Das knacksen tritt ja nicht erst dann auf, wenn die CPU-Auslastung auf 100% ist. Also auch eine schnelle CPU hilft nicht unbedingt, im gegenzug kann ich mit meinen altem lahmen Rechner auch mit sehr kleinen Puffern arbeiten.

Tja, ja das war eine krasse Geschichte. Du hast Dich ja auch damals immer wieder über meine Fragen "gewundert" , obwohl ich doch schon irgendwas weiß. Ich versteh das echt nicht. Mir erscheinen alle meine Fragen total durchdacht und intelligent und super formuliert und vor schmerzlicher Erfahrung sprühend und entscheidend und so weiter.
Sorry, ich wollte dir zu keinem Zeitpunkt irgendwie als doof oder verpeilt darstellen :redface:

Das Ding ist halt, dass die extremen Latenzen, die ich mit Toneport und Tascam hatte, auch wenn es mir niemand glaubt, an einem fiesen IRQ Sharing Problem lagen. Nachdem ich das behoben hatte, (und schon deshalb betrachte ich mich nicht mehr als Noob. ich will mal jemanden sehen, der wie ich null Ahnung von PCs hatte und dann selber das Problem erkennt OHNE Vergleichsmöglichkeiten/Erfahrungswerte zu haben und es dann auch noch zu lösen) waren die Latenzen gefühlt um den Faktor 5000 besser.
Das ist in der Tat interessant zu hören. Ich bin ja auch alles andere als allwissend oder unfehlbar - ich bemühe mich wirklich in der Regel auch darauf hinzuweisen und meine eigenen Grenzen zu sehen. Übrigens entstand meine intensive beschäftigung mit dem Thema Latenz (die dann auch zu diesem Artikel führte) auch durch Neugier, weil hier immer soviel über das Thema erzwählt wurde, wobei ich den Eindruck hatte, dass viele gar nicht wissen, was sie da schreiben. Aber ich hatte damals auch noch kaum eine Ahnung von dem Thema - hab mich dann aber eben rangesetzt, Messung gemacht, ausprobiert, verglichen usw. Weil ich die Zusammenhänge verstehen wollte.

Allerdings haben die Treiber weiterhin diese unglaublich hohen Latenzen angezeigt, während ich mit der Methode "Ausgang und Eingang verbinden und mit Programm die Latenz messen" ja eine viel niedrigere Latenz angezeigt bekam. Aber Du meintest ja, das ist egal, was da angezeigt wird.
Das wiederum lässt sich in der Tat ganz einfach erklären, weil die angezeigten Latenzen vom Treiber kommen. Also Tascam hat beim schreiben der Treiber definiert "Wenn man diesen und jenen Latenzwert einstellt, soll in Cubase dieser oder jener Wert angezeigt werden". Mit ASIO4ALL kann man ja durch den Latenzausgleichregler einfach selber beliebig einstellen, welcher Latenzwert da in der Audiosoftware angezeigt werden soll. Zumindest behaupte ich das jetzt mal so pauschal aus meinen Erfahrungen :D Wenn du mir sagst, dass bei dem Tascam trotz gleicher Latenzeinstellungen mal dieser oder mal jener wert in der DAW angezeigt wird, dann verstehe ich das auch nicht mehr :redface:

Der Baustein für die Schnittstelle ist zB eine Eigenentwicklung von RME, der ist sehr auf optimale Leistung getrimmt, was ihn teurer macht, als irgendein 0815 Standard-Chip.
Ja, stimmt, das las ich auch, und sowas meinte ich ja eben vorher auch schon. Andere bedienen sich dab bei so einem USB oder FireWire-Chip auch einfach billig im Regal, während RME da selber was für Audioanwendungen optimales entwickelt hat.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Irgendwo stand bei den mal im Werbetext "ASIO in Hardware gegossen - 0% CPU Belastung". Kann ich mir jetzt auch nicht viel drunter vorstellen.
Jo, genau dieser eine Satz ist so interessant! Denn unter dem kann ich mir sogar rein GAR NICHTS vorstellen. Der Satz war sogar einer der Hauptgründe, wie ich zu der Fragestellung "was macht die Soundkarte eigentlich" gekommen bin.
...
Und Jitterausgleich ist wahrscheinlich eine Urbane Legende für Freaks, die sich tatsächlich so sehr eingelesen haben, dass sie wissen, dass die absolute Latenz weniger ausschlagebend ist als die Latenz-Schwankungen.

Dann versuch ich das auch mal etwas aufzuklären - man kann zB einen Zähler für Impulse per Software machen, aber man kann auch eine Hardware dafür verwenden. Das Besipiel hat jetzt nichts direkt mit ADAT zu tun, aber es macht es vielleicht verständlicher. Bei ADAT ist es stark Qualitätsbeeinflussend, wie gut und präzise der Takt (Clock) für die Wandler ist. 'Flattert' dieser Clock etwas (Jitter) oder ist es kein sauberes Rechteck-Signal, dann wird auch die Wandlung etwas 'unscharf' - etwa zu vergleichen mit dem Bildrauschen bei Kamerachips. Hier hat nun RME einen Logikchip entwickelt, der all diese Funktionen beinhaltet und ohne externe Software auskommt, dadurch ist er halt entsprechend schnell im Vergleich zu sonstigen Hard-/Software-Lösungen - etwa vergleichbar mit einem 3D-Grafikchip auf der Grafikkarte, der halt auch viel schneller arbeitet als eine Software, weil er genau für diese Aufgabe spezialisiert ist.

Alles was per Hardware realisiert ist, muss nicht in Form von Daten vom Rechner über die Schnittstelle transportiert werden und es muss dann da auch nicht auf eine zeitliche Abstimmung auf den Rest der Kommunikation Rücksicht genommen werden und der Prozessor im Rechner wird entsprechend entlastet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 2 Benutzer
ich glaub, hier herrscht ziemliches Sprachwirrwarr bzw. Ausdrücke werden vermischt und falsch interpretiert.

Soundkarte ist das ganze Ding, ob intern oder extern, das für Sound-Ein und Ausgabe zuständig ist, der Begriff Interface ist eher ein Oberbegriff für das ganze. Interface heißt nichts anderes als Schnittstelle, das kann für alle Arten von Signalen gelten, die USB-Schnittstelle ist also auch ein Interface. Richtig müsste das also Audio-Interface heißen.

Ein Audio-Interface besteht im Grunde immer aus den folgenden Baugruppen:

- Schnittstelle für die Kommunikation mit dem Computer, also USB-, Fire-Wire-, PCI(e)- oder was auch immer

Der Treiber stellt die Kommunikation zwischen dieser Schnittstelle und der Software im Rechner her.

danach kommt dann je nach Ausstattung

- Analog-Digital-Wandler für die Aufnahme von Signalen
- Digital-Analog-Wandler für die Wiedergabe von Signalen
- Digitale-Schnittstelle für SP/DIF Ein-/Ausgabe
- Digitale-Schnittstelle für ADAT
- MIDI-Schnittstelle
- Clock-Generator für AD/DA-Wandler und Synchronisier-Logik für ADAT

und es können noch folgende Baugruppen hinzu kommen

- Vorverstärker für Mikro
- Impedanzwandler für HighZ-Gitarreneingang
- Kopfhörerverstärker
- Spannungswandler für Phantomspeisung
- Kreuzschienen Logik (Matrix) für die Zuordnung von Ein- und Ausgangs-Kanälen
- DSP-Prozessor für Funktionen ohne PC und für Effekte
- sonstige Spielereien, die den Herstellern so eingefallen sind

In jeder dieser Gruppen können nun unterschiedlich hochwertige Bausteine verwendet werden, was sich dann letztlich neben der Qualität auch im Preis niederschlägt.

Die RME HDSP 9652 ist halt 'nur' eine sehr leistungsfähige Schnittstelle mit ADAT, Clock und MIDI. Ob der Preis nun gerechtfertigt ist oder nicht, muß jeder für sich selbst entscheiden, da steckt halt eine Menge Entwicklungsarbeit drin und es ist kein Massenprodukt, so dass diese Entwicklungskosten auf eine kleinere Stückzahl umgelegt werden müssen. Der Baustein für die Schnittstelle ist zB eine Eigenentwicklung von RME, der ist sehr auf optimale Leistung getrimmt, was ihn teurer macht, als irgendein 0815 Standard-Chip. Auch die Treiber sind exakt darauf abgestimmt und optimiert - das hat alles auch seinen Preis...


Ok , dann ist es jetzt vollkommen klar. Das, was ich mit Soundkartenteil gemeint habe, ist also die Schnittstelle.

Ich dachte mir halt so, ich könnte mir fast alles als externes Equipment einzeln kaufen, also das was Du, pico aufzählen tust:
- Impedanzwandler für HighZ-Gitarreneingang
- Kopfhörerverstärker
- Spannungswandler für Phantomspeisung
- Kreuzschienen Logik (Matrix) für die Zuordnung von Ein- und Ausgangs-Kanälen
- DSP-Prozessor für Funktionen ohne PC und für Effekte
...

Hätte dann aber noch KEiN Interface.ICh hab mich halt gefragt, was dann noch fehlt und hab das den Soundkartenteil genannt. Jetzt weiß ichs ja besser. Danke schön! Das was dann also noch fehlt ist die Schnittstelle. Und ich dachte mir halt, dass die mehr macht, als nur Signale hin und herschicken.

Dann versuch ich das auch mal etwas aufzuklären - man kann zB einen Zähler für Impulse per Software machen, aber man kann auch eine Hardware dafür verwenden. Das Besipiel hat jetzt nichts direkt mit ADAT zu tun, aber es macht es vielleicht verständlicher. Bei ADAT ist es stark Qualitätsbeeinflussend, wie gut und präzise der Takt (Clock) für die Wandler ist. 'Flattert' dieser Clock etwas (Jitter) oder ist es kein sauberes Rechteck-Signal, dann wird auch die Wandlung etwas 'unscharf' - etwa zu vergleichen mit dem Bildrauschen bei Kamerachips. Hier hat nun RME einen Logikchip entwickelt, der all diese Funktionen beinhaltet und ohne externe Software auskommt, dadurch ist er halt entsprechend schnell im Vergleich zu sonstigen Hard-/Software-Lösungen - etwa vergleichbar mit einem 3D-Grafikchip auf der Grafikkarte, der halt auch viel schneller arbeitet als eine Software, weil er genau für diese Aufgabe spezialisiert ist.

Alles was per Hardware realisiert ist, muss nicht in Form von Daten vom Rechner über die Schnittstelle transportiert werden und es muss dann da auch nicht auf eine zeitliche Abstimmung auf den Rest der Kommunikation Rücksicht genommen werden und der Prozessor im Rechner wird entsprechend entlastet.

Cool, vielen Dank für die ausführliche Erklärung. Genauso was hab ich eigentlich mit der Ausgangs-Frage gemeint!

Mit dem Jitter hab ich allerdings was anderes gemeint. (was völlig egal ist, weil genau sowas wie Du geschrieben hast, hatte ich mir als Antwort erhofft).

Ich dachte aber an den Midi-Jitter, also dass beim Spielen eines VSTi die Latenz schwanken tut. Ich hatte das so verstanden, dass selbst wenn eine Latenz von z.B. 20ms vorliegt, dass z.B. bei einem Ton, den man "am Ende eines Buffers" spielt, die Latenz dann auch 2ms sein kann. Vielleicht stimmen die Fachausdrücke von mir nicht, aber der Sinn kommt vielleicht trotzdem rüber. Der Rechner arbeitet ja "Pakete" ab, die halt so groß sind, wie man den Buffer eben einstellt. Und je nachdem an welcher Stelle des "Pakets" man einen Ton anschlägt, ist die Latenz verschieden. Je nachdem, ob man am Anfang des Paketes oder am Endes des Paketes anschlägt.

Da manche Soundkarten wohl irgendwie in der Lage sind, diese Latenzschwankungen auszugleichen, bin ich halt davon ausgegangen, dass das schon mächtige Dinger sind. Sonst könnten sie ja nicht so tief in das Geschehen eingreifen.

Danke an Alle außer Parsival für die Antworten. Ich glaube, ich merke aber die Recording Pause von einigen Monaten war nicht lang genug.
 
Ich hatte das so verstanden, dass selbst wenn eine Latenz von z.B. 20ms vorliegt, dass z.B. bei einem Ton, den man "am Ende eines Buffers" spielt, die Latenz dann auch 2ms sein kann. Vielleicht stimmen die Fachausdrücke von mir nicht, aber der Sinn kommt vielleicht trotzdem rüber. Der Rechner arbeitet ja "Pakete" ab, die halt so groß sind, wie man den Buffer eben einstellt. Und je nachdem an welcher Stelle des "Pakets" man einen Ton anschlägt, ist die Latenz verschieden. Je nachdem, ob man am Anfang des Paketes oder am Endes des Paketes anschlägt.

nein, der Buffer arbeitet als sogenannter FIFO = First In First Out. Das heißt, dass der Datenstrom zwar in Pakete zerhackt wird, aber es ist trotzdem ein kontinuierlicher Datenstrom, der von der Taktfrequenz des Wandlers synchronisiert wird (Samplingrate).

Bei MIDI bzw. genauer, beim Einsatz von VSTi, kommt noch eine Zeit hinzu, die vom VSTi benötigt wird, um die Daten für den Sound bereit zu stellen - also Sound synthetisieren oder Sample laden.

Da die Audio- und MIDI-Daten bei einem Audio-Interface mit MIDI-Schnittstelle über die gleiche Schnittstelle zum/vom Rechner transportiert werden müssen, kann es hier in ungünstigen Fällen zu einem zeitlichen Versatz der MIDI-Daten kommen, da die Audio-Daten eine höhere Priorität haben. Auch hier spielt es eine entscheidende Rolle, wie gut die Schnittstelle konstruiert wurde und wie gut der Treiber geschrieben ist und wie groß der Audio-Buffer eingestellt ist.
 
nein, der Buffer arbeitet als sogenannter FIFO = First In First Out. Das heißt, dass der Datenstrom zwar in Pakete zerhackt wird, aber es ist trotzdem ein kontinuierlicher Datenstrom, der von der Taktfrequenz des Wandlers synchronisiert wird (Samplingrate).

Bei MIDI bzw. genauer, beim Einsatz von VSTi, kommt noch eine Zeit hinzu, die vom VSTi benötigt wird, um die Daten für den Sound bereit zu stellen - also Sound synthetisieren oder Sample laden.

Da die Audio- und MIDI-Daten bei einem Audio-Interface mit MIDI-Schnittstelle über die gleiche Schnittstelle zum/vom Rechner transportiert werden müssen, kann es hier in ungünstigen Fällen zu einem zeitlichen Versatz der MIDI-Daten kommen, da die Audio-Daten eine höhere Priorität haben. Auch hier spielt es eine entscheidende Rolle, wie gut die Schnittstelle konstruiert wurde und wie gut der Treiber geschrieben ist und wie groß der Audio-Buffer eingestellt ist.

Ist bestimmt alles wichtig, aber das meine ich nicht. :D

Ich meine tatsächlich die Latenzschwankungen, die durch die Asio-Doppelpuffermethode entstehen, je nachdem an welcher Stelle von Puffer 1 oder Puffer 2 man eine Keyboard-Taste drückt, dauert es entweder kurz oder lang bis die Daten des gespielten Tons in den anderen Puffer kopiert und dann abgespielt werden. Grundsätzlich mal ein reines Asioproblem. Ich war mir aber sicher auch schon gelesen zu haben, dass es speziell dafür Vorrichtungen in einigen Soundkarten geben soll. Und wie DAS funktionieren soll, dass die Soundkarte halt direkt in die Asio-Doppelpuffer- Methode eingreifen soll, kann ich mir halt nicht vorstellen.

Hatte es vorher aber tatsächlich falsch geschrieben, die Latenz schwankt nicht unterhalb des "normalen" Latenz-Wertes, sondern immer oberhalb.
 
wenn man wortklauberei betreibt, müsste man auch zwischen audiokarte und soundkarte unterscheiden (letztere besitzt einen klangerzeuger)

zum thema buffer-methode: ein weiterer vorteil von core audio, das mit seinem variablen ringbuffer stabil mit geringst möglicher latenz arbeitet
 
danach kommt dann je nach Ausstattung

- Analog-Digital-Wandler für die Aufnahme von Signalen
- Digital-Analog-Wandler für die Wiedergabe von Signalen
- Digitale-Schnittstelle für SP/DIF Ein-/Ausgabe
- Digitale-Schnittstelle für ADAT
- MIDI-Schnittstelle
- Clock-Generator für AD/DA-Wandler und Synchronisier-Logik für ADAT



Um nur mal zwei Sachen aufzugreifen:

MIDI ist MIDI, und Audio ist Audio. Ein Audio-Interface besitzt nicht zwingend eine MIDI-Schnittstelle, dann wär's ja auch ein Audio-MIDI-Interface ;)

Ein sehr wichtiges Bauteil wurde vergessen: Die analogen Filter der Ein- und der Ausgangsstufe.



Desweiteren ist die Bezeichnung Wandler nicht richtig, denn es wird umgestzt und nicht gewandelt. Ein Wandler arbeitet bspw. nach dem Prinzip "1x = 2y" oder "100€ = 90$" und so funktioniert ein gewöhnlicher Delta-Sigma-Umsetzer eben nicht, sprich es gibt keine fixe Zuordnung von analogem Spannungsert zu digitalem Bitwort.



Und auch nochmal zur Soundkarten-Geschichte: Die erste Hardware die in einem Home-Desktop-Rechnersystem zum Einsatz kam und irgendwas mit "Audio" zu tun hatte hatte die Aufgabe Klänge von Spielen zu generieren und auszugeben. Diese Hardware erzeugte also Sounds und nannte sich Soundkarte. Die Klangerzeugung erfolgte dabei mittels eines GeneralMIDI-fähigen (Wavetable-)Synths - und war von sehr bescheidener Qualität.

Als es möglich wurde auch in kleineren Setups Musik rechner-basiert zu produzieren, bzw, zunächst vornehmlich aufzunehmen (HD-Recording), und dazu keine sehr hochpreisigen DSP-Plattformen mehr nötig waren, kamen die "Recording-Karten" auf den Markt die auf eine interne Klangerzeugung verzichteten und das Augenmerk auf möglichst hohe Aufnahme- und Wiedergabequalität gelegt.
 
wenn man wortklauberei betreibt, müsste man auch zwischen audiokarte und soundkarte unterscheiden (letztere besitzt einen klangerzeuger)

zum thema buffer-methode: ein weiterer vorteil von core audio, das mit seinem variablen ringbuffer stabil mit geringst möglicher latenz arbeitet

Coole Sache! :great: Weißt Du zufällig, ob es hardwareseitige Lösungen in Interfaces gibt, die in irgendeiner Weise gegen das Asio-Doppelpuffer Problem "vorgehen" können? Ich meine, ich hab da mal was gelesen, bin aber leider nicht mehr sicher.


Um nur mal zwei Sachen aufzugreifen:

MIDI ist MIDI, und Audio ist Audio. Ein Audio-Interface besitzt nicht zwingend eine MIDI-Schnittstelle, dann wär's ja auch ein Audio-MIDI-Interface ;)

Deswegen schreibt pico ja auch: "danach kommt je nach Ausstattung" :)

Ein sehr wichtiges Bauteil wurde vergessen: Die analogen Filter der Ein- und der Ausgangsstufe.



Desweiteren ist die Bezeichnung Wandler nicht richtig, denn es wird umgestzt und nicht gewandelt. Ein Wandler arbeitet bspw. nach dem Prinzip "1x = 2y" oder "100€ = 90$" und so funktioniert ein gewöhnlicher Delta-Sigma-Umsetzer eben nicht, sprich es gibt keine fixe Zuordnung von analogem Spannungsert zu digitalem Bitwort.



Und auch nochmal zur Soundkarten-Geschichte: Die erste Hardware die in einem Home-Desktop-Rechnersystem zum Einsatz kam und irgendwas mit "Audio" zu tun hatte hatte die Aufgabe Klänge von Spielen zu generieren und auszugeben. Diese Hardware erzeugte also Sounds und nannte sich Soundkarte. Die Klangerzeugung erfolgte dabei mittels eines GeneralMIDI-fähigen (Wavetable-)Synths - und war von sehr bescheidener Qualität.

Als es möglich wurde auch in kleineren Setups Musik rechner-basiert zu produzieren, bzw, zunächst vornehmlich aufzunehmen (HD-Recording), und dazu keine sehr hochpreisigen DSP-Plattformen mehr nötig waren, kamen die "Recording-Karten" auf den Markt die auf eine interne Klangerzeugung verzichteten und das Augenmerk auf möglichst hohe Aufnahme- und Wiedergabequalität gelegt.

Sehr interessant, too! :great: Aber dass das keine Wandler sein sollen, verwundert mich jetzt doch sehr. Immerhin heißt es in allen Manuals und tests immer Wandler/ Converter. Ist das so ne Sache, wie alle Leute Platzangst sagen, wenn sie eigentlich Klaustrophobie meinen? Kann mir das irgendwie nicht vorstellen.

Oh und wär voll cool, wenn Du ganz kurz auf die analogen Filter eingehen könntest. ^^ Was machen die denn?
 
Ist das so ne Sache, wie alle Leute Platzangst sagen, wenn sie eigentlich Klaustrophobie meinen? Kann mir das irgendwie nicht vorstellen.

So könnte man's beschreiben, eine falsche Übersetzung die sich eingebürgert hat.


Oh und wär voll cool, wenn Du ganz kurz auf die analogen Filter eingehen könntest. ^^ Was machen die denn?

Ok, während der eigentliche Umsetzungsprozess relativ einfach ist, ist die Funktion der Filter-Sektionen etwas komplexer, ich versuch's mal in kurz:

Vom Nyquist-Theorem (bzw. der Nyquist-Frequenz) hast Du bestimmt schonmal gehört. Dieses besagt das nur Frequenzen sauber abgebildet werden können die halb so hoch liegen, wie die Abtastfrequenz.

Bei einer Abtastfrequenz von 44.1 kHz liegt die N-Frequenz also bei 22.05 kHz, da drüber existiert nun aber auch noch ein Bereich nicht sauber abgebildeter Frequenzen aka Schmutz und der muss weg. Das wird mittels Tiefpassfilter erreicht die je nach Qualität mehr oder minder steil ausfallen und beim Filtern mehr oder minder starke Verzerrungen produzieren.

Einer von zwei Vorteilen eine höhere Abtastfrequenz zu nutzen als 44.1 kHz auch wenn's am Ende doch eine Audio-CD werden soll ist, dass in diesem Fall das Filter höher ansetzen kann und somit dessen eventuell erzeugten Verzerrungen weiter nach oben und somit auch weiter weg von der Hörschwelle verlagert werden. das ist aber schon wieder ein bereich in dem sich's herrlich streiten lässt. :)
 
wenn man wortklauberei betreibt, müsste man auch zwischen audiokarte und soundkarte unterscheiden (letztere besitzt einen klangerzeuger)

zum thema buffer-methode: ein weiterer vorteil von core audio, das mit seinem variablen ringbuffer stabil mit geringst möglicher latenz arbeitet

yup - an die meist Wabetable basierenden Klangerzeuger hab ich gar nicht mehr gedacht, gibts wohl auch aktuell nicht mehr.

Wenn ich das mit dem Ringpuffer richtig verstanden habe, dann hat der Ring zwar eine feste Größe, aber die Zeiger für das schreiben und lesen der Daten können einen unterschiedlich großen Abstand haben, was dann nach außen wie ein Puffer mit variabler Größe aussieht.

@Signalschwarz - den Filter betrachte ich als Bestandteil des Wandlers oder von mir aus auch Umsetzers -> http://dict.leo.org/?lp=ende&from=fx3&search=converter such Dir was aus :D
 
@Signalschwarz - den Filter betrachte ich als Bestandteil des Wandlers oder von mir aus auch Umsetzers -> http://dict.leo.org/?lp=ende&from=fx3&search=converter such Dir was aus :D


:D

Naja, die E-MU-Interfaces der m-Serie wurden ja auch teilweise damit beworben die gleichen "Wandler" zu besitzen wie die Digidesign-Interfaces. Trotzdem waren diese nicht gleichwertig, denn (meines Wissens nach) wurden in den E-MUs andere Filter und ein anderer PLL-Baustein verwendet.
 
falls dich diese dinge mehr interessieren, dann kann ich dir diesen podcast empfehlen: http://chaosradio.ccc.de/cre154.html

manche dinge sind vielleicht ein bisschen zu oberflächlich oder vereinfacht dargestellt, viele andere sind dagegen sehr interessant. auch wenn das ding insgesamt zweieinhalb stunden dauert, es lohnt sich!
 
  • Gefällt mir
Reaktionen: 2 Benutzer
:D

Naja, die E-MU-Interfaces der m-Serie wurden ja auch teilweise damit beworben die gleichen "Wandler" zu besitzen wie die Digidesign-Interfaces. Trotzdem waren diese nicht gleichwertig, denn (meines Wissens nach) wurden in den E-MUs andere Filter und ein anderer PLL-Baustein verwendet.

der Wandler-Baustein (ich bleib mal bei dem Ausdruck) funktioniert ohne den Filter nicht und der Filter ist ohne den Wandler-Baustein auch ziemlich nutzlos, daher betrachte ich das als eine Einheit.

Nur weil in den PreAmps von 2 Herstellern vielleicht die gleichen OpAmps drin sind, bedeutet es noch lange nicht, dass beide PreAmps gleich arbeiten - das ist halt der feine Unterschied im Schaltungsdesign, ob man die 0815 Application Vorschläge des Chipherstellers nachbaut oder ob man sich eigene Gedanken macht und eine eigene Entwicklung um den Chip herum aufbaut ;)

Hat aber mit der Fragestellung des TE jetzt nicht mehr viel zu tun.
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben