Wieviel Kerne und RAM im semiprofessionellen Studio PC ?

Quasimono
Quasimono
Registrierter Benutzer
Zuletzt hier
27.01.25
Registriert
14.09.23
Beiträge
61
Kekse
100
Moin :)

Ich brauche einen Studio-PC, kann aber nicht so gut einschätzen, was für Leistung allgemein so benötigt wird.
In meiner jetzigen Konfiguration (Alternate) habe ich einen 20 Kerne i7 und 32GB RAM ausgewählt, das erscheint mir schon sehr großzügig, die CPU zumindest.
Was wäre den, im semiprofessionellen Bereich (Viele Spuren abspielen, vielen Spuren gleichzeitig aufnehmen, hohe Samplingrate, viele Plugins),
die Mindestanforderung an Kernen und RAM, um problemlos arbeiten zu können, und ab wann wäre es übertrieben ?
Gibt es so etwas wie eine Faustregel, an der man sich zumindest grob orientieren kann ?
 
hey

Verwendest du auch gerne Virtuelle Instrumente / Sample Libraries? falls nicht bist du mit 32GB Arbeitspeicher im grünen Bereich, solltest du alleridngs viel grosse Sample Libraries verwenden, wären mehr besser

und was sind für dich viele Spuren?
50? 100? 400?

lg
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Mit "semiprofessionellen Bereich" meine ich nicht spezifisch meine Anforderungen, sondern so ungefähr den üblichen Durchschnitt,
um einen Eindruck zu bekommen, was so üblich ist.

was sind für dich viele Spuren?
Ich würde sagen, ab 40-50 Spuren kann man von "vielen" sprechen.
 
Zuletzt bearbeitet:
hohe Samplingrate, viele Plugins
Was ist denn eine hohe Sampling Rate? Mehr als 96kHz macht bei Produktionen kaum Sinn, es sei denn man hat echte 192er Samples.

Zu den Plugins: Da gibt es gewaltige Unterschiede - gerade in der Qualität. Oft haben aber die anfordernden Plugins einen ECO Modus, in dem sie ungenauer und dafür resourcen schonender arbeiten. Daher ist das heute auch auf weniger potenten Maschinen entspannt. Einige machen das durch downsampling, was man emulieren kann, indem man als ersten plugin einen downsampler platziert. Das Projekt wird dan beim rehearse und arbeiten entawas schlechter gemonitored und erst final in maximaler Qualität gerendert. Ein Profi hat für solche Scherze weniger Zeit und investiert in Rechenleistung. Für das Heimstudio ist das aber zu empfehlen, weil man mit einem "halben" Rechner auskommt.

Wenn du viele Spuren bearbeiten willst, solllte man M2-SSDs nehmen. Meistens ist es aber doch die Rechenzeit, die den Flaschenhals bildet.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
96kHz halte ich für angebracht, aber bitte keine Grundsatzdiskussionen. :rolleyes:
Das bringt mich nicht weiter, daß M2-SSDs angesagt ist weiß ich, und das war ja auch nicht die Frage.

Mir geht es um die Frage, wieviel Kerne und wieviel RAM im semiprofessionellen, oder auch professionellen Bereich durchschnittlich benötigt werden.
Was ich bis jetzt raus gelesen habe ist, daß 32GB RAM eigentlich zu wenig sind.

Ich möchte halt jetzt etwas übertreiben, damit der Rechner nicht in zwei Jahren schon irgend ein Upgrade braucht.
Allerdings möchte ich auch nicht völlig über das Ziel hinausschießen !
Wären den 20 Kerne i7 mit 64GB totaler Overkill, oder großzügig in die Zukunft investiert ? :unsure:
 
Also ich habe den in meiner Signatur gezeigten Audio-PC mit 64 GB Ram unter Windows (Windows braucht wohl prinzipiell mehr Ram). LG, Frank
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Was ich bis jetzt raus gelesen habe ist, daß 32GB RAM eigentlich zu wenig sind
Das kommt wie oben angemerkt drauf an.

Wenn du beispielsweise ausschließlich Audioaufnahmen via Mikrofon machst, dann sind 16 GB RAM auch schon deutlich mehr als du brauchst.

Wenn du viel mit Plugins, z.B. gitarre via DI und Gitarrensound via Plugin machst, dann sind Ram auch halbeegs wurst dafür aber ne leistungsfähige CPU ganz angebracht.

Wenn du mit Sample libarys arbeitest, z.B. gleichzeitig Orchester, drums, etc, dann brauchst du RAM, wie viel hängt da dann auch wieder von den verwendeten Samples ab.

Klar kannst du dir nen rechner zusammenstellen der dann 128GB RAM und mehr hat, wenns in deinem Workflow nicht abgegriffen wird ist es aber unnötig.
Ist quadi so wie wenn du dir einen Porsche911 für Kurzstrecke durch 30er Zonen und Stadtverkehr holst.

Wenn du dir nicht sicher bist, dann kannst du ja ein Mainboard mit Vier Ramslots holen, davon Zwei mit Üppig Ram belegen und wenns dann mal zu wenig wird einfach nochmal nachrüsten.

Was machst du aktuell und was hat dein Aktueller Rechner verbaut?
Das würde helfen das Vorhaben besser einzuschätzen.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Wären den 20 Kerne i7 mit 64GB totaler Overkill, oder großzügig in die Zukunft investiert ?
Das klingt doch prinzipiell erstmal ganz vernünftig. RAM lässt sich bei Bedarf ja auch jederzeit nachrüsten (wenn von vornherein darauf geachtet wird, dass Slots auf dem Mainboard frei bleiben). Bei der CPU hast du wohl etwas in Richtung i7-14700 im Auge?

Was ich immer ganz praktisch finde: Ein paar CPUs, welche in Frage kommen, mit Hilfe von https://www.userbenchmark.com/ vergleichen (für Studioanwendungen ist die Kennzahl "Workstation" am relevantesten). Das hilft zumindest mal, das beste aus dem geplante Budget herauszuholen.

Grundsätzlich schließe ich mich @Mr. Pickles an, dass vorab eine Sammlung der Anforderungen wichtig ist, um nicht einen unter- oder völlig überdimensionierten Studiorechner anzuschaffen ;)
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Dann kann für manche ganz spezielle Anwendungen auch die Grafikkarte ne Rolle Spielen.

Es gibt z.B. Tonex, wenn du das „normal“ nutzt ist die Grafik wurst, wenn du da aber eigene Models erstellen willst ist ne 3060 oder besser Sinnvoll, da hier die Berechnung der Impulsantworten auf der Grafikkarte erstellt wird und da ist es halt schon ein unterschied ob das Stunden oder Minuten braucht.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
bzw. um mal konkrete Zahlen zu nennen:
ich habe für meine Zwecke aktuell noch ein Notebook mit
Ryzen 5800H
16GB Ram
512GB SSD
GPU 3060

ich nehme auf in 24 Bit/48kHz, Buffer auf 64 Samples, 32 würden auch gehen, das bringt aber latenztechnisch in meinem Fall nix, daher lass ich die 64 Samples

ich mache damit im Grunde nur Vorproduktion und Demos fürs eigene Bandprojekt, meine Fähigkeiten reichen nicht für ne fertige Produktion aus.

aber mein derzeit größtes Projekt besteht aus folgenden Spuren, keine garantie auf Vollständigkeit:

12 Gitarrenspuren, jede mit Folgenden VSTs: Neural DSP GojiraX und EQ
3 Gruppenspuren die jeweils 4 Gitarren zusammenfassen wo jede nochmals das Neural DSP Plini Plugin für Hall und Delay mit drauf hat

2 Midispuren mit Steven Slate Drums (Vorproduktion Songwriting), einmal normal und einmal subtil im Hintergrund mit zusätzlichen verzerrungs VST

11 Audiospuren mit dem Richtigen Drumset (Proberaum) mit diversen Dynamics, hall, EQ

1 Vocal Spur mit saturation, Plini VST für Hall

3 Bassspuren, jede mit anderen EQs zum trennen, die Mit Bandpass und Hipass haben jeweils noch Neural DSP Darkglass VST drauf
1 Gruppenspur die den Bass zusammenfasst mit dynamics VST

4 Samplespuren mit VSTs bzw. eine davon mit Orchester Sampler

so. jetzt ist das Notebook aber mein every-Task gerät, d.H. wenig optimiert, oft läuft nebenbei noch der Browser mit mehreren Tabs, dann noch Word als notizblock

und ja was soll ich sagen, der schnupft das alles weg.

d.H. bei mir wären bereits 32GB Ram ein völliger Overkill, CPU wird allerdings durch die leistungshungrigen Neural DSP VSTs für die Gitarren schon beansprucht, für Mix und master kann man aber auch die Gitarren als Stems Exporieren, bzw. wenn man die via Mikro aufnimmt hat man das "Problem" ebenfalls nicht.
zum vergleich eine reine 16 Track Audioaufnahme im Proberaum oder live kann ich auch mit meinem ipad Mini aus 2013 mit 2+1,3GHz und 1GB Ram problemlos realisieren.

In meinem Fall, also Gitarren VST Ampsimulationen, machen sich auch Anzahl der CPU Kerne bemerkbar.
Was man allerdings unbedingt beachten Muss: es ist ein Notebook, eine Vergleichbare Performance bekomme ich beispielsweise auch mit einer Ollen Ryzen 3600 Desktop CPU hin.
 
  • Gefällt mir
Reaktionen: 3 Benutzer
Die Kerne sind egal, die Menge wird nicht ausgenutzt. Relevanter für dich ist, wie der einzelne Kern getaktet ist und wieviel Thermobudget zur Verfügung steht um bei Nutzung weniger Kerne zu boosten. Völlig überraschend gibt es da einen linearen Zusammenhang zum Preis. ;) Das sollte aber für deinen Anwendungszweck keinen zu großen Unterschied machen. Beim RAM: wenn es dir nicht auf das Geld ankommt nimm 64GB, wenn du den Euro umdrehen musst nimm 32. Relevanter ist, dass es sich nur um zwei Module handelt, das Ansprechen von 4 Modulen lastet den Speichercontroller stärker aus, der RAM kann dann nicht so hoch getaktet werden, wie bei 2 Modulen. Vorteil von 64GB ist dass das vermutlich auch in 5 Jahren noch sehr großzügig dimensioniert ist. Wenn man später aufrüsten will und bei 2 Modulen bleiben will müssen die 32GB in 2 Modulen sonst raus.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Die Kerne sind egal, die Menge wird nicht ausgenutzt.
Wie kommst du da drauf?

ich habe mal spaßeshalber jetzt in der Mittagspause das Reaper als Protable auf meinen Arbeitsrechner angeworfen, dann mit reapereigenen effekten einfach mal zig Spuren aufgemacht (es sind 944 tracks) und sowohl mit Audio als auch MIDI+Synth belegt.

Über Taskmanager die Logischen Kerne anzeigen lassen. und siehe da, da werden irgendwie alle Theads genutzt.

Mir ist klar, dass einzelne Kerne mehrere Threads bearbeiten können, aber wenn ich das richtig sehe wird schon ordentlich auf die ganze CPU verteilt:

Screenshot 2025-01-23 120346.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Das meiste wurde ja schon gesagt. Ich kann mit meinem Ryzen 5800x und 32GB auch Projekte mit ~130-150 Spuren gut bearbeiten, da muss dann natürlich der Buffer etwas hoch und Echtzeitmonitoring ist da dann nicht mehr drin. Besonders wenn Izotope läuft :ugly:
Da ist dann auch schon mal Superior Drummer geladen und vielleicht paar Streicher. Aber alles bei 48kHz. Bei 96kHz sieht es eventuell anders aus. Habe ich nie ausprobiert.

Wenn du aber Filmmusik mit großem Orchester und sonst was machst sind vielleicht 64GB besser.
Achte darauf, dass auch ein ordentlicher Lüfter installiert ist.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Samplerate sollte ja nicht das Thema sein, ich denke die 96 brauchts nicht wirklich, aber lieber haben als brauchen.

was mir zum Thema Intel noch einfällt ist, dass es da wohl bei manchen aktuellen Serien Probleme im Bezug auf Haltbarkeit zu geben scheint:

View: https://youtu.be/q4FE69rMIcs?si=iC-JVJZEx6Ssz42l

... da ich seit aufkommen des Ryzens dann aber zu AMD gewechselt bin und die nächste Kiste vermutlich ein Umstieg auf Mac werden könnte hab ich mich nicht näher damit beschäftigt
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Das bringt mich nicht weiter, daß M2-SSDs angesagt ist weiß ich, und das war ja auch nicht die Frage.
Das war die Antwort auf die Frage nach der Spurenanzahl. Du kannst natürlich gerne auch selber einen PCI-Bus Gen 3/4 mit durchschnittlicher arbitration rate deiner favorisierten CPU, bzw dessen Controller unter Berücksichtigung eventuellen lane sharings durchrechnen, wenn du das kannst und wissen möchtest, mit welchen Raten du wieviele Spuren takten kannst und es dann mit einer ähnlichen Überlegung für SATA vergleichen. Musst dann einfach nur die Nettobandbreite (inklusive der Pulspausen auf dem Bus) durch die effektive Bitanzahl und die Samplerate teilen.

Relevanter ist, dass es sich nur um zwei Module handelt, das Ansprechen von 4 Modulen lastet den Speichercontroller stärker aus,
Interessante Interpretation. Ich habe gerade vor wenigen Wochen erst in einem System absichtlich 4 RAM-Module gleichzeitig in einem System verbaut, statt nur 2, um die Bandbreite bei gleichzeitigem Zugriff zu erhöhen. Eine moderne CPU hat ja durchaus mehr als nur einen Speichercontroller und diese packen 2 Module je Channel und haben ihrerseits auch mindestens 2 channel, die hiesige 3. Eine aktuelle Xeon z.B. arbeitet so mit 8/12 Modulen, eine Dual Xeon werkelt damit auf 16/24 DIMMs gleichzeitig. Das ist bis zum 12fachen der scheinbaren Bandbreite einer Single-Controller-CPU mit den typischen 2 DIMMs.

Überdies ist es auch nicht so, dass der Betrieb von 2 Modulen an einem Dual-Channel zwangsläufig langsamer werden muss. Im Burst-Betrieb können den DDR-Controllern durchaus mehrere Anfragen wechselnd gesendet werden, um die Request-Rate zu maximieren. Das wird dann schneller / dichter. Dazu muss nur ein passendes RAM-Layout für die Daten gewählt werden. Bei AWGs machen wir das generell so.

Um es auf Audio zu beziehen / runter zu brechen: Ich fahre in meiner alten Workstation 16 x 4 und in der neuen 32 x 2 + 32 x 2.
Die Auslastung bei Audioproduktionen ist bei speicherintensiven Plugins wie SampleInstrumenten durchaus jenseits 50% - d.h. 32 hätten nicht gereicht.
Bei der neuen rechne ich mit noch mehr, weil die mehr Kerne hat und noch mehr arbeiten soll.

wieviel Thermobudget zur Verfügung steht
Das ist mit der wichtigste Punkt. Es nützt nichts, wenn die runtergeregelt werden müssen. Meine Silent-Workstation dreht trotz guter Kühlung passiv bei Vollast aller Kerne und MaxSpeed beim benchmark auf über 80° - daher sitzen da nun 2 Extra Lüfter um auf 60° zu limitieren. Benutzt wird das allerdings nur selten. Um trotzdem von den Temps und Belüftung im Hochlasfall wegzukommen, hat die neue Workstation mehr Kühlungsleistung, da von Anfang an für mehr Last ausgelegt. Da liege ich trotz mehr Kernen nur bei 72° Vollast und 50°-60° bei durchschnittlichem Rendering.

da werden irgendwie alle Theads genutzt.
Das ist eine Leistung des OS, benötigt aber ein gut strukturiertes Multi-Thread-Programming. Bei Audio und seinen vielen Einzelspuren und späterem Downmix im "Pult-Ende" ist das natürlich super zu machen und ergibt sich fast von alleine. Von daher kann man bei exzessiver Nutzung von plugins davon ausgehen, dass die Zahl der Kerne ziemlich linear in die Rechnung eingeht, wenn sie alle voll laufen und mit Daten gefüttert werden können.

Auch beim Grafik / Animationsrendering sehe ich das : Alle Kerne meistens 100% am Rödeln. Dummerweise lässt sich das nicht bei allen SW-Arten realisieren. ModelSIM z.B. kann überwiegend nur einen Core nehmen, weil die Aufgbaben zu wenig splitbar sind. Da ist ein 4-Kerner mit 3,8GHz besser, als ein 12er mit 3,3GHz.
 
  • Interessant
  • Gefällt mir
Reaktionen: 2 Benutzer
Wenn du beispielsweise ausschließlich Audioaufnahmen via Mikrofon machst, dann sind 16 GB RAM auch schon deutlich mehr als du brauchst.
Zwar nicht via Mikro, aber ja, Audiospuren werden den Hauptanteil ausmachen.

Wenn du mit Sample libarys arbeitest, z.B. gleichzeitig Orchester, drums, etc, dann brauchst du RAM, wie viel hängt da dann auch wieder von den verwendeten Samples ab.
Wahrscheinlich eher nicht, aber ich will es auch nicht ausschließen.

Klar kannst du dir nen rechner zusammenstellen der dann 128GB RAM und mehr hat, wenns in deinem Workflow nicht abgegriffen wird ist es aber unnötig.
Ist quadi so wie wenn du dir einen Porsche911 für Kurzstrecke durch 30er Zonen und Stadtverkehr holst.
Grundsätzlich schließe ich mich @Mr. Pickles an, dass vorab eine Sammlung der Anforderungen wichtig ist, um nicht einen unter- oder völlig überdimensionierten Studiorechner anzuschaffen ;)
Genau die Grenze will ich ja ausloten, was brauche ich um was komfortables zu haben, was nicht so schnell aufgerüstet werden muß, ohne in den sinnlosen Wahnsinn abzudriften !

nimm 32. Relevanter ist, dass es sich nur um zwei Module handelt, das Ansprechen von 4 Modulen lastet den Speichercontroller stärker aus, der RAM kann dann nicht so hoch getaktet werden, wie bei 2 Modulen. Vorteil von 64GB ist dass das vermutlich auch in 5 Jahren noch sehr großzügig dimensioniert ist.
Ich mache das schon lange so, grundsätzlich nur ein Dual-Ram Paar zu verwenden, irgendwo habe ich das schon mal aufgeschnappt.
32GB würden im Moment schon mehr als genug darstellen, aber wer weiß, wie das in 2-3 Jahren aussieht.
64GB wären circa 100Kröten mehr, allerdings könnte das gleiche RAM in ein paar Jahren auch teurer geworden sein. :unsure:

Wenn du dir nicht sicher bist, dann kannst du ja ein Mainboard mit Vier Ramslots holen,
Das Mainboard steht fest: ProArt Z790-CREATOR WIFI
Ich brauche Thunderbolt-Anschlüsse, für ein Apollo-Interface.

Was machst du aktuell und was hat dein Aktueller Rechner verbaut?
ich steige erst grade wieder ein, alles ist im Aufbau, daher ist gar kein Rechner vorhanden.
Meine einzigen Erfahrungen, beschränken sich auf Reason mit einer handvoll Plugins, laufend auf Klapperkisten, oder Office Laptops.
Oder aber ganz lange her, Atari 1040ST mit 4MB (😎) Upgrade. :opa:

und Echtzeitmonitoring ist da dann nicht mehr drin. Besonders wenn Izotope läuft :ugly:
So etwas will ich vermeiden, ich will einen großzügigen "Headroom" mit einkalkulieren.

Samplerate sollte ja nicht das Thema sein, ich denke die 96 brauchts nicht wirklich, aber lieber haben als brauchen.
Doch, das hat gewisse Vorteile, z.B. weniger Probleme mit Alaising, Time-Stretching ist besser möglich und ich bilde mir ein, je nach Ausgangsmaterial, auch einen Unterschied zu Hören.
Insgesamt treibt das heutzutage die Kosten nicht mehr all zu sehr in die Höhe, ich gönne mir den Luxus einfach

dass es da wohl bei manchen aktuellen Serien Probleme im Bezug auf Haltbarkeit zu geben scheint
Kleines 🙏 an Jerematic den Schöpfer und Hüter der Heiligen Zweifaltigkeit True und False, dann paßt das.

Ich denke, ich bleibe bei den 20 Kernen, obwohl 12 es vermutlich auch erst mal tun würden.
Mit dem RAM klotze ich auch einfach rein, der Preisunterschied zu einer sparsameren Konfiguration, ist einfach zu gering.
Insgesamt (ohne Monitor) liege ich dann bei ca. 1450€, das halte ich für stattlich, aber nicht übertrieben (vielleicht ein bischen).

Danke an alle, ich habe jetzt eine deutlich bessere Vorstellung von der Thematik ! 👍

edit: @engineer
Musst dann einfach nur die Nettobandbreite (inklusive der Pulspausen auf dem Bus) durch die effektive Bitanzahl und die Samplerate teilen.
Ich bin mir grade nicht sicher, ob mein Hirn das verarbeiten kann !? 🤪

Interessante Interpretation. ...
Aaarrrggg, du machst mich fertig ! 😉
Kann es sein, daß es durchaus mal so war, mit der Speichercontroller-Überlastung, aber heutzutage einfach nicht mehr zutrifft ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Wie kommst du da drauf?
Weil ich Software entwickle und analysiere und das dabei konstant sehe.
Über Taskmanager die Logischen Kerne anzeigen lassen. und siehe da, da werden irgendwie alle Theads genutzt:
Der Task Manager ist da nicht gut geeignet, die Metriken sind irreführend und kontraintuitiv. Ein Beispiel: Wenn du eine passende CPU hat und sie entsprechend konfiguriert ist, kann sie in den enhanced performance mode gehen und die TDP anderer Kerne mitbenutzen. Dann hast du über 100% Auslastung, aber die Anzeige cappt bei 100%. Und das Mitbenutzen des Wärmebudgets wird nirgends dokumentiert

Was du angezeigt bekommst ist über einen Zeitraum gemittelt während das System in Sekundenbruchteilen optimiert. Wenn dir angezeigt wird, dass eine gleichmäßige Auslastung vorliegt kann das System in Wirklichkeit gerade auf einem Kern kurz boosten und dann wieder verteilen. Dazu kommt noch dass logische Kerne sich einen physischen Kern teilen. Insgesamt sieht das dann eben meist so aus wie auf deinem Screenshot, ohne eine Aussage über die tatsächliche Kernnutzung zu machen.

Ist aber egal und zu theoretisch für den Thread und das Board hier, eine echte Aussage könntest du eh nur machen wenn du die gleiche Anwendungssituation wiederholst und dann alles gleich hältst, bis auf die CPU und/oder das Scheduling.
 
  • Interessant
  • Gefällt mir
Reaktionen: 3 Benutzer
Kann es sein, daß es durchaus mal so war, mit der Speichercontroller-Überlastung, aber heutzutage einfach nicht mehr zutrifft ?
Jetzt müsste man tiefer einsteigen, wie DDR-Chips arbeiten und wie sie auf DIMMs parallel verschaltet sind. Ich probiere es mal: Aus Sicht des Nutzers greift man auf den Controller zu, indem man die Anfragen (Lese- oder Schreibpakete) in die DATA- und CMD-Speicher reinschreibt. Durch die Bündelung von Anfragen versucht der Controller nun, das zu ordnen und zu beschleunigen. Dazu übermittelt er Adressen und Daten an die Chips, macht Seiten innerhalb auf und zu und regelt In und Out auf dem Bus. Bei DIMMs kommt hinzu, dass er noch RAM-Bereiche umschalten muss. Idealerweise sind die Speicher immer so gut gefüllt, dass der Controller immer was zu tun hat und auch noch Zeit für die Refreshs der Chips braucht.

Wenn man nun 2 halbe RAMs hat, steigt bei wahllosem Zugriff die Wahrscheinlichkeit, dass man nicht nur Seiten oder Chips, sondern auch das das Modul wechseln muss, um Anfragen abzusetzen und Empfangenes zu lesen. Rein statistisch sind die FIFOs dann nicht so gut gefüllt, dass bei mäßiger Last die maximale Bandbreite ausgelastet werden kann. Das ist wie bei USB-Paketen: Erst wenn das Auto voll ist, wird losgefahren. Was aber später gefragt wird, wird auch später geliefert. Bei sehr unglücklicher Verteilung der Daten stehen in einem FIFO dann auch schon mal Daten an, die aus einem Modul kamen, aber der Rest aus dem anderen ist noch nicht da. Das macht größere effektive Latenzen.

Grundsätzlich packt ein Dual Channel Controller die Daten beim Schreiben sinnvoll zur Seite, je nach Strategie, allerdings passt das meistens nicht gut zu der Art, wie man Wellendaten auslesen will, nämlich immer ein Sample von allen Kanälen. Je nachdem wie groß die Blöcke sind, bekommt man da dann 128 samples vom Kanal1 und 64 vom Kanal3 , dann wieder 256 vom Kanal2. Das alles muss schon im Controller zusammengebaut werden, um erst auf 64/128/256 Bit Breite zu kommen - je nachdem wie die Controller angeschlossen wurden und es braucht FIFOs um das zu managen. Außen muss die Software nochmal das Gleiche tun, nämlich die Musikkanäle sortieren.

Wenn man es schafft das zu harmonisieren, bekommt man mit 2 halben RAMs aber die doppelte Bandbreite hin, sofern sie parallel angeschlossen sind und die Auslastung hoch genug ist.

Da gibt es jetzt noch viel zu untersuchen, aber mit Hinblick auf die Temperatur sei noch erwähnt, dass die Refresh-Zeiten meistens verkürzt werden, wenn die steigt. Die Controller bekommen dazu die Chiptemperaturen und regeln das entsprechend. Wenn man die Speicherlast auf doppelt so viele Chips verteilt, bleiben die Kühler und schneller.

Bei PCs kommt dann noch hinzu, dass man mit nur einem Controller auch das Gedöhns noch abarbeiten muss, was das OS so braucht. Da kommen ja nicht nur Musikdatenzugriffe sondern auch Zugriffe auf den Programmspeicher seitens des DAW-Programms und Windows selber.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Die Auslastung bei Audioproduktionen ist bei speicherintensiven Plugins wie SampleInstrumenten durchaus jenseits 50% - d.h. 32 hätten nicht gereicht.
Wobei da die Frage ist wie viel davon wirklich nötig oder nur unnötig cached is. Das ist vermutlich mit Bordmitteln "von außen" ohne Instrumentierung der Applikation nicht so einfach rauszubekommen.

Nachtrag: eine länger laufende Linuxkiste z.B. wird irgendwann dauerhaft nahezu 100% belegtes RAM haben. Das OS nimmt sich halt alles was Applikationen brauchen als I/O Cache. Wird das aber jederzeit freigeben wenns ein Prozess wirklich braucht. Und so kann eine Applikation wie eine DAW und Plugins ebenfalls Speichermanagement betreiben. RAM ist dazu gedacht genutzt zu werden... :)
 
Zuletzt bearbeitet:

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben