Ich formuliere es mal etwas allgemeiner, auch in Bezug auf deine Liste im anderen thread:
aus reinen Spezifikationen lässt sich wenig über die Performance eines Systems in der Praxis ableiten.
Das liegt in erster Linie an der fehlende Echtzeit-Fähigkeit des Betriebssystems.
Prozesse sind heute zwar extrem schnell (hohe Taktrequenz), aber 'Echtzeit' beinhaltet auch, dass Prozesse mit definierter Priorität in einem absolut festen Zeitrahmen garantiert ablaufen - ohne Ausnahme.
Das existiert in keinem Desktop Betriebssystem - ergo lässt sich das reale Zusammenspiel von Betriebssystem, Anwendersoftware und Hardware nur per Erfahrungswert ermitteln.
Der Begriff Datendichte sagt mir nichts, ist vielleicht eine Übersetzung für Datendurchsatz...
Ein triviales Beispiel, um die Situation zu verdeutlichen:
Eine SATA Schnittstelle mit einem Durchsatz von 6 GB/sec sollte (über den Daumen gepeilt) einen entsprechenden 500GB Datenträger in rund 1,5 Minuten übertragen können.
Unter einem Desktop BS scheitert das bereits am overhead des Dateisystems und der Datenprüfung - es dauert folglich wesentlich länger.
Die Hersteller geben für den Datendurchsatz immer den maximalen Wert der Schnittstelle an, der kurzfristig erreicht werden könnte.
In der Praxis wäre aber der permanent aufrecht erhaltene Durchsatz entscheidend, der aber von der Anwendung und Systemkonfiguration abhängt - und sich folglich nicht vorhersagen lässt.
Das gilt für sämtliche Datenwege zwischen Prozessor, Speicher und Peripherie.
Die Sache ist so komplex, dass es dafür spezialisierte Anbieter gibt, die sich Rechnerkonfiguration entsprechend bezahlen lassen.
Auf der anderen Seite ist normale Qualitätshardware heute auf einem Stand, dass das, was du planst auch mit 0815 Komponenten funktionieren wird.
Wer wirklich verlässliche Leistung (im kommerziellen Umfeld) braucht, gibt bereits für das Motherboard soviel aus, wie du als Gesamtsumme vorgesehen hast.