Um das vielleicht etwas zu vereinfachen: egal wieviele Kerne verfügbar sind - die Kontrolle darüber hat zunächst mal das Betriebssystem... mit kaum vorhersehbaren Konsequenzen (rein aus der Perspektive des digitalen near-realtime Audios betrachtet).
Eine (imho) sehr erhellende Darstellung gibt es bei Pyramix, die mit ihrer Mass-Core Technologie Kerne vor dem OS 'verstecken' um diese dann 100% für Audio nutzen.
http://www.merging.com/products/pyramix/masscore
Auch der verwendete Chipsatz spielt eine Rolle - unter Support ist dort eine Liste besonders geeigneter Motherboards gelistet, samt einiger Tücken/Besonderheiten.
(der link ist im Sinn von Hintergrund-Information gedacht, für normale DAW Anwendungen wird man das kaum lizensieren)
Ein gut aufgeräumtes Betriebssystem reduziert logischerweise potentielle Störer (Binsenweisheit).
Grundsätzlich sind DAWs wesentlich schwerer zu paralellisieren als andere Anwendungen (interne Abhängigkeiten im Datenfluss), der Wirkungsgrad ist stark von der Konfiguration abhängig.
(welche DAW, welche Plugins, Mix-Strategie)
Ursprünglich (in DSP-Hardware gestützen Systemen, die von Haus aus parallel arbeiten) musste das von Hand erledigt werden, eine nicht gerade angenehme Aufgabe...
In Fällen wie akustischen Aufnahmen machen ein paar Samples Versatz nichts aus, aber bei Dingen wie Paralell-Kompression oder Mitte/Seiten Verarbeitung sind die Folgen uU fatal.
Da hängt einiges vom individuellen Können der Plugin-Designer ab.