K(r)ampf der DAWs

Hm, das klingt gut, bei der Testreiehe bin ich dabei.
Vielleicht könnte man darüber sogar einen kleinen Beitrag für die Startseite machen.

Ich würde S1v2 Pro, Reaper und Pro Tools 10 ins Rennen werfen - unter Mac und Windows (und Audacity :D).
Oder könnte das irgendwelche Probleme wegen anderem Computer geben?

wie sollte man da vorgehen? Einfach summieren?

---------- Post hinzugefügt um 10:50:00 ---------- Letzter Beitrag war um 10:27:05 ----------

Gleich noch was anderes: kann mir jemand sagen,wie ich einen iLok und die Lizenzen darauf für PT übertragen kann?
 
Ich würde S1v2 Pro, Reaper und Pro Tools 10 ins Rennen werfen - unter Mac und Windows (und Audacity :D).
Oder könnte das irgendwelche Probleme wegen anderem Computer geben?

Nein, der Computer sollte absolut keine Rolle spielen. Ganz im Gegenteil: Es ist sogar wünschenswert, so viele Computer und Sequenzer wie möglich zu testen.

wie sollte man da vorgehen? Einfach summieren?

Das wäre eigentlich das Beste und Einfachste. Nur besteht ja das Problem, dass es Leute wie 968 gibt, die behaupten, andere Treiber würden auch einen anderen Sound erzeugen. Da wird's dann schwierig. In dem Fall muss man Files digital ausspielen und digital in einem anderen Host wieder aufnehmen (zur allergrößten Not tun es auch gute analoge Verbindungen, aber da kann es dann eben doch zu Unterschieden kommen, alleine aufgrund der Verbindungen). Und um sie dann genau zu überprüfen, muss man die Files so schneiden, dass dieselben Stellen wieder samplegenau übereinander liegen, um sie dann in der Phase drehen zu können. Das ist oft nicht ganz so einfach, da man ja den Startpunkt der Aufnahme nicht samplegenau steuern kann und es da durchaus Verschiebungen im Subsamplebereich geben kann, so dass sich evtl. nicht am identischen Samplepunkt schneiden lässt. Ist also deutlich aufwändiger.

Außerdem muss ich das "gerne mitmachen" für mich dann doch etwas relativieren. Ich habe solche Tests schon etliche Male durchgezogen und das Resultat war immer das gleiche. Von daher würde ich den Spieß eigentlich lieber mal umdrehen. Da es ja eben zig Tests gibt, die mehr oder minder unwiderlegbar beweisen, dass es da von Sequenzer zu Sequenzer keine Unterschiede gibt, würde ich mal jemanden von der Gegenseite bitten, nachzuweisen, *dass* es doch Unterschiede gibt. Und dann eben mit genauen Angaben dazu, worin diese Unterschiede genau bestehen und wie es jederman zu reproduzieren imstande ist. Einen solchen Gegenbeweis hat bisher noch niemand erbracht, wäre also sehr interessant. Vielleicht kann 968 da ja nachhelfen...

- Der Sack
 
Vielleicht kann man das Board überzeugen, dass man hier einen Contest draus macht, und so gut wie alle (nativen) Sequencer abdecken kann.
Alles andere als sumieren macht dann aber keinen Sinn...
 
Vielleicht kann man das Board überzeugen, dass man hier einen Contest draus macht, und so gut wie alle (nativen) Sequencer abdecken kann.
Alles andere als sumieren macht dann aber keinen Sinn...

Naja, es gibt Leute, die eben behaupten, dass ein File über einen Medienplayer bereits anders klingt als in einem Sequenzer. Das kann man dann nicht per Summierungstest lösen, da muss man extern aufnehmen und dann vergleichen. Ist auch nicht so schwierig, aber man braucht eben die notwendige Hardware.

Summierungs- und Nulltests muss man eigentlich wirklich nicht mehr machen. Die gibt's im Netz zur Genüge und die Resultate sind, wie schon gesagt, eindeutig.

- Der Sack
 
Naja, aber beim Aufnehmen sind imemr andere PreAmps am Start. Das bringt auch nix. :nix:

Ich versteh deine Idee gerade nicht... :redface:
 
Also es gibt so gewisse "Grundsatz Unterschiede im Studio", sei es ob man jetzt ein Mikrofon vor der Aufnahme durch zig Steckverbindungen in die Regie führt oder mit nur einem Kabel, ob man ein M-Audio oder Mytek Wandler nutzt..
Aber dass die (professionellen) DAWs unterschiedlich klingen? No way! In der Performance gibt es Unterschiede. Das behaupte ich immer noch.
Der einzige Unterschied wo man sagen kann "das klingt jetzt sehr nach Cubase", oder "das nach Logic oder Pro Tools" passiert IMHO allein durch den Workflow. Und das hört man lediglich wenn man selber in das Projekt verstrickt war.

Also von mir kämen Nuendo und Cubase auf die Liste - So lange ich nichts aufnehmen muss sondern files zur Verfügung gestellt werden :)
Ich glaube er möchte das Mixsignal auf einem anderen Comnputer über sowas wie Wavelab oder SADiE aufnehmen?
Das ist unmöglich allein schon durch die Vielzahl unterschiedlicher Wandler die jeder von uns benutzt. Ganz davon abgesehen macht das heute kaum noch einer. Auch nicht die, die analog abmischen. Deswegen existiert diese Möglichkeit in den meisten Studios gar nicht.

Wäre das hier eine Woche früher gekommen hätte ich noch einen Pyramix Computer der zum Testen ausgeliehen wurde dafür missbrauchen können -.- Hätte sich echt gelohnt! Erstaunliches Programm :D
 
Fassen wir die bisherigen DAWs mal zwecks des Pberblicks zusammen:

.s:
- Pro Tools 10 native (vielleicht auch nicht mehr lange)
- Studio One v2 Pro
- Reaper
- (Logic)

Dummer Sack: :)rolleyes: )
- Logic
- Cubase
- Reaper

pHjalmarson:
- Nuendo
- Cubase

Novik:
- live lite 7&8
- samplitude silver

ThomasT:
- DIY Stuff ;)

Fehlt noch was von Magix und Motu und evtl. Ableton. Sonst noch eine herkömmliche DAW?
Hatte nicht irgendjemand Mixbus zur Verfügung?
 
Zuletzt bearbeitet:
Jepp, fehlt noch live, DP und Samplitude.
Bei mir kannst du denn Cubase von der Liste streichen giv dat ja schon.
 
Ich hab hier noch live lite 7 und ich glaube auch noch lite 8 rumfliegen. Samplitude Silver ist auf meinen Lapi installiert.
 
Ach und FL Studio ! *taddaa*
Da gibts ne kostenlose Demo, könnte man also auch nehmen. Müsste nur irgendwer runterladen :D
 
Aber jetzt nur Summieren und digital auf der Platte ablegen oder? Alles andere würde wieder zu viele Variablen erzeugen:)
 
Und als Vergleich noch einen definierten selbstprogrammierten Algorithmus der die original Wavs summiert.
Würde ich übernehmen.
 
So, habs mal auf die Liste übertragen.
Hatte Preci55ion nicht DP?
 
Neumann hatte mal vor einigen Jahren "Engineering Contests" gemacht. Auf der HP lassen sich die Lösungsansätze plus Kommentare runterladen.
Das sind zig samples gerade optimal für technische Vergleiche.
Weiß allerdings nicht, ob Neumann da was gegen hat wenn wir die dafür nutzen.
Ich meine ist ja nur theoretisch so eine art Schulung xD

@.s Bin auch der Meinung

---------- Post hinzugefügt um 12:34:00 ---------- Letzter Beitrag war um 12:22:28 ----------

Zieh ich zurück, das sind ja alles nur MPEG-Layer 3 Dateien -.-
 
Sollen es eigentlich einzelne Dateien werden?
Dann sollten sie auch nicht umcodiert werden, sprich Bit und Samplerate behalten, oder?

Vielleicht hat hier jemand ein nettes Bandprojekt mit hochwertigen Spuren?


edit: hab preci55ion mal angeschrieben...
 
Ja und? Erstens folgt aus Bitidentität auch Wordidentität und zweitens ist pures PCM-Audio nicht Fehlerkorrekturbehaftet und muss daher sogar bitidentisch sein um gleich zu sein.

Pures PCM? Was ist das?

PCM kann in ganz verschiedenen Formaten vorliegen und transportiert werden.

Bei einer CD habe ich einen digitalen Datenstrom auf der CD. Daraus wird dann an den digitalen AES/EBU Ausgängen so ein Signal erzeugt.
http://broadcastengineering.com/mag/broadcasting_aesebu_digital_audio/

Mit S/PDIF verhält es sich ähnlich.

Auf einer Festplatte oder einem anderen nichtlinearen Datenträger liegt das PCM wiederum in ganz anderer Form vor.

Ein Treiber und auch die Audio Engines der Proramme wie Cubase oder SoundBlade oder Logic .... generieren aus den Files von einem Daenträger wiederum einen digitalen Datenstrom, meist AES/EBU wie oben beschrieben. Die Klangunterschiede kommen oft von dieser Seite wenns um reine Abspielen geht.

Dann nimm mal ein altes 32 bit floating point Prgramm und summiere im Vergleich dazu mit einem 64 bit floating Point Programm.

Zu dem Artikel in Sound und Recording. Ich habe ihn noch nicht gelesen. Aber ich kenne den Autor und die Vorgehensweise. Da wurde unter unterschiedlichen Bedingungen versucht, Unterschiede zu hören, teilweise in sehr guten Mastering Studios, wo man was hören konnte, teilweise in anderen Umgebungen, wo man nix hörte. Wenn man das dann statistisch auswertet, kommen Ergebnisse mit so genannten nicht signifikanten Unterschieden heraus und die dumpfe masse wird bestätigt.

Wenn man in sehr guten Umgebungen testet - Akustik, Stromversorgung, ... - hört man oft Unterschiede, vor allem beim Summieren, aber auch oft beim puren Ausspielen eines Stereo Files.

Es gibt ja heute noch Leute, die behaupten, alle CD Player klingen gleich - ist ja digital.
Es wird auch immer Leute geben, die sagen, alle DAWs klingen gleich.

Letzter Punkt.
Würde ein Magazin eine Arbeit mit einem anderen Ergebnis als "keine statistisch signifikante Unterschiede" wirklich so eine Arbeit drucken? Die ganze Werbung von Logic und Cubase wäre dann ja schon mal weg. Ein Schelm, wer Schlimmes dabei denkt. :)

---------- Post hinzugefügt um 12:45:43 ---------- Letzter Beitrag war um 12:42:22 ----------

Sollen es eigentlich einzelne Dateien werden?
Dann sollten sie auch nicht umcodiert werden, sprich Bit und Samplerate behalten, oder?

Na, also, wenn man so was macht, wäre eh alles für die Katz.:confused:
 
Naja, aber beim Aufnehmen sind imemr andere PreAmps am Start. Das bringt auch nix. :nix:

Ich versteh deine Idee gerade nicht... :redface:

Ich meinte, bereits in der DAW vorliegende (das heißt, für alle Kandidaten identische) Files abzuspielen und in einer anderen DAW aufzunehmen. Und das dann nach Möglichkeit digital.
So ließe sich mit ziemlicher Sicherheit ausschließen, dass ein Treiber unterschiedlich klingt als ein anderer.
Ich kann das hier bewerkstelligen, da ich in einem Programm ein Interface benutzen kann, im anderen Programm ein anderes Interface.
Bock habe ich auf den Kram allerdings auch nicht wirklich...

Der einzige Unterschied wo man sagen kann "das klingt jetzt sehr nach Cubase", oder "das nach Logic oder Pro Tools" passiert IMHO allein durch den Workflow. Und das hört man lediglich wenn man selber in das Projekt verstrickt war.

Genau so ist es.
Ok, es gibt noch ein paar Dinge wie unterschiedliche "Panning Laws", aber a) ist das dann nur eine Pegelsache, keine klangliche, b) kann man das in den meisten Sequenzern heutzutage einstellen.

Ich glaube er möchte das Mixsignal auf einem anderen Comnputer über sowas wie Wavelab oder SADiE aufnehmen?

S.o., genau.

Das ist unmöglich allein schon durch die Vielzahl unterschiedlicher Wandler die jeder von uns benutzt.

Wandler sollten dabei ja nur im äußersten Notfall ins Spiel kommen (eigentlich eher gar nicht), am besten bleibt das Signal digital.

Aber jetzt nur Summieren und digital auf der Platte ablegen oder? Alles andere würde wieder zu viele Variablen erzeugen:)

Da ich weiß, was bei so einem Summierungstest, wenn er ordentlich durchgeführt wird, rauskommt, macht das für mich an sich keinen Sinn (aber ich nehme meinetwegen nochmal dran teil), viel interessanter finde ich ja so Statements, das Files im Mediaplayer anders klingen als im Sequenzer, dass ein Treiber anders klingt als der andere, etc.
Und diese Sachen lassen sich einfach nicht über's Summieren rausbekommen, dazu muss man in einem anderen Host aufnehmen.

Aber, wenn wir vorerst bei einem Summierungstest bleiben, dann sollte das Ganze so aussehen:
- Es werden diverse Files in den Sequencer importiert. Eigentlich reichen 2, aber da es ja auch immer Leute gibt, die behaupten, das Problem würde offensichtlicher, wenn mehrere Spuren am Start sind, kann man gerne auch 10 Files nehmen.
- Diese Files dürfen summiert auf GAR KEINEN FALL 0dB überschreiten. Warum? Damit man im Sequenzer nicht einen einzigen Regler anfassen muss! Das ist eine absolute Grundvoraussetzung für das Gelingen eines solchen Tests, denn die Regler in verschiedenen Sequenzern sind oft ziemlich verschieden skaliert, aber eine 0dB-Neutralstellung gibt es in allen.
- Das Ganze wird dann möglichst offline gebounct. Und zwar in das Format der ursprünglichen importierten Files, also ohne Sampleraten- oder Bittiefen-Veränderungen. Und natürlich auch komplett frei von jeglichem Dithering. Eine weitere Geschichte, die man machen könnte, wären Realtime-Bounces, vielleicht gibt es da ja Unterschiede. Hierbei muss man dann unbedingt auf etwaige Inputkanäle achten, je nach Sequenzer werden die dort anliegenden Signale bei einem Echtzeit-Mixdown mit einbezogen. Ganz wichtig ist natürlich, dass alle Mixdowns exakt den gleichen Startpunkt haben.
- Die resultierenden Mixdowns werden in einem einzigen Sequenzer auf übereinanderliegenden Spuren angeordnet. Welcher Sequenzer das nun sein soll, spielt an sich keine Geige, aber man könnte sich ja bspw. auf Reaper einigen, weil der für beide Plattformen als kostenlose und kleine Demo vorliegt, so dass jeder das auch selbst testen kann. Erneut darf nichts an irgendwelchen Reglern bewegt werden.
Dann werden die Files paarweise verglichen, wobei jeweils eines der Files in der Phase gedreht wird (und zwar am besten im Editor, nicht per Plugin, obwohl das Resultat natürlich identisch sein sollte und es im Fall von Logic zumindest auch ist).
- Sollte es bei einem dieser Vergleiche NICHT so sein, dass das Resultat digitale Stille ist, dann muss man natürlich verschieden Files paarweise vergleichen, bis man herausfindet, ob es nur ein File ist, welches "falsch" ist, ob es gar mehrere sind, oder was da ansonsten falsch läuft.

Was man als Ausgangematerial benutzt, ist übrigens eigentlich vollkommen schnurzpiepegal. Man sollte halt am besten was hören. Anbieten tun sich natürlich diverse Arten von breitbandigem Rauschen, denn dann kann man, sollte es Probleme geben, diesen eventuell per Spektralanalyse auf die Spuren kommen.
Oder eben sehr akzentuierte rhythmische Geschichten, so dass man, wenn es keine Phasenauslöschung beim Nulltest gibt, genau schauen kann, ob sich etwas vielleicht nur um ein paar Samples verschoben hat. Kann man natürlich beides mittels zerhacktem Rauschen kombinieren.

Wenn ich dazu komme, dann mache ich später mal ein paar kleine Files und lade die zu Dropbox.

- Der Sack

---------- Post hinzugefügt um 12:54:51 ---------- Letzter Beitrag war um 12:47:13 ----------

968, wenn du nachweisen kannst, dass unterschiedliche Sequenzer unterschiedlich klingen, wenn du nachweisen kannst, dass 64bit gegenüber 32bit beim reinen Summieren (in einem wie von mir beschriebenen Szenario) klangliche Unterschiede ausmacht, dann bist du allerherzlichst eingeladen, genau diese Unterschiede darzulegen. Bis dahin hilft es rein gar nichts, wenn du hier irgendwelche Statements von dir gibst. Denn das sind eben nur Statements.
Über die Vorteile von 64bit gegenüber 32bit zu debattieren ist an sich müßig, die liegen für die meisten auf der Hand (im Wesentlichen eben die Möglichkeit, deutlich mehr RAM benutzen zu können, aber vielleicht gibt es auch bei der Plugin-Berechnung Vorteile, etc.). Nur dass es tatsächliche Klangunterschiede geben soll, wenn der Sequenzer *nur* summiert, ohne jegliche weitere Aufgaben erfüllen zu müssen, das halte ich für unwahrscheinlichst.
Aber wie gesagt, du bist eingeladen, uns Halbwissende darüber eingehendst aufzuklären. Dann aber bitte mithilfe handfester Beispiele.

- Der Sack
 
Es gibt ja heute noch Leute, die behaupten, alle CD Player klingen gleich - ist ja digital.
Es wird auch immer Leute geben, die sagen, alle DAWs klingen gleich.
digital ist nicht gleich digital, das wissen hier denke ich alle.
Aber so wie ein Neve 8068 Mischer komplett anders klingt als ein API 2488 gibt es keinen groß nennenswerten Unterschied zwischen den DAWs.

Die einzigen Unterschiede enstehen - und dabei bleib ich bis hier etwas anderes bewiesen wurde - durch...
-> Performance Unterschiede bei Echtzeitverarbeitung
-> Unterschiede im Workflow die einen manchmal auf komplett unterschiedliche Wege führen.

Hab gerade voll das Flashback - geht das hier noch anderen so?:gruebel:
 
Pures PCM? Was ist das?

Die Samplewerte. 44100 davon pro Sekunde. Als Wert als Zahl. Ganz abstrakt. Das was das wirkliche digiatale Signal darstellt.
http://de.wikipedia.org/wiki/Puls-Code-Modulation

PCM kann in ganz verschiedenen Formaten vorliegen und transportiert werden.

Ja. Diese Zahlen kann man verschieden darstellen. Und während des Transports können diese auch umgerechnet werden und verpackt werden.
Das ist aber egal. Der Transportweg als solcher ist transparent, solange verlustlos.

Bei einer CD habe ich einen digitalen Datenstrom auf der CD. Daraus wird dann an den digitalen AES/EBU Ausgängen so ein Signal erzeugt.

Ja. Das sind zwei Transportformate. Die Codierung auf der CD mit Crossinterleaving und Eight-To-Fourteen Transformation. Dann wieder das AES/EBU Signal (was btw. identisch zum SPDIF ist! - die Unterschiede liegen nur in den Zusatzdaten) mit deren Datenstruktur.

Auf einer Festplatte oder einem anderen nichtlinearen Datenträger liegt das PCM wiederum in ganz anderer Form vor.

Auch das. Aber hier im Optimalfall als unkomprimiertes Audioformat. Z.B. eben Wave. Und sind wieder die oben genannten puren Zahlen enthalten. 1 Sample, 2 Sample, 3 Sample usw. 44100 davon pro Sekunde.

Die Klangunterschiede kommen oft von dieser Seite wenns um reine Abspielen geht.

Schmarrn! Die Zahlen werden nur erneut anders verpackt oder äuquivalent umgerechnet.

Dann nimm mal ein altes 32 bit floating point Prgramm und summiere im Vergleich dazu mit einem 64 bit floating Point Programm.

Hä ja. Und dann gib es als 24 bit int wieder aus? Liefern die Zusatzbits mehr Auflösung?
Wie gesagt, es ist ein leichtes ein paar Zahlen zu addieren. Ich schreibe dir ein Progrämmchen wo alle Datenformate nach Herzenslust umgerechnet werden können.

Wenn man in sehr guten Umgebungen testet - Akustik, Stromversorgung, ... - hört man oft Unterschiede

Der Knackpunkt ist: ja man hört tatsächlich bei solchen Tests Unterschiede. Man sollte erkennen dass ein Großteil davon aus der Arbeitsweise unseres Gehörs resultieren, also physiologische und psychologisch Effekte sind.
Und auch die Unterschiede, die physikalische bedingt sind sind vielfältig. Z.B. Kammfiltereffekte durch Reflexionen im Raum.
Gib mal auf deinen Monitoren ein 1kHz Ton mono (d.h. identischen R und L) aus und wackel mal mit dem Kopf. Bei der Wellenlänge von 34cm der 1kHz und dem ungefähren Abstand von 30 cm unserer Ohren kann man das Interferenzmuster sehr gut hören.

Und bei DAWs und Plugins spielt nicht zu letzt die Bedienung ein Rolle. Wenn die einzelnen Regler so designed sind, dass der Sweetspot leicht gefunden werden kann und auch leichstes Verdrehen noch ok ist, dann scheint das Plugin besser zu klingen als eins, wo der Sweetspot nur bei einer eng begrenzten Stelle ist und eine leichte Verdrehung schon grob andere Werte erzeugt.

Was ich oft gehört und gelesen habe ist die Beurteilung von EQs.
EQ 1: Feinfühliges Einstellen, sehr guter Klang, aber nur für subtile Korrekturen geeignete -> HighEnd
EQ 2: großer Einstellbereich, daher nicht mehr so feinfühlig, leichte Änderungen ergeben schon kräftige Frequenzverbiegungen -> fürs Grobe

EQ1 wird von den meisten als edler bezeichnet werden. Obwohl die Unterschiede nicht um Algorthmus liegen, sondern nur darin dass EQ2 größeren Wertebereich hat.
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben