192-Khz-Aufnahmesessions

In der Software mag ich wohl 16/32/64 bit Typen definieren, aber die CPUs (also aktuelle, keine Pentium II) haben nur noch 64bit Recheneinheiten + "special units", aber diese müssen erst mal verwendet werden (Programmieraufwand). Der Adressraum folgt daraus, weil die Integerunits erst mal 64 bit sein müssen damit ich 64bit Adressraum ansprechen kann, ich muss mir ja vorher ausrechnen wo im Speicher was steht.

Ich denke, dass die gängigen DAWs intern mit 32-Bit Fließkommazahlen arbeiten und diese Zahlen werden etwas anders behandelt als ganze Zahlen. Es gibt dafür spezielle Register und spezialisierte Recheneinheiten. Insbesondere Recheneinheiten, die gleichzeitig mehrere FP-Zahlen bearbeiten können (Vektorverarbeitung) und pro Rechenschritt mehrere Operationen (etwas Multiplizieren und Aufaddieren) ausführen. Die Breite des Datenbusses, über den Daten aus dem Speicher in die CPU geschaufelt werden, kann obendrein eine andere sein. Heute typisch 128-Bit. Dabei werden die Daten aber erst in eine (mindestens) zweistufige Cache-Hierarchie bewegt.

Beim Zugriff auf den Speicher würde ich bei einer DAW auch den Performance-Engpass vermuten. Nicht bei der rohen Rechenleistung. Die Algorithmen machen relativ wenig, das aber auf sehr vielen Daten.

Wenn ich mich nicht irre(!), ist genau ein solcher Speicher-Engpass auch der Grund, weshalb nicht längst alle Audio-Berechnungen auf die wahnwitzig schnelle GPU ausgelagert werden.

Ganze Zahlen (Integer) mit 16-Bit oder 24-Bit tauchen nur noch an den Schnittstellen zu den A/D- und D/A-Wandlern auf.
 
100Spuren 1h 100Gbyte, ich kann also in 30sec das ganze Datenmenge (100Spure 1h 96/24) von der SSD ins RAM transferieren. Wenn es einen bottleneck gibt dann nicht hier,
Hmm, nochmal, das sind theoretische Werte unter der Annahme alle Daten können linear in einem Stück gelesen werden. Da aktuelle Filesystem allerdings mit verketteten Listen und Speicherblockreferenzen arbeiten schaut das anders aus.
Aber letztendlich ist das ohnehin egal. Unabhängig von Details, Datentypen, Filesysteme, Rechnerarchitekturen bleibt eines gewiss. Mehr Daten heisst mehr Arbeit. Hin und wieder ist es ganz gut wenn man einen 40 Tonner zum Transport hat. Nur wenn man den auch regelmäßig zum Semmel holen benutzt.... Effizienz ist etwas anderes.
 
Die CPUs haben intern nur noch double-Recheneinheiten (64 bit floating point = double) die GPUs waren früher 32bit floating point ( = float) jetzt sind aber alle (Nvidia) 64bit (auch die Consumer-Cards). Man müsse beide Varianten (32 64 bit) in silico am chip haben was Platzverschwendung wäre, weil die 64 auch 32 (16) rechen kann, da gibt man lieber mehrere (64bit int und double) parallel drauf.

Die Datenvolumina auf halbwegs aktueller Hardware sind bei Video ein Problem, aber bei Audio liegt das Problem aus meiner Sicht anderswo (wenn es denn eins gibt).

48/16 zu 96/24 ist wie eine Semmel zu drei Semmel(n) (die haben nicht 40 Tonnen)

Nimm eine SDD und kopiere diese auf eine andere SDD (die ganze) das geht wirklich "effizient", die Filesystem, Blöcke, verketteten Listen sind genau dazu da damit das flutscht. Es gibt keine Leseköpfe mehr die sich bewegen müssen, selbst die Defragmentierung stellt ein deutlich geringeres Problem dar (weil es keine Leseköpfe mehr gibt).
 
Zuletzt bearbeitet:
Die Größe von Gleitkommazahlrepräsentationen haben nichts mit der Rechnergrundarchitektur zu tun. Da geht es um reine Ganzzahlbehandlung, wie groß Register usw sind. Die Gleitzahl-Größe hat mehr mit derdamit erreichbaren Rechengenauigkeit zu tun.
Die Verwaltung von Datenträgern ist auch nicht darauf optimiert daten zu lesen. Daten von hinnen nach dannen zu kopieren ist unkritisch, trotzdem kann man dabei schon recht hohe Schwankungsbreiten im Zugriff sehen. Viele Audiodaten gleichmäßig und zuverlässig in Echtzeit auszulesen ist keine triviale Aufgabe zumal der geneigte Benutzer ja auch mit möglichst geringen Latenzen arbeiten will. Dafür sind die Filesysteme und Datenträger aber eben gerade nicht wirklich optimiert. Nicht ohne grund gibt es gerade für mehrspurige Mitschnitte entsprechende Dateiformate um Probleme mit dem Datenzugriff zu minimieren. Auch sieht man dass es nicht so einfach istwenn man sich die aktuellen Lösungen für integrierte Mehrspuraufnahmen von aktuellen Digitalpulten ansieht.
 
Hallo,

...wenn ich vielleicht noch mal wieder einen Bogen rückwärts schlagen darf: Gemeinhin verspricht sich doch der - ich sag's mal ohne böse Nebenbedeutung - "Unbedarfte" von einer Werbung mit 192 KHz-Fähigkeit bei der Aufnahme wahrscheinlich am ehesten einen Klanggewinn...
Bleiben wir doch mal beim Faktor Mensch: Wie erwähnt sinkt die höchste hörbare Frequenz im Alter ab. Ich bin selbst noch in der glücklichen Lage, bis knapp über 14 KHz wahrnehmen zu können, habe aber auch schon junge (18 Jahre alte) Mitglieder von Blaskapellen erlebt, die bei knapp unter 10 KHz am Ende waren. Da möchte man fragen, wie sinnvoll es sein mag, Töne im Hörbereich von Hunden oder Fledermäusen noch perfekt aliasing-frei abbilden zu können? Und wer ist in der glücklichen Lage, eine wirklich perfekte Abhörkette einsetzen zu können?
Es gibt so viele andere Sachen, die bei einer Aufnahme einfach schief gehen können oder auch schlecht gemacht werden (prominente Beispiele: Metallica, Amy Winehouse, Adele - die Liste ließe sich fortsetzen), da scheint es mir sinnvoller, den wichtigsten Punkt in der musikalischen Performance zu sehen ;) Letztlich muß mich die Musik berühren, egal welche Richtung es nun ist... ;)

Selbstverständlich ist es toll, wenn moderne Technik den Weg ebnen kann, Musik noch besser einzufangen. Wenn ich dran denke, womit ich meine ersten Mehrspuraufnahmen gemacht habe (Yamaha MT100, 4 Spuren auf Cassette...) - so ein Gerät würde heute vermutlich der durchschnittliche Fünfzehnjährige nicht mal mehr mit der Kneifzange anfassen. Trotzdem sind mir mit dem Gerät Aufnahmen gelungen, zu denen ich heute auch noch stehen kann. Auch wenn's im Vergleich zu heutigem Equipment doch vernehmlich rauscht...

Viele Grüße
Klaus
 
  • Gefällt mir
Reaktionen: 3 Benutzer
@Mfk0815
Es is eh wurscht, aber die aktuellen CPUs haben Gleitkommenunits (alle 64 bit) und Integerunits (alle 64 bit) diese sind voneinander getrennt, egal ob 8 bit, 16, bit 32 oder 64 bit daherkommt es wird alles auf 64 bit "gecastet" gerechnet und dann wirder zurückgecastet.

Also mit M.2 und PCI-X SSDs sind (im Vergleich zu früher) phantastische Durchsatzraten möglich ich kann jetzt sogar "swappen" bis auf die doppelte RAM-Größe und verliere nur bis zu 10% Performace, die SSDs sind bei reinem Datendurchsatz nur mehr weniger als 10x langsamer als RAM, die Latenz macht es aus, aber es gibt wenig besseres als Audio-files (weil das unkomprimierte Rohdaten sind).

@Basseich,

Mach den Test, ich bin sicher dass du bei 10kHz noch Rechteck von Sinus und Sägezahn unterscheiden kannst. (Der Junge aus der Blaskapelle bei 5khz auch noch). Es sind dann nur 4 Samplepunkte bei 10khz wenn mit 44khz gesampled wird, das ist gar nix. Kommen die Daten von CD oder WAVE 44/16 kannst du natürlich nix mehr unterscheiden. Es ist wie bei McDonalds, es schmeckt wunderbar, aber an einer normalen Karotte kannst Du nicht mehr viel Geschmack finden, weil es konditioniert wurde.

Es war eine Konvention, ein Kompromiss vor 30 Jahren den hat Arbeitsgruppe A vollbracht, Arbeitsgruppe B war dann zuständig für die Vermarktung (Fledermausohren, Hörbereich von Hunden, ...). Die Spektren von Klavier, Gitarre, ... enden vor 20kHz, Streicher, Bläser, Orgel, ... NICHT.

Yamaha MT100 war analog oder, allein das sollte doch schon zu denken geben.
 
Zuletzt bearbeitet:
Das in der Tat ja recht "betagte" CD-Format 16-bit/44,1 kHz war seinerzeit eine respektable, zukunftweisende Entscheidung.
Dazu kam das von Sony favorisierte Format der CD mit 12 cm Durchmessern. Der Hintergrund dazu war, dass bei der Spurbreite der "Pits" und "Lands" der CD-Spur und eben 16bit/44,1kHz eine insbesondere für den japanischen Markt wichtige Aufnahme der 9. Sinfonie von Beethoven komplett auf eine CD passte.

Klanglich ist das Datenformat der CD jedenfalls kein Flaschenhals, wie etliche absolut hervorragend klingende CD´s in meiner Sammlung beweisen (nebst einiger eigener Aufnahmen, die mir gut gelungen sind).
Die echten Flaschenhälse bei einer (akustischen) Aufnahme sind: die Mikrofone, die Vorverstärker (beides aber heutzutage auf hohem Niveau ohne sonderlich teuer sein zu müssen), aber viel mehr noch: die Mikrofonierung und nicht zu vergessen der Raum.
Nutzt aber alles nichts, wenn die Musiker es nicht schaffen, ihre Instrumente gut zum Klingen zu bringen.

Dass es sinnvoll sein kann, aufnahmeseitig eine gewisse Reserve vorzuhalten wie etwa 24-bit, wie ich weiter oben schon schrieb, sei unbestritten. Bei der Samplerate konnte ich für meine Zwecke (ebenfalls akustische Klassik-Aufnahmen wie @Basselch) keine klanglichen Vorteile bei höheren Sampleraten erkennen, wohl aber den Nachteil einer höheren Rechnerbelastung.
Wenn der PC es mitmacht, kann ich auch noch 88,2/96 kHz nachvollziehen, auch wenn ich keinen Bedarf dafür habe. Wozu aber 192 kHz nützlich sein sollen für Audioaufnahmen, entzieht sich meiner Kenntnis.

Für Audio-Messplätze können hohe Sampleraten angebracht sein, da gibt es sogar Wandler bis 768 kHz [z.B. hier: https://www.rme-audio.de/products/adi_2-pro.php], aber für Musikaufnahmen? Wie gesagt, sehe ich nicht so.

Faktisch wird der Markt sowieso von verlustbehafteten, komprimierten Formaten wie MP3 (oft sogar noch mit niedriger Datenrate) beherrscht. Wenn es dann Format-bedingte akustische Mängel gibt, hören viele die gleich gar nicht, wer schon beginnende Schwerhörigkeit hat aufgrund zu lautem Musikhören, erst recht nicht.
Wenn dann auch noch heftige Kompression dazu kommt, die immer noch allzuoft à la "loudness-war" das Material dynamisch auf nur noch einige dB platt drückt, dann kann ich jegliche Kritik am "klassischen" 16-bit-Format nicht mehr wirklich ernst nehmen.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Mach den Test, ich bin sicher dass du bei 10kHz noch Rechteck von Sinus und Sägezahn unterscheiden kannst.

Dir ist klar, dass sich diese Schwingungsformen sich frühestens beim 1. Oberton (2. Harmonische), also bei 20kHz unterscheiden können? Der 2. Oberton wäre dann schon bei 30kHz. Ich bin ziemlich sicher, dass alle hier Diskutierenden schon so alt sind, dass sie 20kHz nicht mehr hören. Was man nicht hören kann, kann man auch nicht unterscheiden.

Ich habe es gerade mit der Android Function Generator-App ausprobiert. Da höre ich tatsächlich Unterschiede, aber die sind tiefer als der Grundton. Es sind also Artefakte, die vom (Software-) Oszillator oder von der Hardware erzeugt werden.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Mach den Test, ich bin sicher dass du bei 10kHz noch Rechteck von Sinus und Sägezahn unterscheiden kannst. (Der Junge aus der Blaskapelle bei 5khz auch noch). Es sind dann nur 4 Samplepunkte bei 10khz wenn mit 44khz gesampled wird, das ist gar nix. Kommen die Daten von CD oder WAVE 44/16 kannst du natürlich nix mehr unterscheiden.
Nochmal: Akustische Instrumente sind nicht in der Lage, saubere (sozusagen "scharfkantige") Dreieck- oder gar Rechteckimpulse zu erzeugen, da sie aufgrund ihrer eigenen Bandbreitenbegrenzung die notwendigen hochfrequenten Harmonischen gar nicht erklingen lassen können (bei Dreieck sowohl gerade- als auch ungerade ganzzahlige Vielfache der Grundfrequenz, bei Rechteck nur die ungeraden ganzzahligen Vielfachen). Und schon gar nicht mit einer Grundfrequenz von 10 kHz.

Technisch kann ich mit Hilfe eines bis 20 MHz reichenden Signalgenerators, den ich besitze, solche Signale selber problemlos erzeugen, und selbst mit einem billigen Behringer Mini-Pültchen lassen sich diese Signale tatsächlich gut wiedergeben, da diese analogen Pulte locker bis über 100 kHz als obere Grenzfrequenz reichen. Ob man die Unterschiede hört, hängt natürlich entscheidend von der Grundfrequenz ab, wie @murmichel oben schreibt. Auf dem Oszilloskop sehen die Signale nach dem Durchlauf durch so ein Pult immerhin noch ganz ´manierlich´ aus. Aber um die Optik geht es hier ja nicht.

Die real existenten "unsauberen" und nur angenäherten Dreieck- und Rechteckschwingungen und insbesondere Transienten, die natürliche Klinger erzeugen (können), können mit 44,1 kHz Samplerate durchaus korrekt aufgezeichnet werden.
 
Die "Kompression" gibt es ja gerade deswegen um den Mangel von 44/16 auszugleichen, genau wir HDR für Fotos.

Wir haben keinen AD/Wandler im Ohr, wir erkennen Muster, wenn uns gelernt wird das A=B ist das ist für unseren Mustererkenner A=B (Original so gut wie Aufnahme, Foto so gut wie Realität), das ist nicht ursächlich so, sondern weil wir es lernen.

MP3 könnte (wenn man wollte und die Datenrate entsprechend erhöht, viel mehr weil es eben im Frequenzraum lebt, aber eben nur soweit, als es die Sampleraten erlauben. War damals eine helle Aufregung als die ersten Wavlet-paper herauskamen.

Edit:
Nochmal: Blasinstrumente, Orgel, Schlagzeug hat Obertonspektren die über 20kHz hinausgehen (Sägezahn, Rechteck, Dreieck, kann man ev. zuhause erzeugen).

@murmichel
wenn etwas mit 44/16 generiert wird wird es schwierig, dazu muss der Erzeuger (z.b.Synth) das auch können.
Es gibt Orgeln, da wird ein 32´ durch einen 16´ (gedackt) und eine offenen 10 2⁄3´ (Quinte) "emuliert", man hört also die Grundfrequenz des 32´ obwohl es die gar nicht gibt(!), nur weil unser Mustererkenner aus dem Obertonspektrum den 32´ "erkennt". Gibt auch "emulierte" 16´ (mit 8´ und 5 1/3´), weil die eben als Pfeifen zu teuer wären.

Sinus (der wird immer netterweise zum Testen genommen) kommt in der Natur (da lernen wir das Hören) praktisch nie vor. Wir lernen Töne (mit Obertönen) zu erkennen, wahrzunehmen, zu unterscheiden, das hat mit isolierten Sinuswellen (die ja so eh nicht von einem DA generiert werden könne) wenig zu tun (aber so kommt es aus der Werbung).
 
Zuletzt bearbeitet:
Sinus (der wird immer netterweise zum Testen genommen) kommt in der Natur (da lernen wir das Hören) praktisch nie vor. Wir lernen Töne (mit Obertönen) zu erkennen, wahrzunehmen, zu unterscheiden, das hat mit isolierten Sinuswellen (die ja so eh nicht von einem DA generiert werden könne) wenig zu tun (aber so kommt es aus der Werbung).

Natürlich hat das mit Sinuswellen zu tun. Jede Schwingungsform kann restlos in Sinusschwingungen zerlegt werden.

Die von dir genannten Sinus- und Sägezahnschwingungen bestehen ausschließlich aus Sinusschwingungen mit dem ganzzahligen Vielfachen der Grundfrequenz. Bei einer Grundfrequenz von 10kHz bedeutet das, dass der 1. Oberton 20kHz hat. Bei einer reinen Sinusschwingung kommt über dem Grundton nichts, bei einer Sägezahnschwingung sind die Obertöne ziemlich laut.

Um es nochmal anders zu sagen: Ein Sinuston und ein Sägezahnton mit Grundfrequenz 10kHz unterscheiden sich unterhalb von 20kHz nicht. @FerdinandK , ist dir das klar?
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Mir ist das klar. Deswegen hab ich es ja als Beispiel genommen, weil ich über 20khz etwas wahrnehmen MUSS wenn ich bei 10khz die Wellenformen unterscheiden kann.

Kein Vogel pfeift aus Sinus, kein Reh brüllt in der Brunft auf Sinus, Klänge kommen in der Natur vor (Obertonreihen) eine singuläre Frequenz bei einem beschränkten Zeitraum NIE. (Ein "Sinus" der bei gedrückter Taste kommt und nach Loslassen "verschwindet" ist keiner mehr, ist dir das klar?)
 
Ein "Sinus" der bei gedrückter Taste kommt und nach Loslassen "verschwindet" ist keiner mehr, ist dir das klar?

Wenn der Klangerzeuger so schlau ist, den Ton immer im Nulldurchgang zu schalten, dann ist da nur ein Sinus. :)
 
Die "Kompression" gibt es ja gerade deswegen um den Mangel von 44/16 auszugleichen, genau wir HDR für Fotos.
Hier fühle ich mich genötigt, vehement zu widersprechen, respektive, eine Erklärung zu erbitten, warum das so sein sollte und wo hier der Mangel von 44,1/16 liegen soll.

Tatsächlich habe ich schon zu Zeiten, wo ich nur Aufnahmegeräte hatte, die nicht mehr als 44,1/16 konnten, Aufnahmen gemacht, die einen enormen Dynamikumfang hatten, ich erinnere mich konkret an ein Solo-Stück für kleine Trommel von K.-H. Stockhausen, wo es sowohl extrem leises "Streicheln" des Trommelfells gab als auch heftige Rim-Shots.
Leider wurde bei der Nachbearbeitung schnell klar, dass diese ganz sauber aufgenommene und gespeicherte Dynamik nirgendwo über "normal" gute Anlagen reproduzierbar sein würde, allenfalls über extrem teure ´Super-Hi-Fi´-Anlagen, aber auch nur dann, wenn der Abhörraum entsprechend gut ist. Auch über Kopfhörer war Vorsicht angesagt, denn wenn der Hörer bei den leisen Stellen aufgedreht hätte, wären ihm die lauten Stellen um die Ohren geflogen - und hätten diese wahrscheinlich schädigen können. Deshalb habe ich diese Aufnahme damals komprimiert, eben, um sie sinnvoll abspielbar zu machen.
Das altvordere Tonband hatte selber einen Kompressions-ähnlichen Effekt, vor allem, wenn es voll ausgesteuert oder leicht übersteuert, also in die Sättigung gefahren wurde. Nach unten hin war der unvermeidliche Rauschteppich die Grenze.
Der Effekt fehlt der Digitaltechnik, selbst bei 44,1/16 ist es möglich, eine größere Dynamik sauber einzufangen als realistisch über normale Abhöranlagen wiedergeben werden kann. Daher kann ich beim besten Willen nicht erkennen, wo hier ein Mangel vorliegt.

Nochmal: Blasinstrumente, Orgel, Schlagzeug hat Obertonspektren die über 20kHz hinausgehen
Sicher gibt es Obertöne über 20 kHz hinaus, aber erstens nur im ff (leise und mittellaute Töne sind stets Oberton-ärmer als laute), zweitens sind die im Pegel fast immer nur sehr leise, und drittens hören wir die einfach nicht, selbst wenn die einen hohen Pegel hätten.

Es gibt Orgeln, da wird ein 32´ durch einen 16´ (gedackt) und eine offenen 10 2⁄3´ (Quinte) "emuliert", man hört also die Grundfrequenz des 32´ obwohl es die gar nicht gibt(!), nur weil unser Mustererkenner aus dem Obertonspektrum den 32´ "erkennt". Gibt auch "emulierte" 16´ (mit 8´ und 5 1/3´), weil die eben als Pfeifen zu teuer wären.
Es ist weniger der Preisvorteil, immerhin braucht man bei der Quint-"Emulation" für jeden Ton zwei Pfeifen statt eine, es war/ist vielmehr der Platzmangel auf manchen Orgelemporen, der zu diesem Konzept führte - wobei ein offener 32-Fuß schon sehr, sehr teuer ist. Diese ´virtuellen´ 16/32-Fuß-Register klingen im übrigen weicher und weniger direkt als echte 16/32-Fuß-Register. Üblicherweise ist aber die Oktave (hier 16´) offen und die Quinte (10 2/3´) gedackt. Die Unteroktave (der "Residualton") ist im Klang aber tatsächlich doch enthalten, wenn auch leiser als die erzeugenden Töne, die eigentlich hier Obertöne sind.

Siehe hier:
440px-Residualton_Sinus.jpg


Das Hörzentrum im Gehirn leistet aber wirklich erhebliche ´Schützenhilfe´ beim Erkennen dieses schwachen Residualtons als vollwertigen Grundton.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
@murmichel Nein leider nicht (Unstetigkeit, hat mehr der weniger Anteile in jeder Frequenz, ist eine lange Geschichte)

@LoboMix Hätten wir 16bit mit 10bit Mantisse und 6bit Exponent, perfekt wo kann ich unterschreiben, aber wir haben 16bit Mantisse 0bit Exponent.
Vereinfacht kann ich den Unterschied zwischen Amplitude 10 und 100 (absolute Maximalauslenkung) hören, aber zwischen 10010 und 100100 (Signalamplitude) nicht, d.h. ich bin "um 0 herum" zu ungenau und um 32000 (weil + -) zu hochauflösend, eben weil wir logarithmisch hören (die Lautstärke sogar in db (ist logarithmische Skala) angeben). Natürlich gibt es gute Aufnahmen, weil die auch gut gemacht wurden, weil die Leute gelernt haben mit dem Equipment umzugehen, aber Fehler dürfen nicht viele passieren (nicht jeder kann das). (Digitalmischpult die Gains niedrig und schon wird es lustig). Ich sehe bei den LEDs am Mixer nicht 1000, 2000, 3000, 4000 (Signalpegel) ich sehe 10 100 1000 10000 (also mehr oder weniger die verwendeten bits) leuchten nur wenige LEDs wird die Auflösung dürftig. Natürlich kann der geneigte Techniker, Amateur, Profi, das "aussteuern", aber mit der "richtigen" Darstellung des Signales wäre weit mehr gewonnen (und hochauflösenden AD Wandlern), solange das nicht ist, würde ich ein paar bit Auflösung hinzugeben.

Aus meiner Sicht kann ein 44khz Sample nix gescheites über 10khz darstellen, da gibt es Auslöschung, Dämpfung, Sekundärfrequenzen (die durch das Sampling selbst enstehen und dann wieder herausgerechnet werden), ich weiß aber, dass ich über 10khz tönen kann, es Instrumente gibt die das können. Wir können zwar nicht zwischen 10000 und 10100 Signalamplitude unterscheiden, aber wir können aus einer "sehr lauten" Umgebung einen "sehr leisen" Klang (=Obertonfolge) herausfiltern (ein Stimme, ein Instrument, ein Tratschen zwischendurch) bei entsprechender Konzentration (des Mustererkenners), das ist aber meist nur "im Original" möglich auf der Aufnahme nicht mehr.

Ich meine ich hab genug geschrieben, soll sein wie es will.
 
... eben weil wir logarithmisch hören (die Lautstärke sogar in db (ist logarithmische Skala) angeben) ...
Die bei einer Aufnahme von einem Mikrofon generierten Spannungen sind ebenfalls logarhitmisch, proportional zur an der Membran anliegenden Lautstärke. Diese logarithmischen Spannungsverläufe werden vom AD-Wandler 1:1 im Zahlenraum des Audio-Formats abgebildet. Wo liegt da ein Problem?

Aus meiner Sicht kann ein 44khz Sample nix gescheites über 10khz darstellen, da gibt es Auslöschung, Dämpfung, Sekundärfrequenzen (die durch das Sampling selbst enstehen und dann wieder herausgerechnet werden)
Das ist, mit Verlaub, Unsinn. Bis zur Nyquist-Frequenz bilden die Wandler das Signal extrem sauber ab mit nur extrem geringen Verzerrungen, die typischerweise mindestens bei nur rund -100 dB und weniger liegen. Das kann man nicht nur den Datenblättern entnehmen, sondern auch einfach messen. Das Aliasing, das Signalanteile hervorrufen würden, die über der Nyquist-Frequenz liegen, wird, wie ich weiter oben beschrieben habe, bei jedem halbwegs modernen Wandler mit Oversampling wirkungsvoll und praktisch vollständig unterdrückt.
Material dazu kann ich gerne verlinken.

Zum angesprochenen Thema der hörbaren Unterschiede zwischen einem 10-kHz-Dreieck- und Rechteck-Signal habe ich eben einen kleinen Versuch gemacht.

Hier zunächst die Signale, wie sie aussehen, wenn ich sie durch einen X32-Rackmixer schicke (das Originalsignal ist immer oben, das Signal am Mixerausgang immer unten zu sehen):

10 kHz_Rechteck_X32.png


10 kHz_Dreieck_X3.png


Es ist deutlich zu sehen, dass aus den anliegenden Signalen durch die steile Filterung ein reines Sinus-Signal wird. Das war auch zu erwarten.
Der Pegel des resultierenden Sinus aus dem Rechteck hat aber einen höheren Pegel als das aus dem Dreieck und hört sich deshalb lauter an. Nach Angleichen der Lautstärke am Kopfhörerausgang ist kein Unterschied mehr zu hören.


Die beiden Signale habe ich dann noch mal durch einen kleinen analogen Behringer-Mixer (Xenyx Q502) geschickt, einmal mit linear eingestellten Filtern, und ein weiteres mal mit maximaler Dämpfung des High-Shelf-Filters (12 kHz mit -15 dB):

10 kHz_Rechteck_502.png


10 kHz_Dreieck_502.png






10 kHz_Rechteck 502_HighShelf.png



10 kHz_Dreieck_502_HighShelf.png



Mit linearem EQ gehen die 10-kHz-Signale wirklich vergleichsweise sauber durch den kleinen Mixer durch, aber dessen analoge Bandbreite ist ja auch recht ansehnlich.

Mit maximalem High-Shelf geht es dann wieder in Richtung Sinus, da jetzt viele Harmonische abgeschnitten, bzw. gedämpft werden. Da der Filter aber nicht allzu steilflankig ist, bleiben noch genug Harmonische übrig, um die Reste der ursprünglichen Signalform gerade noch erkennen zu können.

Akustisch jedoch hören sich für mich aber alle Signale gleich an (über Kopfhörer AKG 271 Studio), da sie aber unterschiedlichen Pegel haben (wie in den Diagrammen zu erkennen ist) muss man sie natürlich für den Hörvergleich sorgfältig im Pegel angleichen. Die Lautstärkeunterschiede würden ansonsten Unterschiede in der Wahrnehmung suggerieren, aber das ist ja hinlänglich bekannt.
 

Anhänge

  • 10 kHz_Dreieck_X3.png
    10 kHz_Dreieck_X3.png
    20 KB · Aufrufe: 152
  • Gefällt mir
Reaktionen: 6 Benutzer
Jetzt hab ich mal das ganze hier durchgelesen und bin auch überrascht wie sehr das ausartet.
Das meine ich aber nicht böse, sondern eher gut. Ich hab wieder einiges dazu gelernt. Dafür mal ein Danke an alle die hier ihr Wissen geteilt haben.

Eine Frage wurde aber nicht beantwortet, ja nicht mal richtig angesprochen. Was macht die Bittiefe klanglich für einen unterschied? Natürlich kennt jeder die klassischen 16 und 24 bit. Die älteren Semester werden sich sicher noch unter Windows 3.x und 95 auch an 8 bit Soundkarten erinnern.
Das einzige woran ich mich noch erinnere ist, das zwischen 8 und 16 bit eine deutlich hörbarer Klangunterschied besteht. Woher der kommt oder was daran schuld ist weiß ich aber nicht.

Die Bittiefe bei Grafikkarten gibt ja an, wie hoch die Anzahl der rechnerisch darstellbaren Farben ist (16bit = 2¹⁶ = 65536 Farben).
Entspricht das bei Tonmaterial dann der Anzahl der darstellbaren Frequenzen? Bei 16 bit wären das dann zwischen 20hz und 20.000hz etwa 0,3hz Schritte (Frequenzbreite / 16bit -> 19980/65536=0,3048...).

Bin ich da auf dem Holzweg oder kommt das so hin wie ich mir das zusammen reime?
 
@Sharkai, die bit-Tiefe hat nichts mit der Frequenzauflösung zu tun, dafür ist die Samplefrequenz zuständig. Die bit-Tiefe gibt an, mit wievielen Stufen der Dynamikumfang der Aufnahme aufgelöst wird.

8 bit bedeuten, dass es nur 2hoch8 also nur 256 Stufen gibt. Pro bit rechnet man mit 6 dB Dynamikumfang, der sinnvoll abgebildet werden kann, der also weder im Rauschen untergeht noch zu Übersteuerungen führt. 8 bit entsprechen nur 48 dB (praktisch aber weniger), das konnten die alten Kassettenrecorder schon besser.
16 bit sind nicht nur deutlich feiner auflösend (65536 Stufen), sondern bringen schon maxmimal 96 dB Dynamikumfang.
24 bit sind nochmal erheblich besser auflösend (16777216 Stufen) und bringen 144 dB Umfang - hier aber auch eher nur theoretisch, weil auf der analogen Eingangsseite bestenfalls -120- -124 dB Rauschabstand ´geliefert´ werden.
Höhere Auflösungen wie 32-bit, 32-bit Float usw. sind DAW-intern üblich (auch Mixer-intern), aber nur deshalb, weil durch die interne Abmischung mehrerer Kanäle, durch EQ-Anhebungen usw. der Maximalwert auch bei 24-bit überschritten werden kann bzw. wird. 32-bit float bietet praktisch einen unendlichen Headroom und kann deshalb nicht übersteuern. Vor der Ausgabe am DA-Wandler am Ausgang wird das Signal erst wieder auf maximal den 0 dBFS-Wert des Wandlers (normalerweise ein 24-bit-Wandler) normalisiert.

Klanglich kann man - meiner Erfahrung nach - eine gut ausgesteuerte 16-bit-Aufnahme von einer 24-bit-Aufanhme nicht voneinander unterscheiden. Man muss sich immer vor Augen (bzw. besser Ohren ;)) halten, dass in Wohnräumen auch über gute Anlagen und unter guten Abhörbedingungen kaum mehr als 60-70 dB Dynamik reproduzierbar sind, meistens noch weniger.
 
  • Gefällt mir
Reaktionen: 4 Benutzer
@Sharkai
Die Wortbreite hat nichts mit Frequenzen/dem Frequenzspektrum und seiner Abbildung/Abbildbarkeit zu tun. Die Wortbreite definiert (im Festkomma-Bereich) die Anzahl der abbildbaren Pegelzustände. Mal ganz einfach ausgedrückt.


Ansonsten kann ich zur übrigen "Diskussion" nur sagen: Pfff, da versuche ich doch lieber einer Kuh das Einradfahren beizubringen. :D
--- Beiträge wurden zusammengefasst ---
LoboMix ist heute hart im Erklärbär-Modus und dabei völlig schmerzfrei. Gebt dem guten Mann mal Zuckerschock in Form von Keksen. :D
 
  • Gefällt mir
Reaktionen: 5 Benutzer
@LoboMix wir stimmen also überein, dass das Signal nicht proportional zum Pegel in db ist, sondern logarithmisch.
8bit Auflösung 256 -> 48db
16bit Auflösung 65536 -> 96db
24bit Auflösung 16777216 -> 144db
Also Anzahl der bits proportional zum (abbildbaren) Pegel in db
log(Signalwert) proportional zum Pegel in db

Wenn du bei 10khz unterschiedliche Pegel nach Sampling unterschiedlicher Wellenformen bekommst, dann hat das zur Folge, das das Obertonspektrum eines Klanges sich verändert (wesentlich weil hörbar), bei der isolierten Frequenz kann ich das natürlich angleichen, aber als Oberton steht sie in Relation zu anderen Frequenzen. Darüber (10kHz) wird es noch schlechter, darunter erst besser wenn ich eben eine vernünftige Anzahl an "Stützstellen" für die Näherung (pro Halbwelle) habe.

Du schreibst auch, dass der Wandler selbst mit OVERSAMPLING für entsprechende Aufbereitung sorgt das wusste ich nicht.

P.S.: Lt meines Wissens wird niemand gezwungen zu lesen oder zu schreiben, man kann es auch ignorieren.
 
Zuletzt bearbeitet:

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben