Wave-based reverb (youtube video mit erklärungen & demo)

B
bart
Registrierter Benutzer
Zuletzt hier
02.01.25
Registriert
20.12.03
Beiträge
198
Kekse
200
Ort
HH
Interessanter reverb, welcher etwa frequenzabhänigige abstrahlungs-direktionalität von instrumenten mit einbezieht (erklärungen - was, warum etc., sind im video)
Demos mit vergleich zu herkömmlichen bzw. convolution reverb, ca. ab 22:25. Bes. deutlich ist's bei den blasinstrumenten. IMO klingt es natürlicher, mehr als wär man im raum, vs. klang in reverb-sauce.

View: https://www.youtube.com/watch?v=_sV0mVuv-bE

Hier auch etwas info:
https://tomiwailee.com/wave-based-reverb
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Wow, da hat er ja ein tolles Geheimnis der Klanggestaltung mit Reflektionen enthüllt! Schön dass es solche YT-Spezis gibt, die uns das erklären.:engel:

Einschränkenderweise muss man aber feststellen, dass den Nicht-Studio-Nerds, die nicht nur in T-Shirts die Sounds am PC rumbasteln, sondern auch mal rauskommen und echte Instrumente aufnehmen und vermessen - also den richtigen Toningenieuren - der Effekt der 3D-Klangausbreitung schon länger bekannt ist und dem mit ihren Mikrofonsystemen und der Art der Orientierung und Abmischung Rechnung tragen indem sie Mikros passend platzieren und zumischen. Ich kann mich an eine diesbezügliche Diskussion im Tonmeister-Surround-Forum Anfang der 2000er erinnern, die mit u.a. EBS geführt wurde, als es um die räumliche Abbildung der Höhen ging. Die Geschichte ist ein recht alter Hut. :sleep:

Mithin sind die Reflektionen von der Seite, die das Ohr hört, hauptverantwortlich für die Ortung von Klangquellen: Da wir nach links und rechts in 180° die höchsten Höhen am Besten hören (man probiere es mit einer dünnen knisternden Brot-Plastiktüte aus) bekommen wir von den Wänden selbst bei idealen omnidirektionalen Klangquellen (also einer theoretisch idealen Punktquelle) die Höhen vorwiegend von da, statt von vorn. Dass die Instrumente auch in 3D strahlen, kommt noch obenauf, d.h. man sieht bildlich gesehen ein Instrument von vorn und zeitversetzt von der Seite. Ein gutes Beispiel ist die Geige, die sehr komplexe Höhen in unterschiedliche Richtungen abstrahlt, obwohl sie keine Trichtercharakteristik besitzt, wie Blechinstrumente.

Dass die Macher von Reverb-Algos das berücksichtigen, ist auch nichts Neues - nur möglicherweise für ihn selber, weil er letzte Woche davon erfahren hat.:whistle2:
Jeder, der mal mit künstlichem Hall experimentiert hat, weiß um den blechernen Klang eines nur statisch immer wieder repetierten Vollspektrums. Daher ist die Auftrennung von Frequenzen und divergent verzögerte Zumischung eigentlich Standard. Die Frage ist halt, wie das passiert: Je mehr Spektralanteile man behandeln möchte, desto mehr Rechenpower wird benötigt und die steigt da leider sehr schnell massiv an. PCs sind da einfach irgendwann beschränkt, oder sagen wir: "waren" es, daher ist bei vielen Plugins da nicht so viel zu erwarten. Mit FPGAs und in DSP-basierter HW ging da immer schon mehr. Der hier arbeitete damals schon mit 2x8 Frequenzen per IIR:

Die Alternative ist, ein einziges spezielles Gerät zu nehmen und mit dessen DSP nur Hall zu produzieren: Von dem Entwickler eines sehr bekannten Herstellers solcher Hallgeräte weiß ich, dass sie mit mehreren lines solcher Spektralbanken fahren. Herauszukitzeln war ihm, dass sie dazu einen Terzband-EQ implementiert haben, also mutmaßlich mit 32 Frequenzen fahren. Das habe ich seinerzeit bei mir dann auch direkt mal so implementiert. :p

Bei solchen Videos frage ich mich immer, wieso die jungen Buben auf die Idee kommen, sie hätten was Neues ausgegraben - gerade so, als habe es vor ihnen noch keine Welt gegeben. Die Hauptsache in dem mit allgemeinen Dingen aufgeblähten Video scheint mir eh die Werbung zu sein, die mehrfach eingeblendet wird und Kohle bringt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
verzögerte Zumischung eigentlich Standard. Die Frage ist halt, wie das passiert: Je mehr Spektralanteile man behandeln möchte, desto mehr Rechenpower wird benötigt und die steigt da leider sehr schnell massiv an. PCs sind da einfach irgendwann beschränkt,

Weswegen er ein gewünschtes profil eines modellierten raumes dann in einer IR "vorgießt", die dann in echtzeit verwendbar ist.

Ziel ist eine abstrahler-spezifische verteilung, um die probleme der gängigen IR-gewinnung über eine lautsprecherbox und ihre abstrahlcharakteristika zu umgehen.

Er erklärt einige akustische basics für allgemeines publikum - da wird nicht behauptet, dass das irgendwie neu sei.
Zuhören kann vorteilhaft sein.
 
da wird nicht behauptet, dass das irgendwie neu sei.
das muss auch nicht behauptet werden, wenn aus der Formulierung folgt, dass er quasi die Methode gefunden hat... :D
Die Arbeiten von Griesinger/Barber (ich nehme an @engineer spielt auf diese an) sind vermutlich für ein „allgemeines Publikum“ eher schwer verdaulich.

Ich persönlich empfinde es als nonsense, samples (von Natur-Instrumenten) am Keyboard zu spielen und sich über realistische Raumantworten einen Kopf zu machen.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
die dann in echtzeit verwendbar ist.
... aber nur für reflektionsfreie Signale und damit extrem eingeschränkt. Mithin krankt das IR-Verfahren weniger an der Gewinnung (ungewünschte Reflektionen lassen sich rausrechnen, da man sie beim Aufnehmen kennt) sondern an der Resynthese -> siehe Fensterung / Convolution. Es grundsätzlich unmöglich, ein zeitlich veränderliches Signal gleichzeitig im Amplituden- und Frequenzverlauf korrekt wiederherzustellen, weil es entweder unendliche Abtastrate oder ein unendlich langes Convolutionsintervall bräuchte. Die Sache funktioniert für Audio nur deshalb so einigermaßen, weil der zugemischte Hallanteil mit seinen Artefakten im Vergleich zum eigentlichen Signal limitiert ist.
 

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben