"Strom bewegt sich mit Lichtgeschwindigkeit", so sagt man häufig. Physikalisch ist diese Aussage natürlich falsch, wie ja schon bemerkt wurde. Das was wir sehen oder besser gesagt wahrnehmen, ist die Wirkung. Wenn ich den Schalter umlege, so ist quasi sofort das Licht an! Das ist die Wirkung. Die Tatsache, daß sie so schnell (mit "fast" Lichtgeschwindigkeit erfolgt) ist mit dem Impuls zu begründen.
Die Ladungsträger haben in den verschiedenen Medien unterschiedliche Ausbreitungsgeschwindigkeiten. Tatsächlich sind dieser relative gering (ein paar cm/sec oder so). Da die Ladungsträger jedoch dicht gepackt sind, setzt die Bewegung eines Teilchen voraus, daß ein anderes Platz macht.
Man stelle sich in diesem Zusammenhang eine mit Kugeln gefüllte Röhre vor. Stecke ich eine weitere Kugel hinein, fällt sofort am Ende eine andere hinaus.
Diese Betrachtungsweise läßt sich auch auf Wechselströme anwenden. Hier findet jedoch kein echter Ladungsträgertransport im Sinne einer Materialwanderung statt, vielmehr bewegen sich die Teilchen um einen Ruhepunkt, hin und her. Man kann daher für jeden Ladungsträger eine Aufenthaltswahrschweinlichkeit angeben.
Für die Wirkung, also den Impuls spielt das jedoch keine Rolle. Er ist dann nur einen gewissen Zeitraum positiv und dann wieder negativ.
In beiden Fällen wird durch die Bewegung der Ladungsträger Energie umgesetzt, die sich dann in Wärme äußert.
Aber zurück zum Anfang der Diskussion.
Jede elektronische Signalverarbeitung unterliegt gewissen zeitlichen Verzögerungen. Die frequenzabhängige Phasendrehung eines einfachen Tiefpasses ist dafür ein gutes Beispiel. Wenn ich also einen tiefen und einen hohen Ton zur gleichen Zeit in ein System einspeise, kann es geschehen, daß am Ausgang ein Laufzeitunterschied zu bemerken ist. In Fernsehgeräten gibt es eine besondere Verzögerung für das Y-Signal (oh, daß wird jetzt aber wirklich etwas OT), das die Helligkeitsinformationen (bis 5MHz) überträgt. Sie ist notwendig, weil die Schaltungsteile für die Farbverarbeitung (4,43MHz) ein wenig schneller arbeiten. Damit am Ende doch wieder alles zusammenpaßt, muß ein Signal eben "gebremst" werden (beschleunigen ist leider nicht möglich).
Bei digitalen Systemen ergeben sich die Verzögerungen in erster Linie aus den Verarbeitungszeiten der FlipFlops (Propagationdelay). Sie sind in der Regel sehr kurz. Wir reden hier über Piko- bis Nanosekunden. Aufgrund der großen "Logiktiefe" können in der Summe aber doch schon (für das System) gewaltige Verzögerungen entstehen, die dafür sorgen, daß zwei zusammengehörende Signale nicht zum gleichen Zeitpunkt an einem gemeinsamen Gatter anliegen und somit die geplante zeitrichtige Auswertung nicht möglich ist. In der Theorie funktioniert die Logik zwar, aber die Laufzeiten spielen den Entwicklern dann einen Streich. Man spricht dann von einem sogenannten "Hazard", sind verschiedenen Taktsignale betroffen sagt man manchmal auch "Clock racing".
Die eben genannten Verzögerungen dürften für den Menschen aber in der Regel noch nicht wahrnehmbar sein. Für eine µC ist 1ms allerdings eine Ewigkeit.
Digitale Signalverarbeitung wie sie bei Effekten und Amp-Modeling eingesetzt wird bedeutet die Umsetzung von rückgekoppelten Algorithmen in ein Program für einen DSP. Wenn ein Signal dabei 5 oder 10 Mal im Kreis laufen muß, können sich die Propagationdelays schnell potenzieren.
Jeder Algorithmus ist dadurch gekennzeichnet, daß er eine bestimmte Anzahl von Maschinentakten zur Abarbeitung benötig. Ein Move im Speicher benötigt vieleicht nur einen Takt, eine Division kann, je nach Komplexität und geforderter Genauigkeit, wesentlich mehr Takte benötigen.
Dazu kommt, daß häufig zwei Algorithmen mit unterschiedlicher zeitlicher Dauer quasi parallel abgearbeitet werden müssen. Der längere Algorithmus bestimmt hiermit die maximale Geschwindigkeit der gesamten Verarbeitung.
Bei schwachen DSPs müssen die beiden Algorithmen vieleicht sogar nacheinander abgearbeitet werden (mit Speicherung eines Zwischenergebnisses). Das verschärft den Zeitbedarf natürlich und verringert somit die Arbeitsgeschwindigkeit. DSP's sind daher in der Regel mit starken Parallel-Fähigkeiten ausgestattet.
Man kann bei digitaler Signalverarbeitung also generell sagen, je komplexer ein Algorithmus ist, desto größer ist seine Laufzeit in Maschinentakten, desto größer ist die Latenz.
Es stellt sich dann nur die berechtigte Frage, ab wann sich das ganze störend bemerkbar macht. Hier mein exakte Antwort: Isch weiß es nischt!
Ich habe jedoch mal mit meinem alten Echo gespielt und nur das verzögerte Signal rausgegeben. Ich war bei 200ms nicht in der Lage, mein Timing zu halten. Je kürzer die Zeit, desto einfacher wurde es. Ich würde daher vermuten, daß Latenzen von 1 bis 2 ms maximal noch kein Problem darstellen.
Allerdings würde ich generell ein digitales System mit einem leistungsfähigen DSP bevorzugen. Wenn alle Algorithmen innerhalb der Abtastperiode erledigt werden können, hat man eigentlich kein Problem.
So, genug geschwafelt. Nu ward dat Tid, dat de Onkel in't Bett kümmt!
Ulf