Die Verstärkung elektrischer Signale erfolgt praktisch immer durch aktive Bauelemente, das sind heutzutage und schon lange die Transistoren, in der Zeit davor und bei vielen Gitarrenamps und den HiFi-Röhrenverstärkern für die Röhren-Freaks die Elektronenröhren.
Die allerersten Schaltungen waren daher Röhrenschaltungen, wobei für jede Verstärkungs-Stufe genau 1 Röhre zuständig war, auch für die Endstufe. Wird nur 1 Bauteil (Röhre/Transistor) für die Verstärkung genutzt, dann muss diese Röhre/dieser Transistor vereinfacht gesagt den gesamten Spannungsbereich der Versorgungsspannung für diese Verstärkung nutzen.
Als Beispiel nehme ich mal eine Spannung von 20 Volt an. Jetzt kommen der Arbeitspunkt und die Kennlinie der Röhre/des Transistors ins Spiel. Um die volle Schwingung der Schallwelle, die ja jetzt eine elektrische Welle geworden ist (diese Umwandlung macht das Mikro oder der Pickup) in diesen 20-Volt-Bereich zu packen, muss erstens die Arbeits-Kennlinie der Röhre/des Transistors in diesen Spannungsbereich passen und zweitens muss der Arbeitspunkt in die Mitte der Kennlinie gelegt werden. Dann kann sich die Schwingung um diesen Arbeits(Mittel)Punkt herum bis maximal zur vollen Ausnutzung der Versorgungsspannung herum ausbreiten. Um den Arbeitspunkt auf die Mitte der Kennlinie zu legen, legt man an die Röhre/den Transistor eine Vorspannung in der Höhe der halben Versorgungsspannung an (10 Volt in diesem Beispiel - diese beispielhaften Spannungen gelten nicht für Röhrenschaltungen, da diese erheblich höhere Versorgungsspannungen brauchen, das Prinzip ist aber übertragbar).
Wenn die an der Röhre/dem Transistor ankommenden Schwingungen (=Tonsignal), die ja durch das Bauteil verstärkt werden, zu groß sind, so dass die verstärkte Schwingung (die am Ausgang der Röhre/des Transistors anliegt) die Kennlinie bzw. den Maximalwert der Versorgungsspannung überschreiten müssten, was ja nicht geht, dann verzerrt das Signal.
Durch das Anlegen der Vorspannung um den Arbeitspunkt in die Mitte der Kennlinie zu legen, ist das Bauteil immer leitend, auch wenn gar kein Signal anliegt. Es fließt also immer Strom, was vor allem beim Transistor ungünstig sein kann, weil er dann warm wird (die Röhre ist ja schon warm). Da ein Endstufentransistor Leistung liefern muss, fließt bei ihm viel Strom und er wird besonders warm (daher auch die besonders großen Kühlkörper bei Class-A-Endstufen).
Der Wirkungsgrad der Class-A-Schaltung ist also ziemlich gering.
Wenn alles gut zusammen passt, die Bauteile hochwertig (= teuer) sind und keine Übersteuerung stattfindet, dann kann die Class-A-Schaltung ein sehr sauberes, also unverzerrtes Ausgangssignal liefern. Allzu hohe Ausgangsleistungen sind damit aber grundsätzlich nicht möglich wegen des mit dem geringen Wirkungsgrad verbundenen Wärmeproblems.
Dieses Schaltungskonzept zur Verstärkung war historisch das erste, was realisiert wurde, damals natürlich mit Röhren, weil es recht einfach war und mit den zunächst zur Verfügung stehenden Röhren auch realisiert werden konnte.
Daher kommt wohl auch der Buchstabe "A" bei der Klassifizierung, weil es eben das historisch erste Schaltungskonzept war.
Erst 1912 wurde das "Class-AB"-Konzept patentiert.
Es fußt auf dem "Class-B"-Konzept, bei dem sich zwei Bauteile (also 2 Röhren oder 2 Transistoren, im Folgenden nur "Bauteil" genannt) die Verstärkung der Welle aufteilen, so dass jedes Bauteil nur eine Hälfte der Welle verstärkt. Während das eine Bauteil verstärkt, sperrt das andere und das verbessert den Wirkungsgrad enorm. Bei diesem Schaltungsprinzip wechseln sich die Bauteile gegenseitig ab, so dass es auch den Namen "Gegentakt-Verstärker" bekam. Damit sind auch deutlich höhere Ausgangsleistungen möglich als bei Class-A. Auch wenn der schaltungstechnische Aufwand deutlich höher ist, überwiegen die Vorteile deutlich.
Leider gibt es bei der einfachen Abwechslung der Bauteile wie es das Class-B-Prinzip beschreibt, einen kleinen Nachteil: Genau am Übergabepunkt der Bauteile gibt es eine ganz kleine Lücke, weil die Bauteile an dem Punkt, wo sie von leitend zu sperrend und umgekehrt wechseln sozusagen einen Totpunkt haben. Diese kleine Lücke erzeugt Verzerrungen im Signal, weshalb Class-B praktisch so nicht genutzt werden kann.
Der Trick, um diese kleine Lücke zu überbrücken liegt nun darin, dass man wieder eine Vorspannung dazu gibt, und zwar für jedes Bauteil eine eigene, ganz kleine Spannung. Die ist gerade so hoch, dass sie eben über dem "Totpunkt" der Bauteile liegt. Der Arbeitspunkt wird damit gerade eben über den Totpunkt gelegt. Jetzt können sich die Bauteile an dem Übergabepunkt der Welle ein klein wenig überlappen und die Lücke ist geschlossen.
Da dem "B"-Konzept eine (kleine) Vorspannung zugefügt wird, wie sie für das "A"-Konzept typisch und nötig ist, heißt dieses sozusagen kombinierte Konzept sinnigerweise "Class-AB".
Class-C-Schaltungen spielen im Audiobereich keine Rolle, sie sind für Hochfrequenzanwendungen gedacht.
Das Class-D-Konzept funktioniert ganz anders, weil es den Transistor im Prinzip als Schalter benutzt. Also nur die Zustände "An"-"Aus" schaltet, wobei die Schaltdauern durch das Audiosignal moduliert werden. Die Schaltfrequenz selber ist sehr hoch.
Dieses Class-D-Konzept ist jüngeren Datums, weil die dazu am besten geeigneten MOSFET-Transistoren noch nicht so lange existieren.
Der Wirkungsgrad ist hier am höchsten, er kann fast 100% erreichen. Deshalb sind Class-D-Schaltungen der Standard in Batterie-/Akkubetriebenen Geräten wie Smartphones, Notebooks etc.
Generell sind die Nachteile des Class-D-Konzeptes wie z.B. höhere Verzerrungswerte bei Audio-Endstufen mit kleiner und kleinsten Leistungen zu vernachlässigen.