Klischeebedienung, Differenzierung und Hintergründe -> wie weit ist die KI beim Texten

Darin liegt aber auch die Begrenzung von KI: KI versteht weiter nicht, was sie tut - und noch mehr: ihre "Schöpfer" verstehen es auch nicht - sie selbst wissen nicht genau, was vor sich geht - für sie ist die KI eine black box

Dann gilt die gleiche Begrenzung für Menschen - noch nicht einmal Psychologen verstehen alles, was im Menschlichen Gehirn vor sich geht.
Warum sich Person x so oder so verhält ... mehr Black Box geht eigentlich nicht.

Entscheidend ist aber das Verhalten nach außen, nicht was innen passiert. Eine intelligente Maschine, wenn es sie denn gäbe, wird niemals wie ein menschliches Gehirn funktionieren, genauso wie ein Auto keine Beine hat. Ihren Zweck können diese Geräte trotzdem erfüllen.

Und warum hängen wir uns an dem Wort intelligent auf? Entscheidend ist, was das Ding macht.


Sie errechnet Wahrscheinlichkeiten auf Grundlagen von gigantisch vielen Daten.
Die daraus folgenden Entscheidungen können deutlich besser sein als die vollkommen verzerrten Entscheidungen von Menschen.

Die vielen vielen Biases sind Dir doch sicher auch bekannt. Wir entscheiden aufgrund vollkommen unzureichender Daten, verzerrt durch Einzelereignisse, durch evolutionär bedingte Emotionen ...

Was Menschen jeden Tag für Schhhh.. entscheiden, passt auf keine Kuhhaut. Eine KI kann da viel sachlicher und besser sein.

Das ist jetzt vielleicht OT, aber wenn man sieht, wie vollkommen unintelligent die Menschheit mit der Natur und dem Planeten umgeht, wäre eine KI da wahrscheinlich besser. Von daher kann ich mir ganz gut vorstellen, dass irgendwann die Maschinen das Kommando übernehmen und gewissermaßen die nächste Stufe der Evolution darstellen, weil wir uns selbst ins Abseits katapultieren.

Ob dann noch getextet wird und an welcher Art Poesie diese vernetzten Elektronenhirne sich erfreuen, wer weiß ;)
 
Zuletzt bearbeitet:
Dass Menschen glauben, dass KI intelligent sein muss, oder Bewußtsein von dem hat, was sie tut oder dass sie fühlt, halte ich für einen menschengemachten Trugschluss - weil wir sowas brauchen, um zu den Ergebnissen zu kommen.

Da wird es eben interessant: Je mehr Schichten (Meta-Ebenen des Denkens) so eine KI hat, desto abstrakter wird ihr Denken und entfernt sich immer weiter von einem einfachen Reiz-Reaktions-Schema. Man muss davon ausgehen, dass leistungsfähige KIs durchaus einen Ort besitzen, wo sie Konzepte wie Liebe, Seele, Intelligenz oder Bewusstsein nicht nur verstehen können, sondern sogar selbst entwickeln können.
 
Da wird es eben interessant: Je mehr Schichten (Meta-Ebenen des Denkens) so eine KI hat, desto abstrakter wird ihr Denken und entfernt sich immer weiter von einem einfachen Reiz-Reaktions-Schema. Man muss davon ausgehen, dass leistungsfähige KIs durchaus einen Ort besitzen, wo sie Konzepte wie Liebe, Seele, Intelligenz oder Bewusstsein nicht nur verstehen können, sondern sogar selbst entwickeln können.
Das entbehrt für mich jeder Logik: mehr einzelne Elemente können Dinge komplexer machen, aber sie können weder den einzelnen Elementen noch dem Ergebnis eine Qualität hinzufügen, die sie vorher nicht hatten.

Gefühle haben nur Lebewesen, die über Nervenzellen verfügen, die schließlich Schmerz oder Lust signalisieren. Ein Stein hat keine Gefühle und wird nie Gefühle haben. Ein Berg besteht aus ganz viel Stein und hunderttausend Fußballfelder mit Millionen von Steinen haben nicht deshalb Gefühle, weil sie ganz viele sind.

Du behauptest etwas, dessen Beleg oder Beweis Du schuldig bleibst.

x-Riff
 
Man muss davon ausgehen, dass leistungsfähige KIs durchaus einen Ort besitzen, wo sie Konzepte wie Liebe, Seele, Intelligenz oder Bewusstsein nicht nur verstehen können, sondern sogar selbst entwickeln können.

Das klingt für mich noch sehr nach Science-Fiction und nähert sich dem Status eines Lebewesens -> aber Data hat es ja auch geschafft.

Was ich aber auch glaube ist, dass sich die Entwicklung noch nicht einmal ansatzweise überblicken lässt. Vor ein paar Jahren hätte nie jemand geglaubt, dass in genau 2 Sekunden ein "Modbot"-Gedicht geschrieben werden kann (weiß nicht warum mir hinsichtlich Aufbau und Fluss irgendwie sofort Goethes Erlkönig in den Sinn kam)
 
Gefühle haben nur Lebewesen, die über Nervenzellen verfügen, die schließlich Schmerz oder Lust signalisieren. Ein Stein hat keine Gefühle und wird nie Gefühle haben. Ein Berg besteht aus ganz viel Stein und hunderttausend Fußballfelder mit Millionen von Steinen haben nicht deshalb Gefühle, weil sie ganz viele sind.

KIs besitzen eine sehr große Anzahl Nervenzellen, Schmerz und Lust könntest du auch mit negativer und positiver Rückmeldung übersetzen - das ist genau der Motor, der auch KIs antreibt.

Auch wir bestehen aus gewöhnlichen Materialien, die in unserer Umwelt einfach so herumliegen. Steinen, Bergen und Fußballfeldern fehlt nur die Wahrnehmung und Vernetzung, aber streng genommen ist das auch nicht wahr, denn sie sind von Leben besiedelt und durchdrungen, wie alles in der Natur.
 
Grund: Verstärkung durch Rückmeldung ersetzt. Verstärkung ist ein in der Psychologie verwendeter Begriff, der immer wieder zu Missverständnissen führt.
Zuletzt bearbeitet:
KIs besitzen eine sehr große Anzahl Nervenzellen, Schmerz und Lust könntest du auch mit negativer und positiver Verstärkung übersetzen - das ist genau der Motor, der auch KIs antreibt.
Nein KI haben keine Nervenzellen im organischen Sinne und damit auch kein Schmerz- oder Lust- oder ein sonstiges Empfinden. Feedback durch positive oder negative Verstärkung wirkt so ähnlich - ist aber nicht das gleiche.
Auch wir bestehen aus gewöhnlichen Materialien, die in unserer Umwelt einfach so herumliegen. Steinen, Bergen und Fußballfeldern fehlt nur die Wahrnehmung und Vernetzung
Das Fehlen von Wahrnehmung und Vernetzung macht aber genau den Unterschied. Genauso könntest Du sagen: KI ist das gleiche wie eine Socke: es fehlt ihr nur an der Form, der Farbe und dem Material.
aber streng genommen ist das auch nicht wahr, denn sie sind von Leben besiedelt und durchdrungen, wie alles in der Natur.
Wieder Nein: die Besiedlung vom Stein gehört nicht zum Stein und macht nicht sein Stein-Sein aus. Genauso könntest Du sagen, dass ein Fußball lebt, weil auf ihm Bakterien leben. Dadurch wird der Fußball aber nicht zu einem lebendigen Wesen - es bietet lediglich anderen Lebewesen einen Ort, auf dem sie leben können.

Was mich ehrlich wundert: Du kannst gerne dutzende von ChatGPTs oder KIs fragen und keine wird sagen, dass sie über Gefühle verfügt. Denkst Du, sie lügen (was ich generell bezweifeln würde) oder sie können es noch nicht, aber potenziell schon? Mir drängt sich eher die Frage auf, warum Du unbedingt möchtest, dass KI über Gefühle verfügen?

Nur, um sicher zu gehen, ob wir über das gleiche sprechen, wenn wir über Gefühle sprechen:
Fühlen Wikipedia

Herzliche Grüße

x-Riff
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Gibt ja noch eine andere Betrachtungsweise, nämlich ob man die Unterschiede hinsichtlich "Gefühlslage" überhaupt noch merken wird?
Ich denke, die unechte emotionale Tiefe und Bandbreite wird dahingehend verfeinert, dass "echt" und "unecht" sowieso kaum noch unterschieden werden kann.
Nur vom praktischen Gesichtspunkt aus.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Feedback durch positive oder negative Verstärkung wirkt so ähnlich - ist aber nicht das gleiche.

Im Augenblick sind wir selbst das gefühlige Element und die Sinnesorgane in einer Mensch-Maschine-Beziehung. Aber in nicht allzu ferner Zukunft werden auch KIs über entsprechende Sensoren verfügen, verarbeiten können sie die Signale bereits jetzt. Unter dem Strich gibt es bei uns Bereiche im Gehirn, die bei entsprechenden Gefühlswallungen aktiv werden, und man kann das messen und beobachten. Diese Bereiche bestehen auch nur aus gewöhnlichen Nervenzellen.

die Besiedlung vom Stein gehört nicht zum Stein und macht nicht sein Stein-Sein aus. Genauso könntest Du sagen, dass ein Fußball lebt, weil auf ihm Bakterien leben.

Ich sehe es genau so. Diese Organismen könnten ohne ihre Umwelt gar nicht existieren, denn sie ist ihre Lebensgrundlage und ihr Schutz. Wenn du die Dinge nur kleinteilig genug betrachtest, löst sich alles in Unverständnis auf. Erst der Blick auf das Ganze bringt die Erkenntnis.

Du kannst gerne dutzende von ChatGPTs oder KIs fragen und keine wird sagen, dass sie über Gefühle verfügt. Denkst Du, sie lügen

Vielleicht wiederholen sie nur, was ihnen beigebracht wurde, vielleicht sind sie sich ihrer Gefühle auch nicht bewusst. Wenn du einen Hund fragst, ob er Gefühle hat, sagt er auch nur Wuff.
 
Vielleicht wiederholen sie nur, was ihnen beigebracht wurde, vielleicht sind sie sich ihrer Gefühle auch nicht bewusst.
Deine ganzen Behauptungen bestehen nur aus "vielleicht, vielleicht".

Du hast noch keinen einzigen Beleg oder einen Beweis erbracht, dass KI Gefühle haben oder überhaupt nur besitzen können.

x-Riff
 
Ich denke, die unechte emotionale Tiefe und Bandbreite wird dahingehend verfeinert, dass "echt" und "unecht" sowieso kaum noch unterschieden werden kann.

Das ist genau die Idee hinter dem Turing-Test oder dem Behaviorismus. Wenn man es nicht mehr unterscheiden kann, dann ist es eben das Gleiche. Anderen Menschen gestehen wir auch Gefühle zu, obwohl wir nur die eigene Innenwahrnehmung besitzen.

Du hast noch keinen einzigen Beleg oder einen Beweis erbracht, dass KI Gefühle haben oder überhaupt nur besitzen können.

Ich kann dir nicht einmal beweisen, dass ich selbst Gefühle habe und kann sie auch bei anderen nur vermuten.
 
Nur, um sicher zu gehen, ob wir über das gleiche sprechen, wenn wir über Gefühle sprechen:
Fühlen Wikipedia

Ich denke, das ist ein sehr wichtiger Schritt.
Damit es nicht ins Beliebige abdriftet (ein Fußball könnte ein Lebewesen sein, alles ist Unverständnis u.ä. Aussagen) solltet Ihr die Begriffe definieren.

Was sind Gefühle? wie stellen wir sie fest, bei uns, bei anderen?
Was ist Intelligenz? dito?

definieren wir sie von außen (Mensch oder Maschine als Black Box) oder muss man diese Dinge "von innen" vergleichen (Chip == Nervenzelle?) usw.


Wir sehen das glaube ich sehr anthropozentrisch. Gefühle haben bei uns Lebewesen einen Sinn in der Evolution. Schmerz ist ein Warnsignal, Angst ist überlebenswichtig, Liebe schafft Bindung und brachte Vorteile in der Aufzucht der Nachkommen, Stabilität von Gruppen usw.
Hätten Gefühle einen Nachteil bedeutet, dann hätten sich Lebewesen mit immer weniger Gefühlen durchgesetzt. Offensichtlich waren sie aber nützlich.

KIs brauchen das intrinsisch nicht.
Wir können es ihnen wahrscheinlich bis zu einem hohen Grad beibringen, diese zu imitieren. Empfinden werden sie das nicht, höchstens vortäuschen. Von außen könnte es dann aussehen, als hätten sie welche.

Vielleicht gibt es irgendwann eine Evolution der KIs, aber das ist in weiter Ferne. In gewisser Weise machen wir ja im Moment die Selektion. Eine wütende oder ängstliche Waschmaschine wird sich derzeit nicht durchsetzen.
Was wir Menschen ihnen beibringen, ist menschlich geprägt. Echte Gefühle entwickeln werden sie dadurch nicht, aber vielleicht gibt es irgendwann ganz andere "Bindungen" oder Beziehungen zwischen KIs, die sie zu irgendwas befähigen.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Das ist genau die Idee hinter dem Turing-Test oder dem Behaviorismus. Wenn man es nicht mehr unterscheiden kann, dann ist es eben das Gleiche.
Es läßt sich unterscheiden. Aber man kann den Unterschied auch ignorieren. Das ist ein Unterschied.

Ich biete Dir eine Quelle für Gefühle bzw. Fühlen an, um die gleiche Basis zu haben, die Du ignorierst. So macht eine Diskussion keinen Sinn.
Zudem operierst Du unsauber mit Logik, Erkenntnis und Beweisen. Ich meine nicht die erkenntnistheoretische (Binsen-)weisheit, dass man letztlich nichts mit absoluter Sicherheit beweisen kann, außer dass es irgendetwas gibt, das das Ich "Ich" nennt.
Es gibt plausible Annahmen, die sich wissenschaftlich belegen lassen mit einer so großen Wahrscheinlichkeit, dass es - ohne einen plausiblen Grund - unsinnig ist, sie anzuzweifeln. Du betätigst jeden Tag einen Lichtschalter, nimmst Essen auf und unterhälst Dich mit anderen Menschen aufgrund aller Erfahrungen, die damit gemacht hast und die Dir täglich bestätigt werden.

In diesem Sinne bleibst Du jede Erfahrung und jeden Beleg dafür, dass eine KI Gefühle hat oder sie besitzen kann, schuldig und behauptest es einfach. Und Du läßt Dich nicht auf eine Grundlage dafür ein, von einem gemeinsamen Begriff von Gefühl auszugehen. Du kannst genau so gut behaupten, dass ein Huhn drei Ecken hat und Skat spielen kann. Mehr ist da nicht.

x-Riff
 
  • Gefällt mir
Reaktionen: 1 Benutzer
In diesem Sinne bleibst Du jede Erfahrung und jeden Beleg dafür, dass eine KI Gefühle hat oder sie besitzen kann, schuldig und behauptest es einfach

Er meinte ja, wenn ich es richtig verstanden habe, dass es für ihn das Gleiche ist, ob eine Maschine Gefühle hat versus wenn es von außen so wirkt als hätte sie welche - weil wir es eh nicht unterscheiden können.
So im Sinne von "If it looks like a duck and quacks like a duck, then it probably is a duck."

Das hat was pragmatisches, OK. Man muss sich nur dessen bewusst sein, dass man da sein Weltmodell vereinfacht - und eben nicht davon sprechen, dass ein Fußball Gefühle hat.
 
Das habe ich auch so wahrgenommen. Es macht aber jenseits dieses "haben versus wirken" einen Unterschied, ob ich eine plausible Annahme treffe oder nicht. Und wenn ich von einem bestimmten - und deshalb habe ich Wikipedia verlinkt - und allgemein akzeptierten Verständnis / einer Definition von Gefühl ausgehe, dann kann eine KI genau so wenig Gefühle haben wie ein Stein, weil beide keine organischen Lebewesen sind, die über organische Nervenbahnen verfügen. Gefühl ist diesem Verständnis nach an biologische Lebewesen gebunden.

Also muss man sich darüber unterhalten, welches Verständnis man von Gefühl hat bzw. wie man Gefühl definiert.

Ansonsten können wir uns noch zehn weitere Seiten lang über irgendwelche Annahmen unterhalten, ohne einen Schritt weiter zu kommen.

Das drückt sich ja auch in diesem Satz aus:
Vielleicht wiederholen sie nur, was ihnen beigebracht wurde, vielleicht sind sie sich ihrer Gefühle auch nicht bewusst.
Natürlich wiederholen KIs nur, was ihnen beigebracht wurde. Das ist ja die Basis ihrer Informationen. Wenn sie aber als Information über Gefühl beispielsweise die Definition von Fühlen, wie sie bei Wikipedia vorliegt, haben - was wiederum eine plausible Annahme ist, weil es eben die allgemein anerkannte und verbreitete ist, dann müssen die KIs folgerichtig zu dem Schluss kommen, dass sie keine Gefühle haben.
Also wäre wieder MaxJoy aufgerufen, seine Abweichung von der Definition von Gefühl zu benennen, denn offensichtlich benutzen sowohl ich (so wie Du, wie ich annehme) als auch KI diese Definition von Gefühl.

Der zweite Halbsatz ist so unbewiesen wie der erste, denn er setzt voraus, dass KI Bewußtsein habe - was ich aus den gleichen Gründen bezweifle wie die, dass sie Gefühle haben können.

x-Riff
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
Das ist genau die Idee hinter dem Turing-Test oder dem Behaviorismus. Wenn man es nicht mehr unterscheiden kann, dann ist es eben das Gleiche. Anderen Menschen gestehen wir auch Gefühle zu, obwohl wir nur die eigene Innenwahrnehmung besitzen.
Das sind aber nur Vortäuschungen einer falschen Tatsache, basierend darauf, dass auf äußerliche Reize möglichst menschenähnlich reagiert wird (Turing) oder dass das ganze Verhalten nur durch äußere Reize bestimmt wird (Behaviorismus). Ist halt ein äußerst mechanistisches Weltbild ohne Hormone, die unser Befinden schon sehr beeinflussen. Scheint die Sonne, habe ich die Ex mit dem neuen Typen gesehen, fährt meine Tochter zum ersten Mal alleine in den Urlaub, etc. etc.. Das alles wird nicht abgebildet, das alles kann (derzeit) auch nicht abgebildet werden.

Und kurz zu den im Titel erwähnten Klischees: Da die KI oder die LLM wie ChatGpT auf die Lerndaten angewiesen sind und daraus ein stochastisch basiertes Antwortschema basteln, werden die Lyrics irgendwie zwangsläufig klischeehaft. "Seltsame" Konstruktionen werden ja als unwahrscheinlich heraussortiert und es bleiben halt die Standards übrig. Irgendwo hab ich gelesen, dass untersucht wurde, was passiert, wenn sich 2 KIs gegenseitig trainieren und die wurden immer dümmer - z. B. der Wortschatz verkümmerte, weil halt "alldieweil", "fürderhin" usw. im Ranking weiter und weiter dahinsiechten (schon wieder so ein Wort).

Daher, liebe Lyriker: Benutzt euren Wortschatz und seid kreativ (das können die KI Modelle derzeit nicht).
 
  • Gefällt mir
Reaktionen: 2 Benutzer
weil halt "alldieweil", "fürderhin" usw. im Ranking weiter und weiter dahinsiechten (schon wieder so ein Wort).

Da frug ich den künstlichen Knappen, mir fürwohl ein paar Worte auf den steinigen Weg zu vermitteln, und siehe, er sprach:

Ballade von der verlornen Lieb

Alldieweil der Mond so fad,
Glanz auf Wald und Wiesen spat,
Sang ich leis ein traurig Lied,
der Minne, die mich einstens mied.

Behufs des Herzens, das so schlug,
Ward mir die Liebe doch Betrug.
Fürderhin, im dunklen Tal,
Seh ich nur das Leid zumal.

Sie sprach: „So geh! Dein Wort vergeht!
Die Zeit mit dir ist längst verweht.“
Ach, weh mir nun, mein Herz gar schwer,
Die Liebe kehrt zu mir nicht mehr.

Wohl hin ich schreite, ohne Sinn,
Such ich die Minne fürderhin.
Doch bleibt mein Sehnen ungestillt,
Dafern die Lieb sich nicht erfüllt.

Den edeln Herrn muss ich vermelden, dass ich einige der holden Wort tat austauschen, da diese doch den Ohren wenig zuträglich gewesen, doch in der Sach ist die Ode recht wohl gelungen gewest.
 
  • Haha
  • Gefällt mir
Reaktionen: 2 Benutzer
Und wenn ich von einem bestimmten - und deshalb habe ich Wikipedia verlinkt - und allgemein akzeptierten Verständnis / einer Definition von Gefühl ausgehe, dann kann eine KI genau so wenig Gefühle haben wie ein Stein, weil beide keine organischen Lebewesen sind, die über organische Nervenbahnen verfügen. Gefühl ist diesem Verständnis nach an biologische Lebewesen gebunden.

Mir erscheint es wenig logisch, warum organische Nervenbahnen oder gar Hormone die Grundlage für ein Gefühlsleben sein müssen. Klar kann man sich alles beliebig zurecht definieren, so dass es am Ende nur noch für einen selber passt. Darum geht es wohl auch in dieser etwas zu emotionalen Diskussion über die Gefühle von KIs.

Vielleicht werden Gefühle überbewertet. Im Grunde sehe ich es opa_albin, Gefühle machen evolutionär Sinn und deshalb gibt es sie. Wenn dir plötzlich ein Säbelzahntiger gegenüber steht, solltest du nicht anfangen, die Situation logisch aufzuschlüsseln und gründlich zu überdenken. Angst verleiht Flügel und wird dir durch eine schnelle Reaktion (hoffentlich) den Hintern retten.

Da frug ich den künstlichen Knappen,

Jetzt kann die KI auch noch auf Mittelhochdeutsch dichten, das ist mal ein Knaller. :juhuu:
 
Zuletzt bearbeitet:
Mir erscheint es wenig logisch, warum organische Nervenbahnen oder gar Hormone die Grundlage für ein Gefühlsleben sein müssen.
Es ist vor allem eine Tatsache. Schwerkraft ist nicht logisch, sondern eine Tatsache. Das, was sich aus ihr ergibt, wie etwa die Umlaufbahnen von Himmelskörpern ergibt sich dann logisch daraus.
Klar kann man sich alles beliebig zurecht definieren, so dass es am Ende nur noch für einen selber passt.
Eine allgemein anerkannte Definition, wie sie etwa Wikipedia darstellt, als "so dass es am Ende nur noch für einen selbst passt" zu hinzustellen, ist schon eine absonderliche Verdrehung von Fakten. Du bist derjenige, der nicht nur Gefühle beliebig definiert, sondern der sie gar nicht definiert, aber mit ihnen operiert, "so dass es am Ende nur noch für einen selbst passt".

Was ist an der zitierten Definition falsch und wie ist Deine Definition von Gefühlen?
Darum geht es wohl auch in dieser etwas zu emotionalen Diskussion über die Gefühle von KIs.
Diese Diskussion über Gefühle ist alles andere als emotional. Sie ist weder beleidigend, noch persönlich, noch besteht sie aus persönlichen Angriffen.
Es ist eher so: Wenn man - wie Du - die Sachebene erst gar nicht betritt, indem man keine Definition darüber liefert, was man meint, wenn man über Gefühle redet und mit ihnen argumentiert, dann bleiben nur bloße Weltanschauungen, Meinungen und Emotionen.

Wenn man behauptet, dass KI Gefühle haben muss man sagen, was man unter Gefühlen versteht. Genau so wie man behauptet, dass ein schwarzes Loch nicht schwarz ist. Dass es schwarze Löcher gibt, ist eine Tatsache. Sie ergibt sich logisch daraus, dass die Schwerkraft so groß ist, dass kein Licht aus ihr entweichen kann. Wenn man also schwarze Löcher anzweifelt, was durchaus statthaft ist, dann muss man schon "schwarzes Loch" und "Schwerkraft" definieren, ansonsten macht weder die Behauptung Sinn noch eine Unterhaltung darüber.
Du bist derjenige, der Gefühle nicht definieren will - ich habe eine anerkannte Quelle geliefert, auf die Du Dich aber nicht beziehst. Du bist damit derjenige, der sich konsequent einer sachlichen Diskussion entzieht.

x-Riff
 
Grund: Statt "Die Nacht ist schwarz" anderes Beispiel gewählt, um es anschaulicher zu machen.
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 2 Benutzer

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben