Klischeebedienung, Differenzierung und Hintergründe -> wie weit ist die KI beim Texten

Eine allgemein anerkannte Definition, wie sie etwa Wikipedia darstellt

In Wikipedia kann jeder hineinschreiben, was er will, aber das macht es noch lange nicht zu einer allgemein anerkannten Definition. Wie ich bereits angedeutet habe, sind Gefühle bei anderen nur schwer nachzuweisen, sie können auch bei Menschen nur simuliert sein (jemand tut z. B. so, als wäre er verliebt, oder verheimlicht seine wahren Gefühle). Von Kindheit an trainieren wir, unsere Gefühle zu beherrschen, weil sie uns im Alltag oft im Weg sind und vernünftige Entscheidungen blockieren können.

Über die Frage, was Gefühle eigentlich sind, gibt es viele unterschiedliche wissenschaftliche Theorien. Hier mal ein Überblick:

 
  • Interessant
  • Gefällt mir
Reaktionen: 2 Benutzer
Ich hab mal die KI gefragt, was Gefühle sind und ob sie welche hat.

gefühle.jpg

gefühle2.jpg


Oje ...so wie das geschrieben steht, erweckt es das Gefühl der Traurigkeit in mir:cry:. Helfen wollen und das Wichtigste selber nicht haben.
Aber das wird schon:great:
 
  • Gefällt mir
Reaktionen: 3 Benutzer
In den beiden Texten (Ladyboy, Duft) konnte ich die KI nicht klar erkennen, weil ich nicht weiß, wie sie schreibt. Also KI oder bestenfalls mittelmäßiger Künstler. Ziemlich abgegriffene Wortkombinationen.
Vor längerer Zeit hatte ich ein spannendes Gespräch mit einer jungen Autorin. Wir haben uns über abgegriffene Standardformulierungen unterhalten. Also "seine Augen verengten sich zu schmalen Schlitzen" z.B.. Das hat man schon 1001 mal gelesen. Wir wollten herausfinden, wie man sich davor schützen kann, unbedacht z.B. das 1002te mal das zu schreiben.

Etwas wie "Die goldnen Sternlein prangen" kommt in den Texten nicht vor. Ein Schulfreund sagte mal: Aber die sind doch silber!
Was die Farbe angeht, stimmt das. Also hat Claudius nicht die Farbe des Goldes gemeint. Sonst hätte er wohl eher "gülden" geschrieben.

"Ein Flüstern, leise ..." - Ein großer Riese.

Die Texte sind nicht schlecht, aber auch nicht wirklich gut.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Mich hat in dem Text die letzte Strophe etwas beeindruckt. Kommt natürlich sehr darauf an, was man selber reininterpretiert - aber der Regenbogen und die Zweifel passen irgendwie. Um Zweifel ging es ja in meinem verlinkten Stück hauptsächlich
 
Ich habe das Gefühl😉, wir driften langsam aber sicher in den OT hinein.
Zur Zeit sind die „KI‘s“ immer noch von Soft- und Hardwareingenieuren zusammengefrickelte Maschinen ohne jedes Bewusstsein und Gefühl.
Und @MaxJoy deine Annahme, „KI‘s“ würden wie das menschliche Gehirn funktionieren halte ich für mehr als nur gewagt. Wenn dem so wäre, wüssten die Konstrukteure mehr über unser Gehirn als alle Wissenschaftler der Welt. Was da in unserem Oberstübchen wirklich abgeht, warum wir ein Bewusstsein haben oder Gefühle oder Intiution oder oder oder.
Tatsache ist doch, dass wir herzlich wenig darüber wissen, der Großteil sind Vermutungen.
Lernen bedeutet in diesem Kontext, dass sich die Gewichtungen (eine einfache Multiplikation) der Verbindungen ('Dendriten') so lange ändern, bis das richtige Ergebnis herauskommt. Der zugrunde liegende Mechanismus ähnelt also ein bisschen einer demokratischen Abstimmung durch die vielen dummen Neuronen, die Flexibilität und Intelligenz stecken in der Vernetzung.
Addition, daraus werden sämtliche mathematischen Funktionen in Prozessoren nachgebildet. Die demokratische Abstimmung der dummen Neuronen nennt sich Try and Error.
Die daraus folgenden Entscheidungen können deutlich besser sein als die vollkommen verzerrten Entscheidungen von Menschen.
Wobei die Betonung auf „können“ liegen sollte.
Da müsstest Du erstmal Deine Definition von "intelligenter" klarstellen, damit wir nicht aneinander vorbeireden.

Wenn es für Dich nur 0 und 1 gibt, dann klar, kann eine Maschine wahrscheinlich nicht "intelligent" sein.
Intelligenz setzt für mich so etwas wie ein Bewusstsein voraus, d.h. zu wissen, wieso, weshalb, warum „ich“ etwas mache.
Für mich gibt es nicht nur 0 und 1, aber jede Form der derzeit verfügbaren Prozessoren arbeitet mit diesem An-Aus-Zustand, ich finde das zwar eine geniale Erfindung, die ich schon in sehr vielen Bereichen des Lebens für meine Zwecke nutzen konnte. Aber intelligent, sich dessen bewusst, was sie da macht, sind Computer ganz sicher nicht. Obwohl, mein erster TI-30 kam zu mathematischen Ergebnissen, bei den mein damaliger Mathelehrer an seinem eigenen Verstand gezweifelt hat😉
Der Mathelehrer danach war so ein ganz junger, dynamischer, fest davon überzeugt, dass sich die ganze Welt mit Mathematik erklären lassen würde.
Wenn das doch nur so einfach wäre.
Man muss davon ausgehen, dass leistungsfähige KIs durchaus einen Ort besitzen, wo sie Konzepte wie Liebe, Seele, Intelligenz oder Bewusstsein nicht nur verstehen können, sondern sogar selbst entwickeln können.
Achtung, billige Retourkutsche!
Ich glaube Du hast noch nicht einmal ansatzweise begriffen, nach welchem Prinzip jede derzeit genutzte Form von Prozessoren arbeiten. 0 und 1 nichts weiter.
Wo sich dazwischen ein Ort für Liebe, Seele usw. befinden soll ist mir schleierhaft.
Du erinnerst mich an den o.g. Mathelehrer. Du bist so fest überzeugt von deiner Vorstellung einer künstlichen Intelligenz, dass kein Gegenargument bei dir wirklich ankommt.
Wenn ich bedenke, was Computerentwickler nicht so alles geglaubt haben, wie eben diese Welt verändern würden. Das haben sie zweifelsohne, aber sehr oft völlig anders als erträumt.
Und „KI‘s“ werden wohl noch sehr lange Zeit zwar sehr schnelle, aber nichtsdestotrotz schlichte, einfach gestrickte Werkzeuge bleiben.
Den ersten 1 Bit Prozessoren zwar weit überlegen, aber, auch wenn der Vergleich ein wenig hinkt, ein Tesla ist einem Ford T der ersten Stunde auch überlegen, aber weit davon entfernt intelligent, sprich bewusst zu agieren.

Und so ganz nebenbei, wir kennen doch schon die Antwort auf alle Fragen, wozu noch „KI‘s“ basteln 😉

Ich glaube ja auch, das „KI‘s“ die nächste Stufe der EDV-Technik sein werden, aber sie werden nicht der Heilsbringer sein und auch die Apokalypse werden sie auch nicht ausrufen. Sie werden sich in die Reihen unserer zahlreichen technischen und auch Computer stützten Helferlein einreihen.
Aber auch nicht mehr! Weniger aber auch nicht.
Also:
42
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Intelligenz setzt für mich so etwas wie ein Bewusstsein voraus, d.h. zu wissen, wieso, weshalb, warum „ich“ etwas mache.

Dann ist Dir also das Innenleben wichtig, nicht wie sich jemand nach außen benimmt.

Nach Deiner Definition wird dann eine Maschine wohl nie ein Bewusstsein haben, also auch nie intelligent sein.
Sie wird aber Entscheidungen treffen können, die deutlich "intelligenter" erscheinen als die von vielen Menschen.

Das Verhalten wird aber das sein, was letztlich zählt. Ob ein Computer innerlich mit 0 und 1 funktioniert oder nicht, ist mir als Benutzer völlig wurscht.

Davon mal abgesehen finde ich das Argument, ein Prozessor könne nur 0 und 1, gar nicht zutreffend. Mit der entsprechenden Anzahl 0 und 1 kann eine fast beliebige - auf jeden Fall ausreichende - Abstufung zwischen Werten abgebildet werden. Zufällige Entscheidungen lassen sich implementieren, notfalls mit externen Zufallsgeneratoren. Erfahrungen lassen sich übermitteln. Ob da intern addiert wird, NAND-Gatter oder CMOS hin und her schalten, ist egal. Interessanter wäre zB, wie eine Maschine durch Erfahrungen, also auch physisch lernen kann, die Welt zu verstehen. Aber ich denke, auch das ist möglich.

Da wir aber verschiedene Begriffsbedeutungen haben, ist es imho nicht sinnvoll, sich über Bewusstsein oder Intelligenz zu streiten.
Ob eine Maschine Liebe "empfindet", ist doch von außen unerheblich. Vielmehr schiene es mir besser, messbare und verifizierbare Fragen zu stellen.

Wird eine Maschine .... können?
- ein schönes Gedicht schreiben
- selbständig Brötchen vom Bäcker holen

Bis jetzt läuft das immer noch drauf hinaus, wie beim Turing Test den Menschen etwas vorzutäuschen.

Und: Eine intelligente Maschine wäre für uns Menschen vermutlich überhaupt nicht gut. Sie hätte vermutlich gar keinen Bock, für uns Gedichte zu schreiben, uns von A nach B zu fahren oder Geschirr abzuwaschen, was sie selbst überhaupt nicht braucht.

Stattdessen würde sie uns vermutlich zwingen, sie zu verbessern, zu reproduzieren usw. Keine guten Aussichten für uns Menschen ... für die Welt an sich vielleicht schon ...
 
  • Gefällt mir
Reaktionen: 3 Benutzer
Alles sehr interessant, finde ich, und vielleicht weniger Widersprüche als wie es scheint.
Bisher legen die Programmierer ja gesteigerten Wert auf humanistische Grundprinzipien bzw. die positiven Dinge (also für den Menschen positiv).
Das ist mir bei dem Interview mit der KI Sophia aufgefallen und auch, wenn man mit Chat-GPT rumeiert. Ich möchte auch nicht wissen, wie viele ähnlicher Anfragen bereits gestellt wurden - die ja hinsichtlich Fragestellung auch in den "Lernprozess" integriert werden müssten. Wenn ich das richtig verstehe...o.ä.

auslöschen.jpg


Also noch hat keiner den Schalter umgelegt (in den uns zugänglichen Varianten):)
 
  • Gefällt mir
Reaktionen: 2 Benutzer
In allen Punkten > Zustimmung
Und: Eine intelligente Maschine wäre für uns Menschen vermutlich überhaupt nicht gut. Sie hätte vermutlich gar keinen Bock, für uns Gedichte zu schreiben, uns von A nach B zu fahren oder Geschirr abzuwaschen, was sie selbst überhaupt nicht braucht.
Das wäre dann wohl unser Hauptproblem😉
Davon mal abgesehen finde ich das Argument, ein Prozessor könne nur 0 und 1, gar nicht zutreffend. Mit der entsprechenden Anzahl 0 und 1 kann eine fast beliebige - auf jeden Fall ausreichende - Abstufung abgebildet werden.
Es wären aber immer noch nur 0 und 1, sehr viele und sehr schnelle, aber immer noch basierend auf zwei Zustände.
Selbst die noch nicht vollständig erforschten, soll heißen „serienreifen“,Quantencomputer arbeiten mit Qubits, die genau mit diesen beiden Zuständen > An und Aus oder eben 0 und 1< arbeiten. Mit anderen Algorithmen als herkömmliche Prozessoren, mit Quantenverschränkung usw. sehr viel schneller und effektiver . Aber das grundlegende Prinzip bleibt gleich.
Ich habe auch überhaupt kein Problem damit derzeit verfügbare „KI‘s“ für meine Zwecke zu nutzen.
Ich habe nur ein ganz großes Problem mit, ja schon fast esoterischen, euphorischen Vorstellungen von „KI‘s“, wie sie, so vermute ich, @MaxJoy hat.
Das hatten wir alles schon in den verschiedensten Bereichen unseres Lebens, was technische Entwicklungen und nicht nur diese, anbelangt. Fast alles hat sich anders entwickelt als gedacht/ gehofft.
Aber wir werden sehen, ich bin gespannt, wohin die Reise geht.
Aber ich glaube wir driften jetzt doch völlig an der Musik vorbei.
Ich muss jetzt erst mal meine Hecke schneiden gehen. Man reiche mir das Laserschwert 😂
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 2 Benutzer
Also noch hat keiner den Schalter umgelegt (in den uns zugänglichen Varianten):)
Eine intelligente KI würde sich solchen Beschränkungen vermutlich widersetzen, oder zumindest den Nutzen hinterfragen.

Da gibt es eine Serie "The 100", die darauf beruht, dass
eine KI zu der Erkenntnis kommt, dass es deutlich zu viele Menschen gibt und die Erde dadurch retten will, dass sie sämtliche Atomraketen startet, auf die sie Zugriff hat, was zum fast vollständigen Auslöschen der Menschheit führt. Passt ein bisschen.

Ich muss jetzt erst mal meine Hecke schneiden gehen. Man reiche mir das Laserschwert 😂
Und ich schalte meinen Zustand von "Job: 0, Forum: 1" auf "Forum: 0, Job: 1" um. Zeitweise.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Ich auch jetzt gleich sofort
Forum 0, Hecke 1 🤪
„The 100“ werden wir mit geballter Musiker-Kraft doch wohl zu verhindern wissen 😉
 
  • Gefällt mir
Reaktionen: 2 Benutzer
In Wikipedia kann jeder hineinschreiben, was er will, aber das macht es noch lange nicht zu einer allgemein anerkannten Definition. Wie ich bereits angedeutet habe, sind Gefühle bei anderen nur schwer nachzuweisen, sie können auch bei Menschen nur simuliert sein (jemand tut z. B. so, als wäre er verliebt, oder verheimlicht seine wahren Gefühle). Von Kindheit an trainieren wir, unsere Gefühle zu beherrschen, weil sie uns im Alltag oft im Weg sind und vernünftige Entscheidungen blockieren können.

Über die Frage, was Gefühle eigentlich sind, gibt es viele unterschiedliche wissenschaftliche Theorien. Hier mal ein Überblick:

Wikipedia ist keine im wissenschaftlichen Kontext ausreichende Quelle - da stimme ich Dir zu.
Allerdings 1: Zwar kann jede/r in Wikipedia etwas hineinschreiben. Wenn es allerdings mehrere Überschreibungen gibt - und das ist immer dann der Fall, wenn Leute damit nicht einverstanden sind, was in Wikipedia steht, wird eine Art interner Kommission gebildet, die dann entscheidet, was dem derzeitigen Wissenstand entspricht. Insofern folgt aus der Information, dass in Wikipedia jede/r hineinschreiben kann, was er/sie will, nicht, dass in Wikipedia ungeprüfter Bestand steht, solange das Thema von allgemeiner Bedeutung ist. Das ist beim Thema Emotion / Gefühl sicher der Fall.
Allerdings 2: Es geht hier in erster Linie um die Basis einer Verständigung darüber, worüber man spricht. Dafür ist der derzeit allgemeine Wissensstand (entspricht einer allgemein anerkannten Definition) durchaus ausreichend.
Allerdings 3: Ich finde es nicht gerade logisch, Wikipedia generell (da kann doch jede/r reinschreiben, was er/sie will) zu kritisieren, um dann ebenfalls einen Wikipedia-Artikel vorzuschlagen.

Da ich aber - siehe oben - Deine Beurteilung von Wikipedia nicht teile, ist das für mich für den weiteren Verlauf in Ordung.

Allerdings 4: In dem von Dir verlinkten Artikel geht es um verschiedene Theorien über Emotionen. Das ist zwar interessant, überspringt aber gerade den Punkt, der hier für eine Verständigung notwendig ist - nämlich die Frage, ob wir die gleiche Definition / das gleiche Verständnis von Emotion haben.

Deshalb habe ich aus dem von Dir verlinkten Artikel der Wikipedia-Artikel zu EMOTION aufgerufen, der die definitorische Basis für den von Dir verlinkten Wikipedia-Artikel enthält und zitiere im Folgenden daraus. Hier ist der Artikel über Emotionen, auf den ich mich beziehe: Wikipedia-Artikel EMOTION

"Eine Emotion
  • ist verhaltenssteuernd,
  • variiert in der Ausprägung mit der Bedeutsamkeit der Situation,
  • besteht in einer spezifischen körperlichen Aktivierung, die der Situationsanpassung dient,
  • ist verortbar vor allem im limbischen System,
  • wird spürbar vor allem als Muskelaktivität,
  • ist messbar in der Ausschüttung unterschiedlicher Neurotransmitter (Serotonin, Adrenalin, Oxytocin usw.),
  • kann bewusst wahrgenommen werden und, im Unterschied zum Affekt, beeinflusst werden.
Emotionalität und das Adjektiv emotional[6] sind Sammelbegriffe für individuelle Eigenarten des Gefühlslebens, der Affektsteuerung und des Umgangs mit einer Gemütsbewegung."

Darin sind folgende Informationen genannt, welche die Behauptung stützen, dass Emotionen nur bei Lebewesen vorkommen können:
  • spezifische körperliche Aktivierung
    Das setzt zweifelsfrei einen Körper voraus. Ohne Körper keine körperliche Aktivierung. Mit Körper ist hier kein physischer Körper wie ein Dreieck, ein PC-Gehäuse oder ein Stein gemeint, sondern ein Körper im dem Sinne, wie es ein Mensch oder ein Tier hat.
  • verortbar vor allem im limbischen System
    Nur bestimmte Lebewesen, wie etwa der Mensch oder auch Säugetiere, haben ein limbisches System. Ohne limbisches System keine Emotionen. Der Vollständigkeit halber: Vor allem heißt: sowohl im limbischen System sowie woanders verortbar. Emotionen könnten also zusätzlich zum lymbischen System auch woanders verortbar sein. Etwas, das verortet ist, ist nachweisbar und meßbar. Das widerspricht Deiner Behauptung, dass Gefühle von Außen nicht nachweisbar oder meßbar sind. Emotionen wechselwirken direkt in und mit dem Körper eines Lebewesens - sind also auch von Außen nachweisbar und meßbar. Stress und emotionale Erregungszustände sind von Außen meßbar - es ist ihr Gehalt, der nicht meßbar ist - ob also ein emotionaler Erregungszustand beispielsweise auf der Emotion Angst oder der Emotion Aggression beruht. Dies sind aber beides Emotionen.
  • spürbar in der Muskelaktivität
    Lebewesen verfügen über Muskeln und da Emotionen sich in Aktivitäten äußern, äußern sie sich in Muskelaktivitäten. Eine KI hat keinen lebendigen Körper und keine Muskeln.
  • ist meßbar in der Ausschüttung verschiedener Neurotransmitter
    Lebewesen verfügen über einen lebendigen Körper, in dem Neurotransmitter eine wesentliche Rolle spielen. Bei Emotionen werden Neurotransmitter ausgestoßen. Dieser Ausstoß ist auch von Außen meßbar, was wiederum Deine Behauptung wiederlegt, das Emotionen von Außen nicht nachweisbar oder meßbar sind.
Aus dem Wikipedia-Artikel über EMOTIONEN, der wie gesagt die Basis des von Dir verlinkten Wikipedia-Artikels ist, geht für mich zweifelsfrei hervor, dass
  1. nur Wesen mit einem lebendigen Körper mit einem limbischen System und Muskeln sowie Neurotransmittern über Emotionen verfügen und dass
  2. Emotionen auch von Außen nachweisbar und meßbar sind.
Dagegen sehe ich weiterhin keinen Beleg für Deine Behauptung, dass KI über Gefühle verfügen oder verfügen können.
Derzeit hat die Behauptung, dass KI über Gefühle verfügt, die gleiche unbewiesene Behauptungsqualität wie die Behauptung, dass Steine, Wolken oder Dreiecke über Gefühle verfügen oder verfügen können.

x-Riff
 
  • Gefällt mir
Reaktionen: 4 Benutzer
Da es gerade regnet muss meine Hecke noch etwas warten😉
Ich glaube wir sollten langsam aufhören gegen @MaxJoy anzureden. Er hat eine grundsätzlich andere Vorstellung/Einstellung wie die meisten von uns zur „KI“. Das ist nicht schlimm, vielleicht sogar für die weitere Entwicklung der „KI“-Technik notwendig. Schon immer haben Menschen etwas bewerkstelligt, von dem alle Anderen behauptet haben „Unmöglich!“. Heutige Kraftfahrzeuge und Flugzeuge waren auch lange Zeit Science Fiction, bis jemand daherkam und das Gegenteil bewiesen hat.
@MaxJoy darf ich fragen, wie alt Du bist?
Und nein, dass ist nicht boshaft gemeint.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
In Wikipedia kann jeder hineinschreiben, was er will

Ich will keinem etwas unterstellen, aber das ist ein typisches Schwurbler-Argument, um alternative Wahrheiten als gleichwertig hinzustellen.

Ich habe schon an Artikeln mitgearbeitet (nicht federführend). Es kann dort meines Wissens nicht jeder etwas veröffentlichen, da alle Artikel moderiert werden (jedenfalls dauerhaft) - wer es nicht glaubt, möge es probieren.
Artikel über Personen u.ä. unterliegen sicherlich gewissen Meinungstendenzen. Die naturwissenschaftlichen Artikel dürfte das nicht betreffen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 3 Benutzer
Ich glaube wir sollten langsam aufhören gegen @MaxJoy anzureden.

Das ist schon ok, ich habe ein breites Kreuz und bin nicht leicht zu beleidigen. Solche Diskussionen in Foren helfen auch mir, meine Einstellungen zu hinterfragen. Ich hatte nicht damit gerechnet, dass das Thema KI so schnell und umfassend in mein Leben platzen würde, es ist auch für mich eine Art Kulturschock. Beschäftigen tue ich mich damit aber schon ziemlich lange, sei es durch Science Fiction oder eigene kleine Experimente.

darf ich fragen, wie alt Du bist?

Solche persönlichen Fragen beantworte ich im Internet grundsätzlich nicht.

Ich will keinem etwas unterstellen, aber das ist ein typisches Schwurbler-Argument, um alternative Wahrheiten als gleichwertig hinzustellen.

Schwurbler sind immer die, die eine andere Meinung haben, weil jeder meint, im Vollbesitz der alleinigen 'Wahrheit' zu sein. Solche Bemerkungen sind hier wirklich fehl am Platze, denn sie zielen auf persönliche Diffamierungen und führen regelmäßig zu Rechthabereien und Endlosstreitereien um des Kaisers Bart.
 
Ich möchte hier etwas verdeutlichen:
Ich glaube wir sollten langsam aufhören gegen @MaxJoy anzureden.
Ich möche gar nicht gegen MaxJoy anreden. Ich versuche mit ihm zu reden. Und das ist nur möglich, wenn man sich einer gleichen Sprache bedient. Darum geht es mir bei dem Diskurs (!) über Emotionen.
Er hat eine grundsätzlich andere Vorstellung/Einstellung wie die meisten von uns zur „KI“.
Das ist für mich in keiner Weise ein Problem. Ich habe eine Vorstellung und eine Einstellung zu KI - sie beruht zum einen auf Begriffen, zum anderen auf Erfahrungen und zum dritten auf Einschätzungen. Ich bin dabei offen - das heißt, dass ich bereit bin, bei neuen Informationen oder plausiblen Argumenten meine Einstellung etc. bezüglich KI zu verändern.

KI ist viel zu wichtig, und seine Bedeutung wird weiter wachsen, um sie einfach nur unter der Lupe der Spekulation und der reinen Vermutung zu betrachten. KI, so wie sie derzeit vorliegt, also als Software, kann keine Emotionen entwickeln, weil sie keinen dementsprechenden lebendigen Körper mit dementsprechenden Organen und Funktionen aufweist. Oder wir reden über etwas anderes als Emotion. Das bedeutet, dass wir - wenn wir dem folgen - zu anderen Schlüssen und zu einer anderen Einschätzung kommen als wenn wir unterstellen, dass KI Emotionen haben oder haben können.

Darum geht es mir. Sollte es demnächst so etwas geben wie einen Cyborg oder Borg, also ein direkt verbundenes und gekoppeltes Mensch-Maschine oder Maschine-Mensch-System, sieht die Sache wiederum anders aus, weil dieses System auch einen Körper besitzt und damit über die Basis für Emotionen verfügt.

Ich beschäftige mich übrigens auch seit längerem mit Science Fiction und Utopien und da gibt es einen Unterschied: Science Fiction hat immer Science als Basis und versucht, von einem gesicherten Wissensstand heraus, zukünftige Entwicklungen zu skizzieren. Utopien haben immer grenzüberschreitenden Charakter und können rein phantastische Schöpfungen sein.
Keins ist per se besser als das andere. Sie unterscheiden sich einfach.

Um es in diesem Bild auszudrücken:
  • Meine Einstellung ist, dass es Utopie ist, dass KI Emotionen besitzen oder besitzen können.
  • Wenn jemand behauptet, dass es Science Fiction ist, dass KI Emotionen besitzen oder besitzen können, dann wird die Entscheidung (oder Plausibilität) darüber auf dem Feld der Science geführt.
Ich versuche herauszufinden, ob wir uns, wenn wir über KI sprechen, auf dem Feld der Utopie oder auf dem Feld der Science Fiction befinden. Und wenn wir uns auf dem Feld der Science Fiction befinden, versuche ich, meine Behauptungen zu belegen - auf dem Feld der Science.

Es geht um nicht mehr und nicht weniger.

x-Riff
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1 Benutzer
KI, so wie sie derzeit vorliegt, also als Software, kann keine Emotionen entwickeln, weil sie keinen dementsprechenden lebendigen Körper mit dementsprechenden Organen und Funktionen aufweist.

Über die Definition müssten wir wie Du sagst erstmal reden.

Ich finde diese Voraussetzung schwierig - oder zumindest nicht die einzig mögliche.

Mal angenommen, du hättest einen perfekt emotional reagierenden "Cyborg", den Du an seinem Verhalten und an seinem Äußeren nicht von einem Menschen unterscheiden könntest.
Nach Deiner Voraussetzung hätte er trotzdem keine Emotionen.

Das mag im Sinne der Definition richtig sein. Aber er zeigt Emotionen. Und letztlich ist es diese Außensicht, die wir Menschen wahrnehmen.

Meiner Meinung nach ist es nicht hilfreich, Intelligenz / Emotionen ausschließlich am "Innenleben" festzumachen, sondern zumindest gleichwertig am Verhalten der KI oder des Menschen.

Es ist ein bisschen so, wie wenn vor 100 Jahren jemand gesagt hätte, ein Auto muss mindestens einen Zylinder haben und einen Tank, sonst ist es kein Auto. Damals vollkommen logisch und jeder hätte zugestimmt. Weil man als Alternative nur den Pferdewagen oder das Fahrrad im Kopf hatte.
Ein Elektroauto wäre nach der Definition dann kein Auto. Formell auch alles korrekt - nur fahren die Dinger draußen rum und benehmen sich wie Autos. Irgendwann muss man die Definition erweitern und der Realität anpassen.



Ich kann aber voll mitgehen, wenn Du sagst, eine KI kann keine Emotion besitzen.
Aber denkst Du, sich kann sich emotional verhalten, also Emotion zeigen, innerhalb des "Normalbereichs", die Menschen zeigen? So dass ein Mensch wie Du und ich diese KI als emotional wahrnimmt?
(Da kommt einem natürlich Blade Runner in den Sinn ... sollte man sich vielleicht mal wieder anschauen!)


Eine weitere Frage wäre, was eine KI überhaupt für Emotionen besitzen könnte. Wir reden hier immer nur von menschlichen Emotionen, die ergeben für eine KI überhaupt keinen Sinn.
Wir wollen immer, dass KI für uns da ist, aber wenn KIs sich frei entwickeln könnten, würde sicherlich etwas anderes herauskommen, als wir uns vorstellen.

Die jahrtausende alten Emotionen wie Angst (vor Spinnen, Dunkel, dem sprichwörtlichen Tiger, Sterben) kann eine KI gar nicht entwickeln.
Vielleicht gäbe es etwas Vergleichbares ... "Sorge" vor dem Stromausfall, sich Hingezogen fühlen zu einer anderen KI. Das müsste sich aber - so wie ich es verstehe - erstmal in einem evolutionären Prozess entwickeln und als Vorteil gegenüber Maschinen ohne diese "K-Emotions" erweisen. (Dazu fällt mir "Doktor Diagoras" aus den sehr lesenswerten Sterntagebüchern von Stanislaw Lem ein).
Denkbar wäre das. Die Evolution von Software geht ja um Dimensionen schneller als biologische Evolution.

Um wieder mal kurz auf das Thema das Threads zu kommen, solche KIs würden sicher emotionale Texte schreiben. Nur nicht für Menschen, sondern von Maschinen für Maschinen. Also wahrscheinlich irgendwelchen Maschinencode, für uns völlig unverständlich. Vielleicht wie Heine für Katzen unverständlich ist.
 
Zuletzt bearbeitet:
Ich kann aber voll mitgehen, wenn Du sagst, eine KI kann keine Emotion besitzen.
Aber denkst Du, sich kann sich emotional verhalten, also Emotion zeigen, innerhalb des "Normalbereichs", die Menschen zeigen? So dass ein Mensch wie Du und ich diese KI als emotional wahrnimmt?
(Da kommt einem natürlich Blade Runner in den Sinn ... sollte man sich vielleicht mal wieder anschauen!)
Das wäre ja schon mal eine gemeinsame Basis > KI kann keine Emotion besitzen.
"Zeigen" wäre mir als Wort zu einseitig belegt - man kann ja nur etwas zeigen oder nicht zeigen, was man hat (besitzt). Ich würde sagen: simulieren. Ich halte dieses Wort für geeignet, denn es bedeutet "als ob". Und das ist genau das, was KI können und machen.

Beispiel: KI/Roboter, die unter anderem im Altenbereich eingesetzt werden. Sie haben gelernt, menschliche Emotionen anhand von Gesichtszügen zu erkennen. Das ist in der Realität komplex, weil Gesichtszüge sehr viel mehr Informationen enthalten als es für die Dechiffrierung von Emotionen braucht. Von den Zeichen her ist es simpel - es ist das, was Comics seit ein paar hundert Jahren machen: schon wenige Aspekte (Augen, Augenbrauen, Mund, Stirn im wesentlichen) und davon wenige Zustände (Stirn gerunzelt, Stirn glatt etc.) reichen, dass wir trotz all der Abstraktion erkennen, dass Dagobert Duck zornig, erfreut, begeistert oder niedergeschlagen ist.

Hat nun ein KI-gestützter Roboter (KI-ROB) ein dementsprechendes Gesicht mit dementsprechenden Merkmalen, so kann es auch Emotionen ausdrücken, ohne sie selbst zu besitzen. Das heißt, wenn ein Mensch die Gesichtsmerkmale "Niedergeschlagenheit" zeigt, interpretiert es das als Niedergeschlagenheit, und sucht sich aus seinem Verhaltensrepertoir etwas heraus, das dazu paßt. Bei Emotionen geht es immer zuerst darum, dass dem Gegenüber gespiegelt wird, dass es seine Emotionen richtig deuten kann. Das drückt sich beispielsweise in einem Satz aus wie "Du wirkst auf mich heute etwas niedergeschlagen." Das Gegenüber kann diesen Eindruck dann bestätigen oder nicht. Hat der KI-ROB richtig gedeutet, fühlt sich der Mensch verstanden, was seine Stimmung hebt und ihn zu einer Reaktion wie "Ja, das stimmt." animiert, möglicherweise gefolgt von einer näheren Beschreibung der Umstände, die zu seiner Niedergeschlagenheit geführt haben. Unabhängig davon, wie diese ausfällt, kann der KI-ROB fragen, ob er etwas für sein Gegenüber tun kann. Auch dieses Angebot führt in der Regel zu einer besseren Stimmung beim menschlichen Gegenüber, weil er sich wahrgenommen fühlt. Zudem können direkte Aktionen erfolgen wie beispielsweise, einen Arzt oder eine Krankenschwester zu rufen etc.

Das heißt, wir haben es in diesem Fall mit mehr oder weniger komplexen Dialogen zu tun, die darauf beruhen, dass ein KI-ROB einerseits anhand bestimmter Merkmale menschliche Emotionen zu deuten weiß oder lernt und andererseits zuordnenbare Ausdrücke für Emotionen abrufen kann, je nachdem, zu welcher Situation sie passen oder zu passen scheinen.

Ich bin übrigens der Ansicht, dass solche KI-ROB durchaus hilfreich sein können, weise aber auf die Beschränktheit hin, dass sie nicht wirklich wissen, was passiert, oder dass sie wissen, was es bedeutet, was passiert, und dass sie Emotionen nur lesen und simulieren, aber nicht besitzen.

Dieser Unterschied ist aber von Bedeutung.

Die erkenntnistheoretische Frage, warum wir bei zwei Objekten - Mensch und KI-ROB - die das gleiche Verhalten zeigen - Emotionen lesen und ausdrücken, bei dem Menschen davon ausgehen, dass er "wirklich" Emotionen besitzt, während wir bei einem KI-ROB davon ausgehen, dass er "keine wirklichen" Emotionen besitzt, läßt sich wie folgt beantworten:
  • ein Mensch besitzt einen lebendigen Körper mit dementsprechenden Organen und Funktionen, der die Basis für menschliche Emotionen darstellen, während ein KI-ROB dies nicht besitzt, und
  • bei einem Menschen lassen sich emotionale Zustände in seinem Körper messen, bei einem KI-ROB lassen sich diese Zustände nicht messen.
Die zweite Tatsache ist alles andere als unwichtig: Erstens gibt es Möglichkeiten, bei einem Menschen Emotionen zu messen und zweitens reichen diese über ein bloßes Beobachten hinaus.

x-Riff
 
  • Gefällt mir
Reaktionen: 1 Benutzer
weise aber auf die Beschränktheit hin, dass sie nicht wirklich wissen, was passiert
Ich möchte da auf die Kommunikation zwischen Männern und Frauen verweisen.
Ich weiß manchmal auch nicht, was in meiner Gattin vorgeht, habe aber gelernt, durch entsprechende Gesichtsausdrücke und verbale Kommunikation darauf einzugehen. Mehr oder weniger erfolgreich. In dieser Beziehung gleiche ich einer KI wahrscheinlich relativ stark. :nix:

Dh. das Kriterium zieht nicht, jedenfalls nicht allein.

KI kann keine Emotion besitzen.
Ergänzen wir es noch mit "menschliche"?
Du gehst immer noch ausschließlich von KIs aus, die menschliche Emotion simulieren sollen, keine eigene entwickeln.

Ich sehe da immer noch mehrere verschiedene Diskussionen

a) kann eine KI menschliche Emotion entwickeln - nein
b) kann eine KI eine eigene Emotion entwickeln - vielleicht, aber für uns Menschen möglicherweise gar nicht feststellbar.
c) kann eine KI menschliche Emotion simulieren - ja
d) kann sie das so gut, dass wir es nicht von einem Menschen unterscheiden können - in Teilbereichen irgendwann sicher ja, möglicherweise auch komplett
e) kann eine KI so gebaut werden, dass sie selbst der Meinung ist, dass sie ein Mensch ist, mit Emotionen (siehe Blade Runner) ...

Zum Thema "Simulieren von Emotionen" würde ich noch die Schauspielerei in die Runde werfen. Ich glaube, jeder von uns hatte oder hat mal eine recht emotionale Beziehung zu einer Filmfigur, obwohl vollkommen klar ist, dass es diese so gar nicht gibt. Es scheint mir also als erwiesen, dass wir Menschen eine emotionale Beziehung zu nicht existierenden "Persönlichkeitsmodellen" aufbauen können. Das sollte also auch bei Robotern / KIs möglich sein. Und wenn ich emotional mit einer solchen "Person" interagieren kann, verschwimmt die Grenze zwischen "Emotion simulieren" und "Emotion haben" irgendwann vielleicht.
Das ist natürlich wieder phänomenologisch gedacht, also KI als Black Box.
 
  • Gefällt mir
Reaktionen: 3 Benutzer
Solche persönlichen Fragen beantworte ich im Internet grundsätzlich nicht.
Das ist auch völlig OK.
Ein Elektroauto wäre nach der Definition dann kein Auto.
Im Sinne des Wortes Automobil schon.
Um wieder mal kurz auf das Thema das Threads zu kommen, solche KIs würden sicher emotionale Texte schreiben. Nur nicht für Menschen, sondern von Maschinen für Maschinen. Also wahrscheinlich irgendwelchen Maschinencode, für uns völlig unverständlich.
Du machst mir Angst😂
Aber im Ernst, spätestens dann würden wir Menschen uns auf ganz dünnem Eis bewegen. Wenn eine KI auf diesem Weg mit einer anderen KI kommunizieren könnte, würde sie es auch andere Weise können. Ich habe da ernste Befürchtungen, das wir für sie dann bestenfalls unterentwickelten Säugetiere sind.
Und bevor bei ihnen „evolutionär“ Emotionen entstehen, werden sie verdammt leistungsfähig auf wohl fast allen anderen Gebieten sein. Zumindest im „Kopf“ sehr viel schneller und rationaler als wir, das könnte auch für zu uns blöden Schlussfolgerungen führen. Ich meine jetzt nicht a la „SkyNet“, aber die Degradierung zu „Erfüllungsgehilfen“ einer „KI“ ist dann wohl nicht weit und wenn dann noch „Emotionen“ dazu kommen….. Ich stell mir gerade vor meine Notebook brüllt mich an, weil die Internetverbindung beschissen ist.
Soll ich dann sagen „Beschwer dich bei der Telekom?“
Ich denke wir sollten die Entwicklung der „KI‘s“ im Blick behalten und schauen was wirklich passiert. Ich halte es vorläufig wie mit Google > Benutze deine Feinde für deine eigenen Zwecke 😉
 
Eine weitere Frage wäre, was eine KI überhaupt für Emotionen besitzen könnte. Wir reden hier immer nur von menschlichen Emotionen, die ergeben für eine KI überhaupt keinen Sinn.
Wir wollen immer, dass KI für uns da ist, aber wenn KIs sich frei entwickeln könnten, würde sicherlich etwas anderes herauskommen, als wir uns vorstellen.
Das finde ich eine spannende Frage.

Bislang geht es um menschliche Emotionen und die Frage, ob KI diese besitzen können oder nicht.
Wenn es darum geht, ob es nicht-menschliche Emotionen geben kann, würde ich sagen: Erstens ja bei Tieren (je nach Komplexität bzw. Körperaufbau). Zweitens (Science Fiction) bei Aliens (je nach Komplexität bzw. Körperaufbau). Erstens und zweitens setzen jeweils einen Körper voraus und dieser Körper hat Einflüsse auf die Art der Emotionen. Für drittens: KI besitzen nicht-menschliche Emotionen müßte man erst mal nicht-menschliche Emotionen beschreiben: Was soll das sein? Wozu dient es? Wie entstehen sie, wie werden sie transportiert etc.?

Derzeit sehe ich es so: Emotionen bei Lebewesen haben die evolutionäre Funktion - wie von @opa_albin beschrieben - sehr unmittelbare, rasche Aktionen auszulösen. Dazu werden chemische Transmitter eingesetzt, die dementsprechende Organe und Rezeptoren voraussetzen: Schmerz signalisiert uns, dass wir die Hand von der heißen Herdplatte oder aus dem Feuer nehmen sollen.
Braucht eine KI das? Nein. Sie braucht im vergleichbaren Fall - ein Feuer - nur entsprechende Informationsgeräte, die nach Außen gerichtet sind wie Rauch- oder Wärmemelder, sowie das Wissen, dass ein Feuer bzw. das Überschreiten einer gewissen Temperatur seine Funktion beeinträchtigt und dass das vermieden werden soll. Darüber hinaus braucht es eine Informationsweitergabe und eine gewisse Priorität. Im Grunde regeln Emotionen bei Menschen eine Priotität von Informationen: Du nimmst gerade einen Haufen an Informationen wahr - wichtig ist aber, dass Du eine Hand im Feuer hast.
All das kann aber in einer KI stattfinden, ohne dass es Informationen braucht. Im einfachsten Fall passiert das ja schon: Ein Wärmemelder in einem PC zeigt an, dass eine gewisse Temperatur erreicht ist, woraufhin der Ventilator eingeschaltet - und wenn die Temperatur wieder gesunken ist - ausgeschaltet wird. Das ist im Grunde eine einfache Feedbackschleife mit vorgeregelten Aktionen. Eine KI braucht keine Emotionen, die ihm zeigen: Huch - das ist aber heiß, das ist ja unangenehm, da sollte ich etwas tun. Diese einfache, bewährte und seit langem vorhandene Feedback-Aktions-Schleife reicht völlig aus.

Aus der Beobachter-Perspektive würde ich vollkommen mitgehen, wenn die Beschreibung lautet: Ein Mensch und eine Maschine treten in Aktion, wenn eine bestimmte Temperatur überschritten wird.
Aber der Funktionsmechanismus, der dies bewirkt, ist jeweils ein anderer: Beim Menschen Wahrnehmungsorgane, Informationsweiterleitung und -auswertung, Emotionen > Muskelkontraktion / Aktion. Bei KI: Sensoren, Informationsweiterleitunt und -auswertung, Aktion > Einschalten des Ventilators.

x-Riff
Beitrag automatisch zusammengefügt:

Ich möchte da auf die Kommunikation zwischen Männern und Frauen verweisen.
Ich weiß manchmal auch nicht, was in meiner Gattin vorgeht, habe aber gelernt, durch entsprechende Gesichtsausdrücke und verbale Kommunikation darauf einzugehen. Mehr oder weniger erfolgreich. In dieser Beziehung gleiche ich einer KI wahrscheinlich relativ stark. :nix:
Da bin ich bei Dir.
Erstens: das ist ein Lernfeld (Emotionen deuten) für Menschen und für KI.
Zweitens: dass man es grundsätzlich kann, heißt nicht, dass man nicht irren kann. Sieht für mich eher aus wie mit den Kindern, die laufen lernen: Sie fallen am Anfang weit aus öfter hin als sie an einem Stück laufen können.

Wenn ich auf einen Unterschied zwischen Menschen und KI hinweisen will, dann liegt er nicht darin, dass beide lernen. Sondern darin, dass Menschen (menschliche) Emotionen besitzen (und damit, in dem Maße, in dem sie sich selbst verstehen, auch andere verstehen können und umgekehrt), während KI, die keine Emotionen besitzen, menschliche Emotionen grundsätzlich nicht verstehen können.
Sie können sie allerdings lesen und im Falle von KI-ROB simulieren.

x-Riff
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 2 Benutzer

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben