Klischeebedienung, Differenzierung und Hintergründe -> wie weit ist die KI beim Texten

Man programmiert KIs nicht, sondern baut ein neuronales Netz zusammen, bestehend aus im Grunde sehr einfach aufgebauten künstlichen Neuronen, die miteinander verbunden sind. Dann braucht man noch große Mengen Trainingsdaten und füttert dieses künstliche Gehirn damit. Der Klassiker sind Katzenfotos in verschiedenen Umgebungen, bei Tag und Nacht und von allen Seiten. Wenn die KI eine Katze erkennt, bekommt sie eine positive Rückmeldung, und wenn nicht, eine negative, die dazu führt, dass sie sich intern neu organisiert. Das entspricht dem Lernen durch Versuch und Irrtum bei biologischen Wesen. Am einfachsten lassen sich auf diese Weise Spiele programmieren, weil sich die Erfolgsrückmeldung praktisch automatisch ergibt (Spiel gewonnen oder verloren). Dafür genügen schon sehr kleine und relativ schwache KIs. Komplexe Themen wie die Musikgenerierung, philosophische Fragen etc. benötigen natürlich viel mehr Rechenleistung und Trainingsaufwand, aber seit einigen Jahren ist das möglich und die KIs haben mittlerweile eine übermenschliche Leistungsfähigkeit auf praktisch allen Gebieten erreicht.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
die KIs haben mittlerweile eine übermenschliche Leistungsfähigkeit auf praktisch allen Gebieten erreicht.
Ich würde sagen: sie haben eine enorme, nicht-menschliche Leistungsfähigkeit auf vielen Gebieten erreicht.
Begriffe wie "Intelligenz" oder "übermenschlich" rekurrieren meines Erachtens auf tiefgreifende Ängste bzw. Sehnsüchte von Menschen und hindern eher den unvoreingenommenen Blick darauf, was tatsächlich geschieht.

Eine Software, die einen Menschen im Schach schlägt, wird dadurch nicht zu einem Menschen. Ein KI - was immer sie auch zu leisten vermag - auch nicht.

x-Riff
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Naja, es ist schon der übliche KI-Schwulst und reimt sich nicht mal richtig.
Auf Englisch funktioniert es deutlich besser. Ob das nun an den Möglichkeiten der Sprache oder an mehr Trainingsdaten liegt, kann ich nicht beurteilen.

Englische Texte können genauso schwülstig sein, nur versteht man sie halt nicht oder achtet nicht darauf. Deutsche Texte lösen dagegen sofort den 'Schlagerreflex' aus, denn Schlager mag man oder eben nicht.

Eine Software, die einen Menschen im Schach schlägt, wird dadurch nicht zu einem Menschen.

Natürlich nicht. Raben z. B. sind auch ziemlich intelligent und trotzdem keine Menschen. Eine KI ist eine KI, so wie ein Rabe ein Rabe ist.
 
sie haben eine enorme, nicht-menschliche Leistungsfähigkeit auf vielen Gebieten erreicht.
Begriffe wie "Intelligenz" oder "übermenschlich"

Finde ich sehr gut beschrieben.

In dem Sinne ist ein Hammer auch "übermenschlich" - kein Mensch könnte einfach so einen Nagel in einen Balken kloppen.

Wir Menschen externalisieren seit der Erfindung von Werkzeugen gewisse Tätigkeiten auf "helfende Objekte" == Werkzeuge, ob nun Hammer oder Mondrakete. Eine KI ist im jetzigen Zustand etwas ähnliches.

Wo es hingeht und ob wirklich die Gefahr besteht, dass es außer Kontrolle gerät, weiß keiner. Im Moment sehe ich da ausschließlich die Gefahr durch die Menschen, die diese Werkzeuge benutzen - sei es nun eine Atomrakete oder eine KI.
 
  • Gefällt mir
Reaktionen: 3 Benutzer
Man programmiert KIs nicht, sondern baut ein neuronales Netz zusammen, bestehend aus im Grunde sehr einfach aufgebauten künstlichen Neuronen, die miteinander verbunden sind. Dann braucht man noch große Mengen Trainingsdaten und füttert dieses künstliche Gehirn damit.
Und diese künstlichen „Neuronen“ fangen quasi aus dem Nichts heraus an diese großen Mengen Trainingsdaten und alle weiteren Daten zu be-/verarbeiten? Auf welcher Grundlage? Der heilige Geist haucht ihnen Leben ein? All diese künstlichen „Neuronen“ sind einzelne Prozessoren, die auf Befehle warten, sonst machen sie rein garnichts. Und diese Befehle müssen ja irgendwo wer kommen, sprich die müssen einprogrammiert werden.
@opa_albin
Multitasking sieht nur so aus also ob.
Mehrere Aufgaben/Rechenprozesse werden an einen Prozessorkern geschickt, diesen Aufgaben wird eine bestimmte Zeit zugewiesen, dann der nächsten und nächsten und wieder der ersten und das ganze wiederholt sich so lange bis alle Aufgaben erledigt sind. > Kein echtes Multitasking.
Bei mehreren Kernen werden mehr Rechenprozesse auf mehr Kerne verteilt, geht schneller und fühlt sich für den User wie Multitasking an > Aber auch kein echtes Multitasking. Windows und Co arbeiten so.
Bei Parallelcomputing wird ein! Rechenprozess auseinandergefrickelt und auf mehrere Prozessoren/ Kerne aufgeteilt.
Das ganze ist verdammt schnell, aber nicht für alle Aufgaben geeignet. GPU‘s arbeiten in der Regel so.
Aber auch kein Multitasking.
Es wird aufgrund des Gelernten nach Wahrscheinlichkeiten entschieden.
Die Wahrscheinlichkeiten werden lediglich auf Grundlage mathematischer Formeln berechnet. Und Wahrscheinlichkeitsberechnungen gingen ja schon das ein oder andere Mal daneben 😉
@MaxJoy Du bist meiner bitte noch nicht nachgekommen 😉
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Bei Parallelcomputing wird ein! Rechenprozess auseinandergefrickelt und auf mehrere Prozessoren/ Kerne aufgeteilt.
Aber auch kein Multitasking.
OK, da hatte ich jetzt eine andere Vorstellung von Multitasking.
Aber werden nicht auch Prozesse gleichzeitig auf den verschiedenen Kernels / Prozessoren eines Computers ausgeführt? Ich kann doch Prozesse einem von x vorhandenen Kernen zuweisen.

In diesem Sinne macht doch imho heutzutage jeder Computer - von außen betrachtet - ständig Multitasking. Ggf. schaltet er intern im Mikrosekundentakt hin und her, aber das ist für den Nutzer völlig unerheblich.

Die Wahrscheinlichkeiten werden lediglich auf Grundlage mathematischer Formeln berechnet.
Wenn es deterministisch wäre, käme jedesmal das Gleiche heraus.

Dass ein Computer mit Formeln arbeitet, ist ja logisch - genauso könnte man einem Lebewesen "vorwerfen", dass es "nur" biochemisch funktioniert.

Aber zu dem eigentlichen Punkt

Auch wenn alle Welt jetzt anfängt die „KI‘s“ mit Daten zu füttern und glaubt sie trainieren zu können, werden sie dadurch nicht intelligenter, sie verwursten nur mehr Daten, ohne jeglichen Verstand.
Und wer das Gegenteil glaubt, hat herzlich wenig Ahnung davon

Da müsstest Du erstmal Deine Definition von "intelligenter" klarstellen, damit wir nicht aneinander vorbeireden.

Wenn es für Dich nur 0 und 1 gibt, dann klar, kann eine Maschine wahrscheinlich nicht "intelligent" sein. Dann ist aber auch die grammatische Form "intelligenter" unsinnig.

Verwendet man das Wort aber so wie es gemeint ist, dann ist eine heutige KI doch unstrittig intelligenter als zB ein Expertensystem aus den Neunziger Jahren - wenn auch noch lange nicht auf dem Niveau eines Menschen.

Ob das Ganze intern mit Prozessoren oder Gehirnzellen funktioniert, sollte dabei keine Rolle spielen.

Was definitiv fehlt, ist ein Bewusstsein der Maschine. Über den Begriff der Intelligenz streiten sich natürlich auch die Experten.

Was mich persönlich aufregt, ist das inflationäre Verwenden des Attributs "intelligent" für Dinge wie Lichtschalter, Heizungsthermostate usw. durch Werbung.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Ich finde das Geburtstagsständchen von @MaxJoy für den angedachten Zweck gar nicht mal so schlecht. In ein paar Minuten Text fertig; beeindruckend:)
Funktioniert sogar mit weniger "Fütterwörtern" und wirkt seeehr ähnlich.

Den Text mit der Vorarbeit von @hobz biz-zejt und @losch im anderen Thread finde ich sehr interessant; zumal die KI die Grenzen des Systems sowie Style und Tiefgründigkeit ja selber erklärt.

Wobei ich damit trotzdem nicht ganz einverstanden bin, denn die Nachteile des Menschen wie "Zeitaufwand", "Blockaden" und "Subjektivität" sind für mich keine Nachteile, sondern durchaus oftmals Auslöser für ein bestimmtes Ergebnis. Wir haben doch alle schon an etwas gesessen und kamen nicht weiter. Dann wird man wütend, geht die Passage anders an und hat ein Ergebnis über das man sich um so mehr freut. Kreativität bei Musik und Text wird sich niemals von Effizienz / Zeitdruck oder Produktivität einschränken lassen (wenns Spaß machen soll).

Die drei Vorteile der KI in dem Text sehe ich auch nicht: Die vielen möglichen Styles auf Grund der Datenmenge kann ich nicht erkennen (ist für mich noch relativer Einheitsbrei hinsichtlich Ausdruck - wobei sich das auch ändern kann oder meine Schuld beim Eingeben ist)..
Die angesprochene Objektivität der KI sehe ich auch nicht unbedingt als Vorteil, denn den Spannungsverlust und tendenziellen Reportagecharakter wird sie damit nie los.

Trotzdem ist es schon erstaunlich, wie sich das gewandelt hat....mal sehen wie das in 5 Jahren aussieht (die vorhandenen Texte, das Board und vor allem die User sind ja hoffentlich noch da)🤘
 
  • Gefällt mir
Reaktionen: 2 Benutzer
mal sehen wie das in 5 Jahren aussieht (die vorhandenen Texte, das Board und vor allem die User sind ja hoffentlich noch da)
Man muss wahrscheinlich aufpassen, dass die Diskussionen in fünf Jahren hier nicht nur von Bots geführt werden.
Manchmal hat man durchaus das Gefühl, dass hier schon welche unterwegs sind.
 
  • Gefällt mir
  • Haha
Reaktionen: 2 Benutzer
Wobei ich damit trotzdem nicht ganz einverstanden bin, denn die Nachteile des Menschen wie "Zeitaufwand", "Blockaden" und "Subjektivität" sind für mich keine Nachteile, sondern durchaus oftmals Auslöser für ein bestimmtes Ergebnis.
Dito - und ich gehe noch einen - für mich entscheidenden - Schritt weiter:
Ein Text ist für mich eine Auseinandersetzung und damit ein Prozeß - mit mir, der Welt, meinem Denken, meinen Gefühlen. Und dieser Prozeß bewirkt - wenn er mit Leidenschaft und Offenheit zu tun hat - eine Veränderung in einem. Und das in einer Weise, die vorher nicht absehbar ist.

Das ist der - für mich entscheidende - Teil, der mir in der Debatte zu kurz kommt. Einen Text zu erstellen ist für mich kein Auftrag, den ich möglichst aufwandsfrei und schnell erledigt haben will. Das ist bei mir und der Musik genau so - ich mache ja nicht Musik, weil ich kein Geld habe, mir eine CD zu kaufen oder keine Zeit, das Radio anzumachen. Ich mache Musik, weil ich das erfreut, vor Herausforderungen stellt, weil ich Lust dazu habe.

Was also soll mir KI abnehmen - wenn ich Musik und Texte machen nicht als Auftrag oder lästige Pflicht empfinde? Das, was sie mir abnehmen kann, ist gerade das, was mich reizt und was ich selbst machen will.

Dabei kenne ich durchaus das Gefühl: Ach, ich habe hier so ein tolles Riff - wie könnte man daraus einen ganzen song machen? Oder ich habe Musik und mir fehlt ein Text und der Text muss ja auch nichts besonderes sein. Oder warum sich nicht mal Anregungen holen für die Musik oder den Text?
Bedingt kann ich das ja auch verstehen - aber eben nur bedingt: Der Reiz, sich in den Prozeß zu begeben und dann anders dabei rauskommen und - ja: dabei zu lernen und Erfahrungen zu sammeln - überwiegt bei weitem.

Ein bißchen kommt mir das so vor wie Schummeln bei einer Klassenarbeit: kann man machen, gibt unter Umständen eine gute Note - aber man lernt halt nichts dabei.

x-Riff
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Bei Musik habe ich auch genau NULL Motivation, eine KI zu verwenden.

Ernsthafte Songtexte schreibe ich nicht.

Für den Geburtstagstext war die KI-Vorlage genau richtig. Ich hatte was zum Anfangen, was mir die Einstiegshürde abgenommen hat.

Das, was sie mir abnehmen kann, ist gerade das, was mich reizt und was ich selbst machen will.

ChatGPT habe ich bisher einige Male mit großem zeitlichen Nutzen verwendet.

Beim Programmieren ist es faszinierend - es nimmt mir genau das ab, wozu ich keine Lust habe, nämlich zB. in Dokumentationen nach den genauen Befehlen von unübersichtlichen Bibliotheken zu suchen.

Bei Übersetzungen, englischen Geschäftsbriefen usw. finde ich die Ergebnisse sehr gut.

Kollegen verwenden es außerdem gern für Zusammenfassungen von längeren Texten.

Die KI macht also genau das, was mich nicht reizt und was ich nicht selbst machen will.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Und diese künstlichen „Neuronen“ fangen quasi aus dem Nichts heraus an diese großen Mengen Trainingsdaten und alle weiteren Daten zu be-/verarbeiten? Auf welcher Grundlage? Der heilige Geist haucht ihnen Leben ein? All diese künstlichen „Neuronen“ sind einzelne Prozessoren, die auf Befehle warten, sonst machen sie rein garnichts. Und diese Befehle müssen ja irgendwo wer kommen, sprich die müssen einprogrammiert werden.

Die künstlichen Neuronen und ihr Vernetzungsmechanismus wurden programmiert, aber das ist entsprechend des biologischen Vorbilds erstaunlich einfach gestrickt. Jedes Neuron kann beliebig viele Eingangssignale empfangen und sendet nur dann selbst ein Ausgangssignal, wenn die Summe der Eingangssignale einen bestimmten Schwellwert überschreitet. Lernen bedeutet in diesem Kontext, dass sich die Gewichtungen (eine einfache Multiplikation) der Verbindungen ('Dendriten') so lange ändern, bis das richtige Ergebnis herauskommt. Der zugrunde liegende Mechanismus ähnelt also ein bisschen einer demokratischen Abstimmung durch die vielen dummen Neuronen, die Flexibilität und Intelligenz stecken in der Vernetzung.

Einfacher kann ich es nicht erklären, die meisten Beschreibungen sind sehr mathematisch und das würde den Rahmen dieses Threads sprengen. Ich habe es selbst nicht glauben können, dass ein so einfacher Aufbau ausreicht, um eine universelle Denkmaschine konstruieren zu können, bis ich ein kleines Projekt gemacht habe und damit herumspielen konnte. Das empfehle ich auch dir, die Bibliotheken für die neuronalen Netze sind Open Source und Beschreibungen findest du online.
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Für den Geburtstagstext war die KI-Vorlage genau richtig. Ich hatte was zum Anfangen, was mir die Einstiegshürde abgenommen hat.
Das kann ich gut verstehen.
Beim Programmieren ist es faszinierend - es nimmt mir genau das ab, wozu ich keine Lust habe, nämlich zB. in Dokumentationen nach den genauen Befehlen von unübersichtlichen Bibliotheken zu suchen.

Bei Übersetzungen, englischen Geschäftsbriefen usw. finde ich die Ergebnisse sehr gut.

Kollegen verwenden es außerdem gern für Zusammenfassungen von längeren Texten.

Die KI macht also genau das, was mich nicht reizt und was ich nicht selbst machen will.
Und das auch.

Und dennoch gibt es für mich eine Grenze: Wir wurden vom Arbeitgeber aufgefordert, Anträge per ChatGPT zu verfassen. Die Idee zu den Anträgen kommt von uns, man könnte sie als unic selling point oder Alleinstellungsmerkmal oder den Kern des Ganzen verstehen. ChatGPT füllt das dann auf und entlastet von nerviger, zeitraubender Arbeit.
Aber bzw. genau deshalb wird das um sich greifen - und es wird sich erweitern. Demnächst wird es komplette Anträge von KI geben. Und bald darauf - um die Verwaltung zu entlasten - werden auch diese von einer KI geprüft und die Absagen bzw. Zusagen gleich mit formuliert. Und dann?

Menschen bzw. Organisationen ohne Skrupel und Geld werden durch bots oder KI haufenweise Anträge aller Art stellen - das kostet ja dann im Endeffekt kaum noch was und sahnen dann ordentlich ab. Schöne neue Welt. (Und sie funktioniert so gut, weil ja sowieso schon 90% auf Routinen beruht, die eben einfach zu bedienen sind und Regeln folgen, die wiederum von einer KI durch Wahrscheinlichkeiten und Algorithmen gut zu bedienen sind.

Doch ich schweife ab - Kern sollten Musik und Texte bleiben. Und doch kann ich das nicht trennen von dem, was in/durch/mit KI derzeit schon passiert und weiter passieren wird.

x-Riff
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Auf jeden Fall hat die KI gerade einen Pluspunkt bei mir gesammelt, denn mit sowas hätte ich mich sonst gar nicht erst beschäftigt.
Endlich einer, der die unschönen Arbeiten abnimmt. Danke KI:D

KI-Textermahnung.jpg

und sogar originell, die Schnulze :ROFLMAO::ROFLMAO::ROFLMAO:
 
  • Haha
Reaktionen: 2 Benutzer

Die KIs lernen ja von uns: Jedes Mal, wenn du deinen Gefallen an einem Ergebnis ausdrückst (Sternchen, Daumen nach oben, Herunterladen, Lob etc.), ist das eine positive Rückmeldung, die zukünftige Entscheidungen beeinflusst. So entsteht ganz von selbst eine Hitmaschine, die die Erwartungen und den Massengeschmack am besten trifft ('Schnulze').
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Es gibt einiges, das ich schon unabhängig von KI begriffen habe (wenn es denn richtig ist, aber davon gehe ich - zumindest als Arbeitshypothese erst mal aus):
  1. Von ihrer Erscheinung her komplexe Dinge können aus einfachen, einzelnen Elementen zusammengesetzt sein
    Wenn man sich beispielsweise Fraktale anschaut, so ist deren "Bauformel" sehr einfach, was dabei entsteht, ist aber sehr komplex. Auch in Physik und Chemie können aus einfachen Elementen mit überschaubaren Regeln sehr komplexe Gebilde entstehen. Daraus folgt:
  2. Komplexe Dinge können entstehen, ohne dass dahinter eine hohe Intelligenz oder ein Bauplan stehen, der schon vom Endergebnis weiß.
    Ameisenstaaten oder Bienenvölker bilden psysisch und sozial/organisatorisch sehr komplexe Einheiten und auch so etwas wie Börsenkurse etc. können sehr komplexe und hochgradig flexible Geschehen sein, ohne dass die einzelnen Akteure überragende Intelligenz oder großes Wissen besitzen. Was es braucht, sind viele Einzelne, die aber in einem permanenten Informationsaustausch stehen.
  3. Einfache Feedback-Schleifen können dafür sorgen, dass aufeinander reagierende, komplexe Systeme entstehen.
    Ein großer Teil von dem, was wir Lernen nennen, beruht auf einfachen Feedback-Schleifen: wenn etwas gut war/ankam, mach es wieder/öfter; wenn etwas nicht gut war/ankam, lass es bleiben/mach etwas anderes. Das funktioniert im Grunde gut - es kommt nicht darauf an, dass man begreift, warum etwas nicht gut war/ankam, sondern entscheidend ist, dass man das Feedback für die nächsten Aktionen nutzt.
Deshalb erstaunt mich recht wenig, wozu KI in der Lage ist und demnächst in der Lage sein wird. Weil der Aufbau komplexer Systeme auch mit recht einfachen Mitteln geschehen kann.
Deshalb ist es auch nicht erforderlich, dass KI versteht, was vor sich geht (Analyse) oder was das bedeutet (Sinn) oder dass KI Gefühle hat. Sie macht, was sie macht, ganz ohne das. Dass Menschen glauben, dass KI intelligent sein muss, oder Bewußtsein von dem hat, was sie tut oder dass sie fühlt, halte ich für einen menschengemachten Trugschluss - weil wir sowas brauchen, um zu den Ergebnissen zu kommen.

Darin liegt aber auch die Begrenzung von KI: KI versteht weiter nicht, was sie tut - und noch mehr: ihre "Schöpfer" verstehen es auch nicht - sie selbst wissen nicht genau, was vor sich geht - für sie ist die KI eine black box, denn es sind so dermaßen viele einfache Operationen, dass sie sich nicht mehr nachvollziehen lassen. Ich bin mir dabei noch unsicher, ob das eher eine Frage des Aufwandes ist (denn man könnte ja den Befehl geben, dass die KI jeden ihrer Schritte dokumentiert) oder ob das eher darauf beruht, dass die Entwickler sich nicht in die Karten schauen lassen wollen - es handelt sich ja weitgehend um Firmengeheimnisse.
Insofern simuliert KI die ganze Zeit. Sie macht das sehr gut und sehr schnell. Aber: sie selbst kann überhaupt nicht sagen, ob das, was sie macht, in irgendeiner Art und Weise und warum, etwas mit Wirklichkeit zu tun hat. Sie kann im höchsten Fall sagen, wie wahrscheinlich ein Ergebnis, das sie liefert, den zufrieden stellt, der ihr einen Auftrag gegeben hat.

Daraus folgt, dass man KI in keinster Weise irgendetwas auftragen darf, was entscheidungsrelevant ist.
Und leider ist es genau das, was meiner Meinung nach demnächst passieren wird. Denn wenn ich das richtig einschätze, verlassen sich Regierungen schon jetzt auf KI-gestützte Analysen oder Modellberechnungen, von Militärs ganz zu schweigen.

x-Riff
 
  • Gefällt mir
Reaktionen: 1 Benutzer
So entsteht ganz von selbst eine Hitmaschine, die die Erwartungen und den Massengeschmack am besten trifft ('Schnulze').
Wenn sich die KI an meinen Beiträgen orientiert ..... die arme Sau:ROFLMAO:

Ich bin mir dabei noch unsicher, ob das eher eine Frage des Aufwandes ist (denn man könnte ja den Befehl geben, dass die KI jeden ihrer Schritte dokumentiert) oder ob das eher darauf beruht, dass die Entwickler sich nicht in die Karten schauen lassen wollen - es handelt sich ja weitgehend um Firmengeheimnisse.

Ich denke da steckt entwicklungstechnisch wesentlich mehr dahinter, als man allgemein überschaut. Dieses Chat GPT stellt ja bestimmt nur einen Bruchteil der Möglichkeiten dar? Ich muss immer an KI-Sophia denken, die ja immerhin schon eine Rede vor der UN gehalten hat (glaub ich) und die sich von fast keinem Journalisten austricksen ließ. Und das ist ja auch schon ein paar Jahre her und hat sich weiterentwickelt.

In Zukunft werden bestimmt auch die Themen Emotionstiefe, Style und um was es noch alles ging.....so weit verfeinert werden, dass wir wohl doch nicht mehr eindeutig unterscheiden können. Ist ja jetzt schon teilweise nicht möglich, je nach Bearbeitungsaufwand. Sehr gefährlich, finde ich - aber das Thema gabs ja anderswo auch schon.

Bei mir würde es so sein, dass ich bei Nutzung der KI selber der Leidtragende wäre:
Das Texten und komponieren (von mir aus auch auf geringem Niveau) hilft mir, die Rübe innerlich etwas zu stärken - Gitarre und Bass spielen macht Spaß und hält wenigstens die Pfoten fit.
 
Daraus folgt, dass man KI in keinster Weise irgendetwas auftragen darf, was entscheidungsrelevant ist.
Einspruch, Euer Ehren.

Nach Deinen Kriterien dürfte man dann auch keinem Menschen etwas auftragen, was entscheidungsrelevant ist.
sie selbst wissen nicht genau, was vor sich geht - für sie ist die KI eine black box, denn es sind so dermaßen viele einfache Operationen, dass sie sich nicht mehr nachvollziehen lassen.
Kannst Du bei Menschen nachvollziehen, warum sie so oder so entscheiden?
Du verlässt Dich einfach drauf, dass die das aus Erfahrung und Moral tun. Aber es gab auch schon genügend menschliche Fehlentscheidungen, sei es nun aus Unkenntnis, Überforderung (Tschernobyl), Müdigkeit, Bösartigkeit, Dummheit ...

Wieviele Autounfälle passieren täglich, weil Menschen unvollkommen sind?

Ich will jetzt nicht total pro KI reden, aber man darf imo keine Perfektion fordern, wo keine möglich ist, und wo man selbst noch unperfekter ist.
Moralisch ist es natürlich irgendwie unschöner, von einem KI-gesteuerten Auto umgefahren zu werden als von einem Menschen ... aber ich weiß gar nicht, ob jetzt selbstfahrende oder menschengefahrene Autos mehr Unfälle pro km machen.

verlassen sich Regierungen schon jetzt auf KI-gestützte Analysen oder Modellberechnungen, von Militärs ganz zu schweigen.
je nachdem vielleicht auch gut so ... gab auch da schon genügend Fehlentscheidungen ...
Ich finde die Entscheidung nicht so einfach. Man müsste erstmal die Kriterien und Randbedingungen abstecken.

Mit KI ernsthaft Komponieren und Gedichte schreiben geht mir persönlich am A... vorbei. Es gibt noch Hunderte, wenn nicht Tausende tolle Stücke, die ich erstmal spielen möchte.
 
  • Gefällt mir
Reaktionen: 1 Benutzer
Das empfehle ich auch dir, die Bibliotheken für die neuronalen Netze sind Open Source und Beschreibungen findest du online.
Hab ich und das auch schon länger und ausführlicher als mir selbst lieb war/ist.
Der letzte Post @x-Riff vor mir trifft es doch ganz genau.
Ein, noch so Entschuldigung, dämliches, mit geringer Intelligenz gesegnetes Wesen hat ein Bewusstsein und weiß was es tut und in der Regel auch warum und zu welchem Zweck.
Eine „KI“ kann sehr viel und sehr schnell, hat aber keinerlei Vorstellung davon warum und zu welche Zweck.
Sie errechnet Wahrscheinlichkeiten auf Grundlagen von gigantisch vielen Daten.
Aber eben nur Wahrscheinlichkeiten und die müssen keineswegs, auch bei identischer Eingabe der Aufgabe identisch sein. Mit Intelligenz hat das alles nichts zu tun.
Ich geh jetzt meine körpereigene Intelligenz trainieren oder besser gesagt ich übe jetzt die Beherrschung meiner Gitarre 😉
PS: @MaxJoy
Es ist kein persönlicher Angriff auf dich
 
  • Gefällt mir
Reaktionen: 1 Benutzer

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben