KI kann sicherlich nicht unseren freien Willen als Musiker in unseren eigenen vier Wänden beeinflussen.
Aber Mustererkennung wird natürlich heute bereits verwendet, vor allem in anderen Staaten, um Freiheit einzuschränken. Zum Beispiel lässt sich mit 91%iger Wahrscheinlichkeit an einem Foto mittels Machine Learning erkennen, ob jemand homosexuell ist. Staaten wie Ägypten finden das spannend, dort droht Schwulen mindestens 3 Jahre Knast. Und schon beeinflusst KI die Freiheit.
Aus den Fotos, die man bei Insta postet, sagt KI zuverlässiger als ein Hausarzt vor, ob man eine Depression hat. (Je nach Studie… ich finde Trefferquoten von 70% bei KI, das wären 10% mehr als der durchschnittliche Hausarzt). Natürlich wird einem das keine Firma sagen, aber vielleicht hat man ja den Job nicht gekriegt, weil man ein depressionsversprechendes Social-Media-Profil hat.
Dass YouTube Musikstücke sehr gut erkennen kann anhand auch nur kleiner Schnipsel, ist schon länger bekannt. Da kann es auch mal passieren, dass im Livestream auf einmal mehrere Minuten Stille herrschen, weil YouTube das Musikstück rausnimmt. Die GEMA hat ein System, das bei Festivals die Setlists/Musikfolgen automatisch aus dem akustischen Signal ableitet.
Dass man ein Copyright-Problem auf YouTube bekommt, weil eine KI den eigenen Song fälschlicherweise als Kopie von irgendeinem geschützten Original sieht, ist durchaus mal drin. Die GEMA zeigt, dass man das prinzipiell auch live umsetzen könnte. Außerhalb der eigenen vier Wände könnte man also bald nicht mehr frei sein, zu musizieren wie man will. Aber wenigstens zuhause, da lauscht ja keiner. … aber … wer von Euch hat eine Alexa?
Auch die GEMA hat pauschal KI-Anbietern die Nutzung von bei ihr angemeldeten Titeln als Trainingsdaten untersagt. Ob das irgendwo in den USA jemand interessiert, ist mir jetzt nicht klar.
Infos zur GEMA und KI:
https://www.gema.de/de/w/musik-machen-mit-ki