"machine learning" ist seit Jahrzehnten etabliert und ebenso irreführend.
Es ist in der Tat, ein Phänomen, das bei der ganzen uns begleitenden digitalen Revolution, die Begriffe, die das benennen und beschreiben, das völlig überhöht oder verdreht darstellen:
Seit gefühlt ca. zehn Jahren fordert alle Welt,
das wir „endlich mit der Digitalisierung beginnen“.
Sorry, aber ich habe 1980 in einem Schüler Praktikum Messdaten in einem Texas Instruments TI-59 eingegeben, die dann in einem IBM-PC graphisch dargestellt und weiterverarbeitet wurden. Der Arbeitsplatz meiner Mutter ist ziemlich zum gleichen Zeitpunkt der Digitalisierung zum Opfer gefallen (ein PC hat die Arbeit einer Abteilung von 16 Menschen überflüssig gemacht…).
Digitalisierung findet für uns deutlich spürbar seit mehr als 50 Jahren statt. Mit segensreichen und schmerzhaften Konsequenzen.
„Digitaler Twin“ ist auch so ein tolles Mode Wort. Das soll ja eigentlich eine rechnerbasierte exakt funktionierende Kopie eines Gerätes, Maschine oder Anlage sein. Schaut man sich jedoch „Digitale Twins“ in der Industrie mal genau an, dann ist das nicht viel mehr als ein Foto der Anlage und ein Visual Basic Program das eine Beschriftung einblendet: „Läuft!“
Machine Learning ist hier natürlich falsch übersetzt. Wenn man es im Sinne von „von Maschinen lernen/die Maschine liefert Daten“ ließt, wird ja ein Schuh draus.
Aber auch das treibt dann Denkweisen, die IMO schon merkwürdig sind: „
Wir sind leider nicht in der Lage, einen Prozess zu verstehen, deshalb nehmen wir einfach Unmengen an Daten von diesem Prozess auf; jagen das durch ein Big Data Tool und wissen dann wie der Prozess funktioniert!“ Nö, wißt ihr dann leider immer noch nicht…