KI im Fokus: Expertinnen und Experten im Interview
5:22
Social-Data-Science-Experte Prof. Dr. Dennis Klinkhammer im Interview
„Künstliche Intelligenz ist oft nur statistische Hausmannskost“
08.08.2023 | Köln
Der Traum von der intelligenten Maschine ist nicht neu. Mit dem viel diskutierten Sprachmodell ChatGPT scheint die Vision Wirklichkeit geworden. Doch ist dem wirklich so? Prof. Dr. Dennis Klinkhammer von der FOM Hochschule, der sich mit den statistischen Grundlagen von maschinellem Lernen auseinandersetzt, ist da skeptisch. Denn Künstliche Intelligenz (KI) sei oft weniger intelligent als angenommen und hänge maßgeblich von den Menschen ab, die sie entwickeln und bedienen.
Prof. Dr. Klinkhammer, noch nie war das Thema Künstliche Intelligenz medial so präsent wie in diesen Tagen. Doch wie intelligent ist KI überhaupt? Künstliche Intelligenz bezeichnet einen Oberbegriff, der verschiedene Verfahrensweisen vereint. Maschinen und Systeme werden so programmiert, dass sie ansatzweise menschenähnliche Intelligenz und Verhaltensweisen zeigen. In den meisten Fällen ist Intelligenz allerdings das falsche Wort – bestenfalls ist es eine frühkindliche Intelligenz, wenn beispielsweise KI Hunde von Katzen unterscheiden lernt, was bereits ein Kleinkind kann. Maschinelles Lernen basiert auf Algorithmen, die Muster und Strukturen in Daten erkennen und daraus lernen. Da sehe ich keine Roboter, sondern statistische Hausmannskost, die in der Oberstufe gelehrt wird. Bei Deep Learning, einer fortgeschrittenen Methode des maschinellen Lernens, wird es etwas komplexer. Insgesamt entspricht die aktuelle mediale Präsentation des Themas aus meiner Sicht aber nicht immer der eher nüchternen Realität.
Was ist denn technisch notwendig, damit gerade der vieldiskutierte Sprachbot ChatGPT umgesetzt werden konnte? Die Grundlage für generative KI ist 2017 durch Transformer-Modelle geschaffen worden. Wenn ich einen Text vom Deutschen ins Englische über Google Translator übersetzen lasse, ist das Ergebnis oft etwas hakelig. Eine Alternative ist das Programm DeepL, das anders funktioniert und ohne die Transformer-Modelle nicht möglich wäre. Dabei antizipiert der Computer über eine sogenannte Multi-Head-Attention, welches Wort auf das vorangegangene folgen muss, er fokussiert verschiedene Möglichkeiten und wählt dabei die bestmögliche. Die Transformer-Architektur hat der auf neuronalen Netzen basierten KI zu einem für die Userinnen und User spürbaren Durchbruch verholfen.
Ein Bereich, mit dem Sie sich fachlich auseinandersetzen, ist der Einsatz von KI bei der Bewertung von Social-Media-Beiträgen. Worum geht es dabei? Deep Learning kann dabei helfen, Online-Content auszuwerten. Dabei wird beispielsweise der Tonfall im Kontext des Satzes überprüft: Ist jemand traurig oder wütend? Wenn ich poste: „Ich bin gegen Hass“ steckt in der Aussage das negativ konnotierte Wort „Hass“. Die Aussage aber ist positiv. Algorithmen können das mit Zugriff auf Sprachbibliotheken in gewissem Umfang klassifizieren. Im besten Fall lassen sich so im Bereich der zivilen Sicherheitsforschung beispielsweise Radikalisierungstendenzen frühzeitig erkennen. Das kann für Behörden und Einrichtungen eine wertvolle Hilfe darstellen.
Wo kann der Einsatz von KI künftig – speziell im Bereich der smarten Vernetzung – einen Mehrwert schaffen? Denkbare Einsatzfelder gibt es zahlreiche, denn der Einsatz von KI kann viele Abläufe, die Routinen erfordern, erleichtern. Im Bereich Internet of Things denke ich an die smarte Vernetzung von Geräten. In Ansätzen ist das bereits möglich, wenn die Waschmaschine sich selbst prüft und Waschmittel nachbestellt. Interessant ist auch die Verwendung von Algorithmen, um Endgeräte softwareseitig effizienter zu gestalten. Da liegt ein gewisses Potenzial zur Einsparung von Ressourcen. Eine weitere Einsatzmöglichkeit liegt beispielsweise im Bereich der Verwaltung. Was erwarte ich von einem Bürgeramt? Viele Prozesse könnten mit dem Einsatz von KI vereinfacht werden. Für die Mitarbeitenden bleibt dann mehr Zeit, sich Aufgaben zu widmen, die den Menschen erfordern.
Prof. Dr. Dennis Klinkhammer lehrt im
Master-Studiengang IT Management (M.Sc.)
Um die Chancen und Risiken von KI bewerten zu können, ist technisches Know-how notwendig. Im Master-Studiengang IT Management (M.Sc.) lernen Sie, informationstechnologische Veränderungen zu bewerten und damit zum Unternehmenserfolg beitragen.
Das klingt alles nach einem positiven Fortschritt für die Menschheit. Welche Gefahren sehen Sie denn beim Einsatz von KI? Was die Furcht vor dem Jobverlust angeht: Ich denke, dass KI Möglichkeiten schafft, sich auf die Dinge zu konzentrieren, bei denen der Mensch gebraucht wird, weil Einfühlungsvermögen, Empathie und Menschlichkeit unabdingbar sind. Zugleich ist es aus meiner Sicht der Mensch selbst und nicht die Technik, von dem die größte Gefahr ausgeht. Ich tue mich gerade mit Blick auf die demokratische Teilhabe schwer, weil das Wissen fest in der Hand von einzelnen Unternehmen ist und wir im guten Glauben auf ihre Produkte vertrauen müssen. Das Wichtigste wäre es deshalb, dass Entwicklerinnen und Entwickler den Userinnen und Usern einen Zugang zum Wissen über die Anwendung und die dahinterliegende Technik ermöglichen oder die Open-Source-Alternativen gleichermaßen in der medialen Berichterstattung erwähnt werden. In naher Zukunft wird das zum allgemeinen Wissensbestand gehören. Es wird wie beim Autofahren sein: Das Wissen über die richtige Bedienung und ein versierter Umgang schaffen Sicherheit.
Drei Tipps für den Umgang mit ChatGPT
Large Language Models (LLM) wie ChatGPT können natürliche Sprache generieren. Die Ergebnisse hängen jedoch maßgeblich vom Prompt, also der jeweiligen Anweisung des Users, ab. „Algorithmen greifen auf allgemeine Informationen zurück, das Ergebnis lässt sich aber feintunen“, sagt Prof. Dr. Dennis Klinkhammer, der drei Tipps für den richtigen Umgang nennt:
1. Format: Zunächst muss man sich darüber im Klaren sein, welche Antwort man in welchem Format erwartet. Soll die Antwort in Prosa, als Tabelle oder Zahlenreihe ausgegeben werden? Das gilt es – wie die zugrundeliegenden Rollen des Large Language Models – vorab zu definieren.
2. Kontext: Der nähere Kontext muss definiert werden, damit nicht auf alle möglichen Quellen zurückgegriffen wird. Das kann beispielsweise ein zeitlicher Rahmen sein.
3. Feintuning: Jede Antwort lässt sich weiter verfeinern und durch nachfolgende Prompts weiterbearbeiten. Das schafft präzisere Antworten.