Frau Professor Bollhöfer, wer haftet, wenn eine KI falsche oder diffamierende Ergebnisse liefert und Menschen daraus Schaden entsteht?
Eine direkte Haftung gibt es nicht, da eine KI keine Rechtspersönlichkeit ist, sondern eine Sache – und damit weder haftbar gemacht noch ins Gefängnis gesteckt werden kann. Wenn Schaden entsteht, wird in Deutschland derzeit auf die Produkthaftung zurückgegriffen. Das bedeutet: Der Hersteller haftet verschuldensunabhängig für Schäden. Es wird jedoch nicht immer einfach sein, diese Schäden eindeutig auf einen Fehler der KI zurückzuführen. Die Herausforderung ist, an den Hersteller heranzukommen. Bei Google beispielsweise kann das relativ einfach sein, in vielen Fällen läuft die Haftung jedoch ins Leere. Deshalb arbeitet die EU seit zwei Jahren an einer Richtlinie für KI-Haftung. Aber auch das löst das Problem nicht, denn die Frage lautet: In welche Richtung geht die Entwicklung? Ein Modell wäre zum Beispiel, eine digitale Rechtspersönlichkeit zu erschaffen, die nur tätig werden darf, wenn im Hintergrund eine Art Haftpflichtversicherung abgeschlossen ist – ähnlich der Kfz-Versicherung. Ein anderes wäre, in die ethische Richtung zu denken, ob eine Nutzung zu bestimmten Zwecken überhaupt angeraten ist. Allerdings können wir alle einen riesigen Nutzen aus KI ziehen, das ist unbestritten.
Welche Maßnahmen sollten ergriffen werden, um Missbrauch von ChatGPT zu verhindern beziehungsweise juristisch zu verfolgen?
Dazu muss man erst klären, was Missbrauch von KI überhaupt ist: Malware programmieren lassen? Das lässt sich nicht verhindern. Denn dem Hersteller ist nicht zu verbieten, Quellcode zu produzieren. Manipulation von Fakten oder Bildern beispielsweise zu Zwecken einer Erpressung? Oder die Übernahme geschützter Texte als eigene? Für diesen Fall haben wir das Urheberrechtsgesetz – und Plagiats-Scanner. Die Weiterverwendung von Wissen ist ja gewollt, doch was daraus gemacht wird, liegt in der Verantwortung des Nutzers. Das kann man zwar verfolgen, aber eben nicht verhindern. ChatGPT beispielsweise lässt sich nicht in die Karten schauen, welche Quellen es nutzt.
Wie sieht es mit dem Urheberrecht aus, wenn ChatGPT das Wissen anderer nutzt?
Das deutsche Urheberrecht schützt das persönliche und geistige Eigentum. Da ChatGPT aber keine Person ist, kann der Transformator nicht gegen das Urheberrecht verstoßen. Seine Ergebnisse sind also nicht geschützt, können aber wegen zugrunde liegender Werke eine Urheberrechtsverletzung beinhalten. Das heißt: Wenn ich die von KI generierten Ergebnisse benutze und veröffentliche, die bereits an anderer Stelle urheberrechtlichen Schutz genießen, bin ich haftbar.
Was bedeutet das für Studierende?
Auf die richtige Anwendung von KI-generiertem Wissen kommt es an! Dann ist es auch für die Wissenschaft eine tolle Chance, um zum Beispiel Forschungsfragen aufzudecken oder einen schnellen Überblick über ein neues Thema zu bekommen. ChatGPT stellt ein mächtiges Tool dar, um Ideen und Material in kurzer Zeit zu sammeln. Es ist auch gewünscht, dass sich Studierende mit KI auseinandersetzen und diese sinnvoll einsetzen. Dieses Wissen bekommt man nicht in derselben Zeit durch Google-Suchen oder Bibliotheksrecherche. Aber sie müssen aufpassen und den KI-Rechercheergebnissen dann selbst nachgehen, die Fakten und Quellen prüfen, darauf aufbauen und neues Wissen generieren. Für alle wissenschaftlichen Arbeiten gelten die Leitlinien zur Sicherung guter wissenschaftlicher Praxis, der Kodex der Deutschen Forschungsgemeinschaft (DFG).
Was regelt dieser Kodex?
Für Haus- und Abschlussarbeiten bedeutet das unter anderem, genau anzugeben, an welchen Stellen sie KI als Unterstützung für ihre Recherche genutzt haben. Schließlich geben sie ja auch eine eidesstattliche Erklärung ab, den Ehrenkodex der Wissenschaft zu bewahren und die Arbeit selbstständig und ohne fremde Hilfe verfasst zu haben, nur unter Verwendung der angegebenen Quellen. Mit Plagiats-Scannern und Tools zum Entdecken KI-generierter Texte ist das heutzutage leicht zu prüfen. Für Klausuren könnte die Nutzung von KI künftig auch bedeuten, dass sie nicht mehr zu Hause am Laptop geschrieben werden, sondern wie früher per Hand an der Hochschule. Oder schriftliche Prüfungsleistungen werden durch mündliche Prüfungen ersetzt.
Wie stehen Sie persönlich zur Nutzung von KI?
Ich sehe nichts, was man verbieten sollte, da es legal ist, KI anzuwenden. Voraussetzung ist allerdings, die Möglichkeiten und Grenzen klarzumachen, um einen vernünftigen Umgang damit zu erzeugen. Ich trainiere das mit meinen Studierenden, indem sie Aufgaben bekommen, um Forschungslücken in bestimmten Bereichen zu identifizieren und mögliche Forschungsfragen zu entwickeln. Das müssen sie dann in Form eines eigenen Textes darstellen und ihr Exposé – wie in der Arbeitswelt einen Projektvorschlag – vorstellen.
Vielen Dank für das Gespräch!