Das Sprachprogramm ChatGPT hat in den vergangenen Monaten eine breite Öffentlichkeit aufgerüttelt: Künstliche Intelligenz (KI) dringt immer stärker in unseren Alltag ein und übernimmt menschliche Aufgaben. Große Chancen ja, aber wo sind die Grenzen? Wer ist für Fehler verantwortlich?
Der Würzburger Jura-Professor Eric Hilgendorf hat an EU-Regelungen zur Künstlichen Intelligenz mitgearbeitet und ist Mitglied im Bayerischen KI-Rat.
Künstliche Intelligenz ist auf dem Vormarsch. Wieviel gesetzliche Regulierung braucht es?
Prof. Eric Hilgendorf: Sie ist nötig, muss aber Maß halten. Man braucht eine Analyse von Gefahren und muss zuerst andere Möglichkeiten zur Problemlösung ausloten – zum Beispiel Selbstregulierung, Forschungsverzicht, Medienkompetenz. Wenn das nicht reicht, sind härtere Vorgaben durch das Verwaltungsrecht und als letzter Weg auch das Strafrecht gefragt.
Wo sehen Sie Regulierung genau gefordert?
Hilgendorf: Ein großes Problem ist, dass viele dieser neuen Angebote aus den USA kommen. Dort lässt man es erst einmal laufen und zu Problemen kommen - und zieht dann, falls nötig, über die Produkthaftung auch große Konzerne zur Verantwortung. Der europäische Weg ist ein anderer: Wir versuchen vorab Gefahren zu identifizieren und zu regulieren. Besonders relevant scheint mir dies beim Schutz von Jugendlichen oder anderer Menschen, die besonders gefährdet sind. Da sollte man nicht abwarten, bis es zu Schäden kommt.

Wie könnte das gehen?
Hilgendorf: Hersteller von KI-Software sollten zur Selbstregulierung verpflichtet und damit haftbar gemacht werden. Das Strafrecht ist in einer freiheitlichen Gesellschaft das letzte Mittel.
Ein Beispiel: Was ist mit der Verantwortung beim autonomen Fahren?
Hilgendorf: Autonomes Fahren ist der einzige Bereich, in dem Deutschland vorgeprescht ist und eine eigene nationale Regelung für KI erlassen hat. Im Straßenverkehrsgesetz wurde die Zulässigkeit von autonomen Fahrzeugen und der Umgang von solchen KI-Systemen mit hochkomplexen ethischen Fragen geregelt– etwa die Tötung von unschuldigen Verkehrsteilnehmern durch autonome Fahrzeuge in Dilemma-Situationen. Ich konnte hier in einer eigenen Ethikkommission des Verkehrsministeriums mitarbeiten.
Wer ist schuld, wenn ein autonom fahrendes Auto einen tödlichen Unfall verursacht? Der Halter, der Hersteller?
Hilgendorf: Das Problem hat viele Aspekte. Zivilrechtlich geht es um Schadensersatz, hier ist in Deutschland der Halter in der Pflicht, beziehungsweise seine Versicherung. Strafrechtlich ist das viel komplizierter. Weder Halter noch Fahrer können ohne Weiteres verantwortlich gemacht werden – sie haben in der Unfallsituation ja nichts getan. Die Maschine können wir nicht bestrafen. Was bleibt, wäre unter Umständen der Programmierer oder der Hersteller. Ich halte eine Strafhaftung für denkbar, wenn der Hersteller nicht hinreichend Sorge dafür trägt, dass keine Menschen geschädigt werden. Das wird in der Strafrechtswissenschaft seit einiger Zeit diskutiert.

Und wenn ein Textroboter wie ChatGPT folgenschwere Fake News in die Welt setzt?
Hilgendorf: ChatGPT war für die Techniker und die Juristen kein ganz neues Problem. Es hat nur das Potenzial von Chat-Bots allgemein bekannt gemacht. Stellen Sie sich vor, eine dunkelhäutige Studentin wird von einem so manipulierten System beleidigt, bekommt einen Schock, muss in ärztliche Behandlung. Wer trägt die Kosten, wer ist strafrechtlich zu belangen?
Sagen Sie es uns.
Hilgendorf: Ich beschränke mich auf die strafrechtliche Seite. Als Beleidiger käme der Hacker in Betracht, der das System manipuliert hat. Aber diese Leute sind unbekannt, sitzen möglicherweise im Ausland. Eine zweite Möglichkeit wäre das System selbst. Aber nach europäischer Tradition können wir Computer oder Software nicht strafrechtlich belangen.

Und der Hersteller?
Hilgendorf: Sie werden dem Unternehmen kaum einen Vorsatz rassistischer Beleidigung nachweisen können. Aber Fahrlässigkeit könnte im Spiel sein, wenn ein KI-System wiederholt manipuliert werden kann. Da könnte man als Staatsanwalt schon hinschauen.
Das Ganze wirkt dann doch wie ein rechtsfreier Raum.
Hilgendorf: Vieles ist tatsächlich noch nicht juristisch erschlossen. Ich selbst sehe die Verantwortung insofern bei den Herstellern, als sie so sorgfältig programmieren sollten, dass die selbst lernenden Systeme eben nicht rassistisch, sexistisch oder beleidigend agieren können.

Wo sehen Sie am ehesten rechtliche Fallstricke bei ChatGPT?
Hilgendorf: Ein großes Problemfeld sind Plagiate und Urheberrecht. Hersteller, die sehenden Auges in Kauf nehmen, dass ihre Systeme Urheberrecht verletzen, sollte man nicht davonkommen lassen. Plagiate gehen noch weiter, da müssen sich vor allem auch Universitäten Gedanken machen, wie sie die KI-Möglichkeiten in den Griff bekommen. Strafrecht sollte aber auch hier das letzte Mittel sein – nach Medienkompetenz, Aufklärung, Kontrollen.
Was halten Sie vom italienischen Vorgehen, wo ChatGPT wegen Daten- und Jugendschutzverstößen jüngst gesperrt wurde?
Hilgendorf: Ich halte das für unklug und auch schwer durchsetzbar, weil man von Italien aus leicht über das Ausland an diese Systeme gelangt. Wenn man solche Verbote ernst nimmt und durchsetzen will, landet man in einem sehr autoritären Staatswesen. Das wollen wir nicht. Allerdings ist ChatGPT rein rechtlich kaum mit den europäischen Datenschutzvorgaben vereinbar.

Was kann man dann tun, wenn eine Sprach-KI Nonsens verbreitet?
Hilgendorf: Das kann natürlich folgenschwer sein – wenn es zum Beispiel um medizinische Fragen geht. Für Medizinprodukte gibt es normalerweise sehr enge Vorgaben und Haftungsregeln. Bei ChatGPT wurde das nicht beachtet. Es ist ja denkbar, dass Leute mit bestimmten Beschwerden das System nach einer Diagnose oder möglichen Behandlung fragen, anlog zu "Dr. Google" kommt nun "Dr. Chat". ChatGPT gibt dann einen medizinischen Ratschlag, was im schlimmsten Fall lebensgefährlich sein kann. Ich halte das für eine sehr bedenkliche Entwicklung. Hier müssten Vorgaben aus dem Medizinrecht stärkere Beachtung finden – und das System begrenzt werden.
Was halten Sie von einer sechsmonatigen KI-Entwicklungspause, wie sie Elon Musk und weltweit über 1000 KI-Experten in einem offenen Brief fordern?
Hilgendorf: Ich selbst sollte den Brief auch unterschreiben, was ich nicht getan habe. Ich halte das Ganze für reines Marketing. Ein solcher Vorschlag ist ja gar nicht durchzusetzen. Wer glaubt denn ernsthaft, dass sich China oder andere Länder einem solchen Moratorium anschließen würden. Ich denke, das gehört zur Marketingstrategie von Großunternehmen, die ansonsten in extrem aggressiver Weise ihre Systeme entwickeln und kommerzialisieren – und sich gleichzeitig ein moralisches Mäntelchen umhängen.
Öffentliche KI-Veranstaltung mit MinisterinZu einer öffentlichen Veranstaltung an der Universität Würzburg kommt Bayerns Digitalministerin Judith Gerlach (CSU), die in Würzburg Jura studiert hat, am Donnerstag, 20. April, ab 17 Uhr in die Alte Universität. In der Neubaukirche stellt sie die neue Digitalstrategie des Freistaats vor, Prof. Andreas Hotho spricht als Leiter des KI-Zentrums der Uni, Prof. Eric Hilgendorf als Mitglied des Bayerischen KI-Rats und Direktoriumsmitglied des Bayerischen Forschungsinstituts für Digitale Transformation.Quelle: aj