Beitrag teilen

Link in die Zwischenablage kopieren

Link kopieren
Suchfunktion schließen
Technologie > Haftung bei KI-Fehlern

Regeln ja, aber mit gesundem Menschenverstand

Künstliche Intelligenz kann viel und wird immer mehr eingesetzt. Doch noch ist nicht geregelt, was passiert, wenn durch ihren Einsatz Schaden entsteht. Hier lohnt sich das Warten auf eine ordentliche EU-Regelung, keine Kleinstaaterei, kommentiert Thorsten Giersch.

Bisher gibt es noch keine klaren Regeln zur Benutzung von Künstlicher Intelligenz und einem unter Umständen dadurch entstandenen Schaden. Bildquelle: Shutterstock

Wenn ein Lobbyverband vom Staat mehr Regulierung fordert, dann sollten kritische Journalistinnen und Journalisten zweimal hinschauen. Es ist ja nun wahrlich nicht so, dass mittelständische Betriebe unter mangelnden Regeln leiden. Gerade die Ampel-Regierung spielt in der Champions League, wenn es darum geht, Bürokratie auf Beamtenapparate aufzubauen.

Nun hat sich der Verband "Die Familienunternehmer" ein Haftungsrecht für Geschäfte zwischen Unternehmen ausgesprochen, die künstliche Intelligenz (KI) einsetzen: Verbandspräsidentin Marie-Christine Ostermann sprach sich dafür aus, dass Deutschland schleunigst ein klares KI-Haftungsregelwerk bekommt. Dem Verband schwebt eine Gefährdungshaftung vor, wie man sie aus dem Straßenverkehr kennt: Hier entsteht bekanntlich eine Schadensersatzpflicht, wenn jemand bei einer zulässigen Handlung unvermeidlich andere gefährdet. Ob man sich dann Voll- oder Teilkasko versichert, darf jeder selbst entscheiden.

So eine KI-Regelung wäre laut des Verbandes auch ein wichtiger Standortfaktor für Investoren. Das Motto lautet: Haftung ja, allemal besser als Gebote und Verbote – aber die Haftung soll bitte nicht ausufern. Dass es eine Art Aufsicht geben muss und strengere Regeln, sagt ja die KI-Wirtschaft auch selbst. Bislang gibt es bei der EU-Kommission lediglich Entwürfe zum KI-Haftungsrecht – und die betreffen auch nur die Rechte der Verbraucher. Noch kann also der nationale Gesetzgeber aktiv werden.

Der Wunsch nach einer KI-Regelung ist berechtigt, der Vorschlag des Verbandes ist allerdings zu unterkomplex. Erstens erschließt sich nicht, warum es Haftungsgrenzen braucht: Wenn KI-Risiken sonst nicht versichert werden können, stellt sich die Frage, wer denn dann einspringen soll? Der Steuerzahler? Wenn Unternehmen – wohl gemerkt freiwillig – Technologien einsetzen, die zu enormen Schäden führen können, müssen sie auch mit den potenziellen Schäden fertigwerden oder mit Partnern arbeiten, die funktionierende Systeme garantieren. Die Versicherungspflicht, die der Verband fordert, ist zudem nicht marktwirtschaftlich. Dann bräuchte es längst auch eine solche für Schäden gegen den Klimawandel – Stichwort Flutkatastrophen.

Zweitens kann es keine pauschalen Lösungen geben, dafür ist das „Thema“ künstliche Intelligenz viel zu komplex. Man muss hier die verschiedenen Zweige der Technologien unterscheiden und nach Risiken einteilen. Soll heißen: Haftungsfragen müssen sich am Risiko- und Schadenspotenzial des KI-Systems orientieren. Es gibt durchaus Gründe, warum die EU so intensiv an einer kontinental gültigen KI-Verordnung arbeitet. Bei der Performance der deutschen Gesetzgebung in den vergangenen Monaten kann man sich kaum vorstellen, dass die Beamten in den zuständigen Ministerien den Rückstand aufholen und in schnellerer Zeit etwas Besseres zustande bringen.

Bei allem Verständnis für den Wunsch nach Rechtssicherheit: So einfach wie es der Verband vorschlägt, wird es leider nicht gehen. Künstliche Intelligenz ersetzt den Menschen ja insbesondere dort, wo er Schwächen hat. Wie soll da eine pauschale Gefährdungshaftung für KI-Systeme funktionieren?

Ähnliche Artikel