Schalast | Haftung
KI-Systeme steuern Anlagen, Maschinen und Fahrzeuge, unterstützen industrielle (z. B. Fertigungs-) Prozesse und analysieren komplexe Daten (z. B. Röntgenbilder oder mikroskopische Aufnahmen). Sie überwachen unterschiedlichste Vorgänge, werten Daten aus, erkennen Gefahren- und Fehlermuster, kommunizieren mit anderen Systemen und beantworten als „intelligente Assistenten“ Fragen als Grundlage für hierauf basierende menschliche Entscheidungen.
Auf der einen Seite unterstützt KI damit in vielen Bereichen den Menschen bei komplexen Vorgängen und kann dazu beitragen, menschliche Fehler zu reduzieren. Auf der anderen Seite birgt die zunehmende Fähigkeit zu weitgehend oder (zukünftig) gar vollständig autonomen Entscheidungen der KI auch eigene, neue Haftungsrisiken. Denn wo KI überwacht, kann ein gravierender Fehler unerkannt bleiben. Wo KI bewertet und „entscheidet“, kann eine Bewertung oder Entscheidung aus Sicht des Menschen auch falsch sein.
Dies kann auch für den Einsatz der „schwachen“ Systeme Künstlicher Intelligenz gelten (sog. methodische KI), wie sie derzeit und wohl auch mittelfristig zum Einsatz kommen. Damit stellen sich für die Entwicklung, den Betrieb und die Nutzung von KI-Systemen bereits jetzt relevante Fragen in Bezug auf Verantwortlichkeiten und Haftung.
Verantwortlichkeit für Schäden durch KI-Systeme
Nach wesentlichen Grundsätzen des deutschen Haftungsrechts ist in der Regel nur derjenige verantwortlich, der fahrlässig (oder gar vorsätzlich) etwas falsch gemacht hat. Voraussetzung einer Haftung ist in der Regel ein sogenanntes schuldhaftes Fehlverhalten („Verschulden“) eines Menschen. Wo KI-Systeme zunehmend „autonom“ handeln, eine Entscheidungsfindung durch den Menschen also etwaig gar nicht mehr vorgesehen ist, oder wo sich der Mensch zunehmend auf die „Entscheidung“ der KI verlässt, stellt sich aber die Frage, ob und wem bei Schadensereignissen überhaupt ein Verschulden vorzuwerfen ist:
- Hat die KI wirklich „autonom“ und damit ohne menschliche Einflussnahme entschieden?
- Hat der Hersteller sein KI-System ggf. fahrlässig falsch „trainiert“?
- Liegt die Ursache des Schadens z. B. in einer fehlerhaften Programmierung der Softwareanwendung „rund“ um den KI-Kern?
- Kann man dem Betreiber der KI-Anwendung womöglich eine fehlerhafte oder unzureichende Risikoinformation an den Anwender vorwerfen?
- Oder hat der Anwender das KI-System fehlerhaft oder vorwerfbar unsorgfältig bedient?
Von derartigen Fragen kann abhängig sein, ob ein „durch“ das KI-System (mit-) verursachter Schaden dem Hersteller bzw. Betreiber des KI-Systems zuzurechnen ist, dem Anwender, oder ob sich die Schadensverursachung ohne ein fehlendes vorwerfbares menschliches Fehlverhalten ggf. gar nicht bestimmen lässt.
Bei einem etwaigen menschlichen Fehlverhalten auf Seiten des Herstellers bzw. Betreibers stellen sich zudem häufig Beweisschwierigkeiten („Blackbox-Effekt“). Auch deshalb sollen mit der am 28.09.2022 durch die EU-Kommission als Vorschlag vorgestellten KI-Haftungs-Richtlinie („AI Liability Directive“) spezifische Vorschriften für Schäden eingeführt werden, die durch Künstliche Intelligenz verursacht werden. So sollen im Rahmen außervertraglicher Haftungsszenarien durch KI-Systeme geschädigte Personen bei dem gerichtlichen Nachweis entlastet werden. Zudem soll der Zugang zu Beweismitteln erleichtert werden. Aber auch weitere bzw. zukünftige Gesetzesvorhaben können Einfluss auf die Haftung und Verantwortlichkeit von und für KI-Systeme(n) haben.
Produkthaftung und Produzentenhaftung
Im Anwendungsbereich des auf die Produkthaftungs-Richtlinie 85/374/EWG zurückgehenden deutschen Produkthaftungsgesetzes (ProdHaftG) haftet ein Hersteller auch ohne Verschulden, wenn ein von ihm in Verkehr gebrachtes Produkt einen Fehler aufweist, der in seinen Auswirkungen einen Menschen tötet, dessen Körper oder Gesundheit verletzt oder eine andere, für den privaten Gebrauch bzw. Verbrauch bestimmte Sache beschädigt. Als haftungsbegründende Fehler kommen Konstruktions-, Fabrikations- und Instruktionsfehler in Betracht. Von der Produkthaftung nicht erfasst werden Schäden am fehlerhaften Produkt selbst und reine Vermögensschäden, die nicht unmittelbare Folge der Rechtsgutsverletzung sind.
Im Bereich der KI ist für die Entwicklung der Produkthaftung relevant der neben dem Entwurf der KI-Haftungs-Richtlinie am 28. September 2022 veröffentlichte Entwurf der Europäischen Kommission für eine Novelle der Produkthaftungsrichtlinie (COM/2022/495). Mit dieser Richtlinie soll Software ausdrücklich in den Anwendungsbereich der neuen Produkthaftungsrichtlinie aufgenommen werden. Damit werden zukünftig auch KI-Systeme in aller Regel unter den Produktbegriff im Sinne der Rechtsnorm fallen. Gleichzeitig sollen unter anderem Bevollmächtigte des Herstellers und Fulfillment-Dienstleister in den Kreis der Anspruchsgegner aufgenommen werden.
In Betracht kommen kann zudem eine sogenannte Produzentenhaftung. Dabei handelt es sich um eine Unterform der deliktischen Haftung aus § 823 BGB (Bürgerliches Gesetzbuch). Demnach kann es haftungsbegründend sein, wenn aus der schuldhaften Missachtung einer Sorgfaltspflicht (Verkehrssicherungspflicht) durch den Hersteller (nach Inverkehrbringen seines Produktes) die Verletzung eines von § 823 BGB geschützten Rechtsguts resultiert. In Betracht kommen dabei insbesondere die Missachtung von Konstruktions-, Instruktions- oder Produktbeobachtungspflichten.
Hersteller von KI-Systemen bleiben mithin auch nach dem Inverkehrbringen ihres Produktes verpflichtet, alles Zumutbare zu tun, um potenzielle Gefahren des Produktes abzuwenden. Dasselbe gilt für die Integration von KI-Komponenten in ein (anderes) Produkt.
Auswirkungen auf die Entwicklung und den Betrieb von KI-Systemen
Das von (manchen) KI-Systemen tendenziell ausgehende Haftungsrisiko sowie die diesbezüglich relevanten gesetzlichen Entwicklungen bedeuten für Entwickler und Betreiber von KI-Anwendungen insbesondere, dass sie das (etwaige) Schadenspotenzial ihres Produktes bereits während der Konzeptionsphase analysieren und etwaige Haftungsrisiken minimieren sollten. Haftungsträchtige Maschinenentscheidungen könnten etwa für den Anwender manuell beeinflussbar oder kontrollierbar gestaltet werden. In besonders kritischen Bereichen (z. B. im klinischen Umfeld) kann dies gar zwingend erforderlich sein. Ebenso kann der – technische oder rechtliche – Bedarf bestehen, dass die KI-Anwendung bestimmte Parameter oder Fehlermeldungen automatisiert an eine kontrollierende Stelle übermitteln kann. Häufig ist für die Minimierung des Risikos einer eigenen Hersteller- bzw. Produkthaftung eine umfassende Qualitätssicherung erforderlich, die auch die „autonomen“ Vorgänge der KI betrachtet.
Auch auf vertraglicher Ebene lassen sich haftungsrechtliche Risiken reduzieren. So kann der Betreiber der KI-Anwendung (z. B. im Bereich der Maschinensteuerung) dessen Nutzer z. B. zu regelmäßigen Kontrollen bestimmter Vorgänge verpflichten. Bei der Vereinbarung z. B. von zeitlichen Einschränkungen der KI-Diensteverfügbarkeit oder bei Haftungsbegrenzungen sind im deutschen Rechtsraum freilich die Grenzen des AGB-Rechts zu beachten.
Schalast Law | Tax berät und begleitet Sie bei der strategischen und inhaltlichen Konzeptionierung, der Entwicklung und bei dem Angebot und Vertrieb Ihrer KI-Anwendungen auch unter allen relevanten haftungsrechtlichen Aspekten. Dabei haben wir stets den Markterfolg Ihrer KI-Produkte im Blick und unterstützen Sie, gemäß Ihrer konkreten Anforderungen, umfassend oder bei einzelnen Fragestellungen.
Verantwortlichkeiten und Haftung bei der Nutzung von KI-Anwendungen
Auch die Nutzung von KI-Systemen kann zu Haftungsthematiken führen. Ein wohl seltenes, gleichwohl populäres Beispiel hierfür dürften Unfälle von/mit autonom fahrenden Fahrzeugen im Straßenverkehr sein. Doch auch im Rahmen der geschäftlichen bzw. betrieblichen Nutzung von KI-Anwendungen kann es wichtig sein, etwaige Haftungsrisiken und die diesbezüglichen Verantwortlichkeiten zu prüfen.
Potenzielle Haftungsszenarien können sich z. B. aus der Verarbeitung personenbezogener Daten im Rahmen der KI-Nutzung ergeben. Demgemäß geht der KI-Nutzung im Unternehmen nicht selten eine Prüfung auf Datenschutzkonformität voraus. Das gilt insbesondere bei der Verarbeitung (auch) von Mitarbeiterdaten. Haftungsfragen können sich auf Nutzerseite zudem aus der Verwendung des „Outputs“ von KI-Anwendungen ergeben. Hier kann sich z. B. die Frage stellen, wem die mittels der KI erstellten Ergebnisse (z. B. Texte oder Bildnisse) überhaupt rechtlich zustehen. Eine Missachtung der Rechtesituation kann beispielsweise zu (urheberrechtlichen) Erstattungsansprüchen des Rechteinhabers führen.
Soweit KI-Systeme Maschinen oder Vorgänge (z. B. Fertigungsprozesse) steuern oder überwachen, besteht ggf. eine Pflicht des KI-Anwenders zur Überwachung bzw. Kontrolle (wiederum) des KI-Systems. Auch auf Anwenderseite können mithin Wartungs- oder Kontrollprozesse erforderlich sein – und bei der Vermeidung von Fahrlässigkeitsvorwürfen entscheidend helfen.
Wir beraten Anwenderunternehmen bei dem rechtskonformen Einsatz von KI-Systemen und bei der Vermeidung bzw. Minimierung etwaiger Haftungsrisiken.