Ein Jahr später fällt die Bilanz gemischt aus: Während viele rechtliche Fragen rund um KI im Büroalltag inzwischen geklärt sind, bleibt der industrielle Einsatz von KI ein rechtliches Spannungsfeld. Besonders dort, wo KI mit Robotik verschmilzt, entstehen neue Unsicherheiten, z.B. bei der Verantwortung für Entscheidungen, bei Sicherheitsanforderungen oder bei der Haftung für Schäden. Die Industrie steht damit vor der Herausforderung, Innovation und Recht in Einklang zu bringen.
Generelle Regeln für den Einsatz von KI
Die KI-Verordnung – Verordnung (EU) 2024/1689 – bringt einen ganzen Blumenstrauß an umfangreichen Compliance-Maßnahmen in Form von Risikomanagement, Kontrolle und Dokumentation mit sich. Die meisten dieser Verpflichtungen sind von Herstellern, Einführern und Anbietern von KI zu erfüllen. Aber auch der Betreiber, also jeder Mensch/jedes Unternehmen, das ein KI-System in eigener Verantwortung und im beruflichen Kontext verwendet, hat rechtlich gewisse Maßnahmen zu ergreifen.
Dabei ist der Umfang dieser Maßnahmen von dem Risiko, das von einem KI-System und dessen Einsatz ausgeht, abhängig. Die KI-Verordnung klassifiziert KI-Systeme wie folgt:
- Verbotene KI-Systeme (geeignet zur Manipulation oder Desinformation)
- Hochrisiko-KI-Systeme (integriert in Sicherheitsbauteile oder kritische Infrastruktur)
- KI-Systeme mit begrenztem Risiko (allgemeiner Verwendungszweck wie Chat-GPT)
- KI-Systeme mit geringem Risiko (z.B. Spamfilter)
Im Stahlbau kommen überwiegend Systeme mit geringem oder begrenztem Risiko zum Einsatz. Nutzer solcher Systeme müssen ihre Mitarbeitenden in KI-Kompetenz schulen. Wer KI wie ChatGPT verwendet, ist zudem verpflichtet, KI-generierte Inhalte – etwa Texte, Bilder oder Audiodateien – als solche zu kennzeichnen.
Technische und rechtliche Unsicherheiten des Datenschutzes
Ein zentrales Problem ist und bleibt der Datenschutz. Nach der DSGVO dürfen personenbezogene Daten nur verarbeitet werden, wenn ein Rechtfertigungsgrund vorliegt, etwa eine Einwilligung. Die Verarbeitung muss außerdem transparent, zweckgebunden, nachvollziehbar und datenminimiert erfolgen.
Bei autonomen KI-Systemen ist oft unklar, ob diese Vorgaben tatsächlich eingehalten werden. Fraglich ist etwa, ob eine KI personenbezogene Daten ausschließlich für den vorgesehenen Zweck nutzt oder ob sie auf weitere, möglicherweise vertrauliche Unternehmensdaten zugreift.
Ein weiteres Problem besteht in der Richtigkeit der Daten. KI-Systeme sind für sogenannte „Halluzinationen“ bekannt, also falsche oder erfundene Inhalte. Damit stellt sich die Frage, wie fehlerhafte Datensätze technisch korrigiert werden können.
Bürokratisch anspruchsvoll wird es zudem durch Art. 5 Abs. 2 DSGVO: Unternehmen müssen nachweisen, dass sie die Datenschutzgrundsätze einhalten. Dies erfordert eine umfassende Dokumentation. Ob dies bei hochkomplexen KI-Systemen, deren interne Abläufe selbst für Hersteller kaum nachvollziehbar sind, überhaupt möglich ist, bleibt zweifelhaft.
Haftung beim Einsatz von KI
Mit der KI-Verordnung hat die EU-Regelungen zur Verringerung von Haftungsfällen eingeführt. Allerdings lässt sich die Haftung beim Einsatz von KI auch mit strengeren Regelungen nicht vollständig vermeiden.
Ein Ansatz wäre hier die von der EU beabsichtigte KI-Haftungsrichtlinie gewesen, mit der die außervertragliche zivilrechtliche Haftung für Schäden durch KI geregelt werden sollte. Im September 2022 erschien ein entsprechender Entwurf. Dieser wurde jedoch zwischenzeitlich zurückgezogen. Im Rahmen des IMCO-Ausschusses des EU-Parlaments wurde für die Stilllegung der Richtlinie plädiert mit der Begründung, dass der Entwurf nicht erforderlich und unausgereift sei.
In Deutschland gelten die allgemeinen Regeln zur Haftung: Damit jemand haftbar gemacht werden kann, müssen normalerweise drei Dinge nachgewiesen werden: ein Fehler, ein daraus entstandener Schaden und ein direkter Zusammenhang zwischen beiden. Außerdem muss der Verursacher schuldhaft gehandelt haben. Bei der Produkthaftung, die unabhängig vom Verschulden greift, genügt es dagegen, Fehler, Schaden und den Zusammenhang nachzuweisen; ob den Hersteller ein Verschulden trifft, spielt keine Rolle.
Allerdings liegt die Beweislast in der Regel beim Geschädigten. Das ist oft schwer, weil Betroffene meist keinen Einblick in die Funktionsweise eines KI-Systems oder in die Produktionsprozesse haben. Deshalb ist es nach der derzeitigen Rechtslage für Geschädigte sehr schwierig, ihre Ansprüche tatsächlich durchzusetzen.
Neue EU-Produkthaftungsrichtlinie
Abhilfe bei diesen Beweisschwierigkeiten könnte die neue Produkthaftungsrichtlinie (EU) 2024/2853 vom 23.10.2024, auch als Product Liability Directive (PLD) bekannt, schaffen. Die Richtlinie ist von den europäischen Mitgliedstaaten bis zum 09.12.2026 in nationales Recht umzusetzen. In Deutschland werden die Vorgaben der PLD voraussichtlich durch eine Anpassung des Produkthaftungsgesetzes (ProdHaftG) umgesetzt.
Zu den wesentlichen Änderungen zählt, dass zukünftig KI als Produkt gilt und damit eine verschuldensunabhängige Haftung des KI-Herstellers für fehlerhafte KI ermöglicht wird. Gleiches wird für Produktkomponenten, bspw. für mit KI verbundenen Robotern, gelten.
Am wichtigsten ist vermutlich die Pflicht zur Offenlegung von Beweismitteln. Wenn zwei Parteien in einem Rechtsstreit über Produkthaftung stehen, kann jede von ihnen beim Gericht beantragen, dass die Gegenseite relevante Beweismittel offenlegt. Dazu zählen nicht nur Unterlagen zur Konstruktion oder Herstellung, sondern auch Erkenntnisse aus der Produktbeobachtung sowie die eingesetzten Geräte und Maschinen. Die Offenlegungspflicht betrifft also mehr als nur Dokumente. Die Partei, die die Offenlegung verlangt, muss jedoch darlegen, dass die Beweismittel für ihre Verteidigung notwendig sind. Außerdem prüft das Gericht, ob die Offenlegung wirklich erforderlich und angemessen ist, bevor es entscheidet. Noch ist nicht geklärt, ob die Beweismittel im Fall einer stattgegebenen Offenlegung nur vom Gericht oder auch von der beantragenden Partei eingesehen werden dürfen. Aus Gründen des Schutzes von Geschäfts- und Betriebsgeheimnissen wäre es sinnvoll, wenn nur das Gericht Einsicht erhält. Verweigert eine Partei die Offenlegung, wird vermutet, dass das Produkt fehlerhaft ist.
Auf diese Weise soll der Gesetzgeber die Beweisprobleme abmildern, die in Produkthaftungsfällen häufig auftreten. Geschädigte haben in der Regel keinen Einblick in die Abläufe der Produktion und Fertigung und können Produktfehler daher nur schwer nachweisen. Durch den Einsatz von künstlicher Intelligenz verschärft sich dieses Problem zusätzlich, weil KI-Systeme besonders komplex sind. Die neue Regelung richtet sich daher vor allem an Hersteller von Software und KI.
Fazit/Ausblick
Der rechtliche Rahmen für KI und Robotik befindet sich im Wandel. Die EU-KI-Verordnung und die neue Produkthaftungsrichtlinie schaffen einen Rahmen für den Einsatz von KI. Allerdings bleibt die Haftung bei komplexen KI-Systemen eine Herausforderung. Mit zunehmender Integration von KI in industrielle Prozesse wird sich zeigen, ob die neuen Regelungen ausreichen, um Innovation und Rechtssicherheit dauerhaft in Einklang zu bringen.