OEM & Lieferant - Ausgabe 1/2021

48 Recht Damit überhaupt das derzeitige Haftungs- regime auf KI übertragen werden kann, setzt dies voraus, dass der Begriff KI definiert wird. Hierzu gibt es verschiedene Ansätze. Die EU-Kommission definiert bspw. KI, wo- nach es sich um datenanalysierende und selbsterlernende Anwendungen handelt. Es wird dabei zwischen verschiedenen Graden von Automatisierung unterschieden, die selbständig die ihrem Verhalten zu Grunde liegende Algorithmen verändern. Diese Ver- änderung hat insbesondere haftungsrecht- liche Auswirkungen auf die Vorhersehbarkeit und Zuordnung eines Produktfehlers an ein menschliches Verhalten. Nicht ohne Grund sieht die EU-Kommission in den auf KI beru- henden unbeabsichtigten Ergebnissen ein Ge- fährdungspotenzial für Nutzer. Das Deutsche Forschungszentrum für künstliche Intelligenz (DFKI) versteht unter KI bestimmte Eigen- schaften eines IT-Systems, das menschen- ähnliche Verhaltensweisen aufweist. Beiden Definitionen ist gemein, dass Parallelen zu menschlichem Verhalten gezogen werden und KI einem stetigen Wandel unterzogen ist. Beim Inverkehrbringen von KI-Anwendungen (z. B. durch Software) steht besonders der Hersteller im Fokus. Die Haftung ist vertrag- lich oder deliktisch denkbar. Das Bürgerliche Gesetzbuch (BGB) geht vom Grundsatz der Verschuldenshaftung aus. Dies setzt ein menschliches Verhalten voraus. Hier kommen bei einer Software nicht nur Herstel- ler, sondern auch Betreiber und Programmie- rer in Betracht. Schwierig wird es sein, die jeweiligen Verursachungsbeiträge der Han- delnden aufzuklären. Eine multiple Kausali- tät in den Wertschöpfungsnetzwerken lässt eine Verantwortlichkeit kaum bestimmen. Deshalb werden wesentliche Haftungsrisi- ken in der Praxis vertraglich abbedungen, soweit dies rechtlich möglich ist. So werden entsprechende Leistungsansprüche an die KI- Software durch sog. „Service-Level-Agree- ments“ geklärt, in denen die Anforderungen näher bestimmt sind. Eine direkte Haftung autonomer Roboter bzw. Software wird der- zeit unter dem Aspekt einer rechtsfähigen „E-Person“ diskutiert. Dies hätte zur Folge, dass das BGB verändert werden müsste, was jedoch nicht absehbar ist. Weiterhin können auch deliktische Haftungs- ansprüche aus unerlaubter Handlung in Be- tracht kommen, die eine Sorgfaltspflichtver- letzung voraussetzen. Eine solche Pflicht- verletzung ist dann anzunehmen, wenn dem Nutzer bzw. Anwender durch positives Tun oder Unterlassen des Herstellers der KI-Soft- ware ein Schaden entstanden ist. Dieses ver- schuldensabhängige Haftungssystem wird ohne weitere Adaption kaum geeignet sein, die Haftungsrisiken für Personen- und Sach- schäden adäquat zu erfassen. Ein Rückgriff auf das Produkthaftungsrecht (ProdHaftG) ist nur bedingt möglich, da es um die Haftung fehlerhafter Produkte durch eine gesetzliche Gefährdungshaftung geht. Hier nur eine Auswahl der Probleme: Strei- tig ist u. a, ob standardisierte Software als Produkt qualifiziert werden kann. Die EU- Kommission ist der Ansicht, dass entweder Software als -nicht körperliches- Produkt oder aber als Dienstleistung einzustufen ist. Da Software zur Steuerung des Betriebes eines Produkts dient, interagieren Produkte und Dienstleistungen. Insoweit bedarf es zur Komplexität der KI-Anwendungen neue Regelungen zur Frage, wer Hersteller im pro- dukthaftungsrechtlichen Sinne ist. Weiterhin ist zu klären, welche Sicherheitserwartungen an das Produkt gestellt werden, das Ergeb- nis eines digitalisierten Leistungsprozesses ist. Bedeutsam wird auch sein, wann über- haupt von einem Produktfehler bei KI-An- wendung ausgegangen werden kann. Ob das Inverkehrbringen einer fehlerhaf ten KI-Anwendung ein Konstruktionsfehler ist, muss noch geklärt werden. Um die Haftung zu begrenzen, wird von der EU-Kommission vorgeschlagen, den Hersteller zu verpflichten Änderungen der Verhaltensregeln des Algo- rithmus nur nach Prüfung des Herstellers zu- zulassen. Letztlich wird es darauf ankommen, die Risikosphären der Entwickler, Hersteller und Betreiber zu bestimmen, die hinter der KI-Anwendung stehen, um eine Haftung der jeweiligen Mitverursacher zu begründen. Ge- gebenenfalls kommt auch der Abschluss einer Pflichtversicherung (wie bei einem Kraftfahr- zeug) in Betracht, um die Schäden auf diese Weise zu kompensieren. Da nur auf euro- päischer Ebene durch Novellierung des Haf- tungsrechts in der Produkthaftungsrichtlinie eine Lösung gefunden werden kann, wird es durch den stetigen Wandel der KI-Anwen- dungen darauf ankommen, schnelle Lösun- gen zu finden, da sonst wieder das Recht der Technik hinterherläuft. Produkthaftung beim Einsatz Künstlicher Intelligenz Von Dr. Paul Klickermann, Rechtsanwalt, Fachanwalt für Urheber- und Medienrecht, Kläner Rechtsanwälte, Koblenz Die Künstliche Intelligenz (KI) hat in der Europäischen Union (EU) einen hohen Stellenwert erreicht. Die Experten- gruppe der EU-Kommission (Artifical Intelligence High-Level Expert Group, kurz: AI HLEG) beschäftigt sich zum einen mit den technischen Rahmenbedingungen und zum anderen mit Haftungsfragen, die durch den Einsatz von KI entstehen. Dies ist gerade für die Automobil- und Zulieferindustrie von Bedeutung, da bestimmte Produktions- prozesse auf KI und Robotik beruhen, die Konnexität, Autonomie und Datenabhängigkeit miteinander verknüpfen, ohne dass es einer menschlichen Steuerung bedarf. T E I L E N Bild: © Kai Myller KLÄNER Rechtsanwälte www.it-anwalt-kanzlei.de Webseite Dr. Paul Klickermann, Rechtsanwalt, Fachanwalt für Urheber- und Medienrecht, Kläner Rechtsanwälte, Koblenz, Lehrbeauf- tragter der Johannes Gutenberg-Universität Mainz (JGU) Dr. Paul Klickermann klickermann@it-anwalt-kanzlei.de

RkJQdWJsaXNoZXIy MjUzMzQ=