Mit dem FORBES-NEWSLETTER bekommen sie regelmässig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-mail-Postfach geliefert.
Heute ist KI nicht mehr nur eine Leinwand-Fantasie, sondern Teil unseres Alltags. Sie verändert Prozesse, unsere Arbeitswelt und das Leben im öffentlichen Raum. Aber viele rechtliche Fragen sind noch ungeklärt.
Künstliche Intelligenz (KI) hatte schon viele Gesichter, etwa jenes des Supercomputers HAL 9000 im Science-Fiction-Klassiker „2001: Odyssee im Weltraum“. Heute ist KI nicht mehr nur eine Leinwandfantasie, sondern verändert Prozesse, unsere Arbeitswelt und das Leben im öffentlichen Raum. Viele rechtliche Fragen rund um KI sind aber immer noch ungeklärt. Das ist brisant, denn zumindest die Frage nach der Haftung bei Fehlverhalten selbstlernender Systeme ist spätestens seit einem tödlichen Unfall im März 2018 mit einem selbstfahrenden Auto in unserem Alltag angekommen. Die faire Verteilung der Haftung bei derartigen Vorfällen und viele andere Rechtsfragen in Verbindung mit selbstlernenden Systemen sind noch nicht abschliessend diskutiert. Ebenso kennen wir heute erst einen kleinen Teil der möglichen Anwendungsfälle. Fest steht, dass selbstlernende Systeme oder Maschinen nicht Träger von Rechten und Pflichten sein können. Nach österreichischem Rechtsverständnis können dies nur natürliche oder juristische Personen sein.
Dementsprechend müssen Fragen nach der Haftung oder den Rechten an „geistigen Schöpfungen“ bzw. einer „erfinderischen Tätigkeit“ zwischen Hersteller und Anwender ausgetragen werden. Aber schon die Frage nach der Herstellerhaftung ist nicht einfach zu beantworten, weil selbstlernende Systeme in der Regel aus einer Vielzahl von Hardware- und Softwarekomponenten bestehen. Den einen Hersteller gibt es also selten. Nur bei bestimmten Anwendungsfällen, vor allem bei selbstfahrenden Autos, können Spezialbestimmungen auch zur Haftung anderer Beteiligter (beispielsweise dem Halter des Autos) führen. Beim tödlichen Unfall in Arizona 2018 kann man die Schuld beim Autofahrer suchen, der eingreifen und den Unfall verhindern hätte können. Dann wäre dieser unter Umständen den Hinterbliebenen des Opfers schadenersatzpflichtig. Oder es liegt im Verschulden des Herstellers, der die Software des selbstfahrenden Autos programmiert hat. Möglicherweise war aber auch der Sensor kausal für den Unfall, oder die im Sensor verbaute Software (sogenannte „Firmware“), die diesen steuerte. Dies wird aber in der Regel nur mit sehr hohem technischem und damit finanziellem Aufwand nachweisbar sein. Weniger drastisch sind Programmierfehler bei Home-Assistenten: Man stelle sich vor, der Sprachassistent Alexa hört beim Hauptabendprogramm im TV mit und legt aufgrund einer Aussage des Talkshowgasts ein Produkt in den eigenen Warenkorb – so geschehen 2017 mit Puppenhäusern in den USA. Wer haftet? Hier wird es in der Praxis darauf ankommen, ob eine Fehlfunktion oder -bedienung vorliegt. Im ersten Fall wird die Haftung primär den Hersteller oder eventuell den Verkäufer treffen, im zweiten Fall eher den Anwender.
Die meisten der oben angerissenen Fragen hat der Gesetzgeber bisher nicht beantwortet und wird dies aller Voraussicht nach auch nicht tun. Es ist auch nicht seine Aufgabe, jede neue Technologie per Anlassfallgesetzgebung zu regeln. Vielmehr ist es Aufgabe der Juristen und Juristinnen, angemessene Lösungsansätze zu entwickeln. In Streitfällen wird die Rechtsprechung korrigierend eingreifen. Es bleibt auf jeden Fall spannend im KI-Universum.
Die Autoren – Wolfgang Tichy und Michael Woller – sind Partner bei der Wirtschaftsrechtskanzlei Schönherr und auf den Bereich New Technologies spezialisiert. Tichys Beratungsfokus liegt im IT-Recht (u. a. Softwareverträge), während Woller Unternehmen in den Bereichen Intellectual Property und Lauterkeitsrecht berät.
Gastkommentar: Wolfgang Tichy und Michael Woller
Opinions expressed by Forbes Contributors are their own.
Der Gastkommentar ist in unserer März-Ausgabe 2020 „KI“ erschienen.