Haftung bei künstlicher Intelligenz und rechtliche Situation

Künstliche Intelligenz erzielt immer wieder bahnbrechende Fortschritte. Doch wie sieht die rechtliche Situation aus? Wer haftet? Um diese wichtige Frage geht es in diesem Beitrag.

 

Einführung

Die Rechenleistung steigt und immer mehr Daten werden generiert. Das sind hervorragende Bedingungen, um künstliche neuronale Netze zu trainieren (Deep Learning). Algorithmen werden in einzelnen Disziplinen immer leistungsfähiger und besser. Jedoch sind derzeit intelligente Algorithmen alles andere als fehlerfrei. Immer wieder kommt es vor, dass künstliche Intelligenzen fehlerhafte Entscheidungen treffen.

Ein Beispiel: Ein autonom fahrendes Fahrzeug fährt auf einer Schnellstraße mit 100 km/h. Plötzlich taucht ein Fußgänger auf, der die schlecht beleuchtete Straße überqueren möchte. Das Auto hat den Fußgänger jedoch nicht rechtzeitig erkannt und überfährt den Fußgänger. Wer haftet für diesen Unfall?

Dieser Fall hat sich tatsächlich im März 2018 ereignet und zeigt, wieso es wichtig ist, eine rechtliche Debatte über künstlichen Intelligenzen zu führen. Wer also haftet für fehlerhaftes Handeln künstlicher Intelligenzen?

 

Künstliche Intelligenz = Elektronische Person?

Die Idee des europäischen Parlaments

Anfang 2017 haben Mitglieder des EU-Parlaments vorgeschlagen, künstliche Intelligenzen rechtlich künftig wie "elektronische Personen" zu behandeln. Dieser Rechtsstatus würde die Haftung für Entscheidungen und Handlungen KI-Systemen zuordnen. Dieser Vorschlag wurde jedoch stark kritisiert. Zwei Kritikpunkte möchte ich hier vorstellen:

 

Ja, es stimmt, Entscheidungen künstlicher Intelligenzen sind oft nicht nachvollziehbar (Black-Box-Prinzip). Jedoch handelt es sich bei intelligenten Algorithmen um lernende Algorithmen. Lernen bedeutet konkret, dass Algorithmen mithilfe von Daten trainiert werden.

Voreingenommene künstliche Intelligenzen

Hieraus kann man zwei Gründe ableiten, wieso künstliche Intelligenzen nicht für ihr Handeln haftbar sein können: Je nach dem, wie KIs entwickelt und mit welchen Daten sie gefüttert wurden, ergeben sich verschiedene Entscheidungsvorlieben. Das heißt, KI-Algorithmen können je nach Datengrundlage und Umsetzung voreingenommen urteilen. Letztendlich sind Programmierer für diese zwei Parameter verantwortlich. Rechtlich lässt sich diese Forderung mit der Herstellerhaftung übersetzen.

 

Diese Problem voreingenommener Algorithmen nennt man auch KI Bias bzw. AI Bias. Dieses voreingenommene Urteilen von Algorithmen ist eine große Gefahr, betonte 2017 Googles KI-Chef John Giannandrea. Mit den falschen Trainingsdaten können künstliche Intelligenzen schlechte Entscheidungen treffen, die mitunter tödliche Folgen haben können.

Deshalb ist es wichtig, dass die große Verantwortung von Algorithmen nicht ausgeklammert wird.

Rechtsstatus wie der Mensch?

Außerdem kann man Maschinen nicht einen Rechtsstatus verleihen, der auf dem Prinzip der natürlichen Person basiert. Denn dadurch hätten Maschinen theoretisch einen Anspruch auf Menschenrechte und das widerspricht der geltenden EU-Grundrechtecharta und der Konvention zum Schutz der Menschenrechte und Grundfreiheiten

 

Immer mehr Algorithmen lernen eigenständig dazu

Zwei KIs im Rechtsstreit

Bei selbstständig lernenden Algorithmen werden die Rechtsfragen noch komplexer. Fakt ist, dass durch vernetzte Sensordaten in Echtzeit neue Daten generiert und häufig verarbeitet werden. Mögliche Rechtsfragen sind hier, wer Urheber der generierten Daten ist, Maschine oder Mensch?

Was ist, wenn es theoretisch zwischen zwei autonomen Systemen zum Rechtsstreit kommt? In Angesicht der zunehmenden Digitalisierung ist das kein unrealistisches Szenario.

Wie setzt man Ansprüche durch?

Aus praktischer Sicht kann man einwenden, dass künstliche Intelligenzen nicht im klassischen Sinne für falsche Handlungen bestraft werden können. Rechtsansprüche können dadurch nicht durchgesetzt werden.

Finanzielle Ansprüche scheitern daran, dass intelligente Systeme kein Konto und damit über keine finanzielle Mittel verfügen. Eine Option wäre es, dass KIs, je nach Gefährungspotential eine bestimmte finanzielle Rücklage besitzen müssen.
Mit Gefährungspotential ist eine Abstufung je nach Kompetenz künstlicher Intelligenzen gemeint: Wie viel Schaden können sie finanziell anrichten? Autonome Fahrzeuge bräuchten somit eine höhere finanzielle Absicherung als einfache Algorithmen, die eine nur niedrige finanzielle Bedeutung haben.

Versichere deine KI?

Eine Idee wären auch KI-Versicherungen, die eine finanzielle und zivilrechtliche (Teil)-haftung übernehmen. Während es also für die finanzielle Haftung durchaus Ansätze gibt, ist die strafrechtliche Haftung schwieriger zu beurteilen. Soll eine künstliche Intelligenz zumindest teilweise rechtsfähig werden?

Wenn ja, dann wäre das ein Paradigmenwechsel in der Rechtssprechung.

 

Auch wenn intelligente Algorithmen sich selber weiterentwickeln, werden Menschen sie nutzbringend verwenden. Daraus lässt sich ein Halter-/Betreiberhaltung ableiten.

Fazit

Bisher gibt es keine auf künstliche Intelligenz zugeschnittene Rechtssprechung. In Angesicht der raschen technologischen Weiterentwicklungen ist es wahrscheinlich, dass es zu neuen, wegweisenden Gerichtsfällen kommt. Eine grundlegende Frage ist, ob intelligente Systeme einen eigenen Rechtsstatus erhalten sollen. Es gibt verschiedene Optionen für die Haftung, von der Halterhaftung bis zum Rechtsstatus einer elektronischer Person.

 

Man kann also gespannt sein, wie die Rechtssprechung sich in Zukunft entwickeln wird. Abschließend ist die rechtliche Situation von KI-Systemen eine große Grauzone ohne konkrete Maßstäbe für Urteile.

 

Teile diesen Beitrag mit Deinen Freunden und Kollegen! 🙂 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Verwandte Beiträge

Beginne damit, deinen Suchbegriff oben einzugeben und drücke Enter für die Suche. Drücke ESC, um abzubrechen.

Zurück nach oben