Wer haftet bei KI-Fehlern?

Schon heute können KI-Fehlentscheidungen zu erheblichen Haftungsrisiken führen. Die durch KI entstandenen Schäden können einerseits körperlich sein, zum Beispiel wenn KI einen Autounfall verursacht oder ein Röntgenbild falsch interpretiert. Sie können ebenso unkörperlich sein, so etwa beim Verrat von Geschäftsgeheimnissen durch Chatbots oder der Diskriminierung durch KI-Auswahlentscheidungen. Das aktuelle Recht sieht engmaschige Haftungsvorschriften vor, vor allem für Herstellung und Einsatz von künstlicher Intelligenz. Neben der vertraglichen Haftung nach § 280 Abs. 1 BGB besteht eine weitreichende deliktische Produkt- und Produzentenhaftung. Und in bestimmten Bereichen eine Gefährdungshaftung, etwa im Straßenverkehr. Daneben müssen sich KI-Entscheidungen an Diskriminierungsverboten messen lassen. KI-Einsatz kann auch strafrechtliche Konsequenzen nach sich ziehen.

In einer Welt, in der Entscheidungen zunehmend von KI getroffen werden, steigen auch die durch KI-Einsatz hervorgerufenen Schäden.

Verschärfung des Haftungsrechts geplant

Schon bald dürfte sich der Haftungsrahmen erheblich verschärfen. Mit dem AI Act bahnt sich ein weitreichendes Schutzgesetz i.S.v. § 823 Abs. 2 BGB an. Dies bedeutet: Wer die Anforderungen des AI Act verletzt, dem drohen dann nicht nur hohe Bußgelder, sondern auch erhebliche zivilrechtliche Haftungsansprüche etwaiger KI-Geschädigter. Bei der Haftung für KI-Einsatz dürfte zudem die Frage der Digital Literacy erheblich an Bedeutung gewinnen.

Darüber hinaus hat die Europäische Kommission am 28.09.2022 zwei neue Richtlinienvorschläge vorgestellt, deren Tragweite kaum überschätzt werden kann: Die überarbeitete Produkthaftungsrichtlinie einerseits sieht ausdrücklich eine verschuldensunabhängige Haftung bei Software (also auch bei KI-Systemen) vor. Auch der Verlust von Daten soll einen ersatzfähigen Vermögensschaden begründen. Zudem droht eine Haftung für Personen, die OSS oder Daten anbieten. Hinzu kommen erhebliche Beweiserleichterung zugunsten etwaiger Anspruchstellender. Die neue KI-Haftungsrichtlinie andererseits soll das bestehende Deliktsrecht um beweisbezogene Maßnahmen zugunsten etwaiger von künstlicher Intelligenz Geschädigter ergänzen. Durch weitreichende Vermutungsregeln droht für AI Provider eine Beweisnot bei der Abwehr von KI-Haftungsansprüchen und somit ein Verlust der gerichtlichen Waffengleichheit.

Wir navigieren Sie weg von Haftungsfallen

Aitava verschafft Ihnen den klaren Gesamtüberblick zu den aktuellen und künftigen Haftungsfragen. Wir helfen Ihnen dabei, drohende Haftungsrisiken frühzeitig zu identifizieren und maßgeschneiderte Schutzmechanismen einzuführen, um Sie vor möglichen Risiken zu schützen.

Es ist zu erwarten, dass viele Beteiligte der KI-Wertschöpfungskette in Zukunft als Gesamtschuldner für einen KI-Schaden haften werden – womöglich selbst IT-Zulieferer und End User. Wir zeigen Ihnen, wie Sie solche Risiken schon heute durch passende Haftungs- oder Regressvereinbarungen optimal allokieren. Und durch geeignete KI-Versicherungen absichern.

AI & Data Strategy

Wer morgen noch relevant sein will, muss heute strategische Entscheidungen treffen. Aitava räumt Hindernisse aus dem Weg, damit Unternehmen die Chancen von KI nutzen können.

Mehr erfahren

AI & Data Compliance

Schon heute sind beim Einsatz von KI und Daten zahlreiche Vorschriften zu beachten. AI Act und Data Act läuten eine Zeitenwende der Technologieregulierung ein.

Mehr erfahren

Data Sharing

Viele Unternehmen sitzen auf einem Datenschatz. Andere Unternehmen können diesen Datenschatz nutzbar machen. Wir helfen beim Datenaustausch.

Mehr erfahren

Geistiges Eigentum und Geheimnisschutz

Darf man KI mit fremden Daten trainieren? Wem gehören die Trainingsdaten? Das trainierte System? Und die Prompts? Wir haben Antworten und noch mehr Fragen.

Mehr erfahren