Ein Wirtschaftsdienst, der aufgrund des Einsatzes Künstlicher Intelligenz (KI) falsche Informationen über Unternehmen zum Abruf bereithält, haftet für diese Fehler in vollem Umfang (LG Kiel, Urt. v. 29.02.2024 - Az.: 6 O 151/23).
Die Beklagte betrieb ein Online-Informationsportal für Wirtschaftsdaten. Auf der Internetseite konnten Daten zur finanziellen Situation von Unternehmen abgerufen werden.
In einem vollautomatisierten KI-Verfahren wertete die Beklagte Pflichtveröffentlichungen aus dem Bundesanzeiger, dem Handels- und dem Insolvenzregister aus, um die Daten zu verknüpfen, übersichtlich darzustellen und interaktiv zu visualisieren. Hierzu bediente sie sich einer entsprechenden Software. Durch Eingabe von Suchbegriffen wurden dem Nutzer der Plattform die verfügbaren Informationen aus den öffentlichen Registern nach einem von der Beklagten vorgegebenen Muster (Template) angezeigt.
In ihren AGB hatte sie nachfolgende Passage zu den abrufbaren Daten aufgenommen:
“Sie werden durch vollständig automatisierte Analyse gewonnen, und können teils oder auch weitgehend fehlerbehaftet sein.”
Aufgrund eines Verarbeitungsfehlers wurden falsche Informationen über die Klägerin, ein Unternehmen, angezeigt. Es hieß, dass die Klägerin wegen Vermögenslosigkeit gelöscht werde. Diese Information stammten jedoch von einer ganz anderen Firma und wurde durch das automatische Analyseverfahren der Beklagten lediglich falsch zugeordnet.
Auf Aufforderung löschte die Beklagte den fehlerhaften Eintrag. Die ebenfalls verlangte Unterlassungserklärung und die Zahlung der anwaltlichen Kosten lehnte sie hingegen ab. Sie verteidigte sich damit, dass es sich um einen vollautomatisierten Prozess handle und sie daher persönlich keinen Fehler treffe.
Zu Unrecht, wie das LG Kiel nun entschied.
Denn obgleich der Fehler durch die eingesetzte KI-Software verursacht worden sei, hafte die Beklagte als unmittelbare Störerin:
"Die Klägerin ist jedoch als unmittelbare Störerin anzusehen, weil sie sich willentlich zur Beantwortung von Suchanfragen einer eigenen Software bedient, die Informationen aus den veröffentlichten Pflichtmitteilungen extrahiert und aufbereitet veröffentlicht.
Die Beklagte kann sich nicht darauf zurückziehen, sie sei an diesem automatischen Vorgang nicht beteiligt gewesen, weil sie sich bewusst zur Beantwortung von Suchanfragen ihrer Nutzer einer künstlichen Intelligenz bedient hat, die in Fällen wie diesem unzulänglich programmiert war, weil sie nicht erkannt hat, dass vorliegend die XXX, Amtsgericht XXX HRB XXX, gemeint war und ein Zuordnungsfehler (XXX vs XXX) vorlag (…).
Zum anderen haftet der Betreiber eines Portals auch dann als unmittelbarer Störer für die von einem Dritten eingestellten Inhalte, wenn er sich diese aus Sicht eines verständigen Durchschnittsnutzers auf der Grundlage einer Gesamtbetrachtung aller relevanten Umstände zu eigen gemacht und dafür nach außen erkennbar die inhaltliche Verantwortung übernommen hat (…).
Dies schafft die Beklagte dadurch, dass sie die Pflichtveröffentlichungen zu einem Unternehmen bei sich auf der Seite bündelt und die Informationen teilweise untereinander verknüpft."
Die Löschung der Falschinformationen genüge nicht, so das Gericht weiter, da der Fehler jederzeit wieder auftreten könne:
"Eine Wiederholungsgefahr liegt vor.
Diese liegt vor, wenn es die auf Tatsachen gegründete objektive ernstliche Besorgnis weiterer Störungen gibt. In der Regel begründet die vorangegangene rechtswidrige Beeinträchtigung eine tatsächliche Vermutung für die Wiederholungsgefahr (…), an deren Wiederlegung durch den Störer hohe Anforderungen zu stellen sind (…).
Die aus der rechtswidrigen Beeinträchtigung folgende Vermutung konnte die Beklagte bisher nicht entkräften. Ihr Verweis, dass sie lediglich fremde Daten aus Pflichtveröffentlichungen ohne Prüfung veröffentliche, bekräftigt sogar die Wiederholungsgefahr. Denn die Pflichtinformationen sind nach Aussage der Beklagten, die sich auf das elektronische Handelsregister bezieht, unzuverlässig, sodass es „zu falschen Anzeigen kommt“ (…).
Insofern kann nicht ausgeschlossen werden, dass der gleiche Fehler (Verwechslung XXX vs. XXX) erneut auftritt."
Anmerkung von RA Dr. Bahr:
Die Entscheidung des LG Kiel ist eine der ersten deutschen Entscheidungen zur Frage der Haftung von KI-Inhalten.