Skip to main content

Künstliche Intelligenz und Verletzungen der Rechte Dritter

Die relative Wirkung von Garantieklauseln gestalten

(Übersetzt von DeepL)

Eine Bank kann von Garantieklauseln profitieren, die in den Standardverträgen der Anbieter von KI-Systemen enthalten sind. Diese Klauseln sehen eine Entschädigung für Verstöße vor, die dadurch entstehen, dass solche Systeme Trainingsdaten verwenden, die durch die geistigen Eigentumsrechte dieser Rechte geschützt sind. Der vorliegende Kommentar untersucht den Umfang solcher Klauseln, ihre Bedingungen und die Frage, ob es notwendig ist, ihren Nutzen auf Dritte des ursprünglichen Vertrags auszudehnen.

Die Qualität der von KI-Systemen gelieferten Antworten hängt unter anderem von der Menge der Daten ab, die zu ihrem Training verwendet werden. Die massive Sammlung dieser Daten kann die Rechte Dritter verletzen (Rechte an geistigem Eigentum, Rechte auf den Schutz personenbezogener Daten, ethische Fragen usw.).

Die in den USA von der Tageszeitung New York Times – gegen die Firma Microsoft und mehrere Unternehmen der OpenAI-Gruppe – angestrengte Klage beruft sich daher auf die Verletzung der Rechte des geistigen Eigentums der Zeitung an Artikeln, die für das Training von ChatGPT verwendet wurden. Die französische Wettbewerbsbehörde hat kürzlich in einer Entscheidung gegen das Unternehmen Google eine Geldstrafe in Höhe von 250 Millionen Euro verhängt, die sich auf das Wettbewerbsrecht bezieht. Es ging darum, dass Google Daten gesammelt hatte – hier unter Verletzung der Rechte von Verlegern und Nachrichtenagenturen -, um sein KI-System Bard zu trainieren.

Banken, die den Einsatz von Large Language Models (LLM) in Erwägung ziehen, wägen die rechtlichen Fallstricke ab, die es zu vermeiden gilt. Dazu gehört auch die Aussicht auf Klagen von Dritten, die Rechte an den von einem KI-System verarbeiteten Daten haben (z. B. unter Berufung auf Titel 5 des Urheberrechtsgesetzes oder Kapitel 8 des Datenschutzgesetzes). Die oben erwähnten Rechtsstreitigkeiten – sowie einige Vereinbarungen, die 2024 von LLM-Anbietern getroffen wurden – zeigen insbesondere die Dynamik, die im Bereich der Rechte des geistigen Eigentums am Werk ist. Das hohe Risiko von Rechtsstreitigkeiten, die sich auf diese Rechte berufen, scheint die LLM-Anbieter dazu veranlasst zu haben, zu befürchten, dass es die Einführung von KI-Systemen durch ihre Kunden bremsen könnte. Tatsächlich tauchten in ihren Standardverträgen nach und nach Garantieklauseln auf, insbesondere das „Copyright Shield“ ‚ (in den Verträgen der Firma OpenAI, siehe Klausel 3.b unter dem Link) oder das „Customer Copyright Commitment“ (von Microsoft, siehe die Definition dieses Begriffs unter dem Link). Diese Klauseln konzentrieren sich auf mögliche Verletzungen geistiger Eigentumsrechte, die durch die Nutzung oder Verbreitung vonOutputdaten entstehen.

Die Anbieter von KI-Systemen listen jedoch in der Regel eine Reihe von Faktoren auf, die einen Kunden von der Garantie ausschließen können. Zu diesen Ausschlüssen gehören das Vorhandensein von geschützten Daten in der Eingabe des Kunden, die Kenntnis des Kunden von den Rechten an den Outputdaten, die Verletzung anderer geistiger Eigentumsrechte (Marken, verwandte Schutzrechte) oder das Ergebnis von Änderungen, die der Kunde an den Outputdaten vorgenommen hat. Häufig werden auch technische Maßnahmen zur Risikominimierung aufgeführt, ohne die der Kunde keinen Anspruch auf Garantieleistungen hat.

Das Ausmaß dieser Ausschlüsse lässt erahnen, wie schwierig es sein kann, diese Klauseln durchzusetzen. Zu dieser Reihe von Hindernissen kommen noch verfahrensrechtliche Herausforderungen (insbesondere im Zusammenhang mit der unklaren Definition der Art der gewährten Garantie in einigen dieser Klauseln – so bezieht sich das Customer Copyright Commitment auf ein Recht, von Microsoft verteidigt zu werden, dessen Durchsetzung fraglich ist) und Herausforderungen des internationalen Privatrechts hinzu (insbesondere unterliegen Verträge, die diese Klauseln enthalten, in der Regel ausländischem Recht und/oder ausländischer Gerichtsbarkeit).

Ein weiterer Komplexitätsfaktor wird immer dann auftreten, wenn die Bank nicht mit dem ursprünglichen Anbieter des KI-Systems, sondern mit einem „Zwischenanbieter“ kontrahiert, der ein solches System an die spezifischen Bedürfnisse des Bankgeschäfts anpasst. Die Bank ist dann ein Dritter im Vertrag, der die Garantieklausel festlegt. Um dennoch in den Genuss der Klausel zu kommen, muss sie von ihrem direkten Vertragspartner die Übertragung eines Teils der Rechte erwirken, die sich für diesen aus der Klausel ergeben. Außerdem muss sie sich gegen das Risiko absichern, dass ihr Auftragnehmer die Garantie nicht selbst in Anspruch nimmt.

Die heute beobachteten Rechtsstreitigkeiten und Vertragspraktiken im Bereich des geistigen Eigentums an Daten, die von KI-Systemen verarbeitet werden, scheinen ein Vorbote umfassenderer Probleme zu sein. Andere Rechte – wie z. B. Rechte an persönlichen Daten oder ethische Erwägungen – sind von der Datenverarbeitung durch KI betroffen. Diese Herausforderungen und die Einschränkungen der Klauseln, die derzeit in den Standardverträgen der wichtigsten Anbieter enthalten sind, werden wahrscheinlich dazu führen, dass Banken versuchen werden, umfassendere Garantien zu erhalten.

Dies ist besonders schwierig, wenn es um große Technologieunternehmen geht, die ihre Standardverträge nur ungern ändern. Wird das KI-System hingegen von Zwischenanbietern erworben, sind die Verhandlungspositionen der Parteien ausgeglichener. Diese zwischengeschalteten Anbieter können auch das KI-System anpassen, um bestimmte Risiken zu mindern. Nicht zuletzt könnte es für Banken von Vorteil sein, die Übertragung von Sicherheiten der LLM-Anbieter auf die zwischengeschalteten Anbieter auszuhandeln, um die Sicherheiten – sowohl von den LLM-Anbietern als auch von den zwischengeschalteten Anbietern – und die Vermögenswerte, die die Grundlage für die Sicherheiten bilden, zu kumulieren.

 

.