Skip to main content

KI und Schweizer Finanzinstitute

Anwendungsbeispiele im Hinblick auf die europäische Verordnung

(Übersetzt von DeepL)

Die EU-Verordnung über künstliche Intelligenz (KI-VO) sieht eine Reihe von Verpflichtungen vor, die auch für Schweizer Finanzinstitute gelten können, selbst wenn diese nicht physisch in der EU präsent sind. Anhand von drei Fallbeispielen veranschaulicht dieser Kommentar, wie die KI-VO konkret angewendet werden könnte und worauf Schweizer Finanzinstitute insbesondere dann achten sollten, wenn ein KI-System (AIS) als risikoreich eingestuft wird.

Zur Erinnerung : Die KI-VO kann für Schweizer Unternehmen gelten, wenn sie KI-System an in der EU niedergelassene Unternehmen liefern oder wenn die von diesem KI-System erzeugten Outputs ( gemäß der Terminologie der KI-VO, wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen, die physische oder virtuelle Umgebungen beeinflussen können) in der EU verwendet werden (Art. 2 Abs. 1 Bst. a und c sowie Art. 3 Abs. 1 KI-VO). Dies würde direkt Schweizer Finanzinstitute betreffen, deren KI-System Outputs erzeugen, die in der EU verwendet werden (vgl. Fischer, cdbf.ch/1397/).

Zwei Begriffe sind für das Verständnis der KI-VO von zentraler Bedeutung : die Unterscheidung zwischen « Anbieter » und « Nutzer » und die Einstufung vom KI-System nach ihrem Risikoniveau. Der Anbieter entwickelt oder bringt ein KI-System im Verkehr (Art. 3 Abs. 3 KI-VO), während der Verwender sie im Rahmen seiner beruflichen Tätigkeit nutzt (Art. 3 Abs. 4 KI-VO). Diese Rollen werden in zwei weiteren Kommentaren behandelt (vgl. Fischer, cdbf.ch/1418/ für Anbieter ; Fischer, cdbf.ch/1420/ für die Bereitsteller). Was die Einstufung nach dem Risikoniveau betrifft, so werden die in Art. 6 KI-VO genannten und unter Anhang III KI-VO fallenden KI-System als risikoreich eingestuft und führen zu verstärkten Pflichten für Anbieter und Bereitsteller (vgl. Caballero Cuevas, cdbf.ch/1406/). Anhang III KI-VO listet acht spezifische Bereiche auf. Einige davon können den Finanzsektor betreffen, insbesondere Bereiche im Zusammenhang mit der Beschäftigung (Anhang III Abs. 4 Bst. a und b KI-VO) und mit wesentlichen privaten Dienstleistungen, namentlich die Bonitätsprüfung und die Tarifgestaltung in der Lebens- oder Krankenversicherung (Anhang III Abs. 5 Bst. b und c KI-VO).

Die folgenden drei Fallbeispiele veranschaulichen den Zusammenhang zwischen der Einstufung als risikoreich und den Rollen des Anbieters und des Bereitstellers, um die sich daraus ergebenden Pflichten zu ermitteln. Sie sind jedoch mit Vorsicht zu lesen, da jede Situation von den konkreten Umständen abhängt.

1. Generierung von Inhalten für Kunden in der EU

Die Mitarbeitenden eines Schweizer Finanzinstituts verwenden über eine Anwendungsprogrammierschnittstelle (API) punktuell ein grosses Sprachmodell (Large Language Model – LLM) wie GPT-4, um Inhalte (E-Mails, Präsentationen, Übersetzungen) zu generieren, die an Kunden in der EU versandt werden (vgl. Caballero Cuevas, cdbf.ch/1406/). Würde der Output (der Inhalt) in der EU verwendet, könnte die KI-VO zur Anwendung kommen. Da diesem KI-System nicht unter einen der in Anhang III KI-VO aufgeführten Bereiche fällt, würde er nicht als risikoreich eingestuft werden. Der Anbieter des LLM würde als Anbieter im Sinne der KI-VO gelten, das Finanzinstitut als Nutzer. Als solcher unterläge es bestimmten Verpflichtungen, die in der Praxis des Finanzsektors a priori selten relevant sind. Insbesondere müsste es die betroffenen Personen informieren, wenn der KI-System personenbezogene Daten verarbeitet, um Emotionen oder Absichten zu erkennen oder um sie anhand biometrischer Merkmale zu klassifizieren (Art. 50 KI-VO).

2. Analyse von Bewerbungen für eine Stelle in der EU

Würde derselbe LLM von einem Schweizer Finanzinstitut zur Analyse von Bewerbungen für eine Stelle in einer Tochtergesellschaft in der EU verwendet, könnte ebenfalls die KI-VO zur Anwendung kommen (vgl. Hirsch, cdbf.ch/1384/). In diesem Fall könnte das KI-System jedoch als risikoreich eingestuft werden, da die Rekrutierung von natürlichen Personen unter Anhang III Abs. 4 Bst. a KI-VO fällt. Der Betreiber eines risikoreichen KI-Systems würde dann strengeren Verpflichtungen unterliegen. Er müsste insbesondere eine bestimmungsgemässe Verwendung gewährleisten, eine kompetente menschliche Aufsicht sicherstellen, die betroffenen Bewerber informieren, die Funktionsweise des KI-Systems überwachen, festgestellte Risiken unverzüglich melden und Nutzungsprotokolle führen (Art. 26 KI-VO).

Es ist zu beachten, dass die RIA nicht gelten würde, wenn sich der betreffende Arbeitsplatz in der Schweiz befände, selbst wenn der Bewerber in der EU wohnhaft wäre. Massgebend wäre weiterhin der Ort der Verwendung des Outputs (die Analyse der Bewerber), also der Sitz des Finanzinstituts.

3. Kredit-Scoring für Kunden mit Wohnsitz in der EU

Ein Schweizer Finanzinstitut verwendet ein Kredit-Scoring-Tool, das auf einem SIA basiert und von einem ebenfalls in der Schweiz ansässigen Fintech-Unternehmen entwickelt wurde, um die Bonität von Kunden mit Wohnsitz in der EU zu bewerten. Würde der Output (der Bonitätswert) in der EU zur Gewährung eines Kredits verwendet, könnte die VSB-Vorschrift anwendbar sein. Das Kredit-Scoring gehört zu den Bereichen mit hohem Risiko (Anhang III Abs. 5 Bst. b KI-VO). Eine Ausnahme ist für Systeme vorgesehen, die ausschliesslich zur Aufdeckung von Finanzbetrug bestimmt sind, was im vorliegenden Fall nicht zutrifft. In diesem Zusammenhang würde das Fintech-Unternehmen als Anbieter eines SIA mit hohem Risiko und das Finanzinstitut als Nutzer eines KI-Systems mit hohem Risiko betrachtet werden. Der Anbieter müsste insbesondere die Konformität des KI-Systems (technische Dokumentation, Qualitätsanforderungen, CE-Kennzeichnung, Registrierung) gewährleisten, die Rückverfolgbarkeit und Transparenz sicherstellen und diese Konformität den zuständigen Behörden auf Verlangen nachweisen können (Art. 16 KI-VO). Der Verwender wäre seinerseits ebenfalls strengeren Verpflichtungen unterworfen (vgl. Fall 2, Art. 26 KI-VO).

Fazit

Diese Fälle lassen darauf schließen, dass die Rolle des Einsatzers – häufig Schweizer Finanzinstitute – tendenziell nur mit begrenzten Pflichten verbunden ist, die in der gängigen Praxis des Finanzsektors a priori selten relevant sind. Wenn ein KI-System jedoch in einen der in Anhang III KI-VO aufgeführten Bereiche fällt, könnte es als risikoreich eingestuft werden, wodurch der Einsatz für strengere Pflichten unterliegen würde. Die Bereiche Beschäftigung (Anhang III Abs. 4 KI-VO) und wesentliche private Dienstleistungen (Anhang III Abs. 5 Bst. b und c KI-VO) erscheinen uns für Schweizer Finanzinstitute besonders relevant. Diese Bestimmungen werden ab dem 2. August 2026 vollständig anwendbar sein. Es erscheint daher angebracht, diesen Anwendungsfällen gezielte Aufmerksamkeit zu widmen, um die Konformität mit der KI-VO bis zu seinem Inkrafttreten sicherzustellen.