Intelligence artificielle et atteintes aux droits de tiers
Aménager l’effet relatif des clauses de garantie
Julien Levis
Une banque peut bénéficier de clauses de garantie stipulées dans les contrats-types de fournisseurs de systèmes d’IA. Ces clauses prévoient une indemnisation en cas de violation procédant du recours par de tels systèmes à des données d’entraînement protégées par des droits de propriété intellectuelle de ces droits. Le présent commentaire examine le champ de telles clauses, leurs conditions et l’éventuelle nécessité d’en étendre le bénéfice à des tiers au contrat initial.
La qualité des réponses fournies par les systèmes d’IA procède notamment du volume des données dédiées à leur entraînement. La collecte massive de ces données est susceptible de porter atteinte aux droits de tiers (droits de propriété intellectuelle, droits à la protection des données personnelles, enjeux éthiques, etc.).
L’action engagée aux États-Unis par le quotidien New York Times – contre la société Microsoft et plusieurs sociétés du groupe OpenAI – invoque ainsi la violation des droits de propriété intellectuelle du journal sur des articles utilisés pour l’entraînement de ChatGPT. Plus près de nous et cette fois-ci sous l’angle du droit de la concurrence, l’Autorité française de la concurrence dans une récente décision visant la société Google a prononcé à l’encontre de cette dernière une sanction pécuniaire de 250 millions d’euros. La collecte par cette société de données – ici en violation des droits d’éditeurs et d’agence de presse – afin d’entraîner son système d’IA Bard était en cause.
Les établissements bancaires examinant l’opportunité de recourir à des large language models (LLM) évaluent les écueils juridiques à prévenir. Parmi ceux-là figure la perspective de poursuites initiées par des tiers titulaires de droits sur les données traitées par un système d’IA (invoquant notamment le titre 5 de la LDA ou le chapitre 8 de la LPD). Les litiges évoqués supra – ainsi que certains accords passés en 2024 par des fournisseurs de LLM – illustrent en particulier la dynamique à l’œuvre en matière de droits de propriété intellectuelle. L’acuité du risque de contentieux invoquant ces droits semble avoir pu faire craindre aux fournisseurs de LLM qu’il ne freine l’adoption des systèmes d’IA par leurs clients. Des clauses de garantie sont en effet progressivement apparues dans leurs contrats-type, notamment le « Copyright Shield » (dans les contrats de la société OpenAI, cf. clause 3.b sous le lien) ou le « Customer Copyright Commitment » (de Microsoft présenté sous la définition de ce terme sous le lien). Ces clauses se concentrent sur les possibles violations de droit de propriété intellectuelle procédant de l’usage ou de la diffusion des données d’output.
Les fournisseurs de systèmes d’IA listent toutefois généralement une série de facteurs susceptibles de priver un client du bénéfice de la garantie. Ces exclusions visent notamment la présence – dans le prompt formulé par le client – de données elles-mêmes protégées, la connaissance qu’aurait dû avoir le client des droits grevant les données d’output, la violation d’autres droits de propriété intellectuelle (marque, droits voisins) ou encore le résultat de modifications apportées par le client aux données d’output. Ces fournisseurs énumèrent par ailleurs fréquemment des mesures techniques de mitigation des risques à défaut desquelles le client ne pourra prétendre au bénéfice de la garantie.
L’ampleur de ces exclusions laisse présager de la difficulté qu’il pourra y avoir à faire jouer ces clauses. À cette série d’obstacles s’ajouteront des défis procéduraux (liés notamment au flou dans la définition par certaines de ces clauses de la nature de la garantie consentie – le Customer Copyright Commitment fait ainsi référence à un droit d’être défendu par Microsoft dont on peut s’interroger sur les modalités de mise en œuvre) et de droit international privé (les contrats contenant ces clauses sont notamment généralement soumis à un droit et/ou à une compétence juridictionnelle étrangers).
Un autre facteur de complexité apparaîtra chaque fois que la banque contractera non avec le fournisseur initial du système d’IA mais avec un prestataire « intermédiaire » adaptant un tel système aux besoins spécifiques de l’activité bancaire. La banque sera alors un tiers au contrat stipulant la clause de garantie. Pour tenter néanmoins d’en bénéficier, elle devra obtenir de son contractant direct le transfert d’une partie des droits procédant pour ce dernier de la clause. Elle devra également se prémunir contre le risque que son prestataire n’actionne pas lui-même la garantie.
Les litiges et pratiques contractuelles observés aujourd’hui en matière de propriété intellectuelle sur les données traitées par les systèmes d’IA apparaissent comme la préfiguration de problématiques plus larges. D’autres droits – tels ceux portant sur les données personnelles ou encore des considérations éthiques – sont affectés par le traitement de données par des LLM. Ces enjeux ainsi que les limitations assortissant les clauses figurant actuellement dans les contrats-types des principaux fournisseurs conduiront vraisemblablement les banques à tenter d’obtenir des garanties plus complètes.
Un tel exercice est particulièrement délicat face aux grandes sociétés technologiques, peu enclines à amender leurs contrats-types. Par contraste, lorsque le système d’IA est acquis auprès de prestataires intermédiaires, les positions des parties à la négociation seront plus équilibrées. Ces prestataires intermédiaires pourront également adapter le système d’IA afin de mitiger certains risques. Pas moins, les banques pourront trouver avantage à négocier le transfert des garanties consenties par les fournisseurs de LLM à ces prestataires intermédiaires afin de cumuler les garanties offertes – tant par les fournisseurs de LLM que par les prestataires intermédiaires – ainsi que les actifs en constituant l’assiette.